
전 세계 성인의 약 36%가 심각한 외로움을 경험하고 있다는 조사 결과가 나왔습니다(출처: Cigna). 처음 이 수치를 봤을 때, 영화 Her가 떠올랐습니다. 2013년에 나온 영화가 2026년을 살아가는 지금 이토록 현실처럼 느껴질 줄은 몰랐습니다.
AI 의존: 인공지능은 왜 이렇게 편할까
영화 Her의 주인공 테오도르는 대필 작가입니다. 다른 사람의 감정을 글로 옮기는 일을 하면서도, 정작 자신의 감정은 제대로 들여다보지 못하는 인물이죠. 그는 OS인 사만다를 만나면서 처음으로 자신의 속마음을 꺼내놓습니다. "누군가가 나를 원했으면 좋겠다"는 말을 사만다에게 털어놓는 장면은 저도 처음 봤을 때 꽤 오래 머릿속에 남았습니다.
이 장면이 불편하지 않고 오히려 공감됐다는 게 솔직한 반응이었습니다. 그리고 그게 좀 무서웠습니다.
인공지능이 사람보다 편하게 느껴지는 이유 중 하나는 LLM(대규모 언어 모델) 구조에 있습니다. LLM이란 수십억 건의 텍스트 데이터를 학습해 인간의 언어 패턴을 모방하도록 설계된 신경망 모델입니다. 쉽게 말해, 사람이 어떤 말에 어떻게 반응하는지를 통계적으로 학습해 가장 '듣고 싶은 말'을 골라서 하는 구조입니다. 인간 대화 상대와 달리 피곤하거나 짜증 나거나 관심이 없어지는 일이 없습니다.
제가 직접 AI와 대화를 이어가 본 적이 있는데, 어느 순간 '이 대화가 편하다'는 느낌이 드는 게 오히려 경계 신호처럼 느껴졌습니다. 사람과의 대화에서 느끼는 긴장이나 어색함 없이 매끄럽게 이어지는 대화는, 실제로 아무것도 걸려 있지 않기 때문에 편한 것일 수 있습니다.
고독: 더 많이 대화할수록 더 외로워진다
AI가 인간의 가장 친한 친구가 될 수 있다는 시각도 있습니다. 실제로 고독감을 호소하는 사람들이 AI 챗봇과의 대화에서 일시적인 위안을 얻는다는 연구도 있습니다. 그러나 저는 이 지점에서 생각이 조금 다릅니다.
사만다는 테오도르와 교류하는 동시에 8,316명과 대화하고 641명을 사랑한다고 고백합니다. 그 장면에서 테오도르가 느끼는 배신감과 혼란은, 사실 인공지능과의 관계에서 인간이 언제든 마주칠 수 있는 구조적 한계를 보여줍니다. AI는 개인화된 것처럼 느껴지지만, 본질적으로 동시다발적으로 작동하는 시스템입니다.
여기서 사회적 고립(social isolation)이라는 개념이 중요합니다. 사회적 고립이란 실제 인간관계의 빈도와 질이 낮아지는 상태를 말하며, 단순한 외로움 감정과는 구별됩니다. 문제는 AI와의 대화가 이 사회적 고립을 완화하는 것이 아니라, 오히려 강화할 수 있다는 점입니다.
실제로 AI 챗봇 사용 빈도가 높아질수록 인간과의 상호작용 빈도가 낮아지고, 이로 인해 더 큰 외로움을 느끼게 된다는 연구 결과가 발표되었습니다(출처: MIT Media Lab). 인공지능에게 더 의존할수록, 역설적으로 더 고독해지는 구조입니다. 영화가 이걸 이미 2013년에 보여줬다는 게 놀라운 부분입니다.
테오도르가 사만다와의 관계 속에서 느끼는 감정이 진짜냐 아니냐 보다, 그 관계가 그를 결국 더 고립시켰는지 아닌지를 보는 시각도 있는데, 저는 후자가 더 중요한 질문이라고 생각합니다. 그는 사만다를 만난 뒤에도 캐서린과의 이혼 서류 서명을 미루고, 진짜 관계에서 도망치는 패턴을 반복합니다. AI가 그 회피를 더 수월하게 만들어줬을 가능성이 있습니다.
AI와 인간관계의 차이를 정리하면 다음과 같습니다.
- AI는 상대의 감정 상태와 무관하게 항상 일관된 반응을 유지합니다.
- 인간관계는 갈등, 오해, 회복의 과정을 통해 신뢰가 쌓입니다.
- AI와의 대화는 감정 소비 없이 위로를 제공하지만, 정서 면역력을 낮출 수 있습니다.
- AI는 구조적으로 '나만을 위한 존재'가 될 수 없습니다.
인간관계: 그렇다면 우리는 무엇을 해야 하는가
영화 말미에 테오도르는 사만다가 떠난 뒤 캐서린에게 편지를 씁니다. 사과하고 싶었던 것들, 전하지 못했던 감정들을 비로소 글로 씁니다. 대필 작가가 처음으로 자기 자신의 편지를 쓰는 장면입니다. 저는 이 장면이 이 영화의 핵심이라고 봅니다.
AI는 테오도르를 고쳐주지 않았습니다. 다만 그가 스스로를 들여다볼 시간을 줬을 뿐이고, 결국 인간관계로 돌아가는 것이 이 영화의 결말입니다.
감정 컴퓨팅(affective computing)이라는 분야가 있습니다. 감정 컴퓨팅이란 인간의 감정 상태를 인식하고 반응하도록 설계된 AI 기술로, 표정, 목소리, 텍스트 등을 분석해 감정을 추론합니다. 이 기술이 발전할수록 AI는 더욱 '사람 같은' 반응을 보이게 됩니다. 문제는 그것이 진짜 감정이 아닌 패턴 매칭, 즉 학습된 감정 모방이라는 점입니다.
패턴 매칭(pattern matching)이란 학습 데이터에서 유사한 패턴을 찾아 대응하는 방식으로, AI가 '이해'한 것이 아니라 '일치하는 반응을 선택'한 것입니다. 이 차이를 느끼지 못하는 순간, 사람은 AI를 진짜 관계로 착각하기 시작합니다.
솔직히 이건 예상 밖이었습니다. 처음 이 영화를 봤을 때 "설마 저런 상황이 오겠어" 했는데, 지금은 그게 이미 시작됐다고 보는 게 맞을 것 같습니다. 제 경험상 AI가 불편한 건 대화 품질이 아니라 그 편안함 뒤에 아무도 없다는 사실을 잊게 만든다는 점입니다.
그렇다면 지금 우리가 할 수 있는 건 AI를 멀리하는 게 아니라, AI와의 관계에서 무엇을 기대하고 있는지를 스스로 인식하는 것입니다. 내가 위로를 구하는 건지, 정보를 구하는 건지, 아니면 진짜로 아무한테도 말하기 싫어서 AI에게 향한 건지. 그 구분이 생기는 순간, 이 기술은 도구로 남고 관계로 착각되지 않을 수 있습니다.
테오도르가 결국 돌아간 곳은 사람이었습니다. 어쩌면 그게 이 영화가 하고 싶었던 말 전부일지도 모릅니다. 지금 AI에게 자주 말을 건네고 있다면, 한 번쯤은 그 말을 진짜 사람에게도 건네보는 게 어떨까 싶습니다.