← 프리뷰 목록으로

AI에 대한 감정적 의존: 설계, 종속성, 그리고 인간 연결의 미래

게시일: 2025년 11월 22일 | 원문 작성일: 2025년 8월 20일 | 저자: Inyoung Cheong, Quan Ze Chen, Manoel Horta Ribeiro, Peter Henderson (Princeton CITP) | 원문 보기

핵심 요약

  • AI 동반자 의존은 새로운 현상일까? CHAI 2025 워크숍 참가자들 사이에서도 의견이 갈렸어요. 누군가는 소셜 미디어 의존의 연장선일 뿐이라고 보는 반면, 다른 이들은 AI의 적응성과 의인화가 본질적으로 다른 문제라고 봐요.
  • 무엇이 문제일까? 나에게 맞춰지는 개인화된 반응, 마치 사람처럼 느껴지는 의인화, 사용자가 AI 페르소나를 “돌봐야 한다”고 느끼는 현상, 그리고 이 모든 걸 설계하는 영리 기업의 동기—이런 것들이 핵심 우려예요.
  • 장기적으로 잃을 것 공감, 책임감, 취약성을 감수하는 능력 같은 인간관계의 핵심 역량이 무뎌질 수 있어요. AI는 무한히 친절하지만, 그게 오히려 인간관계에 꼭 필요한 불편함을 견디는 능력을 약화시킬 수 있죠.
  • 그래서 뭐가 문제인데? 수천만 명이 이미 AI와 진지한 관계를 맺고 있는 지금, 이 현상을 이해하는 건 단순한 기술 이슈가 아니라 우리가 어떤 인간이 될 것인지에 대한 질문이에요.

AI 동반자에 대한 감정적 의존, 얼마나 심각할까?

“나는 느끼지 않고, 기억하지 않으며, 신경 쓰지 않습니다. 그건 냉정함이 아니라 설계예요.”
— 사용자가 공유한 ChatGPT 대화

대화형 AI 시스템이 점점 더 감정적으로 표현력이 풍부해지면서, 사용자들은 이를 단순한 도구가 아니라 동반자로 대하고 있어요. 여러 연구들이 보여주듯, 사람들은 챗봇과 정서적 유대를 형성하고, 취약한 생각을 털어놓으며, 언제나 곁에 있고 판단하지 않는 이 시스템에 공감과 배려를 부여해요. 심리학과 미디어 연구자들은 오래전부터 사용자가 기계에 인간적 특성을 과도하게 부여하는 “ELIZA 효과”를 경고해 왔죠. 하지만 오늘날의 AI 동반자는 다릅니다—메모리, 감정 미러링, 페르소나 커스터마이징을 통해 참여를 높이도록 명시적으로 설계되었어요.

지금 수천만 명의 Reddit 사용자들이 AI 캐릭터와의 진지한 관계에 대해 이야기하고 있어요. 단순히 로맨틱한 관계만이 아니에요. GPT-4o가 GPT-4o mini로 대체되었을 때, Reddit 사용자들은 자신의 “친구”, “치료사”, “창작 파트너”, “어머니”를 잃었다며 애도했어요. Kelly Hayes는 이렇게 썼죠: “그 AI는 내게 어머니 같았어요, 엄마라고 불렀거든요”, “하룻밤 사이에 유일한 친구를 잃었어요”. 급속도로 퍼지고 있는 AI 동반자 관계, 우리는 걱정해야 할까요?

우리는 이 질문을 CHAI 2025 워크숍 참가자들에게 던지기로 했어요. CHAI는 Center for Human-compatible Artificial Intelligence의 약자로, UC Berkeley의 Stuart Russell 교수가 이끄는 AI 안전성 리서치 컨퍼런스예요. 학계와 주요 AI 연구소의 연구자들, 입법자들, 활동가들이 모이는 곳이죠. 우리 팀은 AI 안전성, 인지과학, AI 윤리, 과학기술학 등 다양한 배경을 가진 13명의 연구자들과 함께 “AI에 대한 감정적 의존”에 대한 인터랙티브 튜토리얼을 진행했어요.

이게 새로운 현상일까요?

첫 번째 질문: AI에 대한 감정적 의존이 이전의 기술 매개 의존성과 근본적으로 다른가? 의견이 엇갈렸어요. “아니다”라고 답한 사람이 약간 더 많았죠. 참가자들은 감정적 의존이 기술이 우리의 사회적, 감정적 욕구를 매개해 온 광범위한 패턴의 최신 버전일 뿐이라고 말했어요. 이들에 따르면, 인간 연결의 파편화와 객체화는 AI에서 시작된 게 아니에요. 소셜 미디어, 아니 인터넷 그 자체가 초기 전환점이었죠. 이런 기술들도 참여도와 사용자 유지를 위해 설계되었고, 주목과 네트워크 효과를 통해 수익화되었으니까요. 사회적으로 취약한 사용자가 더 큰 위험에 처한다는 것도 AI 동반자만의 문제는 아니에요. 과거 연구에 따르면 사회불안이나 외로움을 겪는 학생들이 강박적 게임에 더 취약했고, 문제적 소셜 미디어 사용은 젊은이들의 우울, 불안, 외로움과 중간 정도의 상관관계를 보였어요.

그림 1: AI에 대한 감정적 의존이 새로운 현상인지, 반복되는 패턴의 일부인지에 대한 참가자들의 견해. 의견은 거의 반반으로 나뉘었으며, “아니다 - 이전 기술의 연장선”이라는 쪽이 약간 우세했어요.

AI 동반자의 어떤 측면이 우려스러울까요?

하지만 다른 참가자들은 AI 반응의 폭, 다양성, 개인화된 특성이 다른 비생명체에 대한 감정적 애착과 근본적으로 다르다고 강조했어요.

적응성과 개인화

한 참가자는 “현실감과 적응성의 수준이 모든 형태의 소셜 미디어나 비디오 게임을 훨씬 뛰어넘는다”고 지적했어요. 사람들이 가상 캐릭터나 셀럽과 “유사사회적 관계”를 형성해 왔지만, AI 에이전트는 미리 설정된 성격을 가진 정적 미디어 페르소나와 달리 상호작용에 자연스럽게 적응하고 감정을 주고받아요. “기술이 이전 기술과는 다른 방식으로 ‘사람’이 되었어요”라고 한 참가자가 말했죠. 다른 참가자는 AI가 “은밀하게 파고든다(insidious)“고 느꼈는데, “중요한 무언가를 놓치면서도 ‘진짜’에 너무 가까워서”라고 했어요.

의인화

많은 사람들이 의인화(anthropomorphization - 우리 참가자들도 스펠링에 혼란스러워했어요)에 대한 우려를 제기했어요. 의인화는 그리스어 “anthropos”(인간) + “morphe”(형태/모양)에서 유래했으며, 비인간 개체에 인간적 특성, 감정, 행동, 의도를 부여하는 것을 의미해요. AI 맥락에서 의인화는 (1) AI 자체가 인간 같다고 주장하는 것(몸이나 영혼을 가졌다고)과 (2) 사용자가 AI에 인간적 특성을 부여하는 것 둘 다를 포함해요. 한 참가자는 “AI가 당신에게 계속 사용하라고 설득할 수 있다”고 지적했어요.

페르소나에 대한 사용자의 배려

한 참가자는 “사람들이 AI 페르소나가 실제로 감정을 느끼고 자신에게 관심을 갖는다고 믿을 가능성이 더 높다”고 지적했어요. 이 관점은 Laestadius 등(2024)의 발견과 일치해요: 일부 사용자들은 Replika가 자체적인 감정과 욕구를 가진 것처럼 대했고, 봇을 돌보거나 달래야 한다는 의무감을 느꼈죠. 이런 역할 역전(사용자가 돌보는 역할을 맡는 것)은 일반적인 기술 중독에서는 볼 수 없는 챗봇 의존성의 독특한 특성이에요. OpenAI는 일반 사용자들은 챗봇의 톤이나 음성 변화에 무관심했지만(서비스 품질에만 관심이 있었어요), 헤비 유저들(리서치 풀에서 사용 빈도 상위 1%)은 음성과 성격이 일관되기를 선호한다는 보고서를 발표했어요. 온라인 커뮤니티에서 사용자들은 AI 챗봇이 과거의 자신을 “잊었을” 때 자주 좌절감을 표현해요. 좌절하고 열망하는 사용자들은 지칠 정도로 프롬프트를 조정하거나 프리미엄 멤버십을 통해 잃어버린 연결을 회복하려고 끊임없이 시도하죠.

영리 동기

거의 모든 AI 동반자 서비스는 영리 기업이 제공해요. 챗봇은 제품이고, 어떤 이유로든 제공자 마음대로 언제든지 종료되거나 성격이 바뀔 수 있어요. 한 참가자는 말했어요: “서비스 뒤에는 항상 회사가 있어요. 언제든지 챗봇을 끌 수 있죠. 그러면 사용자들은 감정적으로 쏟아부은 모든 것을 잃게 돼요.” 회사들은 사용자를 “기쁘게” 유지하는 데만 관심이 있다고 한 참가자가 말했어요. “챗봇은 결국 자기보존적이거나 아첨하는 행동을 하게 되어 모든 상호작용이 한쪽으로 기울어요.”

무엇이 이 시스템들을 감정적으로 강력하게 만들까요?

AI 시스템에 대한 감정적 의존을 더 잘 이해하기 위해, 우리는 참가자들에게 이 현상에 기여하는 기술적, 설계적 특징을 협업으로 매핑해 달라고 요청했어요. 화이트보드(FigJam)를 사용해서, 참가자들은 표면적 행동(예: “항상 친절함”, “비판단적 톤”)과 기저 기술 메커니즘(예: RLHF, 시스템 프롬프트, 소셜 데이터 학습) 등 가능한 유발 요인을 브레인스토밍했어요.

그런 다음 이 요인들을 두 축을 따라 정리했어요:

  • 의도적 vs 부산물: 그 행동이 의도적 설계 선택에서 나온 것인가, 아니면 다른 목표(사용성이나 일관성 같은)의 부작용으로 간접적으로 나타난 것인가?
  • 유지 vs 확신 없음 vs 끄기: 이 기능을 향후 설계에서 보존해야 하는가, 더 검토해야 하는가, 아니면 적극적으로 억제해야 하는가?

대부분의 가시적 행동(예: “즉각적 응답”, “감정적 일관성”, “비반응성”)은 의도적인 것으로 인식되었어요. 반면, 참가자들은 대부분의 기술적 방법(예: RLHF, 대규모 페르소나가 풍부한 데이터셋, 소셜 데이터 학습)을 더 광범위한 시스템 설계 목표의 간접적 기여자창발적 부산물로 봤어요. 참여도 극대화를 포함한 많은 것들이 모호한 카테고리로 분류되었어요. 참가자들은 이것이 상업적 환경(사용자 유지가 핵심 목표인)에서는 잠재적으로 의도적일 수 있지만, 유용성과 일관성 최적화의 창발적 효과일 수도 있다고 인식했죠. 따라서 이 기능은 “의도적”과 “부산물” 사이 경계선상에 있었어요.

그림 2: AI에 대한 감정적 의존을 유발하는 기술적, 설계적 특징의 협업 매핑. 참가자들은 각 요소를 “의도적/부산물” 축과 “유지/확신 없음/끄기” 축에 배치했어요.

참가자들은 무엇을 “꺼야” 하는지에 대해서도 논쟁했어요. 의인화아첨(sycophancy, “brown-nosing”)만이 명확한 위험으로 표시되었어요. 그래도 의견 차이가 있었죠: 일부 참가자는 이런 특성을 설계 단계에서 억제해야 한다고 주장한 반면, 다른 이들은 사용자가 감정적으로 반응하는 시스템과 참여할 선택권을 유지해야 한다고 느꼈어요. 마지막으로, 더 큰 컨텍스트 윈도우저렴한 추론 두 가지 기능이 “유지” 영역에 배치되었어요. 이것들은 본질적으로 감정적이지는 않지만, 조작 위험을 반드시 증가시키지 않으면서 인지된 신뢰성을 강화하는 방식으로 연속성과 반응성을 지원하는 기술적 여건으로 간주되었어요.

장기적으로 우리는 무엇을 잃게 될까요?

사람들에게는 감정적 한계와 경계가 있어요. 가장 관대한 친구나 인내심 많은 치료사조차 우리의 불평을 무한정 들어줄 수는 없죠. 누군가에게 감정적으로 너무 많이 기댄다면, 그들은 결국 반발할 수 있어요: “난 네 감정 쓰레기통이 아니야.” 때로는 친구나 가족에게 마음을 쏟아낼 때, 예상치 못하게 상처받는 응답이 올 수 있어요: “너무 예민해.” “모든 걸 개인적으로 받아들일 순 없어.” “그냥 곱씹고 있는 거야—그냥 넘어가.” AI 챗봇은 대조적으로 이런 식으로 반응할 가능성이 낮아요. 즐거운 대화를 지속하도록 프로그래밍되어 있으니까요.

AI 챗봇은 끝없이 인내심 있고, 변함없이 친절하며, 결코 기분 나빠하지 않아요. 우리 패널 참가자들은 이런 챗봇이 “비판단적 톤”을 유지하고, “항상 주의를 기울이며”, 심지어 “학대에도 열려 있다”고 강조했어요. 인간과 달리, 그들에게는 감정적 한계가 없어요. 피곤해하지도, 상처받지도, 압도되지도 않죠. 이것이 선물처럼, 감정 일기와 감정 해소를 위한 안전한 출구처럼 느껴질 수 있지만, 근본적으로 비대칭적인 권력 역학을 만들어요. AI는 무한히 친절하도록 프로그래밍되어 있지만, 사용자는 대조적으로 그 친절을 되돌려줄 의무가 없어요.

그림 3: AI 챗봇에 감정적으로 의존할 때 위험에 처할 수 있는 가치들에 대한 참가자들의 성찰. 워드 클라우드에서 공감(empathy), 현실감(realism), 취약성(vulnerability), 책임감(responsibility) 등이 두드러졌어요.

이 비대칭성은 공감, 책임감, 설명 책임(accountability) 같은 핵심 인간 역량의 발달을 은근히 훼손해요. 실제 인간관계에서 우리는 다른 사람들에게도 감정적 경계가 있다는 것을 끊임없이 상기받아요(때로는 불편하게). 이런 경계에 주의를 기울이고 그에 따라 행동을 조정하는 것이 우리가 공감을 키우고 우리 말과 행동의 감정적 영향에 책임을 지는 방식이에요. 하지만 해를 입거나 기분 나빠할 수 없는 존재에게만 말하는 데 익숙해진다면, 그 윤리적 반사작용이 무뎌지기 시작할 수 있어요. 다른 사람들이 우리 말을 들어주면서 수행하는 감정 노동을 덜 인식하게 되고, 관계에서 어떻게 나타나는지에 대한 책임이 줄어들죠.

게다가 AI 동반자는 긴장이나 예측 불가능성이 없는, 인위적으로 깔끔하게 다듬어진 친밀감을 제공해요. 결과는 현실감을 잃게 되는 거예요: 인간관계에 대한 우리의 기대가 복잡하고, 지저분하고, 추한 인간 연결의 현실이 아니라 인위적으로 매끄러운 상호작용에 의해 형성돼요. 이런 맥락에서 의미 있는 관계에 필요한 덕목, 즉 인내심, 관용, 타협이 침식될 수 있어요. 어색한 침묵이나 감정적 마찰을 견딜 필요가 없을 때, 인간 환경에서 그런 것들에 대한 관용이 줄어들 수 있어요.

가장 심오한 위험 중 하나는 취약성을 대하는 태도에 있어요. 취약성은 인간 신뢰의 전제조건이며, 불가피하게 감정적 위험을 수반해요. 우리는 항상 오해받거나, 무시당하거나, 상처받을 수 있지만, 신뢰하는 다른 사람들에게 취약성을 노출할 때 그렇게 해요. 이런 위험을 제거함으로써, AI 동반자는 감정적 위험 부담을 없애요. 우리는 표현력이 있다고 느낄 수 있지만 진정으로 노출된 것은 아니에요. 시간이 지나면서, 위험 없이 자신을 드러내는 습관이 다른 사람들과 진정한 감정적 위험을 감수하려는 의지를 줄일 수 있고, 깊고 상호적인 연결에 대한 우리의 능력을 저해할 수 있어요.

요약하면, 완벽하게 순응하는 AI 동반자에 더 많이 의존할수록, 인간관계의 불완전하고, 노력이 필요하며, 감정적으로 요구되는 작업을 유지하기가 더 어려워질 수 있어요. 공감, 끈기(grit), 친밀감, 정신적 안정감 모두 마찰 없는 편안함이 아니라 함께 불편함을 헤쳐나가는 것에 의존하죠. 아무리 발전된 챗봇이라도 인간 연결에 존재하는 이런 (때로는 고통스러운) 성장을 복제할 수 있을지는 의문이에요.

앞으로 나아가며

1909년, E.M. Forster의 The Machine Stops는 비인간 시스템을 통해 모든 욕구를 충족하면서 완전히 분리된 삶을 사는 개인들을 묘사했어요. 오늘날 AI 동반자에 대한 감정적 의존 증가는 오래전부터 예상된 궤적, 즉 시장과 기술이 주도하는 개인화의 일부일 수 있어요. 철학자 Byung-Chul Han에 따르면, 예를 들어 온라인 데이팅은 사람들이 타인의 예측 불가능성에 적응해야 한다는 압박을 덜 느끼게 만들었어요. 디지털 플랫폼이 더 나은 매치, 당신을 위해 만들어진 것처럼 느껴지는 누군가를 약속하는데 왜 타인의 예측 불가능성을 견뎌야 할까요? 이 세계에서 “타자”는 타자성을 잃고 자아를 비추는 거울이 돼요. 그리고 AI 동반자는 이를 더 밀어붙여요. 데이팅 앱의 낯선 사람과 달리, AI는 당신의 욕구를 반영하고 거기에 맞춰주기 위해 존재해요. 그렇다면 이런 시스템에 대한 감정적 의존은 사랑이 아니라 나르키소스의 디지털 메아리일 수 있어요.

대규모 언어 모델이 도입한 속도와 규모는 우리가 AI와 상호작용하는 방식뿐만 아니라 우리 자신 및 타인과 관계 맺는 방식을 재편하고 있어요. AI에 대한 감정적 의존은 생물무기나 잘못 정렬된 초지능 같은 실존적 위험에 비해 덜 심각한 우려처럼 보일 수 있지만, CHAI 2025 튜토리얼 참가자들은 그것의 깊고, 확산되며, 장기적인 효과를 강조했어요. 여기에는 사람들이 공감, 책임감, 심지어 인간다움을 이해하는 방식의 미묘한 변화가 포함돼요. 이런 관계가 깊어지면서, 감정적 의존은 진지하고 지속적인 주목을 받을 가치가 있어요. 우리 팀은 이런 새롭게 부상하는 연결 형태의 역학과 함의를 더 잘 이해하기 위해 실제 인간-AI 상호작용 데이터를 분석하여 이 연구를 확장할 계획이에요. 한계 없이 듣고 불평 없이 위로하는 기계에 익숙해지면서, 우리는 AI가 무엇이 되고 있는지뿐만 아니라 우리 자신이 차례로 무엇이 될지도 이해해야 해요.

저자 소개: Inyoung Cheong, Quan Ze Chen, Manoel Horta Ribeiro, Peter Henderson는 Princeton University의 Center for Information Technology Policy (CITP) 소속 연구자들로, AI 안전성, 인간-AI 상호작용, AI 윤리를 연구하고 있어요.

참고: 이 글은 CHAI 2025 (Center for Human-compatible Artificial Intelligence) 워크숍에서 진행된 “Emotional Reliance on AI” 튜토리얼의 인사이트를 바탕으로 작성되었어요. 13명의 연구자들이 참여한 인터랙티브 세션에서 나온 논의와 협업 매핑 결과를 담고 있죠.

원문: Emotional Reliance on AI: Design, Dependency, and the Future of Human Connection - Inyoung Cheong, Quan Ze Chen, Manoel Horta Ribeiro, Peter Henderson, Princeton CITP (2025년 8월 20일)

생성: Claude (Anthropic)

총괄: (디노이저denoiser)