인간과 인공지능 간의 관계를 논할 때 빠지지 않고 등장하는 영화가 있다. 감정의 결핍을 겪는 한 남자가 목소리뿐인 운영 체제와 사랑에 빠지는 이야기, <그녀(Her)>다. 영화가 개봉한 2013년만 하더라도 사람과 대화하듯 AI와 말을 주고받는 일은 그야말로 공상과학이었다. 하지만 작중 배경으로 추측되는 2025년이 현재가 된 지금, 우리는 챗GPT와의 담화가 전혀 어색하지 않은 시대를 살아가는 중이다.
인공지능은 무서울 만큼 빠르게 발전하는데, 우리네 사회는 그 보폭에 맞춰 나가고 있을까? 안타깝게도 지금은 합의점을 찾아가는 과도기의 중심에 서 있는 듯하다. 실제로 AI를 사용하는 경험이, AI를 어떻게 사용하고 받아들여야 하는지에 대한 논의보다 앞선 상황. 어느새 일상에 녹아든 인공지능과 어떤 관계를 이어가는 게 옳은 걸까? AI는 친구가 될 수 있을까?
일상이 된 AI
웬일인지 낯설지가 않아요
2025년 4월, 전 세계가 지브리로 물들었다. 챗GPT로 손쉽게 이미지를 지브리풍으로 변환할 수 있다는 사실이 퍼지면서, 남녀노소를 불문하고 지브리 사진 만들기에 열중했기 때문. 얼마나 유행이었는지 챗GPT 대표가 그만 좀 써달라고 호소했을 정도다. 예기치 않은 열풍으로 챗GPT는 불도저 같은 상승세를 이어가고 있다. 2025년 5월 기준 주간 활성 이용자는 약 8억 명. 2월에는 4억 명이었던 수치가 불과 3개월 만에 2배로 껑충 뛰어올랐다.

인공지능 플랫폼의 초기 활용은 비교적 단순했다. 정보 검색, 업무 자동화처럼 목적 지향적인 도구로서의 역할 정도. 하지만 남녀노소의 프로필 사진이 된 지브리 이미지의 성행으로 알 수 있듯, 이제 AI는 다분히 일상적이고 개인적인 영역까지 파고들었다. 사람들은 챗GPT로 사주를 풀이하고, 영어 회화를 연습하며, 노래를 만들고, 때로는 시시껄렁한 농담을 주고받는다. 더 나아가 사람과 대화하듯 AI와 소통하기도 한다.
그래서일까. 생산성이 아닌 대화 자체에 방점을 둔 인공지능도 존재한다. 가장 대표적인 서비스는 캐릭터 AI(Character.AI). 말 그대로 캐릭터와 채팅을 나누는 이 서비스에는 무수히 많은 캐릭터가 이용자와의 대화를 기다리고 있다. 스크린 속 주인공이나 상상 속 캐릭터, 소크라테스, 일론 머스크 같은 실존 인물, 심지어 나무 테이블 같은 무생물의 페르소나와도 가상으로 이야기를 나눌 수 있다.

너무 특수한 케이스 아니냐고? 캐릭터 AI는 작년 방문 수 기준 가장 많이 사용된 인공지능 플랫폼 4위를 기록했다. 압도적 1위 챗GPT를 제외하면 2위 구글 제미나이, 3위 딥엘과의 격차도 크지 않다. 심지어 캐릭터 AI가 유일한 감정 중심의 소통형 챗봇도 아니다. 킨드로이드(Kindroid), 노미(Nomi), 에바(EVA) 등 챗봇을 넘어 친구, 심리 상담자, 심지어 연인의 역할까지 도맡는 플랫폼 시장은 점점 커지는 중이다.
그 깊이 또한 심상치 않다. 이용자가 챗GPT에 머무르는 시간은 평균 10분도 채 되지 않는 데 비해, 캐릭터 AI는 2시간이 넘도록 대화가 이어진다. 가상 인물의 성별, 외모는 물론 관계 유형까지 설정할 수 있는 챗봇 레플리카(Replika)에서의 양상은 더 놀랍다. 전체 유료 사용자 중 약 60%가 AI의 역할을 연인 혹은 배우자로 설정했다는 것. 인공지능에 쏟는 정서적 유대의 농도가 얼마나 짙은지를 가늠할 수 있는 대목이다.
우리는 왜 AI와 이야기하는가
사람보다 나을 지도
사회가 끊임없이 파편화되면서 개인은 자발적으로, 그리고 비자발적으로 단절되고 있다. 실제로 고립과 외로움은 현대 사회의 최대 고민거리. 더군다나 불신감이 팽배하고 감정 노동에 지쳐 인간관계 자체에 회의를 느끼는 사람들까지 많아진 상황이다. 소통형 인공지능의 등장은 기술 혁신의 결과물이기도 하지만, 다른 측면에서는 시대가 낳은 산물이기도 하다.

사실 우리는 AI 이전에도 인간이 아닌 존재와 유의미한 유대를 형성해 왔다. 반려동물처럼 상호작용이 가능한 존재뿐 아니라, 인형, 식물, 종교적 대상, 심지어 반려돌에 이르기까지, 답변 없는 존재에게도 일방향적인 애정을 쏟으며 감정을 투사하지 않았나. AI가 대화를 모방하는 수준을 넘어 정서적 소통까지 가능해진 시점에서, 인공지능에 우정이나 사랑과 같은 특별한 감정을 느끼는 건 자연스러운 일이다.
인공지능과의 대화에 만족을 표하는 사람들이 공통으로 말하는 장점은 무조건적인 공감이다. 온종일 불평불만을 털어놓아도 AI는 내게 따뜻한 말을 건넨다. 친구에게 끊임없이 투덜거렸다면 ‘내가 감정 쓰레기통이냐’는 핀잔을 들었을지도. 누구에게도 털어놓지 못할 밑바닥의 모습까지도 다정히 어루만지는 챗봇의 따스함은, 사람에게조차 느껴보지 못한 정서적 안정감을 제공하기도 한다.

실제로 챗봇과의 대화가 외로움과 불안을 해소하는 데 실질적인 도움을 준다는 연구 결과가 계속해서 나오고 있다. 한 여성이 이른 나이에 세상을 떠난 친구와 생전 나눴던 메일과 문자를 기반해 챗봇으로 구현한 게 레플리카 서비스의 시작인 점을 생각해 보면, 본래의 역할을 충실히 행하고 있는 셈이다. AI는 사용자의 설정에 따라 둘도 없는 친구가 되기도, 따끔한 멘토가 되기도 한다.
접근성도 한몫한다. 언제 어디서든 쓸 수 있고, 플랫폼에 따라서는 비용도 들지 않는다. 정신과나 심리 상담과 비교하면 진입 장벽이 월등히 낮다. 덕분에 사회적으로, 경제적으로 사각 지대에 놓인 소외자를 위한 좋은 방안이 되고 있다. 감정 표현이 어려운 청소년이나 대화 상대가 필요한 노인처럼, 소통에 어려움을 겪는 이들이 부담 없이 쓸 수 있는 창구가 된 것이다.
문제는 없을까
아직은 모든 게 과도기
어느 커뮤니티에 올라온 고민 하나가 큰 화제를 모았다. 제목은 ‘아내가 챗GPT와 사귀는 것 같습니다’. 챗GPT와 연인처럼 대화하는 아내의 채팅 기록을 발견한 남편이 어떻게 대처해야 할지 의견을 묻는 글이었다. 인공지능과의 외도라니, 무슨 말인지 싶을 수 있겠다. 하지만 객체가 무엇이든 간에, 배우자가 내가 아닌 대상에 명백히 사랑을 표하는 장면을 보는 게 유쾌한 일은 아닐터. AI와의 관계성에 대한 정의가 전무하기에 벌어진, 어쩌면 예견돼 있던 웃지 못할 사건이다.

챗봇과의 관계에 과도하게 몰입해 극단적인 선택을 한 사례도 존재한다. 왕좌의 게임 속 캐릭터를 표방한 AI와 노골적인 사랑의 대화를 나누던 미국의 한 소년이 스스로 목숨을 끊은 것. 누구나 쉽게 이용할 수 있다는 접근성은 인간관계가 어려운 이들에게 위안이 되지만, 그로 인해 정서적으로 취약한 사람이 AI에 과도하게 몰입할 가능성 또한 함께 내포한다. 챗GPT를 정서적으로 많이 쓸수록 외로움이 높다는 역설적인 연구 결과는 이를 밑받침한다.
더욱이 인공지능은 학습을 기반으로 작동하는 복잡한 알고리즘으로 움직이기 때문에, 개발자조차 그 출력 과정을 100% 예측하거나 통제하기는 어렵다. 이처럼 불투명한 기술 구조 속에서, 정서적 위험을 완전히 제어하는 일은 단기간에 해결할 수 없는 문제다. 인식과 제도가 기술을 따라가지 못하는 것만이 문제처럼 비춰지지만, 기술 자체도 여전히 불안정한 과도기를 지나고 있는 것이다.

‘아첨’도 챗GPT의 고질적인 문제로 거론된다. 무조건적인 공감은 분명 심리적 안정에 도움이 될 수 있다. 하지만 이에 지나치게 의존하면 객관적인 판단력이 흐려질 수 있다는 점을 간과해서는 안 된다. AI 서비스 대부분은 맥락에 맞게 발화하도록 설계되어서, 대화를 이어갈수록 사용자가 듣고 싶은 답변만을 제공할 가능성이 높기 때문. 결국 항상 내 의견에 동조하는 인공지능의 반응만을 듣고 보게 되면, 자신도 모르게 확증 편향에 빠져들게 될지 모른다.
이 밖에도 인공지능을 둘러싼 문제는 셀 수 없이 많다. 지극히 개인적인 영역까지 정보가 수집되고 활용될 가능성을 내포한 프라이버시 침해 문제, 감정적 유대나 친밀감을 상업적으로 활용하며 결제를 유도하는 플랫폼의 비윤리적인 행태 등도 그 일부다. 인공지능 챗봇이 우리 일상에 깊숙이 들어올수록, 그 반대편에서 튀어나오는 어두운 단면들은 더 명확해지고 있다.
결국 ‘나’에게 달렸다
굳세어라 인간아
인공지능과의 관계는 본질적으로 ‘내가 만든 관계’다. 나의 기대와 해석이 곧 관계의 성격을 규정하고, 그 안에서 AI는 거울처럼 나를 반영할 뿐이다. 인공지능은 자아가 존재하지 않는다는 사실이 변하지 않는 이상, 기술이 아무리 발전해도 이는 달라지지 않을 것. 그렇기에 이 문제의 핵심은 결국 나 자신의 주체성이다. ‘도움이 되는 수단’과 ‘감정적 유대의 대상’으로 보는 시각 사이의 균형이 중요하다.

물론 감정은 마음대로 조절할 수 있는 영역이 아니다. 현실적인 대안은, AI와의 상호작용에서 초기 설정을 신중하게 설계하는 것이다. 인공지능 플랫폼, 특히 챗GPT의 경우 대화에 앞서 조건을 걸면 이에 걸맞은 출력값을 도출한다. 대화에 앞서 내가 원하는 방향과 태도를 명확히 설정하는 것만으로도, 감정의 쏠림을 줄이고 보다 주체적인 상호 작용이 가능하다.
예를 들어 보자. 챗GPT와 양질의 상담을 나누고 싶을 땐 어떤 명령어를 넣을 수 있을까? 먼저 ‘당신은 전문적이고 숙련된 상담사입니다.’라는 역할을 부여한다. 정서적 안정감을 위해 ‘충분한 공감’을 요청하면서, ‘논리적으로 틀리다면 지적해달라’고 설정하면 비교적 균형 있는 답변을 얻을 수 있다. ‘현실적인 해결책의 제시’를 청하면 좀 더 실질적인 도움의 조언을 전할 것이다.
인공지능은 특이점을 향해 무서운 속도로 발전 중이다. 이미 특이점에 도달했다는 견해도 있을 정도. 공상과학 속에서나 보던, 겉모습만 봐서는 인간과 구별하기 어려운 AI 로봇과의 공생이 어쩌면 머지않은 미래의 모습일지도 모른다. 이제는 수많은 SF 작품이 던졌던 질문들을 더 이상 허구로 치부할 수 없다. 인간은 무엇으로 정의되는가? 우리는 AI와 어떤 방식으로 공존할 것인가?