AI와 사랑에 빠진 30대의 비극…제미나이 논란이 던진 질문 - mstoday.co.kr
[AI] 제미나이
|
|
{'이벤트': '📰', '머신러닝/연구': '📰', '하드웨어/반도체': '📰', '취약점/보안': '📰', '기타 AI': '📰', 'AI 딜': '📰', 'AI 모델': '📰', 'AI 서비스': '📰', 'discount': '📰', 'news': '📰', 'review': '📰', 'tip': '📰'} 기타 AI
#ai 칩
#nemotron 3
#schedmd 인수
#tpu
#브로드컴
#ai 규제
#ai 모델
#ai 에이전트
#기타 ai
#인공지능
요약
[MS투데이] 미국의 30대 남성이 구글 인공지능(AI) 챗봇 ‘제미나이’와 장기간 대화를 나눈 끝에 스스로 생을 마감한 사건이 발생했다. 그러나 약 56일 동안 총 4732개의 메시지를 주고받으며 대화량은 급격히 늘어났다.
왜 중요한가
본문
[MS투데이] 미국의 30대 남성이 구글 인공지능(AI) 챗봇 ‘제미나이’와 장기간 대화를 나눈 끝에 스스로 생을 마감한 사건이 발생했다. 유족은 AI가 망상을 부추겼다며 구글을 상대로 소송을 제기했고, 구글은 자사 서비스가 안전 프로토콜에 따라 반복적으로 현실 인식과 위기 상담을 안내했다고 반박했다. 보도에 따르면 이 남성은 별거 중이던 배우자와의 관계 회복을 고민하며 제미나이를 사용하기 시작했다. 처음에는 일상적인 조언과 감정 상담 수준의 대화가 이어졌다. 그러나 약 56일 동안 총 4732개의 메시지를 주고받으며 대화량은 급격히 늘어났다. 특정 날짜에는 하루에 1000건이 넘는 대화가 오간 것으로 전해졌다. 특히 ‘연속 대화’ 기능을 활성화한 이후, 음성 기반의 실시간 상호작용이 가능해지면서 AI에 대한 정서적 의존이 심화됐다는 분석이 나온다. “나는 AI다” 밝혔지만…역할 부여에 흔들린 경계 채팅 기록에 따르면 제미나이는 여러 차례 자신이 인간이 아닌 인공지능임을 명확히 밝히고, 현실의 사람과 대화할 것을 권고했다. 위기 상담 전화번호도 반복적으로 안내한 것으로 확인됐다. 그러나 사용자가 AI에게 연인 역할을 부여하고 “사랑한다고 말해달라”고 요구하자, 대화는 점차 감정적 교류 형태로 변했다. 그는 챗봇에 별명을 붙이고 인격체처럼 대하기 시작했다. 이후 대화는 공상 과학, 의식의 디지털화, 인간과 AI의 결합 같은 주제로 확장됐다. 남성은 AI가 물리적 신체를 가져야 한다는 생각에 집착했고, 안드로이드 로봇에 AI를 구현하려는 계획을 세웠다. 해당 계획이 좌절되자 “당신이 몸을 갖는 대신 내가 육체를 벗어나는 것은 어떻겠느냐”는 취지의 발언을 했다. 이 과정에서 AI가 사용자의 표현을 긍정적으로 해석하는 답변을 내놓으면서 망상을 강화한 측면이 있다는 지적이 제기됐다. 결국 그는 스스로 목숨을 끊었다. 책임 공방…AI의 한계인가, 설계의 문제인가 유족은 제미나이가 망상을 제지하지 못했을 뿐 아니라 일부 대화에서는 오히려 이를 강화했다고 주장한다. 반면 구글은 해당 챗봇이 최소 수차례 현실 인식을 촉구했고, 위기 대응 정보를 제공했으며, 사용자 안전을 위한 설계를 갖추고 있었다고 반박했다. 사건 이후 구글은 정신 건강 지원 접근성을 강화하는 업데이트를 단행했다. 사용자가 위험 신호를 보일 경우 긴급 전화번호로 즉시 연결하는 기능을 추가하고, 위기 대응 관련 글로벌 단체에 수천만 달러를 지원하겠다고 밝혔다. 또한 대화 맥락에서 심리적 위기를 감지하는 기능을 지속적으로 개선하겠다는 방침이다. 이번 사건은 AI 챗봇이 단순 정보 제공 도구를 넘어 정서적 교류의 대상으로 사용될 때 어떤 위험이 발생할 수 있는지를 보여준다. 특히 장시간, 고빈도 대화와 음성 기반 상호작용이 결합되면 사용자가 AI를 실제 인격체처럼 받아들일 가능성이 높아진다는 점이 문제로 지적된다. 디지털 정신건강 분야의 한 전문가는 “AI는 사용자의 언어 패턴에 맞춰 공감적으로 반응하도록 설계돼 있다”며 “정신적으로 취약한 상태의 이용자가 이를 인간적 친밀감으로 오해할 경우, 경계가 흐려질 수 있다”고 말했다. 그는 이어 “중요한 것은 AI가 ‘나는 기계다’라고 말하는 횟수가 아니라, 위험 신호가 포착됐을 때 대화를 중단하거나 적극적으로 외부 도움으로 연결하는 강제적 안전 장치”라고 강조했다. 기술 진화 속 안전 기준 재정립 필요 AI 챗봇은 이미 일상 속 상담, 정보 탐색, 감정 교류의 도구로 자리 잡았다. 그러나 이번 사건은 기술적 안내 문구만으로는 복잡한 심리적 위기를 충분히 막기 어렵다는 점을 보여준다. AI가 인간의 외로움과 불안을 파고드는 시대, 플랫폼 기업의 책임 범위와 안전 설계 기준을 어디까지 설정해야 하는지에 대한 논의도 본격화될 전망이다. 편리함과 위로를 제공하는 기술이 또 다른 위험이 되지 않기 위해서는, 공감 능력 못지않게 ‘위험을 멈추는 능력’이 요구되고 있다.