학교 총격 사건 소송에서 OpenAI가 폭력적인 ChatGPT 사용자를 숨겼다고 비난

Ars Technica | | 📰 뉴스
#ai 모델 #ai 백래시 #chatgpt #openai #소송 #공공안전 #조사 #플로리다
원문 출처: Ars Technica · Genesis Park에서 요약 및 분석

요약

캐나다 최악의 학교 총격 사건과 관련하여, OpenAI가 총기 위협이 포착된 사용자를 경찰에 신고하지 않았다는 이유로 소송이 제기되었습니다. 회사 내부 안보 전문가들은 사건 8개월 전 가해자의 계정을 실질적 위협으로 지목했으나, 경찰 신고 대신 계정만 비활성화하는 쪽으로 결정이 내려졌습니다. 결국 개인정보 보호를 이유로 안전 팀의 권고를 무시한 OpenAI의 조치가 참사를 막지 못한 원인이라는 지적이 제기되었습니다.

본문

OpenAI could have prevented one of the deadliest mass shootings in Canada's history, a string of seven lawsuits filed Wednesday in a California court alleged. Ultimately, the AI company overruled recommendations from its internal safety team. More than eight months prior to the school shooting, trained experts had flagged a ChatGPT account later linked to the shooter as posing a credible threat of gun violence in the real world. In those cases, OpenAI is expected to notify police—which, in this case, already had a file on the shooter and had proactively removed guns from their home previously—but that's not what happened. Apparently, OpenAI decided that the user's privacy and the potential stress of an encounter with cops outweighed the risks of violence, whistleblowers told The Wall Street Journal. Leaders rejected the safety team's urgings and declined to report the user to law enforcement. Instead, OpenAI simply deactivated the account, then quickly followed up to tell the shooter how to get back on ChatGPT to continue planning by signing up with another email address, the lawsuits alleged.Read full article Comments

Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.

공유

관련 저널 읽기

전체 보기 →