[초점] AI 업계 vs 국방…美 전쟁부와 앤트로픽이 촉발한 AI 윤리 충돌 - 아이티데일리
[AI] ai ethics
|
|
🔬 연구
#ai 빅테크
#ai 윤리
#anthropic
#review
#미 국방부
#앤트로픽
#트럼프 행정부
원문 출처: [AI] ai ethics · Genesis Park에서 요약 및 분석
요약
미 국방부의 전쟁부(DIW) 신설과 AI 기업 앤트로픽과의 협력 논의를 계기로 기술 윤리와 국가 안보 사이의 갈등이 표면화되었습니다. 이로 인해 챗GPT와 같은 생성형 AI 기술이 군사 작전에 활용될 경우 발생할 수 있는 윤리적 딜레마와 오남용 우려가 제기되고 있습니다. 현재 AI 업계는 기술의 책임 있는 사용을 강조하며, 안보보다는 윤리적 가치를 우선하는 입장을 보이고 있어 향후 이해관계 조정이 불가피한 상황입니다.
본문
[아이티데일리] 미국 트럼프 행정부와 AI 빅테크 앤트로픽(Anthropic)의 갈등은 수면 아래 감춰졌던 문제가 불거지며 표면화된 사건이었다. 기업과 정부 입장이 동일 선상에서 움직이는 중국과 달리, 미국의 경우 AI 산업계와 정부의 긴장은 간헐적으로, 때로는 심각하게 돌출된다. 미국 정부는 군사·안보 분야에서 AI 활용을 확대하려는 움직임을 노골화하고 있다. AI 기업들의 윤리가 본격적으로 국방 부문과 충돌한 것이다. 앤트로픽은 AI 분야에서 모범적으로 윤리를 실천하는 기업으로 꼽혀 왔다. 전쟁부(국방부)와의 충돌에도 아랑곳하지 않고 종래의 태도를 고수하며 전쟁부와의 계약을 포기했다. 앤트로픽은 공식 블로그를 통해 자사의 AI 기술을 대규모 시민 감시나 완전 자동화된 무기 시스템에 사용하는 것을 허용하지 않겠다고 확언했다. 결국 전쟁부와의 계약은 오픈AI의 몫으로 돌아갔다. 트럼프 행정부는 즉각 보복(?)에 나섰다. 앤트로픽을 국가안보 공급망의 위험 대상으로 지정한 것이다. 정부의 블랙리스트에 올라가면서 앤트로픽은 연방 정부 모든 기관으로부터 배제될 위기에 처했다. 그러나 시장은 앤트로픽의 손을 들어 주었다. 태크크런치 등에 따르면 오픈AI가 전쟁부와 계약을 맺은 직후 150만 명 이상이 챗GPT 사용을 중단했다고 추정했다. 챗GPT 사용 중단을 촉구하는 보이콧 운동도 확산됐다. 포브스지는 지난 8일 기준, 앤트로픽 클로드 신규 이용자 수가 400만 명이나 급증했다고 전했다. 이로 인해 앤트로픽 서비스가 부분적으로 중단되는 사태까지 벌어졌다. 앤트로픽의 AI 모델 클로드는 최근 미국 앱스토어 무료 앱 다운로드 순위에서 챗GPT와 구글 제미나이를 제치고 1위를 기록하기도 했다. 시장 데이터 분석 전문 시밀러웹 보고서에 따르면 클로드 다운로드는 일주일 사이 55%나 증가했다. AI 이용자들의 AI 윤리에 대한 의식이 그대로 나타나는 대목이다. 그러나 앤트로픽의 결기는 오래 가지 못할 것으로 보인다. 앤트로픽은 법적으로 해결하겠다고 선언했지만, 현재의 흐름으로 보면 사실상 백기를 들었다. 이에 따라 자체 윤리 규정도 완화될 전망이다. 어쨌든 미국 정부, 오픈AI, 앤트로픽을 중심으로 벌어진 일련의 사태는 자율형으로 진행하고 있는 AI 기술이 국가안보와 결합할 때 발생할 윤리적 충돌을 단적으로 보여주는 사례라 할 수 있다. 미국 정부는 최근 몇 년 동안 군사·정보 분야에서 AI 기술 도입을 적극 추진해 왔다. 방대한 데이터 분석, 사이버 보안, 전장 상황 판단, 정보 분석 등 다양한 영역에서 AI 활용 가능성이 커지고 있기 때문이다. 물론 이는 미국뿐 아니라 중국, 러시아, 우크라이나, 이스라엘 등 지정학적으로 안정적이지 않은 나라들도 마찬가지다. 이미 자율주행 장갑차, AI 드론 등이 상용화 단계에 접어들었다. 이번 계약으로 오픈AI는 전쟁부에 자사 AI 모델을 제공한다. 회사 측은 AI가 미국인에 대한 감시나 국내 정보 수집에 사용되지 않을 것이라고 강조했다. 그러나 군사적 활용은 피할 수 없다는 점에서 우려가 높아진다. 이란 폭격 등 군사적 충돌이 빈발하고 있기 때문이다. AI 기술이 무기 체계나 군사 작전에 활용될 경우, 기술 기업이 사실상 방위산업의 일부가 될 수 있다는 점이 핵심 우려다. 특히 AI가 자동화된 무기 체계나 대규모 감시 시스템에 활용될 가능성도 있다. 이는 AI를 둘러싼 윤리 문제의 중심이다. AI 기술의 국방 분야 활용은 기술 기업 전반의 논쟁으로 번지고 있다. 마이크로소프트 등 일부 기업은 전쟁부의 앤트로픽 배제 결정에도 불구하고 특정 군사 기관을 제외한 고객에게는 앤트로픽 기술을 계속 제공할 수 있다는 입장을 밝혔다. 앤트로픽의 후퇴로 정부도 강경한 태도에서 벗어날 전망이다. 가디언 보도에 따르면 오픈AI와 전쟁부 계약 후 오픈AI 및 구글 직원 다수가 군사 감시 또는 자율 무기 시스템에 AI 기술이 사용되는 것을 반대한다는 공개서한에 서명했다. 비즈니스 인사이더도 오픈AI 내부에서 전쟁부와의 계약 이후 우려가 표면화되고 있다고 전했다. AI 거버넌스 문제도 급부상하고 있다. AI 기술이 단순한 소프트웨어 도구를 넘어 사회 인프라로 확장되면서, 기업의 윤리 기준과 국가 안보 정책이 충돌할 가능성이 커지고 있다는 것이다. 기업이 국방을 비롯한 정부 프로젝트에 어디까지 참여해야 하는지에 대한 명확한 기준은 아직 마련되지 않은 상태다. 미국과 중국 간 기술 패권 경쟁이 심화되는 가운데, AI 기업들은 정부와 협력해야 한다는 압박과 동시에 기술 윤리를 지켜야 한다는 책임 사이에서 갈등하고 선택해야 하는 상황에 놓였다. 자율적으로 판단하고 전쟁까지 결정하는 ‘전투 AI 에이전트’가 출현하고 에이전트간 협업(A2A)이 이뤄지는 상황이 된다면 ‘영화 터미네이터 시리즈가 현실에서는 등장하지 않을 것’이라고 과연 장담할 수 있을까.
Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.
공유