앤트로픽 vs 美 국방부, AI 윤리 시험대에 선 빅테크 - 더에이아이
[AI] ai supply chain risk
|
|
🔬 연구
#ai 윤리
#review
#공급망 위험
#미 국방부
#빅테크
#앤트로픽
원문 출처: [AI] ai supply chain risk · Genesis Park에서 요약 및 분석
요약
미국 국방부와 에이드핀(Anthropic) 간의 갈등이 인공지능 윤리 문제 시험대에 오른 주요 AI 기업들의 위상을 드러냅니다. 이는 대형 빅테크 기업들이 정부와의 협업 과정에서 직면하는 AI 윤리적 검증의 복잡성과 책
본문
미 국방부, 앤트로픽에 AI 활용 ‘전면 허용’ 요구 구글·오픈AI는 원칙 수정 후 군 협력 확대한 바 있어 공급망 위험 지정 검토에 산업 전반 파장 우려 미국 국방부가 앤트로픽을 ‘공급망 위험(Supply Chain Risk) 업체’로 지정하는 방안을 검토하면서, AI 업계의 오랜 화두가 다시 수면 위로 떠올랐다. 기업이 스스로 세운 AI 윤리 원칙은 국가 권력과 시장의 압력 앞에서도 지켜질 수 있는가에 대한 물음이다. 이번 사태는 경쟁사들이 잇달아 원칙을 거둬들이는 흐름 속에 이 질문에 대한 업계 전반의 답이 어느 방향으로 기울고 있는지를 보여주는 단적인 사례로 남았다. ◇ 경쟁사는 이미 수용... 앤트로픽만 저항 중 2025년 7월, 미 국방부는 앤트로픽·오픈AI·구글·xAI 네 곳과 각각 최대 2억 달러(약 2900억 원) 규모의 AI 계약을 체결했다. 불과 반년 만에 이 협력 관계에 균열이 생겼다. 갈등의 핵심은 명확하다. 국방부는 모든 합법적 용도에 제한 없이 AI 모델을 활용하길 원하는 반면, 앤트로픽은 자국민 대상 대규모 감시나 인간의 판단 없이 작동하는 완전 자율 살상무기에는 자사 기술을 제공하기 어렵다는 입장을 고수하고 있다. 에밀 마이클 국방부 연구·공학 담당 차관은 플로리다에서 열린 AI 서밋 연설에서 “만약 특정 기업이 이를 수용하지 않으려 한다면, 그것은 우리에게 문제가 된다. 긴급 상황이 발생했을 때 갑자기 모델 사용이 제한된다면 치명적일 수 있다”고 밝힌 바 있다. 지난 2024년 1월, 오픈AI는 이용약관에서 군사·전쟁 목적의 모델 사용 금지 조항을 삭제했고, 2024년 12월에는 AI 드론 방어 기술 기업 앤듀릴(Anduril)과 파트너십을 체결했다. 2025년 2월, 구글은 2018년부터 유지하던 ‘무기와 감시에 AI를 쓰지 않겠다’는 원칙을 AI 가이드라인에서 공식 삭제했다. 미국 국방부의 AI 플랫폼인 ‘GenAI.mil’에는 제미나이, 그록, 챗GPT가 탑재돼 군인·민간인·계약업체를 포함한 약 300만 명의 국방부 인원이 접근할 수 있다. 클로드는 이 플랫폼에 없다. 앤트로픽 측은 협상이 진행 중임을 확인하며 “우리는 현재 미 국방부와 진지하게, 선의를 갖고 생산적인 대화를 이어가고 있다. 이 복잡한 새로운 문제들을 올바르게 풀어나가기 위해서다”고 밝혔다. ◇ ‘공급망 위험 지정’이라는 초강수의 의미 공급망 위험 지정은 통상 화웨이·ZTE 같은 적대국 기업을 겨냥하는 도구다. 이 조치가 발동되면 미 국방부와 거래하는 모든 계약·공급업체는 해당 기업의 기술을 사용하지 않는다는 사실을 공식 인증해야 한다. 숀 파넬 국방부 대변인은 “우리 국가는 파트너들이 어떤 전투에서든 우리 전투원이 이길 수 있도록 기꺼이 돕는 기업을 필요로 한다”고 언급했다. 파급 효과는 실질적이다. 앤트로픽은 포천 500 상위 10대 기업 중 8곳이 클로드를 활용하고 있다고 공개적으로 밝혔다. 이 기업들 중 다수가 국방부와 직간접 계약 관계에 있을 경우, 공급망 위험 지정은 민간 영역에도 연쇄 충격을 줄 수 있다는 분석이 나온다. 역설적인 지점도 있다. 클로드는 현재 미군 기밀 시스템에서 가동 중인 유일한 AI 모델이다. 팔란티어와의 파트너십을 통해 기밀 네트워크에 탑재됐으며, WSJ 등 보도에 따르면, 익명의 소식통들은 2026년 1월 니콜라스 마두로 베네수엘라 대통령 체포 작전 당시에도 클로드가 활용됐다고 전했다. 단, 앤트로픽 측은 특정 작전에서의 사용 여부에 대해 ‘확인도 부인도 할 수 없다’는 공식 입장을 유지하고 있다. 이번 사태가 드러내는 구조적 문제는 명확하다. AI 기업의 윤리 원칙은 법적 구속력이 없다. 기업이 자발적으로 제정하고, 자발적으로 해석하며, 자발적으로 폐기한다. 정부 계약, 투자 유치, 경쟁사의 행동, 정치 환경의 변화 앞에서 이 원칙들은 협상 테이블 위의 카드 한 장으로 전락하기 쉽다는 사실이 오픈AI와 구글을 통해 반복적으로 확인되고 있다. 앤트로픽의 상황은 복잡하다. 회사는 2026년 2월 기준 380억 달러의 기업 가치를 인정받아 300억 달러 규모의 시리즈 G 투자를 유치하며 재무 건전성을 과시했다. 하지만 같은 시기 트럼프 장남이 파트너로 있는 ‘1789캐피털’에 투자를 요청했다가 거절당했다는 보도가 나왔다. 보도에 따르면, 이유는 경영진의 과거 발언 이력과 바이든 정부 출신 인사 고용, AI 규제 지지 행보에 대한 우려인 것으로 알려졌다. ◇ 앤트로픽의 선택, 그리고 업계에 보내는 신호 앤트로픽이 원칙을 끝내 고수한다면 어떻게 될까. 공급망 위험 지정이 현실화할 경우, 클로드를 활용하는 포천 10대 기업 8곳 등 수많은 기업이 국방부와의 거래를 위해 클로드 사용 여부를 공식 인증해야 하는 상황에 처한다. 연간 매출 140억 달러의 앤트로픽에게 200억 달러짜리 국방 계약 자체는 작은 규모지만, ‘공급망 위험 업체’라는 낙인의 파급력은 훨씬 클 수 있다. 반대로 앤트로픽이 요구를 수용한다면, 그것은 더 큰 신호를 시장에 보낸다. ‘안전 최우선(Safety First)’을 창업 철학으로 내세우며 오픈AI 출신 연구자들이 설립한 앤트로픽마저 결국 군사화 압력에 굴복했다는 사실은 AI 윤리의 마지막 민간 보루가 무너졌다는 메시지가 될 수 있다. 자율 무기 반대 단체인 스톱킬러로봇은 구글의 원칙 삭제 당시 이미 이렇게 경고했다. “기업의 자발적 약속이 외부 압력 아래 얼마나 쉽게 무너지는지를 오늘이 증명한다. 구속력 있는 국제법과 조약 없이는 자율 무기를 막을 수 없다.” 앤트로픽의 내부 사정도 복잡하다. 다리오 아모데이 앤트로픽 CEO는 NYT 팟캐스트 ‘인터레스팅 타임즈’에 출연해 자율 드론 무리 운용에 대한 우려를 공개적으로 표명했다. 그는 “우리는 어떤 의미에서 AI로부터 보호받을 필요가 있다. 드론 무리의 버튼을 누를 존재가 필요하며, 그 감시 체계가 현재 존재하지 않는다는 점이 걱정된다”고 밝혔다. 이 갈등은 한국 AI 기업에도 남의 일이 아니다. 미국 방산 시장이나 정부 조달을 염두에 두고 글로벌 진출을 확대하는 국내 기업은 ‘어디까지 허용할 것인가’에 대한 명문화한 윤리 기준과 내부 거버넌스 체계를 갖추지 않으면, 같은 압박에 취약하게 노출될 수 있다. 법적 구속력 없는 자기규제가 협상 카드로 전락하기 전에, 외부 검증 가능한 기준을 선제적으로 확립하는 것이 필요하다는 지적도 나오는 이유다. - 트릴리온랩스, Tri 21B 씽크 공개... GPU 한 장으로 ‘생각’ - 메타, 스마트워치 재도전... AI 웨어러블 생태계 확장 나서나 - LG AI연구원, AI 윤리 보고서 발간 - 구글, 제미나이에 음악 생성 기능 도입 - 리벨리온, 반도체 올림픽에서 ‘리벨쿼드’ 공개... 성능 검증 완료 - AI·드론·방산 한자리에… ‘DSK 2026’, 다음주 부산서 개막 - “답변을 넘어 해결로”… 구글, ‘제미나이 3.1 프로’ 공개 - 정부, AX 대학원 10곳 신설… 대학당 최대 165억 지원 - 엔비디아, 메타와 장기 파트너십 체결... 생성 AI 다음은 인프라 전쟁 - 엔비디아, 오픈AI에 1천억 달러에서 300억 달러로 투자 조정 - [AI 스톡킹] ‘적자의 늪’ 의료 AI, 실적 개선 훈풍 예고 - ‘국가대표 AI’ 패자부활전에 모티프테크놀로지스 낙점 - [김동원의 Eye-T] 이란 공습 설계한 AI 참모, 한반도는 안녕한가
Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.
공유