'AI 규제' 시행 앞두고 기대와 우려 교차...해외 평가는? - 이코리아

[AI] ai regulation | | 🔬 연구
#ai 규제 #ai 기본법 #eu #review #산업 진흥 #인공지능
원문 출처: [AI] ai regulation · Genesis Park에서 요약 및 분석

요약

AI 규제 시행을 앞두고 국내외적으로 다양한 의견이 분분합니다. 일부에서는 AI 기술의 안전과 윤리적 문제 해결을 위한 중요한 발걸음으로 평가하지만, 과도한 규제가 기술 발전을 저해할 수 있다는 우려도 제기되고 있습니다. 특히 유럽연합(EU)의 AI 법안을 비롯한 해외 규제 동향을 주시하며, 국내 규제 방향 설정에 참고하고 있습니다. AI 기술의 발전 속도와 규제의 적절한 균형점을 찾는 것이 중요해지고 있습니다.

본문

[이코리아] 내년 1월 22일 시행을 앞둔 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’을 두고 산업 진흥과 규제 부담을 둘러싼 기대와 우려가 동시에 커지고 있다. AI 기본법은 인공지능 산업 육성과 안전·신뢰 확보를 함께 목표로 한 국내 첫 포괄적 AI 법제로, 우리나라는 유럽연합(EU)에 이어 두 번째로 AI 관련 기본법을 제정했으며, 유럽 AI 법의 시행이 지연되고 있는 만큼 우리나라가 세계 최초의 AI 규제 법안 시행 국가가 된다. 하지만 법 시행을 불과 한 달여 앞두고 시행령이 입법예고되면서 현장에서는 준비 기간과 규제 범위를 둘러싼 논란이 이어지고 있다. 정부는 AI 기술 확산에 따른 사회적 위험을 관리하는 동시에, 제도적 불확실성을 해소해 산업 성장의 토대를 마련하겠다는 입장이다. AI 기본법을 통해 연구개발, 학습용 데이터 구축, 인공지능 도입·활용, 전문 인력 확보, 집적단지 조성 등 산업 육성 기반을 제도화하는 한편, 투명성·안전성 확보 의무와 고영향 AI 관리 체계를 마련해 신뢰 기반을 구축한다. 특히 시행령 제정안에서는 고영향 AI 판단 기준과 확인 절차, 인공지능 영향평가 항목, 생성형 AI 투명성 의무 등을 구체화했다. 정부는 국제 규범 동향을 고려해 규제보다는 진흥에 무게를 두되, 중복 규제를 최소화하고 과태료 계도기간을 최소 1년 이상 운영해 제도의 연착륙을 유도하겠다고 밝혔다. 업계에서는 대응 여력에 대한 우려가 커지고 있다. 특히 중소·스타트업을 중심으로 정부가 법 시행 불과 한 달여를 남기고 시행령을 입법예고하면서, 시행 직전에야 규제 내용이 확정되는 구조 자체가 부담이라는 지적이 나온다. 스타트업얼라이언스가 최근 국내 AI 스타트업 101개 사를 대상으로 조사한 결과, 응답 기업의 98%가 AI 기본법 시행에 대비한 실질적 대응 체계를 갖추지 못했다고 밝혔다. 일부 AI 기업들은 규제 불확실성을 이유로 일본 등 자율 규제 기조를 유지하는 국가로 사업 거점을 옮기거나 해외 법인 설립을 검토하는 움직임도 보이고 있다. 특히 논쟁의 중심에는 생성형 AI 결과물에 대한 표시 의무, 이른바 ‘AI 워터마크’ 규제가 있다. 시행령 제정안은 실제와 구분하기 어려운 생성형 AI 결과물에 대해 이용자가 AI로 생성됐음을 명확히 인식할 수 있도록 표시하도록 규정하고 있다. 업계는 해당 법안이 채색 보조, 화질 개선 등 보조적 활용까지 포괄적으로 적용될 경우 콘텐츠 제작 현장의 부담과 위축이 불가피하다고 우려한다. 반면 딥페이크, 허위정보 확산 등 사회적 부작용을 고려하면 최소한의 투명성 장치는 필요하다는 반론도 존재한다. 워터마크 적용 범위와 예외 기준을 둘러싼 해석 차이가 가장 첨예한 쟁점으로 부상한 이유다. 반면 시민사회에서는 법안 제정 초기부터 일관되게 “산업 진흥 편향”을 지적해왔다. 일부 시민단체와 법조계에서는 AI 기본법이 산업 진흥에 초점을 맞춘 나머지, AI로 인해 영향을 받는 개인의 권리 보호와 구제 절차가 충분히 담기지 않았다는 점을 지적한다. 채용·금융·의료 등 영역에서 AI 판단으로 불이익을 받는 개인이 법적 보호 대상에서 상대적으로 모호한 위치에 놓여 있다는 점, 고영향 AI 기준이 시행령에서 지나치게 높게 설정돼 실질적 규제 대상이 제한될 수 있다는 점도 논란이 되고 있다. 정부의 추진 속도가 빠른 데 비해 현장과의 소통은 충분하지 않았다는 비판도 나온다. 그렇다면 해외에서는 최초의 포괄적 AI 규제인 한국의 AI 기본법을 어떻게 바라보고 있을까. 미국의 대표적 기술 정책 싱크탱크인 정보기술혁신재단(ITIF)은 한국의 AI 기본법을 ‘산업 진흥과 위험 관리가 결합된 실험적 모델’로 평가하면서도, 시행 단계에서의 명확성이 핵심이라고 짚었다. ITIF는 여러 국가가 AI 규제를 논의하는 과정에서 “규제 강도 자체보다 기업이 사전에 리스크를 계산할 수 있는 예측 가능성이 중요하다”고 지적해 왔다. 한국의 경우 법률 구조상 고영향 AI에만 직접적 의무를 부과하는 방식은 비교적 절제된 접근이지만, 시행령과 가이드라인이 늦게 확정될 경우 정책 신뢰도가 훼손될 수 있다는 점을 우려했다. 한편 마이크로소프트, 아마존, 구글, 오픈AI 등이 소속된 글로벌 소프트웨어 업계 단체 BSA(The Business Software Alliance)는 한국 AI 기본법의 방향성에는 공감하면서도, AI 생성물 표시 의무, 특히 ‘보이는 워터마크’에 대해서는 부작용을 경고하고 나섰다. BSA는 의견서에서 “AI 생성 콘텐츠의 출처와 이력을 확인할 수 있는 인증 메커니즘은 필요하다”면서도, “국가별로 상이한 워터마크 기준이나 가시적 표시 의무는 국제 상호운용성을 저해하고 콘텐츠 경쟁력을 약화시킬 수 있다”고 밝혔다. 대신 C2PA(Content Provenance and Authenticity)와 같은 국제 표준 기반의 디지털 출처 인증 방식을 채택해야 한다는 입장을 제시했다. 기술·프라이버시 분야 시민단체인 Future of Privacy Forum(FPF)은 「South Korea’s New AI Framework Act: A Balancing Act Between Innovation and Regulation」 보고서에서 한국의 AI 기본법을 “AI 혁신, 개발 및 활용 촉진과 사회적 파급 효과가 큰 부분에 대한 안전장치 마련 사이의 균형을 추구하는 대안적인 AI 규제 접근 방식을 확립했다는 점에서 주목할 만하다”라고 평가했다. FPF는 특히 생성형 AI에 대한 표시 의무와 고영향 AI 중심의 단계적 규제 구조를 언급하며, “금지 조항을 두지 않고도 이용자 인식과 책임성을 강화하려는 접근”이라고 분석했다. 다만 시행령과 대통령령을 통해 세부 기준이 정해지는 구조인 만큼, 실제 운용 과정에서 산업 친화성과 권리 보호 간 균형이 어떻게 구현될지가 관건이라고 덧붙였다. 기업과인권리포트센터(BHRRC)는 한국의 AI 생성물 표시 의무를 딥페이크·허위정보 대응을 위한 국제적 흐름의 일부로 평가하고 있다. BHRRC는 “AI로 생성된 이미지·영상이 현실과 구분되지 않을 경우 명확한 표시는 이용자 보호 차원에서 정당하다”고 보면서도, 예술·창작 영역에서는 과도한 표시 의무가 표현의 자유를 위축시킬 수 있다고 지적했다. 특히 한국의 법안이 예외 조항을 두고 있다는 점에 주목하며, 향후 시행령에서 그 범위가 어떻게 구체화되는지가 국제 사회에서도 주목할 부분이 될 것이라고 바라봤다.

Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.

공유

관련 저널 읽기

전체 보기 →