KAIST-마이크로소프트연구소, AI ‘시간 오류’ 잡았다...믿고 쓰는 AI 시대 앞당긴다 - 인공지능신문

[AI] ai 솔루션 | | {'이벤트': '📰', '머신러닝/연구': '📰', '하드웨어/반도체': '📰', '취약점/보안': '📰', '기타 AI': '📰', 'AI 딜': '📰', 'AI 모델': '📰', 'AI 서비스': '📰', 'discount': '📰', 'news': '📰', 'review': '📰', 'tip': '📰'} AI 모델
#머신러닝/연구 #ai 모델

요약

시간 변화 정보에 취약한 LLM ‘시간 환각’ 자동 진단 체계 개발, 평가 데이터 구축 비용 51% 절감, 시간 오류 검출력 21.7% 향상 “지난달 취임한 장관이 누구냐”는 질문에 챗GPT가 1년 전 인물을 답한다면 어떨까. KAIST 전기및전자공학부 황의종 교수 연구팀이 마이크로소프트연구소(Microsoft Research)와 공동연구를 통해, 시간 데이터베이스 기술을 활용해 대형언어모델(LLM)의 시간 추론 능력을 자동으로 평가·진단하는 시스템을 개발했다고 14일 밝혔다.

왜 중요한가

본문

시간 변화 정보에 취약한 LLM ‘시간 환각’ 자동 진단 체계 개발, 평가 데이터 구축 비용 51% 절감, 시간 오류 검출력 21.7% 향상 “지난달 취임한 장관이 누구냐”는 질문에 챗GPT가 1년 전 인물을 답한다면 어떨까. 최신 정보를 제대로 반영하지 못하는 AI의 한계를 보여주는 사례다. KAIST 연구진이 변화하는 현실 정보를 자동으로 반영하면서도, 겉으로는 맞아 보이는 ‘시간 오류’까지 잡아내는 새로운 평가 기술을 개발했다. AI 신뢰성을 획기적으로 높일 수 있을 것으로 기대된다. KAIST 전기및전자공학부 황의종 교수 연구팀이 마이크로소프트연구소(Microsoft Research)와 공동연구를 통해, 시간 데이터베이스 기술을 활용해 대형언어모델(LLM)의 시간 추론 능력을 자동으로 평가·진단하는 시스템을 개발했다고 14일 밝혔다. 인공지능이 사용자의 신뢰를 얻기 위해서는 시시각각 변화하는 현실 정보를 정확히 이해하는 능력이 필수적이다. 그러나 기존 평가 방식은 정답 일치 여부만을 확인하거나 복잡한 시간 관계를 충분히 반영하지 못해, 실제 환경에서 발생하는 다양한 질문 상황을 제대로 평가하기 어렵다는 한계가 있었다. 연구팀은 이를 해결하기 위해 지난 40여 년간 검증되어 온 ‘시간 데이터베이스(Temporal Database)’ 설계 이론을 인공지능 평가에 최초로 도입했다. 데이터의 시간적 흐름과 관계 구조를 활용해, 사람이 평가용 문제를 일일이 작성하지 않아도 데이터베이스만으로 13가지 유형의 복잡한 시간 기반 문제가 자동으로 생성되도록 했다는 점이 핵심이다. 특히, 이번 기술은 사람이 문제를 직접 만들던 기존 방식에서 벗어나, 데이터를 기반으로 평가 문제가 자동 생성되는 방식으로 전환했다는 점에서 가장 큰 혁신으로 평가된다. 또한 데이터베이스를 기준으로 문제 생성부터 정답 도출, 검증까지 전 과정을 자동화해, 기존처럼 문제를 일일이 수정할 필요 없이 유지보수 부담을 획기적으로 줄일 수 있다. 현실 정보가 변경될 경우에는 해당 내용을 데이터베이스에 업데이트하면 평가 문제와 정답, 검증 기준이 자동으로 반영된다. 다만 최신 정보의 입력 자체는 외부 데이터나 관리자를 통해 이루어지며, 본 기술은 이러한 데이터가 갱신된 이후 평가 전반을 자동으로 수행하는 구조다. 또한 연구팀은 단순히 최종 답이 맞는지 틀리는지 여부를 판단하는 기존 방식에서 나아가, 답변 과정에서 제시된 날짜나 기간의 논리적 타당성까지 검증하는 지표를 새롭게 도입했다. 이를 통해 겉보기에는 정답처럼 보이지만 시간적 근거가 잘못된 ‘시간 환각(Temporal Hallucination)’ 현상을 기존 대비 평균 21.7% 더 정확하게 탐지하는 성과를 보였다. 이 기술을 적용하면 정보 변경 시 데이터베이스만 갱신하면 되기 때문에 평가 유지 비용을 크게 절감할 수 있으며, 입력 데이터량 역시 기존 대비 평균 51% 줄어드는 효과를 보였다. 황의종 교수는 “이번 연구는 고전적인 데이터베이스 설계 이론이 최신 인공지능의 신뢰성 문제를 해결하는 데 중요한 역할을 할 수 있음을 보여준 사례”라며, “방대한 전문 데이터를 평가 자원으로 전환함으로써 향후 의료·법률 등 다양한 분야의 인공지능 성능 검증에 실질적인 기반이 될 것으로 기대한다”고 말했다. 이번 연구는 KAIST 김소연 박사과정이 제1저자로 참여했으며, 마이크로소프트연구소의 진동 왕(Jindong Wang, 現 윌리엄 앤 메리 대학교)과 싱 시에(Xing Xie) 연구원이 공동 저자로 참여했다. 한편, 연구 결과는 오는 23일부터 27일까지 브라질 리우데자네이루에서 열리는 머신러닝 분야 국제 학술대회인 ‘국제표현학습학회(ICLR 2026)’에서 '대형언어 모델에서 사실에 기반한 시간 민감형 질의응답의 체계적인 평가를 위해 시간 데이터베이스를 활용하는 방법(Harnessing Temporal Databases for Systematic Evaluation of Factual Time-Sensitive Question-Answering in Large Language Models-다운)'란 제목으로 발표될 예정이다.

관련 저널 읽기

전체 보기 →