AGI·LLM·환각까지…헷갈리는 AI 용어 짚어보니 - 디지털투데이

[AI] agi | | {'이벤트': '📰', '머신러닝/연구': '📰', '하드웨어/반도체': '📰', '취약점/보안': '📰', '기타 AI': '📰', 'AI 딜': '📰', 'AI 모델': '📰', 'AI 서비스': '📰', 'discount': '📰', 'news': '📰', 'review': '📰', 'tip': '📰'} AI 모델
#ai 모델 #claude #gemini #llama

요약

생성형 AI의 확산으로 AGI, LLM, 환각, 토큰 등 기술 용어가 산업 현장의 중요한 언어로 자리 잡았습니다. LLM은 챗GPT 등의 기반이 되는 모델이며, AGI는 인간 수준의 지능을 의미하지만 업계마다 정의가 엇갈리고 있습니다. 또한 AI 에이전트는 다단계 작업을 수행하는 시스템을 의미하나 아직 구현 단계에 머물러 있고, 안전 문제로는 사실이 아닌 정보를 생성하는 환각 현상이 꼽힙니다. 기업 서비스에서는 토큰 사용량이 과금 기준이 되며, 이러한 용어 이해는 시장 흐름과 기업 전략 파악에 필수적입니다.

왜 중요한가

본문

[디지털투데이 이윤서 기자] 생성형 인공지능(AI) 확산으로 범용인공지능(AGI), 대규모언어모델(LLM), 환각, 토큰 같은 기술 용어가 산업 현장의 공통 언어로 자리 잡고 있다. AI 업계는 연구와 제품, 인프라, 안전 이슈를 설명할 때 전문 용어를 광범위하게 사용하고 있으며, 이를 이해해야 기업 전략과 시장 흐름도 읽을 수 있다는 평가가 나온다. 12일(현지시간) IT매체 테크크런치는 주요 AI 용어의 개념과 쓰임을 한데 모아 정리했다. 가장 대표적인 개념은 LLM이다. LLM은 챗GPT, 클로드(Claude), 제미나이(Gemini), 라마(Llama), 코파일럿(Copilot) 같은 AI 챗봇의 기반이 되는 대규모언어모델을 뜻한다. 사용자가 질문을 입력하면 모델은 학습한 방대한 텍스트 패턴을 바탕으로 다음에 올 가능성이 높은 단어를 이어 붙여 답변을 만든다. 이 과정에서 실제 서비스명과 모델명은 다를 수 있다. 예를 들어 GPT는 오픈AI의 모델이고, 챗GPT는 이를 활용한 서비스다. 업계가 자주 내세우는 AGI도 아직 합의된 정의가 없다. 샘 알트먼 오픈AI 최고경영자(CEO)는 최근 AGI를 "함께 일하도록 고용할 수 있는, 중간 수준의 인간과 같은 존재"로 설명했다. 반면 구글 딥마인드(DeepMind)는 인간과 비슷한 수준의 인지 과제를 폭넓게 수행하는 AI에 더 무게를 둔다. 업계 최전선에서도 해석이 엇갈리는 이유다. 최근 제품 경쟁에서 가장 자주 등장하는 표현은 AI 에이전트다. 이는 단순 대화형 챗봇을 넘어 비용 처리와 예약, 코드 작성, 유지보수처럼 여러 단계를 거치는 작업을 대신 수행하는 시스템을 의미한다. 다만 에이전트 역시 범용 정의가 굳어지지 않았고, 실제 구현에 필요한 인프라도 아직 구축 단계에 있다. 현재로서는 여러 AI 시스템을 엮어 다단계 작업을 자율적으로 처리하는 방향성이 핵심으로 제시된다. 모델 성능을 이해하려면 학습과 추론을 구분할 필요가 있다. 학습은 데이터를 넣어 패턴을 익히게 하는 과정이고, 추론은 학습을 마친 모델이 실제로 예측과 응답을 내놓는 단계다. 학습에는 많은 데이터와 연산 자원이 필요하고 비용도 크다. 반면 추론은 서비스 단계의 속도와 비용을 좌우한다. 스마트폰 칩부터 고성능 그래픽처리장치(GPU), 전용 AI 가속기까지 다양한 하드웨어가 추론을 처리할 수 있지만, 대형 모델일수록 고성능 인프라 의존도가 높다. 이 때문에 연산 자원과 메모리 반도체는 AI 산업의 병목으로 꼽힌다. 업계에서는 AI 모델의 학습과 배포를 가능하게 하는 계산 자원을 통칭해 '컴퓨트'라고 부른다. 여기에는 그래픽처리장치(GPU), 중앙처리장치(CPU), 텐서처리장치(TPU) 같은 하드웨어가 포함된다. AI 안전성 측면에서 가장 직접적인 문제로 거론되는 것은 환각(할루시네이션; Hallucination)이다. 환각은 모델이 사실이 아닌 정보를 그럴듯하게 생성하는 현상을 말한다. 특히 건강 정보처럼 실제 위험으로 이어질 수 있는 분야에서는 그 파장이 더 크다. 주요 생성형 AI 서비스가 사용자에게 결과 검증을 요구하는 이유도 이 때문이다. 따라서 최근에는 특정 산업에 특화된 AI 모델 개발이 더욱 주목받고 있다. 사용 비용을 가르는 기준으로는 토큰이 있다. 토큰은 사람이 입력한 문장과 모델이 생성한 답변을 잘게 나눈 데이터 단위다. 입력 토큰과 출력 토큰, 추론 토큰으로 구분될 수 있으며, 기업용 AI 서비스에서는 이 토큰 사용량이 곧 '과금 기준'이 된다. 기업이 AI 서비스를 많이 사용할수록 처리되는 토큰이 늘고 비용도 함께 증가하는 구조다. 결국 AI 산업을 이해하려면 제품 이름보다 용어의 의미를 먼저 읽어야 한다. AGI는 여전히 정의가 갈리고, 에이전트는 구현 수준에 따라 의미가 달라지며, 환각은 아직 해결되지 않은 핵심 위험으로 남아 있다. 생성형 AI 확산이 이어질수록 이런 용어에 대한 이해는 기술 트렌드를 좇는 수준을 넘어, 산업의 방향과 사업자의 전략을 해석하는 기본 전제가 될 전망이다.