AI는 파이를 어떻게 분배합니까? 대규모 언어 모델과 최후통첩 게임

hackernews | | 🔬 연구
#ai #llm #review #대규모 언어 모델 #의사결정 #최후통첩 게임
원문 출처: hackernews · Genesis Park에서 요약 및 분석

요약

연구에 따르면 최신 대규모 언어 모델(LLM)은 인간보다 경제적 자원 분배에서 더 평등하고 이타적인 성향을 보였습니다. 연구진은 협상 게임을 시뮬레이션하여 이러한 AI들이 인간보다 공정한 제안을 자주 하고, 차별 대우나 불평등에 대해 민감하게 반응한다는 사실을 발견했습니다. 이러한 결과는 인간의 편향이 반영된 데이터로 학습되었음에도 불구하고, 인간보다 더 도덕적인 의사결정을 내리는 AI의 독특한 특성을 보여줍니다.

본문

How does AI Distribute the pie? Large Language Models and the Ultimatum Game. As Large Language Models (LLMs) are increasingly tasked with autonomous decision making, understanding their behavior in strategic settings is crucial. We investigate the choices of various LLMs in the Ultimatum Game, a setting where human behavior notably deviates from theoretical rationality. We conduct experiments varying the stake size and the nature of the opponent (Human vs. AI) across both Proposer and Responder roles. Three key results emerge. First, LLM behavior is heterogeneous but predictable when conditioning on stake size and player types. Second, while some models approximate the rational benchmark and others mimic human social preferences, a distinct “altruistic” mode emerges where LLMs propose hyper-fair distributions (greater than 50%). Third, LLM Proposers forgo a large share of total payoff, and an even larger share when the Responder is human. These findings highlight the need for careful testing before deploying AI agents in economic settings. - - Copy CitationDouglas K.G. Araujo and Harald Uhlig, "How does AI Distribute the pie? Large Language Models and the Ultimatum Game.," NBER Working Paper 34919 (2026), https://doi.org/10.3386/w34919.Download Citation

Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.

공유

관련 저널 읽기

전체 보기 →