HN에게 물어보세요: LLM이 새로운 아이디어를 추론할 수 있다는 증거가 있습니까?

hackernews | | 📰 뉴스
#머신러닝/연구
원문 출처: hackernews · Genesis Park에서 요약 및 분석

요약

머신러닝은 훈련 데이터 내에서의 보간에는 강하지만 외삽에는 취약한 것으로 알려져 있으며, 이는 과학 분야 혁신에도 영향을 미칩니다. 그러나 거대 언어 모델이 실제로 새로운 아이디어를 창출할 수 있는 외삽 능력을 갖췄는지에 대해서는 아직 명확한 증거가 부족한 상황입니다.

본문

ML is known to be good at interpolating between points in the training set, but does much worse at extrapolating. Both can produce innovation when applied to science. For example, a lot of innovation is about transferring existing ideas from one domain to another.<p>We start seeing examples of LLMs proving novel math theorems: https:&#x2F;&#x2F;news.ycombinator.com&#x2F;item?id=48071262. But those could be “interpolation”. Is there any strong evidence for or against LLMs being capable of extrapolating?</p>

Genesis Park 편집팀이 AI를 활용하여 작성한 분석입니다. 원문은 출처 링크를 통해 확인할 수 있습니다.

공유

관련 저널 읽기

전체 보기 →