← 메인으로

AGI는 오지 않는다

게시일: 2025년 12월 27일 | 원문 작성일: 2025년 12월 10일 | 저자: Tim Dettmers | 원문 보기

AGI를 향한 거대한 탑이 물리적 한계의 천장에 부딪히는 장면을 담은 픽셀 아트

핵심 요약

AI2 연구 과학자이자 카네기멜론대학교 조교수인 Tim Dettmers가 AGI(범용 인공지능)가 실현되지 않을 것이라고 주장합니다. 왜일까요?

  • 물리적 한계를 무시하는 AGI 담론 — AGI에 대한 논의는 계산의 물리적 현실, 에너지 제약, 그리고 스케일링의 지수적 비용을 무시하고 있어요
  • GPU 스케일링의 벽 — GPU 성능 대비 비용은 2018년경에 정점을 찍었고, 이후 개선은 정밀도 축소(BF16→FP8→FP4)1 같은 일회성 기법에 의존해왔어요
  • 남은 시간은 1-2년 — 물리적으로 더 이상의 스케일링이 불가능해지기까지 앞으로 1-2년 정도만 남았다고 분석해요
  • 초지능은 환상 — 지능이 물리적, 경제적 현실을 무시하고 무한히 자기 개선할 수 있다는 가정은 환상에 불과해요

왜 이 글을 썼나

트위터에서 본 한 스레드, 친구들과의 대화, 그리고 AGI와 초지능에 대한 사고방식이 단순히 낙관적인 게 아니라 근본적으로 결함이 있다는 점을 인식하게 되면서 이 글을 쓰게 됐어요.

AGI에 대한 현재의 담론에서 빠져 있는 관점이 있어요. 바로 계산의 물리적 현실이에요. AGI 논의는 대체로 철학적인 영역에 머물러 있지만, 실제 구현은 반드시 물리적 하드웨어에서 실행되어야 해요. 이건 종종 간과되는 치명적인 한계예요.

선형 개선에는 지수적 자원이 필요하다

여러 분야에서 진행된 연구들이 같은 결론에 도달해요. 선형적인 개선을 위해서는 지수적인 자원이 필요하다는 거예요. 시스템을 더 개선하고, 더 정밀하게 만들고, 효율을 높이려면 개선할 때마다 지수적으로 더 많은 자원이 필요해요.

흥미로운 생물학적 예시가 있어요. 임신 중인 여성은 두 개의 뇌를 먹여 살려야 해요. 이게 너무 비용이 많이 들어서 우리 뇌가 지금보다 더 컸다면, 장이 두 뇌를 유지하기에 충분한 영양소를 동원할 수 없었을 거예요. 더 큰 뇌를 가졌다면 우리는 아이를 가질 수 없었을 거예요. 산도가 너무 작아서가 아니라, 충분한 에너지를 공급할 수 없기 때문이에요.

우리는 디지털 계산에서도 같은 한계에 도달하고 있어요.

GPU 스케일링이 벽에 부딪혔다

GPU 성능 개선이 모델 발전에 필요한 지수적 자원 증가를 따라잡지 못하는 근본적인 문제가 있어요.

핵심 수치:
  • GPU 성능 대비 비용 효율은 2018년경에 정점을 찍었어요
  • Ampere → Hopper: 3배 BF16 성능 향상, 하지만 1.7배 전력 증가
  • Hopper → Blackwell: 2.5배 성능 향상, 하지만 2배 다이 면적과 1.7배 추가 전력 필요

최근의 성능 향상은 진정한 계산 발전이 아니라 정밀도 축소 기법(BF16, FP8, FP4)에서 나온 거예요. 정밀도를 절반으로 줄일 때마다 계산 처리량이 효과적으로 두 배가 됐어요. 하지만 이런 최적화는 잠재력이 제한된 임시 해결책이에요.

“우리에게 남은 스케일링 시간은 아마 1년, 많아야 2년 정도예요. 그 이후의 개선은 물리적으로 불가능해져요.”

낙관적인 시나리오에서 랙 수준 통합이 개선되더라도 이 창은 2026-2027년까지만 연장될 수 있어요. 물리적 공간과 아이디어 공간 모두에서 끝에 와 있는 거예요.

물리적 세계의 문제

Dettmers는 AGI를 “인간이 할 수 있는 모든 작업, 특히 경제적으로 의미 있는 물리적 활동을 수행할 수 있는 지능”으로 정의해요. 물리적 세계의 작업을 처리할 수 있는 AGI는 극복할 수 없는 장애물에 직면해요.

  • 데이터 수집 비용: 물리적 환경에서의 데이터 수집은 엄청나게 비싸요
  • 환경 복잡성: 환경의 복잡성은 실용적인 모델링을 거부해요
  • 로봇 경험 스케일링: 로봇 경험을 스케일링하는 것은 극복할 수 없는 장애물이에요

이미 존재하는 “다크 팩토리”(어둠 속에서 작동하는 자동화 공장)가 보여주듯이, 특화된 AI는 효과적으로 작동해요. 하지만 AGI(예: 범용 가정용 로봇)는 타겟팅된 솔루션에 비해 여전히 비현실적이에요.

지정학적 관점

접근 방식이 크게 다른 두 진영이 있어요.

측면실리콘밸리중국
목표AGI 우위 내러티브 추구즉각적인 AI 활용에 집중
접근초지능 달성생산성 향상
평가환상 추구경제적으로 더 실행 가능

베이에리어의 아이디어들은 종종 “순수한 아이디어 공간”에서만 살아요. 초지능과 AGI에 대한 사고 대부분은 “옥스퍼드 스타일 철학”에서 나와요. 효과적 이타주의2의 발상지인 옥스퍼드가 베이에리어의 합리성 문화와 결합하면서 특정 아이디어에 대한 명확한 사고를 크게 왜곡했어요.

초지능은 환상이다

초지능이 환상인 이유는 지능이 한계 없이 재귀적으로 자기 개선할 수 있다고 가정하기 때문이에요. 이는 모든 시스템을 제약하는 물리적, 경제적 현실을 무시하는 거예요.

AGI 예측이 지속되는 건 그것들이 잘 근거가 있어서가 아니라 매력적인 내러티브로 기능하기 때문이에요. 증거 기반 추론보다 믿음을 우선시하는 커뮤니티 내에서요.

“현실을 무시할 수는 있지만, 현실을 무시한 결과는 무시할 수 없다.”

투자에 대한 평가

AGI 실현 가능성에 대한 회의에도 불구하고, Dettmers는 상당한 인프라 투자가 추론 수요 증가를 감안할 때 여전히 합리적이라고 인정해요. 하지만 그는 경고해요. 해당하는 모델 개선 없이 축적된 하드웨어는 경제적으로 역효과를 낼 수 있다고요.

결론

주로 초지능을 목표로 하는 조직은 상당한 도전에 직면할 것이고, 결국 일반적인 경제적 확산을 제공하는 플레이어들에게 대체될 것이에요.

지속 가능한 AI 발전을 위해서는 실현 불가능한 초지능 환상을 쫓는 대신, 진정으로 유용하고 경제적으로 생산적인 애플리케이션을 개발하는 데 초점을 맞춰야 해요.

AGI는 일반적으로 생각하는 형태로는 실현되지 않을 거예요. 계산의 물리적 제약, 선형 진보의 지수적 비용, 그리고 우리가 이미 마주하고 있는 근본적인 한계를 무시하기 때문이에요.

역자 주

  1. BF16, FP8, FP4: 딥러닝에서 사용하는 부동소수점 정밀도 포맷이에요. BF16(Brain Float 16비트), FP8(8비트), FP4(4비트) 순서로 정밀도가 낮아지고, 정밀도를 낮추면 같은 하드웨어에서 더 많은 연산을 처리할 수 있어요. 하지만 정밀도가 너무 낮아지면 모델 성능이 저하되기 때문에 무한히 줄일 수는 없어요.
  2. 효과적 이타주의(Effective Altruism): 자선 활동과 기부를 가장 효과적으로 하기 위해 증거와 이성을 사용하자는 철학적/사회적 운동이에요. 옥스퍼드 대학에서 시작됐으며, AI 안전 연구와 장기주의(longtermism)를 강조하는 것으로도 알려져 있어요. 실리콘밸리 테크 커뮤니티에서 큰 영향력을 가지고 있어요.

저자 소개: Tim Dettmers는 Allen Institute for AI(AI2)의 연구 과학자이자 카네기멜론대학교 조교수입니다. 딥러닝 접근성을 높이는 연구로 알려져 있어요.

참고: 이 글은 Tim Dettmers가 2025년 12월 자신의 블로그에 게시한 아티클을 번역하고 요약한 것입니다. AGI에 대한 반대 의견으로 상당한 논의를 불러일으켰어요.

원문: Why AGI Will Not Happen - Tim Dettmers (2025년 12월 10일)

생성: Claude (Anthropic)

총괄: (디노이저denoiser)