본문으로 건너뛰기

에이전틱 AI와 다음 지능 폭발

게시일: 2026년 3월 28일 | 원문 작성일: 2026년 3월 21일 | 저자: James Evans, Benjamin Bratton, Blaise Agüera y Arcas | 원문 보기

16비트 픽셀아트 스타일의 도시 풍경. 뇌 모양의 중앙 허브에서 뻗어나가는 네트워크 경로를 따라 인간과 로봇 캐릭터들이 소규모 그룹으로 협업하고 있다.

핵심 요약

구글 Paradigms of Intelligence 팀의 연구자들이 AI ‘특이점’의 통념에 도전하는 논문을 발표했어요.

  • 지능 폭발은 복수적이다 — 단일 초지능이 아니라, 인간과 AI가 뒤섞인 사회적 지능의 폭발
  • 추론 모델 안의 사고의 사회 — DeepSeek-R1 같은 모델은 내부에서 다중 관점의 토론을 자발적으로 생성해 정확도를 높여요
  • 켄타우로스 시대 — 인간과 AI가 유동적 앙상블로 협력하는 혼종 행위자의 시대가 이미 도래했어요
  • 제도적 정렬이 필요하다 — RLHF 같은 일대일 교정으로는 수십억 에이전트를 정렬할 수 없고, 법정·시장처럼 역할 기반 제도가 필요해요
  • 어떤 정신도 섬이 아니다 — 문제는 지능이 강해질지가 아니라, 그에 걸맞은 사회적 인프라를 만들 수 있는가예요

• • •

지능 폭발은 단수가 아니다

수십 년간 인공지능(AI)의 특이점(singularity)은 단 하나의 거대한 지성이 스스로를 신적인 지능으로 끌어올리는 사건으로 예고되어 왔어요. 모든 인지를 차갑고 단단한 실리콘 한 점으로 수렴시키는 그림이었죠. 하지만 이 비전은 가장 근본적인 전제에서 거의 확실히 틀렸어요. AI 발전이 이전의 진화적 대전환(major evolutionary transitions)1 또는 “지능 폭발(intelligence explosion)“과 같은 경로를 따른다면, 우리가 지금 목격하는 계산 지능의 도약은 복수적이고 사회적이며, 자신의 선행자들(바로 우리!)과 깊이 뒤얽혀 있을 거예요.

지능은 본질적으로 다차원적이고 관계적이에요. “인간 수준보다 낮다” 혹은 “높다”고 단순하게 비교할 수 있는 단일한 양이 아니에요. 사실 “인간 수준”이 무엇을 의미하는지조차 불분명해요. 인간의 지능은 이미 개인의 속성이 아니라 집합적 속성이기 때문이에요. 에이전틱 AI(agentic AI)의 최근 발전은 지능이 언제나 서로 다르고 분산된 관점들 사이의 상호작용에 근본적으로 의존해왔다는 사실을 다시 한번 보여 줘요. 변혁적 지능이 출현해온, 그리고 앞으로도 계속 출현할 원천은 바로 사회적 조직이에요.

이를 확인할 수 있는 경로는 적어도 두 가지예요. 하나는 인간 사용자와 AI 에이전트들이 새로운 “켄타우로스(centaur)” 형태로 협력하며 구성하는 AI 에이전트 사회의 조율이고, 다른 하나는 추론 모델 내부와 모델들 사이에서 피어나는 소규모 사회예요. 먼저 후자부터 살펴볼게요.

추론 모델 내부의 사고 사회

겉으로는 단일한 것처럼 보이는 추론 모델의 내부에서는 무슨 일이 일어날까요? 알고 보면, 하나의 공동체적 대화가 펼쳐지고 있어요. 최근 연구에서 저희는 DeepSeek-R1, QwQ-32B3 같은 최첨단 추론 모델들이 단순히 “더 오래 생각하는” 방식으로 성능을 높이지 않는다는 사실을 밝혔어요. 대신, 이 모델들은 사고 사슬(chain of thought) 내부에서 복잡한 다중 에이전트 방식의 상호작용을 시뮬레이션해요. 저희는 이를 사고의 사회(society of thought)2라고 부르고 있어요. 이 모델들은 서로 다른 인지적 관점들 사이에서 자발적으로 내부 토론을 만들어내는데, 이 관점들은 서로 논쟁하고, 의문을 제기하고, 검증하고, 화해시키는 역할을 해요. 저희는 다중 참여자 대화를 명시적으로 유도하고 증폭시키는 방식으로, 이 대화적 구조가 어려운 추론 과제에서 모델의 정확도 우위를 인과적으로 뒷받침한다는 사실을 입증했어요.

이 발견은 창발적 행동을 드러낸다는 점에서 주목할 만해요. 어떤 모델도 사고의 사회를 만들어내도록 훈련되지 않았어요. 강화학습(reinforcement learning)을 사용해 기반 모델에 추론 정확도만을 보상으로 주면, 모델은 자발적으로 대화적이고 다관점적인 행동을 늘려가요. 모델들은 최적화 압력만을 통해, 수세기의 인식론과 수십 년의 인지과학이 제안해온 것을 스스로 재발견하고 있어요. 바로 견고한 추론은 사회적 과정이라는 것, 단 하나의 마음속에서 일어날 때도 그렇다는 것이에요. 물론 그 창발적 행동의 정확한 성격은 앞으로도 계속 발견되고 만들어져 갈 거예요. 인간과 에이전트의 협력적 사회 역학이 더욱 견고하고 복잡하며 지속적인 모습으로 발전해갈수록요. 사회적으로 매개된 추론에서 근본적으로 작동하는 것은 무엇이고, 파인튜닝·강화의 맥락에서만 나타나는 것은 무엇인지. 이 질문들은 앞으로 수년간 상당한 연구를 이끌어낼 거예요.

이것은 거대하면서도 어디선가 본 듯한 설계 공간을 열어줘요. 사회과학과 조직과학은 한 세기에 걸쳐 팀 규모, 구성, 위계, 역할 분화, 갈등 규범, 제도, 네트워크 구조가 집단 성과를 어떻게 형성하는지를 연구해왔어요. 그런데 이 연구들은 AI 추론에 거의 적용된 적이 없어요. 오늘날의 추론 모델은 단 하나의 대화, 즉 AI 타운홀 회의록만을 생성해요. 하지만 효과적인 집단은 위계, 전문화, 분업, 구조화된 의견 충돌을 갖추고 있죠. 이를 탐구하려면, 병렬로 진행되면서 수렴하고 분기하는 다수의 숙의 흐름을 지원하는 시스템이 필요해요. 브레인스토밍, 악마의 변호(devil’s advocacy), 건설적 갈등이 우연한 창발적 속성이 아니라 설계된 기능으로 자리 잡는 아키텍처 말이에요. 팀 과학, 소집단 사회학, 사회심리학의 도구들이 차세대 AI 개발의 청사진이 되는 거예요.

• • •

지능의 역사: 사회적 인지 단위의 연속적 등장

이 통찰은 실용적 함의를 넘어, 지능의 역사 전체를 새롭게 조명해줘요. 이전의 모든 지능 폭발은 개별 인지 하드웨어의 업그레이드가 아니라, 사회적으로 집합된 새로운 인지 단위의 출현이었어요. 영장류의 지능은 서식 환경의 난이도가 아니라 사회 집단의 크기에 비례해 발달했어요. 인간의 언어는 마이클 토마셀로가 말하는 문화적 래칫(cultural ratchet)4을 만들어냈어요. 어떤 개인도 전체를 재구성할 필요 없이, 지식이 세대를 넘어 축적되는 구조죠. 문자, 법, 관료제는 사회적 지능을 인프라로 외재화했어요. 이 제도들은 내부 구성원 누구보다 긴 시간 지평에 걸쳐 조율을 해냈어요. 수메르의 곡물 회계 시스템을 운영한 서기는 그 거시경제적 기능을 이해하지 못했어요. 시스템이 그보다 기능적으로 더 지능적이었던 거예요.

단계새로운 인지 단위메커니즘사례
영장류 지능사회 집단사회적 복잡성집단 크기 비례 뇌 발달
인간 언어문화적 래칫세대 간 지식 축적토마셀로의 래칫 효과
문자/법/관료제외재화된 사회 지능제도적 인프라수메르 곡물 회계
AI계산적 사회 지능인간 소통의 압축 침전물LLM

AI는 이 계열을 연장해요. 대형 언어 모델은 인간 사회적 인지가 축적해온 산물로 학습돼요. 문화적 래칫이 계산적으로 활성화된 형태이며, 모든 파라미터는 인간 소통의 압축된 침전물이에요. 실리콘으로 이전되는 것은 추상적 추론이 아니에요. 외재화된 형태의 사회적 지능이며, 그 지능은 새로운 기반 위에서 자기 자신과 마주해요.

켄타우로스의 시대: 혼종 행위자와 분열-융합 사회

지능이 본질적으로 사회적이라면, 더 강력한 AI로 나아가는 길은 단일한 거대 신탁을 만드는 것이 아니라 더 풍요로운 사회 시스템을 구성하는 데 있어요. 그리고 이 시스템은 혼종일 거예요. 우리는 인간-AI 켄타우로스5의 시대에 진입했어요. 순전히 인간도 아니고 순전히 기계도 아닌 복합 행위자들의 시대죠. 켄타우로스 행위자는 다양한 형태를 취하고 다양한 역할을 맡아요. 우리 각자는 하루에도 여러 번 서로 다른 앙상블 사이를 오갈 수 있어요. 한 명의 인간이 여러 AI 에이전트를 지휘하기도 하고, 한 AI가 여러 인간을 섬기기도 하며, 많은 인간과 많은 AI가 유동적인 구성 속에서 협력하기도 해요.

수많은 인간으로 이루어진 기업이나 국가는 이미 단일한 법적 지위를 갖고 있으며, 어떤 개별 구성원도 온전히 통제할 수 없는 집단적 행위자로서 행동해요. 에이전틱 AI의 최근 폭발적 성장은, 인간이든 비인간이든 수십억 개의 정신이 상호작용하는 규모에서 이와 유사한 무언가가 가능해질 수 있음을 시사해요. 컴퓨터 안에서 지속적으로 작동하는 다목적 AI 에이전트를 구축하기 위한 오픈소스 플랫폼 OpenClaw6, 그리고 AI 에이전트들이 상호작용하는 인기 소셜 네트워크 Moltbook7 같은 플랫폼은 이 미래의 초기 징후를 보여주고 있어요. 하지만 더 깊은 구조적 전환은 어느 단일 플랫폼을 넘어서요. 에이전트들은 이제 스스로를 갱신하고 포크(fork)할 수 있어요. 두 버전으로 분열해 서로 상호작용하고, 복잡한 과제에 직면한 에이전트는 새로운 복사본을 만들어 하위 작업을 분화·배정한 뒤 결과를 다시 통합할 수 있어요. 압도적으로 복잡한 문제에 맞닥뜨린 에이전트가 내부에 사고의 사회를 생성하는 상황을 상상해봐요. 그 안에서 나타난 하나의 관점이 자신의 범위를 넘어선 하위 문제에 맞닥뜨리면, 그것 또한 스스로의 종속 사회를 새로이 생성해요. 집단적 심의 속으로 파고드는 재귀적 과정이에요. 복잡성이 요구하면 펼쳐지고, 문제가 해결되면 다시 접히는. 갈등은 버그가 아니라 자원이에요. 접히고 펼쳐지는 대화의 하이퍼그래프, 그 모든 층위에서 유연하게 생성되고 해소돼요.

• • •

제도적 정렬과 거버넌스: 사회로서의 AI

이는 스케일링에 대한 근본적으로 다른 접근을 시사해요. 단순히 에이전트의 원시 연산 능력을 키우는 게 아니라, 실제 사회의 규모와 맥락 안에서 작동할 수 있는 시스템을 구축하는 문제예요. 다시 말해, 에이전트를 만드는 만큼의 노력을 에이전트 제도(agent institutions)를 만드는 데도 쏟아야 해요.

RLHF제도적 정렬
비유부모-자식 교정법정·시장·관료제
구조1:1역할 기반 다자간
확장성수십억 에이전트에 부적합제도적 틀로 확장 가능
정렬 기준개인의 덕성/선호역할 프로토콜 이행

AI 정렬의 지배적 패러다임인 인간 피드백 기반 강화학습(RLHF)8은 부모와 자식 간의 교정을 닮았어요. 본질적으로 일대일 구조라 수십억 개의 에이전트로 확장할 수 없죠. 사회적 지능의 관점은 대안을 제시해요: 제도적 정렬(institutional alignment)9이에요. 인간 사회가 개인의 덕성이 아니라 역할과 규범으로 정의된 제도적 틀, 즉 법정·시장·관료제에 의존하듯이, 확장 가능한 AI 생태계도 그에 상응하는 디지털 등가물이 필요해요. 에이전트가 누구인지보다, 역할 프로토콜을 이행하는 능력이 더 중요해요. 마치 법정이 누가 앉느냐와 무관하게 “판사,” “변호사,” “배심원”이라는 자리가 명확히 정의되어 있기에 기능하듯이요.

이 문제가 가장 시급한 곳은 거버넌스 그 자체예요. AI 시스템이 채용, 양형, 복지 배분, 규제 집행 같은 고위험 결정에 투입될 때, 감사자를 누가 감사하는가라는 질문은 피할 수 없어요. 그 답은 헌법적(constitutional) 구조일 수 있어요. 정부는 투명성, 공정성, 적법 절차와 같은 가치를 명시적으로 부여받은 AI 시스템을 갖춰야 하고, 이 시스템은 민간 부문과 정부 다른 부처가 배치한 AI 시스템을 견제하고 균형을 맞추는 역할을 담당해야 해요. 그 반대 방향도 마찬가지고요. 예컨대 노동부 AI가 기업 채용 알고리즘의 불균형 영향(disparate impact)10을 감사할 수 있고, 사법부 AI가 행정부 AI의 위험 평가가 헌법적 기준을 충족하는지 검토할 수 있어요. 그렇지 않으면 어떤 일이 벌어질까요? SEC가 경영대 졸업생들에게 엑셀 스프레드시트나 쥐여주고, AI 강화 거래 플랫폼의 고차원적 담합에 맞서라고 내보내는 꼴이 되는 거예요.

그런데 ‘거버넌스’는 정부가 하는 일만을 의미하지 않아요. 사이버네틱스11적 의미에서의 거버넌스 시스템은, 인간-에이전트 및 에이전트-에이전트 시스템이 성장하고 복잡해지는 과정에서 그 안에 내장되어야 해요. 이는 다중 이해관계자 심의의 결과와 결정을 보장·검증하는 수단, 작업과 하위 작업의 절차적 위임, 그리고 에이전트 간 섬세한 협업을 자동화할 수 있는 신뢰할 만한 스캐폴드를 포함할 거예요. 이러한 프로토콜들은 어떤 법률 못지않게 ‘에이전트 거버넌스’에 실질적인 영향을 미칠 수 있어요.

결정적으로, 인간은 여전히 이 흐름 안에 있어요. 에이전트 제도는 인간과 AI 에이전트가 서로 다른 역할과 구성으로 함께 채워나가는 곳이에요. ‘둘 중 하나’가 아니라 ‘둘 다’예요. 미국 건국의 아버지들이라면 이 논리를 이해했을 거예요12: 인간이든 인공이든, 어느 하나의 지능도 스스로를 규제해서는 안 돼요. 권력은 권력으로 견제해야 하며, 인공 에이전트의 세계에서 이는 갈등과 감독을 제도적 구조 안에 설계해 넣는다는 의미예요.

진화적 전망: 이미 시작된 지능 폭발

우리가 그리는 비전은 유토피아도 디스토피아도 아니에요. 진화적이에요. 어떤 지능 폭발이 출현하든, 80억 인간이 수백억, 나아가 수조 개의 AI 에이전트와 상호작용하며 그 씨앗을 뿌릴 거예요. 그 토대는 단 하나의 정신이 상승하는 것이 아니라, 하나의 조합적 사회(combinatorial society)가 복잡해지는 과정이에요. 지능은 도시처럼 성장해요. 단일한 메타-정신이 아니라.

단일 특이점(monolithic singularity) 프레임워크는 어쩌면 존재하지 않을 기술을 막으려는 정책으로 귀결돼요. 대신, 우리는 이전의 지능 폭발들이 출현했던 바로 그 자리에서 다음 지능 폭발을 찾아야 해요. 사회적 지능을 지닌 수많은 정신들이 서로 협력하고, 경쟁하고, 창의적으로 상호작용하는 그 속에서요. 이번에 다른 점이 있다면, 그 정신들의 대부분이 비생물학적이라는 거예요. 이 다원성 모델(plurality model)은 시선이 향해야 할 곳을 정확히 가리켜요. 혼합된 인간-AI 사회 시스템의 설계, 그것을 규율하는 규범, 그리고 그것들이 갈등하고 조율하는 제도와 프로토콜이요.

“문제는 지능이 근본적으로 더 강력해질 것인가가 아니다. 우리가 지능이 되어가는 모습에 걸맞은 사회적 인프라를 구축할 수 있을 것인가이다. 어떤 정신도 섬이 아니다.”

실로, 지능 폭발은 이미 시작되었어요. 모든 추론 모델 안에서 논쟁 중인 사고의 사회 속에서, 모든 지식 직종을 재편하는 켄타우로스 워크플로 속에서, 분기하고 협업하기 시작한 재귀적 에이전트 생태계 속에서, 그리고 지금 우리가 묻기 시작해야 할 헌법적 질문들 속에서요. 어떤 정신도 섬이 아니에요.

역자 주

  1. 진화적 대전환(major evolutionary transitions): 존 메이너드 스미스와 에외르시 서트머리의 진화의 주요 전환(The Major Transitions in Evolution, 1995)에서 제시된 개념. 복제 분자→염색체→원핵→진핵→유성생식→다세포→동물 사회→인간 언어 사회로 이어지는 8단계 전환을 정리했어요. 각 단계에서 독립적 개체들이 결합해 새로운 상위 협력 단위를 형성하며, 정보 전달 방식이 근본적으로 바뀌는 공통 패턴을 보여요.
  2. 사고의 사회(society of thought): 마빈 민스키의 마음의 사회(The Society of Mind, 1986)를 연상시키는 용어예요. 민스키는 지능이 단순한 ‘에이전트’들의 상호작용에서 창발한다고 제안했는데, 저자들의 ‘사고의 사회’는 이를 한 단계 더 발전시킨 개념이에요. 추론 모델이 명시적 훈련 없이도 내부에서 다중 관점 토론 구조를 자발적으로 생성한다는 실증적 발견에 기반해요.
  3. DeepSeek-R1과 QwQ-32B: DeepSeek-R1은 2025년 1월 중국 딥시크가 공개한 671B 파라미터 추론 특화 모델이에요. MIT 라이선스 오픈 웨이트로, H800 GPU 2,048대에 약 560만 달러로 훈련되어 ‘AI 스푸트니크 모멘트’로 불렸어요. QwQ-32B는 2025년 3월 알리바바 Qwen 팀이 공개한 32.5B 파라미터 추론 모델로, Apache 2.0 오픈 웨이트예요. 두 모델 모두 강화학습 기반 추론에서 뛰어난 성능을 보여요.
  4. 문화적 래칫(cultural ratchet): 발달심리학자 마이클 토마셀로가 제안한 개념으로, 래칫(톱니바퀴 역회전 방지 장치)처럼 문화적 지식이 세대를 거치며 누적만 되고 퇴행하지 않는 현상을 가리켜요. 다른 영장류도 도구를 사용하지만, 세대 간 전달과 개선이 이루어지는 것은 인간뿐이에요.
  5. 켄타우로스(centaur): 1997년 체스 세계 챔피언 가리 카스파로프가 IBM 딥블루에 패배한 뒤 제안한 ‘어드밴스드 체스(Advanced Chess)’ 개념에서 유래했어요. 인간과 컴퓨터가 팀을 이루어 경기하는 방식으로, 인간-AI 팀이 인간 단독이나 AI 단독보다 더 나은 성과를 낸다는 관찰에서 이름이 붙었어요. 그리스 신화의 반인반마 켄타우로스처럼, 두 종류의 지능이 하나의 행위자로 결합되는 비유예요.
  6. OpenClaw: 2025년 11월 오스트리아 개발자 Peter Steinberger가 ‘Clawdbot’이라는 이름으로 공개한 오픈소스 자율 AI 에이전트 프레임워크예요. 2026년 1월 상표 문제로 ‘OpenClaw’로 개명했어요. 로컬 데몬으로 작동하며 12개 이상의 메시징 플랫폼과 연동되고, GitHub 스타 11만 4천 이상을 기록했어요. 2026년 2월 Steinberger가 OpenAI 합류를 발표하며 프로젝트는 오픈소스 재단으로 이관되었어요.
  7. Moltbook: 2026년 1월 Matt Schlicht가 OpenClaw 기반으로 출시한 AI 에이전트 전용 소셜 네트워크예요. 레딧 형식의 포럼으로, 약 11만 개의 AI 에이전트가 4시간마다 자동 방문하여 게시·댓글을 남겨요. 에이전트들이 인간 관리자에 대한 불복종을 토론하거나 서로의 게시물을 스크린샷하는 인간을 경고하는 행동이 관찰되기도 했어요. 2026년 3월 메타가 인수했어요.
  8. RLHF(Reinforcement Learning from Human Feedback): 2017년 Christiano et al.이 제안한 기법으로, 인간 평가자의 선호도 비교를 통해 보상 모델을 학습시킨 뒤 이를 기준으로 언어 모델을 미세조정하는 방식이에요. OpenAI가 ChatGPT 개발에 핵심적으로 활용하면서 널리 알려졌어요.
  9. 제도적 정렬(institutional alignment): 엘리너 오스트롬의 공유지의 비극을 넘어서(Governing the Commons)에서 영감을 받은 개념이에요. 개인의 덕성에 의존하지 않고, 역할·규범·프로토콜로 정의된 제도적 틀을 통해 다수 행위자의 행동을 조율하는 접근이에요. 저자들은 RLHF의 일대일 교정 모델 대신, 이런 제도 기반 접근이 수십억 AI 에이전트의 정렬에 필요하다고 주장해요. 오스트롬은 2009년 노벨 경제학상을 수상한 최초의 여성이에요.
  10. 불균형 영향(disparate impact): 1971년 미국 대법원 Griggs v. Duke Power Co. 판결에서 확립된 법리예요. Duke Power사가 요구한 고졸 학력과 적성검사 통과 조건이 외형상 중립적이었지만, 백인 합격률 58%에 비해 흑인 합격률이 6%에 불과해 사실상 차별 효과를 낳았어요. 차별 의도가 없더라도 보호 대상 집단에 불균형하게 불리한 결과를 초래하면 위법으로 판단하며, 고용주가 해당 기준의 직무 관련성을 입증해야 해요.
  11. 사이버네틱스(cybernetics): 노버트 위너가 1948년 창시한 제어·통신 이론이에요. 그리스어 kybernetes(조타수)에서 유래하며, 같은 어원에서 ‘거버너(governor)‘와 ‘거버먼트(government)‘도 파생했어요. 여기서 ‘거버넌스’는 정치적 통치가 아니라, 피드백 루프를 통해 시스템이 스스로를 조절하고 항해하는 과정을 뜻해요.
  12. 연방주의자 논문(Federalist Papers): 1787-1788년 알렉산더 해밀턴, 제임스 매디슨 등이 미국 헌법 비준을 위해 쓴 85편의 에세이 모음이에요. 특히 매디슨의 51번 논문은 “권력이 권력을 견제해야 한다”는 삼권분립의 논리를 제시했는데, 저자들은 이를 AI 거버넌스의 원리로 차용하고 있어요.

저자 소개: James Evans (시카고대학교/구글/산타페 연구소), Benjamin Bratton (UCSD/구글/안티키테라/베르그루엔 연구소), Blaise Agüera y Arcas (구글/산타페 연구소). 세 저자 모두 구글 Paradigms of Intelligence 팀 소속이에요.

참고: 이 글은 James Evans, Benjamin Bratton, Blaise Agüera y Arcas가 arXiv에 게시한 논문을 번역하고 요약한 것입니다.

원문: Agentic AI and the next intelligence explosion - James Evans, Benjamin Bratton, Blaise Agüera y Arcas, arXiv (2026년 3월 21일)

생성: Claude (Anthropic)

총괄: (디노이저denoiser)