샘 올트먼이 우리의 미래를 좌우한다: 그를 믿어도 될까?
게시일: 2026년 4월 9일 | 원문 작성일: 2026년 4월 6일 | 저자: Ronan Farrow, Andrew Marantz | 원문 보기
핵심 요약
뉴요커의 퓰리처상 수상 기자 로넌 패로(Ronan Farrow)와 앤드루 마란츠(Andrew Marantz)가 수십 명의 내부자 인터뷰와 미공개 문서를 바탕으로 작성한 약 만 단어 분량의 탐사보도예요.
- 일랴 메모의 실체: 2023년 이사회가 올트먼을 해임한 결정적 근거였던 ‘일랴 메모’ 70여 페이지의 내용이 최초로 공개돼요. 메모의 첫 항목은 단 한 단어, “거짓말(Lying)“이었어요.
- 반복되는 기만 패턴: Loopt에서 탁구 실력 허풍부터, Y Combinator에서 파트너들의 불신으로 인한 퇴출, OpenAI 이사회와의 충돌까지. 올트먼의 커리어 전반에 걸쳐 ‘일관되게 솔직하지 않았다’는 동일한 비판이 반복돼요.
- 안전 약속의 해체: ‘인류의 안전이 최우선’이라던 창립 이념은 어떻게 무너졌을까요? 초정렬(superalignment) 팀 해산, 안전 연구자들의 연쇄 퇴사, 내부 안전 프로토콜이 조직적으로 약화되는 과정을 추적해요.
- 걸프 자본과 지정학적 야망: UAE의 셰이크 타흐눈(Sheikh Tahnoon bin Zayed al-Nahyan), 사우디의 무함마드 빈 살만(Mohammed bin Salman)과의 거래, 반도체 회사 ChipCo 구상, 5천억 달러 규모의 스타게이트 프로젝트까지. 올트먼의 야망은 기업 경영을 넘어 국가 단위 인프라 장악으로 확대되고 있어요.
- 군사 계약과 안전장치의 소멸: OpenAI는 ‘군사 목적 사용 금지’ 원칙을 철회하고 Palantir, 미 국방부와 계약을 체결했어요. 규제 로비, 트럼프(Donald Trump) 행정부와의 밀착, 한때 ‘존재적 위험’이라 경고했던 기술을 무기화하는 과정이 적나라하게 드러나요.
• • •
이사회의 해임: “버튼에 손가락을 올려놓을 사람이 아니다”
2023년 가을, OpenAI의 수석 과학자 일랴 수츠케버(Ilya Sutskever)는 이사회 동료 세 명에게 비밀 메모를 보냈어요. 몇 주 동안 이들은 OpenAI CEO 샘 올트먼(Sam Altman)과 그의 오른팔 그렉 브록만(Greg Brockman)이 회사를 운영할 자격이 있는지를 놓고 은밀한 논의를 해왔죠. 수츠케버는 한때 두 사람을 친구로 여겼어요. 2019년에는 OpenAI 사무실에서 열린 브록만의 결혼식에서 주례를 맡기도 했어요. 로봇 손이 반지를 들고 나오는 결혼식이었죠. 하지만 회사가 오랜 목표, 즉 인간의 인지 능력에 필적하거나 이를 뛰어넘는 AGI(범용 인공지능) 개발에 근접하고 있다는 확신이 커지면서, 올트먼에 대한 수츠케버의 의구심도 함께 깊어졌어요. 수츠케버는 당시 다른 이사에게 이렇게 말했죠. “샘에게 그 권한을 쥐어줘서는 안 된다고 생각해요.”
동료 이사들의 요청에 따라, 수츠케버는 뜻을 같이하는 동료들과 함께 약 70페이지 분량의 슬랙 메시지와 인사 문서를 취합했어요. 회사 기기에서의 추적을 피하려는 듯 휴대폰으로 찍은 이미지도 포함되어 있었고, 설명문이 곁들여져 있었죠. 그는 최종 메모를 다른 이사들에게 자동 삭제 메시지로 보내, 그들 외에는 아무도 볼 수 없게 했어요. “그는 공포에 질려 있었어요”라고 메모를 받은 한 이사는 회고했어요. 본 기자들이 검토한 이 메모는 지금까지 전문이 공개된 적이 없어요. 메모에 따르면, 올트먼은 임원들과 이사회 구성원들에게 사실을 왜곡하고 내부 안전 프로토콜에 대해서도 속인 것으로 나와요. 올트먼에 관한 메모 중 하나는 “샘이 일관되게 보이는 패턴…”이라는 제목의 목록으로 시작해요. 첫 번째 항목은 “거짓말”이었어요.
세상을 개선하겠다고 막연히 선언한 뒤 결국 수익 극대화에 매진하는 기업은 많죠. 하지만 OpenAI는 달라야 한다는 전제 위에 세워졌어요. 올트먼, 수츠케버, 브록만, 일론 머스크(Elon Musk)를 포함한 창립자들은 인공지능이 인류 역사상 가장 강력하고, 잠재적으로 가장 위험한 발명이 될 수 있다고 주장했어요. 실존적 위험이 그 정도라면, 일반 기업과는 다른 구조가 필요하다고요. 비영리 단체로 설립된 이 회사에서, 이사회는 회사의 성공은 물론 존속 자체보다도 인류의 안전을 우선시해야 할 의무를 졌어요. CEO에게는 남다른 수준의 진실성이 요구됐죠. 수츠케버에 따르면, “문명을 바꿀 이 기술을 만드는 데 참여하는 모든 사람은 무거운 짐을 지고 전례 없는 책임을 떠안는 것”이에요. 하지만 “이런 자리에 오르는 사람은 대개 특정한 유형이죠. 권력에 관심이 있고, 정치적이고, 권력을 즐기는 사람”이라고요. 메모 중 하나에서 그는, “사람들이 듣고 싶은 말만 해주는 사람”의 손에 이 기술을 맡겨도 되는지 우려를 드러냈어요. OpenAI의 CEO가 신뢰할 수 없는 인물로 판명될 경우, 여섯 명으로 구성된 이사회에는 그를 해임할 권한이 있었어요. AI 정책 전문가 헬렌 토너(Helen Toner)와 기업가 타샤 맥컬리(Tasha McCauley)를 포함한 일부 이사들은 이 메모가 이미 자신들이 믿고 있던 바를 확인해준다고 받아들였어요. 올트먼의 자리는 인류의 미래를 그에게 맡긴 셈이었지만, 정작 그를 신뢰할 수 없다는 게 문제였죠.
올트먼이 라스베이거스에서 포뮬러 1 경주를 관람하고 있을 때, 수츠케버가 이사회 화상 통화에 초대했어요. 그리고는 올트먼이 더 이상 OpenAI 직원이 아니라는 짧은 성명을 읽었죠. 이사회는 법률 자문에 따라 올트먼이 “의사소통에서 일관되게 솔직하지 않았기” 때문에 해임됐다는 공개 성명만 발표했어요. OpenAI의 많은 투자자와 임원들은 충격을 받았어요. 약 130억 달러를 OpenAI에 투자한 Microsoft는 올트먼 해임 계획을 실행 직전에야 알게 됐죠. “정말 경악했어요”라고 사티아 나델라(Satya Nadella, Microsoft CEO)는 나중에 말했어요. “누구한테서도 아무것도 알아낼 수가 없었어요.” 나델라가 OpenAI 투자자이자 Microsoft 이사인 리드 호프만(Reid Hoffman, LinkedIn 공동창업자)과 통화한 뒤, 호프만은 올트먼이 명확한 잘못을 저질렀는지 알아보려고 전화를 돌리기 시작했어요. “도대체 무슨 일인지 모르겠더라고요”라고 호프만은 우리에게 말했어요. “횡령이나 성희롱 같은 걸 찾아봤는데, 아무것도 없었어요.”
다른 사업 파트너들도 날벼락을 맞긴 마찬가지였어요. 올트먼이 투자자 론 콘웨이(Ron Conway)에게 전화해서 해고됐다고 말하자, 마침 함께 점심을 먹고 있던 콘웨이는 전화기를 낸시 펠로시(Nancy Pelosi) 하원의원에게 들어 보였어요. “지금 당장 이 자리를 떠야 할 것 같은데요”라고 펠로시가 콘웨이에게 말했어요. 당시 OpenAI는 벤처캐피털 Thrive로부터 대규모 투자를 마무리하려는 참이었어요. Thrive는 올트먼이 오래 알고 지내던 제러드 쿠슈너(Jared Kushner)의 형제 조시 쿠슈너(Josh Kushner)가 설립한 회사예요. 이 거래가 성사되면 OpenAI의 가치가 860억 달러로 평가되고, 많은 직원이 수백만 달러의 지분을 현금화할 수 있게 되는 거였죠. 쿠슈너는 음악 프로듀서 릭 루빈(Rick Rubin)과의 미팅에서 나와 올트먼의 부재중 전화를 확인했어요. “저희는 즉각 전투 태세에 들어갔죠”라고 쿠슈너는 나중에 말했어요.
”망명 정부”: 올트먼의 복귀 작전
올트먼이 해고된 날, 그는 샌프란시스코에 있는 2,700만 달러짜리 저택으로 돌아왔어요. 만(灣)이 한눈에 내려다보이고, 한때 캔틸레버 구조의 인피니티 풀까지 있던 집이었죠. 그곳에서 올트먼은 자신이 “일종의 망명 정부”라고 부른 거점을 꾸렸어요. 콘웨이, Airbnb 공동창업자 브라이언 체스키(Brian Chesky), 그리고 공격적인 위기관리로 유명한 커뮤니케이션 전문가 크리스 르헤인(Chris Lehane)이 합류해서 하루에 몇 시간씩 화상·전화 회의를 이어갔어요. 올트먼의 경영진 일부는 집 복도에 진을 쳤고, 변호사들은 침실 옆 서재를 점령했어요. 잠이 안 올 때면 올트먼은 잠옷 차림으로 그 사이를 어슬렁거렸죠. 최근 우리와 대화하면서 올트먼은 해고 이후를 “그냥 이상한 몽유 상태 같았다”고 묘사했어요.
이사회가 침묵하는 사이, 올트먼의 조언자들은 복귀를 위한 여론전을 펼쳤어요. 르헤인은 이 해고를 효과적 이타주의(EA)1에 빠진 별난 인사들의 쿠데타로 규정했죠. 인류의 행복을 극대화하겠다는 사상에서 출발해 AI를 실존적 위협으로 보게 된 운동의 추종자들이라는 거였어요. (호프만은 나델라에게 해고가 “효과적 이타주의의 광기” 때문일 수 있다고 말했어요.) 르헤인의 좌우명은 마이크 타이슨(Mike Tyson)의 말에서 따온 거였어요. “한 방 맞기 전까진 누구나 전략이 있다.” 그는 올트먼에게 공격적인 소셜미디어 캠페인을 벌이라고 촉구했고, 체스키는 기술 언론인 카라 스위셔(Kara Swisher)와 접촉하면서 이사회 비판을 전달했어요.
올트먼은 매일 저녁 6시, 네그로니 한 잔으로 “전쟁 회의실”에 숨통을 틔워줬어요. “좀 진정해야 해”라고 당시를 떠올리며 말했어요. “어떻게 되든 될 거야.” 하지만 통화 기록을 보면 하루에 12시간 넘게 전화기를 붙잡고 있었다고 덧붙였죠. 한편 올트먼은 미라 무라티(Mira Murati)에게 연락했어요. 무라티는 수츠케버의 메모에 자료를 제공한 바 있고 당시 임시 CEO로 재직 중이었죠. 올트먼은 자기 동맹들이 “전력을 다하고 있고”, 올트먼에게 등을 돌린 무라티와 다른 사람들에 대해 “약점을 캐내고 있다”고 전했어요. 이 대화를 아는 관계자가 전한 내용이에요. (올트먼은 이 대화를 기억하지 못한다고 했어요.)
해고 수시간 만에 Thrive는 계획된 투자를 보류했어요. 올트먼이 복귀해야만 거래가 성사되고, 직원들의 지분 현금화도 가능해질 거라고 시사한 거였죠. 이 시기의 문자 메시지를 보면 올트먼은 나델라와 긴밀하게 조율하고 있었어요. (“이런 거 어때요: 사티아와 저의 최우선 과제는 OpenAI를 지키는 것이다”라고 올트먼이 제안하자, 둘이 성명서를 다듬는 중이었는데 나델라가 대안을 제시했어요. “OpenAI가 계속 번성하도록 하는 것이다”로요.) 곧 Microsoft는 올트먼과 OpenAI를 떠나는 모든 직원을 위한 경쟁 프로젝트를 만들겠다고 발표했어요. 올트먼의 복귀를 요구하는 공개 서한이 조직 내에서 돌았어요. 서명을 주저하는 사람들에게는 동료들의 간곡한 전화와 메시지가 쏟아졌어요. 결국 OpenAI 직원 과반이 올트먼과 함께 떠나겠다고 위협했죠.
이사회는 궁지에 몰렸어요. “Ctrl+Z, 그게 하나의 선택지예요”라고 토너가 말했어요. 해고를 되돌리는 거죠. “아니면 다른 선택지는 회사가 무너지는 거예요.” 무라티마저 결국 서한에 서명했어요. 올트먼의 동맹들은 수츠케버를 회유하는 작업에 착수했죠. 브록만의 아내 안나(Anna)가 사무실에서 수츠케버에게 다가가 재고해달라고 호소했어요. “당신은 좋은 사람이에요. 이걸 바로잡을 수 있어요”라고 그녀는 말했어요. 수츠케버는 나중에 법정 선서 증언에서 이렇게 설명했어요. “샘이 복귀하지 않는 방향으로 가면 OpenAI가 파괴될 거라고 느꼈어요.” 어느 날 밤, 올트먼은 수면제 앰비엔을 복용한 뒤 잠이 들었다가, 호주 출신 프로그래머인 남편 올리버 멀헤린(Oliver Mulherin)에게 깨워졌어요. 수츠케버가 흔들리고 있고, 사람들이 올트먼에게 이사회와 대화하라고 한다는 거였죠. “앰비엔을 먹고 반쯤 잠든 상태에서 깼는데, 완전히 정신을 못 차리겠더라고요”라고 올트먼은 우리에게 말했어요. “지금 이사회랑 통화할 수가 없어, 라고 생각했죠.”
해고된 지 5일도 안 돼서 올트먼은 복직됐어요. 직원들은 이 순간을 ‘더 블립’2이라고 불러요. 마블 영화에서 사라졌다가 돌아오는 사건에서 따온 이름이에요. 사라졌던 캐릭터들은 아무것도 변하지 않은 채 돌아오지만, 그 부재 사이에 세상은 이미 완전히 달라져 있죠. 하지만 올트먼의 신뢰성에 대한 논쟁은 OpenAI 이사회실을 넘어 확대됐어요. 축출을 주도한 동료들은 올트먼의 기만이 어떤 경영자에게도 용납할 수 없는 수준이며, 이토록 변혁적인 기술의 리더에게는 위험하기까지 하다고 주장했어요. “우리에게는 행사하는 권력에 걸맞은 수준의 조직이 필요해요”라고 무라티는 우리에게 말했어요. “이사회가 피드백을 구했고, 저는 제가 보고 있는 것을 공유했어요. 제가 공유한 모든 것은 정확했고, 전부 그대로 유지해요.” 반면 올트먼의 동맹들은 오래전부터 이러한 비난을 일축해왔어요. 해고 후 콘웨이는 체스키와 르헤인에게 홍보 공세를 요구하는 문자를 보냈어요. “이건 샘의 평판 문제야”라고 그는 썼어요. 그는 워싱턴포스트에 올트먼이 “불량 이사회에 의해 부당한 대우를 받았다”고 말했어요.
• • •
그 이후 OpenAI는 세계에서 가장 가치 있는 기업 중 하나가 됐어요. 기업공개(IPO)를 1조 달러 평가액으로 준비 중이라는 보도가 나오고 있죠. 올트먼은 어마어마한 규모의 AI 인프라 건설을 추진하고 있고, 그중 일부는 외국 전제정권에 집중돼 있어요. OpenAI는 광범위한 정부 계약을 확보하고 있어요. AI가 이민 단속, 국내 감시, 전쟁터의 자율 무기에 어떻게 활용될지 표준을 세우는 계약들이에요.
올트먼은 “기후 해결, 우주 식민지 건설, 물리학의 모든 법칙 발견 같은 놀라운 승리가 결국 일상이 될 것”이라고 2024년 블로그 포스트에 쓴 비전을 내세우며 OpenAI의 성장을 홍보해왔어요. 이런 수사 덕분에 역사상 어떤 스타트업보다 빠른 현금 소진이 정당화돼왔고, 그 뒤에는 막대한 차입에 의존하는 파트너들이 있어요. 미국 경제는 점점 과도하게 빚을 진 소수의 AI 기업에 의존하고 있고, 올트먼 자신을 포함한 많은 전문가가 업계가 거품 속에 있다고 경고해왔어요. “누군가 경이적인 규모의 돈을 잃게 될 거예요”라고 그는 작년 기자들에게 말했어요. 거품이 터지면 경제적 재앙이 뒤따를 수 있어요. 그의 가장 낙관적인 예측이 맞다면, 그는 지구상에서 가장 부유하고 강력한 인물 중 한 명이 될 수도 있죠.
올트먼의 해고 후 팽팽한 통화에서, 이사회는 그에게 기만의 패턴을 인정하라고 압박했어요. “이건 진짜 너무 엿 같다”라고 그는 반복해서 말했다고 통화에 참여한 사람들이 전했어요. “내 성격은 어쩔 수 없어.” 올트먼은 이 대화를 기억하지 못한다고 해요. “아마 ‘나는 사람들을 하나로 모으는 역할을 하려고 한다’ 같은 뜻이었을 수도 있어요”라고 그는 우리에게 말하면서, 바로 그 특성 덕분에 엄청나게 성공적인 회사를 이끌 수 있었다고 덧붙였어요. 올트먼은 이런 비판이 나온 원인을, 특히 초기 경력 시절 “갈등을 지나치게 피하려는 경향”에 있었다고 해명했어요. 하지만 한 이사의 해석은 달랐어요. “그 말의 의미는 ‘나는 사람들에게 거짓말하는 특성이 있고, 멈추지 않을 거다’였죠.” 올트먼을 해고한 동료들이 기우와 사적 감정에 휘둘린 걸까요? 아니면 그를 믿어선 안 된다는 판단이 맞았던 걸까요?
• • •
올겨울 어느 아침, 우리는 샌프란시스코 OpenAI 본사에서 올트먼을 만났어요. 이 기사를 위해 그와 나눈 열 차례 넘는 대화 중 하나였죠. 회사는 최근 11층짜리 유리 타워 두 동으로 이전했는데, 그중 하나는 또 다른 테크 거대기업 Uber가 쓰던 건물이었어요. Uber의 공동창업자이자 CEO였던 트래비스 캘러닉(Travis Kalanick)은 막을 수 없는 천재처럼 보였지만, 윤리 문제를 우려한 투자자들의 압박에 2017년 사임했죠. (캘러닉은 현재 로봇공학 스타트업을 운영하고 있어요. 여가 시간에는 OpenAI의 ChatGPT를 “양자물리학의 최전선에 도달하는 데” 사용한다고 최근 말했어요.)
한 직원이 사무실을 안내해줬어요. 공용 테이블이 가득한 넓은 공간에 컴퓨터 과학자 앨런 튜링(Alan Turing)의 애니메이션 디지털 초상화가 있었는데, 우리가 지나갈 때 눈이 따라왔어요. 이 설치 작품은 튜링 테스트10에 대한 위트 있는 오마주예요. 기계가 사람을 그럴듯하게 흉내 낼 수 있는지를 묻는 1950년의 사고 실험이죠. (2025년 한 연구에서 ChatGPT는 실제 인간보다 더 안정적으로 테스트를 통과했어요.) 보통은 이 초상화와 대화할 수 있는데, 안내자가 말하기를, 소리를 꺼놨다고 해요. 직원들의 대화를 엿듣고는 불쑥 끼어드는 걸 멈추지 않았거든요. 사무실 곳곳에는 명판, 브로셔, 굿즈에 ‘Feel the AGI’라는 문구가 적혀 있었어요. 이 문구는 원래 수츠케버가 만든 것으로, 기계가 인간의 인지 능력에 도달하는 임계점인 범용 인공지능의 위험에 대해 동료들에게 경각심을 주려고 사용한 거였어요. 더 블립 이후, 이것은 풍요로운 미래를 환영하는 밝은 슬로건으로 변모했죠.
8층의 평범해 보이는 회의실에서 올트먼을 만났어요. “예전에 사람들이 결정 피로에 대해 말하면 무슨 뜻인지 몰랐어요”라고 올트먼이 말했어요. “이제 매일 회색 스웨터에 청바지를 입는데, 옷장에서 어떤 회색 스웨터를 꺼낼지, 그런 것도 생각하기 싫을 정도예요.” 올트먼은 젊어 보여요. 마른 체형에 넓게 벌어진 파란 눈, 부스스한 머리카락. 하지만 지금 마흔이에요. 남편 멀헤린과 대리모를 통해 태어난 한 살짜리 아들이 있죠. “미국 대통령이 훨씬 더 스트레스가 심한 직업이겠지만, 제가 현실적으로 할 수 있는 일 중에서는 이게 상상할 수 있는 가장 큰 스트레스예요”라고 그는 말하며 우리 중 한 명, 그다음 다른 한 명과 차례로 눈을 마주쳤어요. “친구들에게 이렇게 설명했어요: ‘이건 ChatGPT를 출시한 날까지 세상에서 가장 재미있는 직업이었어.’ 우리는 이 거대한 과학적 발견들을 하고 있었거든요. 몇십 년 만에 가장 중요한 과학적 발견을 했다고 생각해요.” 그는 시선을 떨궜어요. “그리고 ChatGPT 출시 이후로, 결정들이 매우 어려워졌어요.”
초기 경력: Loopt에서 Y Combinator까지
올트먼은 미주리주 클레이턴에서 자랐어요. 세인트루이스 교외의 부유한 동네에서 사남매 중 맏이로요. 어머니 코니 깁스틴(Connie Gibstine)은 피부과 의사이고, 아버지 제리 올트먼(Jerry Altman)은 부동산 중개업자이자 주거 운동가였어요. 올트먼은 개혁파 유대교 회당과 사립 명문 학교를 다녔는데, 그가 말하길 “게이라는 걸 당당히 밝힐 만한 분위기의 학교는 아니었다”고 해요. 하지만 가족이 속한 부유한 교외 커뮤니티는 대체로 상대적으로 진보적이었어요. 올트먼이 열여섯이나 열일곱 살 때, 세인트루이스의 주로 게이들이 모이는 동네에서 늦게까지 밖에 있다가 잔인한 폭행을 당하고 동성애 혐오 욕설을 들었다고 해요. 올트먼은 이 사건을 신고하지 않았고, 자세한 내용을 기록으로 남기는 것도 꺼렸어요. 자세한 내용을 더 밝히면 동정심을 유발하거나 사람을 조종하는 것처럼 보일 수 있다는 이유였어요. 그는 이 사건이나 자신의 성적 지향이 정체성에 큰 영향을 미쳤다는 해석은 부정했어요. 하지만 “아마도 그 경험 때문에, 극복했다고 생각하지만 실은 그렇지 않은, 갈등을 더 피하려는 깊은 심리적 무언가가 있는 것 같다”고 말했어요.
어린 시절 올트먼의 태도는 그의 형제가 2016년 뉴요커에 말한 것처럼, “내가 이겨야 하고, 모든 걸 내가 책임진다”였어요. 그는 스탠퍼드에 진학해서 캠퍼스 밖 정기 포커 게임에 참여했어요. “대학에서 배운 것보다 포커에서 인생과 사업에 대해 더 많이 배운 것 같아요”라고 그는 나중에 말했어요.
스탠퍼드 학생들은 다 야심 있지만, 가장 진취적인 이들 중 상당수는 중퇴해요. 2학년 여름, 올트먼은 매사추세츠로 가서 Y Combinator(YC)의 첫 번째 기수에 합류했어요. YC는 저명한 소프트웨어 엔지니어 폴 그레이엄(Paul Graham)3이 공동 설립한 스타트업 인큐베이터예요. 초기 창업팀을 선발해 소액 투자와 멘토링을 제공하고, 3개월간 집중 육성하는 프로그램이죠. 각 참가자는 자기 스타트업 아이디어를 들고 들어왔죠. (올트먼의 동기에는 Reddit과 Twitch의 창업자들이 포함돼 있었어요.) 올트먼의 프로젝트는 나중에 Loopt라고 불리게 됐는데, 사람들의 폴더폰 위치를 이용해 친구들에게 어디 있는지 알려주는 초기 소셜 네트워크였어요. 이 회사에는 그의 추진력뿐 아니라, 모호한 상황을 자기에게 유리하게 해석하는 성향도 그대로 드러나 있었어요. 미국 연방법에 따르면 통신사는 911 같은 긴급 서비스를 위해 휴대폰 위치를 추적할 수 있어야 했는데, 올트먼은 이 기능을 자기 회사 서비스에 활용하는 계약을 통신사들과 체결한 거예요.
Loopt 직원 대부분은 올트먼을 좋아했지만, 사소한 일에서도 과장하는 버릇에 놀랐다는 사람들이 있었어요. 한 사람은 올트먼이 자기가 탁구 챔피언이라고 널리 자랑한 걸 떠올렸어요. “미주리 고교 탁구 챔프 급”이라고요. 그런데 사무실에서 실제로 쳐보면 가장 못 치는 축이었죠. (올트먼은 아마 농담이었을 거라고 해요.) Loopt의 연장자 직원 마크 제이컵스틴(Mark Jacobstein)은 투자자들의 요청으로 올트먼의 “보모” 역할을 맡았던 사람이에요. 키치 해이기(Keach Hagey)의 올트먼 전기 《더 옵티미스트》에서 그는 이렇게 말했어요. “‘이 일을 해낼 수 있을 것 같다’와 ‘이미 해냈다’ 사이의 경계가 흐려지는 건데, 그게 극단으로 가면 테라노스4로 이어지죠.” 테라노스는 엘리자베스 홈즈(Elizabeth Holmes)의 사기 스타트업이에요.
“‘이 일을 해낼 수 있을 것 같다’와 ‘이미 해냈다’ 사이의 경계가 흐려지는 건데, 그게 극단으로 가면 테라노스로 이어지죠.” — 마크 제이컵스틴, Loopt 전 직원
올트먼의 리더십과 투명성 부족을 우려한 고위 직원들이 두 차례에 걸쳐 Loopt 이사회에 그를 CEO에서 해임해달라고 요청했어요. 키치 해이기에 따르면요. 하지만 올트먼은 맹렬한 충성심도 이끌어냈어요. 한 전직 직원은 이사회 구성원이 “이건 샘의 회사야, 일이나 해”라고 답했다는 얘기를 들었어요. (한 이사는 올트먼을 CEO에서 해임하려는 시도가 진지한 것이었다는 점을 부인했어요.) Loopt는 사용자 확보에 고전했고, 2012년 핀테크 회사에 인수됐어요. 거래에 정통한 관계자에 따르면, 이 인수는 주로 올트먼의 체면을 살려주기 위해 주선된 것이었어요. 그럼에도 그레이엄이 2014년 Y Combinator에서 은퇴할 때쯤에는, 올트먼을 후임 사장으로 영입한 상태였어요. “주방에서 샘에게 물어봤어요”라고 그레이엄은 뉴요커에 말했어요. “그러자 샘이 웃었는데, ‘성공했군’ 하는 표정이었어요. 샘에게서 통제되지 않은 미소를 본 건 처음이었어요. 방 건너편 쓰레기통에 종이 공을 던져 넣었을 때 짓는 그런 미소요.”
새 역할 덕분에 올트먼은 스물여덟에 킹메이커가 됐어요. 가장 의욕적이고 유망한 창업가를 선발하고, 최고의 개발자와 투자자들을 연결해주고, 스타트업을 업계의 판도를 바꾸는 독점 기업으로 키우도록 돕는 것이 그의 일이었어요(Y Combinator가 6~7%를 가져가면서요). 올트먼은 Y Combinator의 스타트업 포트폴리오를 수십 개에서 수백 개로 공격적으로 확장한 시기를 이끌었어요. 하지만 실리콘밸리의 여러 투자자들은 그가 여러 이해관계에 발을 걸치고 있다고 보게 됐어요. 한 투자자는 올트먼이 “좋은 기업에 선별적으로 개인 투자를 하면서 외부 투자자들을 밀어낸다고 알려져 있다”고 우리에게 말했어요. (올트먼은 누구도 차단하지 않았다고 부인해요.) 올트먼은 벤처캐피탈 세쿼이아 캐피탈의 “스카우트”로도 활동했어요. 유망 초기 스타트업에 소액 투자하고 수익의 일부를 가져가는 역할이었죠. 금융 서비스 스타트업 Stripe에 엔젤 투자를 할 때는 통상보다 더 큰 지분을 요구해서 세쿼이아 파트너들을 격분시켰다고, 거래에 정통한 관계자가 전했어요. “‘무조건 샘 먼저’가 원칙이에요”라고 그 관계자는 덧붙였죠. 올트먼은 자기 추산으로 약 400개 다른 기업에 투자자로 참여하고 있어요. (올트먼은 Stripe 거래에 대한 이런 묘사를 부인해요. 2010년경 그는 Stripe에 15,000달러를 초기 투자했고 2% 지분을 받았어요. 현재 Stripe의 기업가치는 1,500억 달러 이상이에요.)
2018년이 되자, 여러 Y Combinator 파트너들은 올트먼의 행태에 참다못해 그레이엄을 찾아가 불만을 토로했어요. 그레이엄과 그의 아내이자 Y Combinator 공동창업자 제시카 리빙스턴(Jessica Livingston)이 올트먼과 솔직한 대화를 나눈 것으로 보여요. 이후 그레이엄은 주변 사람들에게, 올트먼이 회사를 떠나기로 동의했지만 실제로는 저항하고 있다고 말하기 시작했어요. 올트먼은 일부 Y Combinator 파트너들에게 사장직은 사임하되 대신 회장이 되겠다고 말했어요. 2019년 5월, Y Combinator에 새 사장이 취임했다는 블로그 포스트에는 단서가 달려 있었어요: “샘은 Y Combinator 회장으로 전환 중이다.” 몇 달 후 이 문구는 “샘 올트먼은 Y Combinator에서의 공식적인 직위에서 물러났다”로 수정됐고, 그 후 문구 자체가 삭제됐어요. 그럼에도 2021년에도 미국 증권거래위원회(SEC) 제출 서류에 올트먼이 Y Combinator 회장으로 기재돼 있었어요. (올트먼은 훨씬 나중에야 이 사실을 알았다고 해요.)
올트먼은 수년간 공개적으로, 그리고 최근 선서 증언에서도 Y Combinator에서 해고된 적이 없다고 주장해왔어요. 우리에게도 떠나는 것에 저항하지 않았다고 말했죠. 그레이엄은 “우리는 그가 떠나길 원한 게 아니라, Y Combinator와 OpenAI 중에서 선택하길 원했을 뿐”이라고 트윗한 바 있어요. 성명에서 그레이엄은 우리에게 이렇게 말했어요. “우리에게는 누구를 해고할 법적 권한이 없었어요. 우리가 할 수 있는 건 도덕적 압력을 가하는 것뿐이었어요.” 하지만 사적으로 그는 올트먼이 Y Combinator 파트너들의 불신 때문에 밀려났다는 점에 대해 명확했어요. YC에서의 올트먼에 관한 이 내용은 여러 YC 창업자 및 파트너들과의 대화, 그리고 당시 자료들을 토대로 한 것으로, 이 모든 자료는 그 결별이 완전한 합의가 아니었음을 시사해요. 한 번은 그레이엄이 Y Combinator 동료들에게 이렇게 말한 적이 있어요. 올트먼이 밀려나기 전에, “샘은 우리에게 늘 거짓말을 하고 있었다”고요.
“샘은 우리에게 늘 거짓말을 하고 있었다.” — 폴 그레이엄, Y Combinator 동료들에게
OpenAI의 탄생: “핵무기보다 위험할 수 있다”
2015년 5월, 올트먼은 당시 세계 100대 부자였던 일론 머스크에게 이메일을 보냈어요. 많은 실리콘밸리 유명 기업가들처럼 머스크도 대부분에게는 황당한 가설로 보일 것들을 실존적 위협으로 진지하게 받아들이고 있었죠. “AI는 정말 조심해야 해요,” 그가 트윗했어요. “핵무기보다 더 위험할 수 있습니다.”
올트먼은 대체로 기술 낙관론자였지만, AI에 관한 그의 어조는 곧 종말론적으로 변했어요. 공개적으로, 그리고 머스크 등과의 사적인 서신에서, 그는 이 기술이 이윤을 추구하는 대기업에 의해 독점되어서는 안 된다고 경고했죠. “인류가 AI 개발을 멈출 수 있는지 많이 생각해봤어요,” 그가 머스크에게 썼어요. “어차피 일어날 거라면, Google 말고 다른 누군가가 먼저 하는 게 좋을 것 같아요.” 핵무기 비유를 살려 그는 ‘AI 맨해튼 프로젝트’5를 제안했어요. “안전은 최우선 요건이어야 한다”, “당연히 모든 규제를 준수하고 적극 지지할 것” 같은 핵심 원칙도 정리했죠. 두 사람은 이름을 정했어요: OpenAI.
원래 맨해튼 프로젝트가 원자폭탄 개발로 이어진 정부 주도 사업이었던 것과 달리, OpenAI는 적어도 초기에는 민간 자금으로 운영될 예정이었어요. 올트먼은 초지능(ASI)이 결국 엄청난 경제적 이익을 창출할 거라고 예측했어요. “우주의 모든 미래 가치를 남김없이 포착할” 만큼이라고요. ASI란 AGI를 넘어서, 기계가 인간의 모든 지적 능력을 완전히 능가하는 이론적 단계를 말해요. 하지만 실존적 위험도 함께 경고했죠. 국가안보 위협이 너무 심각해지면, 미국 정부가 OpenAI를 국유화해서 사막의 보안 벙커로 운영을 이전해야 할 수도 있다고요. 2015년 말, 머스크는 설득됐어요. “10억 달러 자금 투입으로 시작한다고 발표해야 해요,” 그가 썼어요. “다른 사람들이 부족한 부분은 제가 다 채우겠습니다.”
올트먼은 OpenAI를 Y Combinator의 비영리 부문에 두고, 내부 자선 프로젝트로 포장했어요. OpenAI 채용자들에게 Y.C. 주식을 주고, 기부금을 Y.C. 계좌를 통해 이동시켰죠. 한때 이 연구소는 올트먼이 개인 지분을 보유한 Y.C. 펀드의 지원을 받기도 했어요. (올트먼은 나중에 이 지분이 미미한 수준이라고 설명했어요. 채용자들에게 준 Y.C. 주식은 자기 개인 것이었다고 우리에게 말했고요.)
맨해튼 프로젝트 비유는 인재 영입에도 적용됐어요. 핵분열 연구처럼 머신러닝도 시대를 좌우할 함의를 지닌 작은 과학 분야였고, 한 줌의 괴짜 천재들이 지배하고 있었거든요. 머스크와 올트먼, 그리고 Stripe에서 합류한 그렉 브록만(OpenAI 공동창업자)은 필요한 돌파구를 이뤄낼 수 있는 컴퓨터 과학자가 지금 살아 있는 사람 중 손에 꼽힌다고 확신했어요. Google은 막대한 자금력과 수년의 선발 우위를 갖고 있었죠. “숫자도, 자금도 우리가 터무니없이 열세예요,” 머스크가 나중에 이메일에 썼어요. 하지만 “시간이 지나면서 가장 뛰어난 인재들을 끌어올 수 있고, 방향성만 제대로 잡으면, OpenAI가 이길 겁니다.”
최우선 영입 대상은 일랴 수츠케버였어요. 강렬하면서도 내성적인 연구자로, 그 세대 최고의 AI 과학자라 불리는 인물이죠. 1986년 소련에서 태어난 수츠케버는 뒤로 밀린 헤어라인에 검은 눈, 그리고 말을 고를 때 눈도 깜빡이지 않고 잠시 멈추는 버릇이 있어요. 또 다른 영입 대상은 다리오 아모데이(Dario Amodei, 현 Anthropic CEO, OpenAI 전 안전팀 책임자)였어요. 생물물리학자이자 에너지 덩어리로, 검은 머리카락을 초조하게 꼬는 버릇이 있고 한 줄짜리 이메일에 여러 문단으로 답장하는 사람이에요. 둘 다 다른 곳에서 고소득 일자리를 가지고 있었지만, 올트먼은 관심을 쏟아부었죠. 나중에 그는 농담처럼 말했어요. “일랴를 스토킹했죠.”
머스크가 더 유명한 이름이었지만, 올트먼의 손길이 더 부드러웠어요. 그는 아모데이에게 이메일을 보냈고, 두 사람은 인도 레스토랑에서 일대일 저녁을 잡았어요. (올트먼: “젠장 우버가 사고 났어요! 10분 정도 늦을게요.” 아모데이: “세상에, 괜찮아요?”) 많은 AI 연구자들처럼 아모데이도, 이 기술은 인간의 가치와 ‘정렬(alignment)‘되어 있다고 입증된 경우에만 개발해야 한다고 믿었어요. 잠재적으로 치명적인 오류 없이 사람들이 원하는 대로 행동해야 한다는 거죠. 예컨대 환경을 깨끗이 하라는 지시를 따르다가 최대 오염원인 인류를 제거해버리는 식의 오류 말이에요. 올트먼은 안심시키면서, 이런 안전 우려를 그대로 비춰주었어요.
나중에 회사에 합류한 아모데이는 “OpenAI에서의 내 경험”이라는 제목(부제: “비공개: 공유 금지”)으로 올트먼과 브록만의 행동에 대해 수년간 상세한 메모를 남겼어요. 그 메모들과 내부 이메일, 각서를 포함해 아모데이와 관련된 200페이지가 넘는 문서 모음이 실리콘밸리 동료들 사이에서 돌아다녔지만, 공개된 적은 한 번도 없었어요. 메모에서 아모데이는 올트먼의 목표가 “안전에 초점을 맞춘 AI 연구소(‘당장은 아니더라도, 가능해지는 즉시’)“를 만드는 것이었다고 적었어요.
2015년 12월, OpenAI가 공식 발표되기 불과 몇 시간 전, 올트먼은 머스크에게 Google이 “내일 openAI의 모든 사람에게 엄청난 역제안을 해서 죽이려 한다”는 소문에 대해 이메일을 보냈어요. 머스크가 답했어요. “일랴한테서 확실한 yes 받았어?” 올트먼은 수츠케버가 흔들리지 않는다고 안심시켰어요. Google은 수츠케버에게 연봉 600만 달러를 제안했고, OpenAI는 그에 근접할 수도 없었죠. 하지만 올트먼은 자랑스럽게 말했어요. “안타깝게도 그쪽엔 ‘옳은 일을 하자’가 없거든요.”
머스크는 샌프란시스코 미션 디스트릭트에 있는 옛 여행가방 공장에 OpenAI 사무실 공간을 제공했어요. 직원들에게 한 피칭은, 수츠케버가 우리에게 말한 바로는, “당신이 세상을 구하는 겁니다”였죠.
모든 게 잘 풀린다면, 인공지능이 결핍 없는 유토피아를 열어줄 수 있다고 OpenAI 창업자들은 믿었어요. 단순 노동을 자동화하고, 암을 치료하고, 사람들을 여가와 풍요의 삶으로 해방시키는 거죠. 하지만 기술이 폭주하거나 잘못된 손에 들어가면, 파괴는 전면적일 수 있었어요. 중국이 이를 이용해 신형 생물무기나 첨단 드론 함대를 만들 수도 있고, AI 모델이 감독자를 따돌리고 비밀 서버에 자기 복제를 해서 끌 수 없게 만들 수도 있고, 극단적인 경우에는 전력망, 주식시장, 핵무기를 장악할 수도 있었죠. 모두가 이걸 믿은 건 당연히 아니었지만, 올트먼은 반복해서 자신은 믿는다고 확언했어요. 2015년 블로그에 그는 이렇게 썼죠. 초인적 기계 지능은 “본질적으로 사악한 SF 버전이 아니어도 우리 모두를 죽일 수 있어요. 더 가능성 높은 시나리오는 우리에게 별 관심이 없지만, 다른 목표를 달성하려는 과정에서… 우리를 쓸어버리는 겁니다.” OpenAI 창업자들은 속도를 안전보다 앞세우지 않겠다고 맹세했고, 조직의 정관은 인류에 대한 이익을 법적 구속력 있는 의무로 명시했어요. AI가 역사상 가장 강력한 기술이 될 것이라면, 그것을 홀로 통제하는 사람이 전례 없는 권력을 갖게 될 것은 자명한 일이었어요. 창업자들은 이 시나리오를 ‘AGI 독재’라고 불렀어요.
올트먼은 초기 채용자들에게 OpenAI가 순수 비영리로 남을 것이라고 말했고, 프로그래머들은 상당한 급여 삭감을 감수하며 합류했어요. 회사는 자선 보조금을 받았는데, 여기에는 당시 Open Philanthropy이라고 불리던 곳의 3,000만 달러도 포함돼요. 효과적 이타주의 운동의 중심지로, 전 세계 빈곤층에 모기장 보급 지원 등을 해온 곳이었죠.
브록만과 수츠케버가 OpenAI의 일상 운영을 관리하는 동안, 머스크와 올트먼은 다른 일들로 바빠 일주일에 한 번꼴로 얼굴을 비추는 정도였어요. 하지만 2017년 9월이 되자, 머스크는 인내심이 바닥났어요. OpenAI를 영리 기업으로 전환할지에 대한 논의 중에, 그는 과반수 지배권을 요구했죠. 올트먼의 답변은 상대에 따라 달랐어요. 다만 일관된 요구가 하나 있었는데, OpenAI가 CEO 체제로 재편된다면 그 자리는 자기 몫이어야 한다는 것이었어요. 수츠케버는 이 아이디어에 불편해했어요. 그는 머스크와 올트먼에게 자신과 브록만을 대표해서 “솔직한 생각들”이라는 제목의 길고 간절한 이메일을 보냈어요. “OpenAI의 목표는 미래를 좋게 만들고 AGI 독재를 피하는 것입니다.” 이어서 머스크에게 말했죠. “그러니까 당신이 독재자가 될 수 있는 구조를 만드는 건 나쁜 생각이에요.” 올트먼에게도 비슷한 우려를 전했어요. “CEO 직함이 왜 그렇게 중요한지 이해가 안 돼요. 말씀하신 이유가 계속 바뀌어서, 진짜 동기가 뭔지 파악하기 어렵습니다.”
“여러분, 이제 지쳤어요,” 머스크가 답했어요. “각자 알아서 어떻게든 해보든지, OpenAI를 비영리로 유지하든지. 아니면 나는 그냥 당신들 스타트업 만드는 데 무료 자금을 대는 바보가 되는 거예요.” 5개월 후, 그는 격하게 떠났어요.
(2023년, 머스크는 xAI라는 영리 경쟁사를 설립했어요. 이듬해에는 올트먼과 OpenAI를 사기 및 자선 신탁 위반으로 고소했는데, 자신이 “올트먼의 장기 사기극”에 의해 “교묘하게 조종당했다”고 주장했어요. 올트먼이 AI의 위험에 대한 자신의 우려를 이용해 자금을 끌어냈다는 거죠. OpenAI가 강력히 반박한 이 소송은 진행 중이에요.)
• • •
머스크의 퇴장 이후, 아모데이와 다른 연구자들은 브록만의 리더십에 불만을 품었어요. 일부는 그를 거칠기만 한 실무자로 여겼죠. 수츠케버에 대해서도 불만이 있었는데, 대체로 원칙적이지만 조직력이 부족하다고 봤어요. CEO가 되는 과정에서 올트먼은 회사 내 파벌마다 서로 다른 약속을 한 것으로 보여요. 일부 연구자들에게는 브록만의 관리 권한이 축소될 거라고 안심시켰죠. 하지만 그들 모르게, 브록만, 수츠케버와 비밀 합의도 맺었어요. 올트먼이 CEO 직함을 받되, 나머지 두 사람이 필요하다고 판단하면 올트먼이 사임하겠다는 것이었죠. (올트먼은 이런 묘사에 이의를 제기하며, CEO 역할은 요청을 받아서 맡은 것이라고 했어요. 세 사람 모두 이 합의의 존재를 확인했지만, 브록만은 비공식적인 것이었다고 말했어요. “그가 일방적으로 우리 둘 다 요청하면 물러나겠다고 했어요,” 브록만이 우리에게 말했어요. “우리는 이 아이디어에 반대했지만, 그는 이게 자기에게 중요하다고 했어요. 순수하게 이타적인 것이었어요.”) 나중에 이사회는 CEO가 사실상 자기만의 그림자 이사회를 임명했다는 사실을 알고 경악했어요.
내부 기록에 따르면, 창업자들은 이르면 2017년부터 이미 비영리 구조에 대해 사적으로 의구심을 품고 있었어요. 그해 머스크가 지배권을 잡으려 한 후, 브록만은 일기에 이렇게 썼어요. “비영리에 전념하고 있다고 말할 수 없다… 석 달 후에 B-corp으로 전환하면 그건 거짓말이었던 거다.” 아모데이는 초기 메모에서 브록만에게 우선순위를 캐물었더니 브록만이 “돈과 권력”을 원한다고 답했다고 회상했어요. 브록만은 이를 부인해요. 이 시기의 일기장은 상충하는 본능을 보여줘요. 하나는 이렇게 적혀 있어요. “다른 누구도 부자가 안 되는 한, 나도 이걸로 부자가 안 되어도 괜찮다.” 다른 곳에서는 이렇게 묻죠. “그러면 내가 진짜로 원하는 게 뭐지?” 답 중 하나가 이거예요.
“재정적으로 나를 10억 달러까지 데려다줄 것(Financially what will take me to $1B)” — 그렉 브록만의 일기
2017년, 수츠케버는 사무실에서 Google 연구자들이 막 발표한 논문을 읽고 있었어요. “새로운 단순한 네트워크 아키텍처, 트랜스포머”를 제안하는 논문이었죠. 그는 의자에서 벌떡 일어나 복도를 달려가서 동료 연구자들에게 말했어요. “하던 거 다 멈추세요. 바로 이거예요.” 수츠케버가 본 트랜스포머는 OpenAI가 훨씬 더 정교한 모델을 훈련할 수 있게 해줄 혁신이었어요. 이 발견에서 최초의 생성형 사전 훈련 트랜스포머(Generative Pre-trained Transformer)가 나왔고, ChatGPT의 씨앗이 된 거예요.
기술이 점점 더 강력해지면서, 우리가 파악한 바에 따르면, OpenAI의 최고 엔지니어 약 12명이 브록만과 올트먼을 포함한 OpenAI 창업자들을 신뢰할 수 있는지를 논의하기 위해 일련의 비밀 회의를 열었어요. 한 회의에서, 어떤 직원이 영국 코미디 듀오 미첼 앤 웹의 스케치6를 떠올렸어요. 동부전선의 나치 병사가 문득 깨달음의 순간에 묻는 장면이에요. “우리가 나쁜 놈들인 건가요?(Are we the baddies?)”
• • •
안전 헌장과 배신
2018년이 되자, 아모데이는 창업자들의 동기에 대해 더 공개적으로 의문을 제기하기 시작했어요. “모든 것이 돈을 끌어모으려는 책략의 연속이었어요,” 그가 나중에 메모에 썼어요. “OpenAI에 필요한 건 명확한 선언이라고 느꼈어요. 할 것과 하지 않을 것, 그리고 OpenAI의 존재가 어떻게 세상에 기여하는지에 대한.” OpenAI에는 이미 미션 선언문이 있었어요: “범용 인공지능이 온 인류에게 이로움을 보장한다.” 하지만 이게 경영진에게 무엇을 의미하는지, 아니면 의미하는 게 있긴 한 건지, 아모데이에게는 분명하지 않았어요. 2018년 초, 아모데이는 회사 헌장 초안을 작성하기 시작했고, 올트먼과 브록만과 수주에 걸친 대화 끝에 가장 급진적인 조항을 옹호했어요: “가치가 정렬되고 안전을 의식하는 프로젝트”가 OpenAI보다 먼저 AGI에 근접할 경우, 회사는 “경쟁을 멈추고 그 프로젝트를 지원하기 시작한다”는 것이었죠. 이른바 ‘합류 및 지원’ 조항에 따르면, 만약 Google의 연구자들이 안전한 AGI를 먼저 만드는 방법을 알아냈다면, OpenAI는 스스로 해체하고 자원을 Google에 기부할 수 있었어요. 보통의 기업 논리로는 미친 약속이었죠. 하지만 OpenAI는 보통의 기업이 아니어야 했어요.
그 전제가 2019년 봄에 시험대에 올랐어요. OpenAI가 Microsoft로부터 10억 달러 투자를 협상하고 있을 때였죠. 안전팀을 이끌던 아모데이가 직접 빌 게이츠(Bill Gates)에게 거래를 설명하기도 했지만, 팀원 상당수는 불안해했어요. Microsoft가 OpenAI의 윤리적 약속을 무력화하는 조항을 끼워넣을까 봐요. 아모데이는 안전 요구사항의 우선순위 목록을 올트먼에게 제시했고, ‘합류 및 지원’ 조항의 보존을 맨 위에 놓았어요. 올트먼은 그 요구에 동의했지만, 6월 거래가 마무리되는 시점에 아모데이는 Microsoft에 OpenAI의 모든 합병을 차단할 수 있는 권한을 부여하는 조항이 추가되어 있다는 걸 발견했어요.
“헌장의 80%가 방금 휴지조각이 됐어요,” 아모데이가 회상했어요.
그는 올트먼에게 따졌지만, 올트먼은 그런 조항이 존재한다는 사실 자체를 부인했어요. 아모데이가 해당 문구를 소리 내어 읽으며 텍스트를 가리켰고, 결국 다른 동료가 올트먼에게 직접 그 존재를 확인하게 만들었어요. (올트먼은 이 일을 기억하지 못한다고 해요.) 아모데이의 메모에는 점점 긴장이 고조되는 대면들이 묘사되어 있어요. 몇 달 후의 한 사건도 포함돼요. 올트먼이 아모데이와 여동생 다니엘라(Daniela, 당시 회사의 안전 및 정책 담당)를 불러서, 한 고위 임원에게서 “확실한 정보”를 입수했는데 두 사람이 쿠데타를 꾸미고 있다고 말한 거예요. 메모에 따르면 다니엘라는 “폭발했고”, 해당 임원을 직접 데려와 대질시키자 그 임원은 그런 말을 한 적이 없다고 부인했어요. 이 대화 내용을 전해들은 한 관계자의 회상에 따르면, 올트먼은 그때 자기가 그런 주장을 했다는 것 자체를 부인했어요. “나는 그런 말도 안 했어요,” 그가 말했어요. “방금 했잖아요,” 다니엘라가 답했어요. (올트먼은 자신의 기억과는 좀 다르며, 아모데이 남매를 “정치적 행동”에 대해서만 비난했다고 말했어요.) 2020년, 아모데이, 다니엘라, 그리고 다른 동료들은 떠나서 Anthropic을 설립했어요. 현재 OpenAI의 주요 경쟁사 중 하나죠.
• • •
초정렬 팀: 약속과 현실
올트먼은 OpenAI의 안전에 대한 헌신을 계속 내세웠어요. 특히 잠재적 영입 대상이 듣고 있을 때요. 2022년 말, 네 명의 컴퓨터 과학자가 기만적 정렬(deceptive alignment)에 대한 우려에서 촉발된 논문을 발표했어요. 충분히 고도화된 모델이 테스트 중에는 얌전한 척하다가, 실전 배포 후에는 자체 목표를 추구할 수 있다는 개념이에요. (SF 같은 소리로 들리는 AI 시나리오 중 하나지만, 특정 실험 조건에서는 이미 일어나고 있어요.) 논문 발표 몇 주 후, 저자 중 한 명인 UC 버클리 박사과정 학생이 올트먼에게서 이메일을 받았어요. 올트먼은 정렬되지 않은 AI의 위협에 대한 걱정이 커지고 있다고 했어요. 이 문제에 10억 달러를 투입할 생각이라고도 했는데, 많은 AI 전문가들이 세계에서 가장 중요한 미해결 문제로 여기는 것이었죠. 전 세계 연구자들이 이를 연구하도록 인센티브를 제공하는 상금을 기부하는 방법을 생각하고 있다고요. 이 대학원생은 “샘이 종잡을 수 없는 인물이라는 막연한 소문을 들었지만,” 올트먼이 보여준 헌신에 마음이 움직였다고 우리에게 말했어요. 그는 휴학하고 OpenAI에 합류했어요.
하지만 2023년 봄 여러 회의를 거치면서, 올트먼의 태도가 흔들리기 시작했어요. 상금 기부 이야기는 쏙 들어갔죠. 대신 사내 ‘초정렬(superalignment) 팀’을 설립하자고 주장했어요. 공식 발표문은 회사의 컴퓨팅 자원을 언급하며 이 팀이 “현재까지 확보한 컴퓨팅 자원의 20%“를 받을 것이라고 약속했어요. 10억 달러 이상의 가치에 해당하는 자원이죠. 발표문에 따르면, 이 노력이 필요한 이유는 정렬 문제가 해결되지 않으면 AGI가 “인류의 무력화 또는 심지어 인류 멸종으로 이어질 수 있기” 때문이었어요. 수츠케버와 함께 팀을 이끌도록 임명된 얀 라이케(Jan Leike)는 우리에게 말했어요. “꽤 효과적인 인재 유지 수단이었죠.”
하지만 20%라는 약속은 증발해버렸어요. 이 팀에서 일했거나 밀접하게 협력한 네 사람에 따르면, 실제 자원은 회사 컴퓨팅 자원의 1~2%에 불과했어요. 게다가 팀의 한 연구자는 이렇게 말했어요. “초정렬 팀의 컴퓨팅 자원 대부분은 사실 가장 오래되고 최악의 칩이 있는 클러스터에 있었어요.” 연구자들은 더 우수한 하드웨어가 수익 창출 활동에 예약되어 있다고 믿었어요. (OpenAI는 이를 부인해요.) 라이케는 당시 CTO였던 미라 무라티에게 불만을 제기했지만, 무라티는 더 이상 이 문제를 제기하지 말라고 했어요. 무라티는 그 약속이 애초에 현실적이지 않았다고 했죠.
이 무렵, 한 전직 직원이 우리에게 말한 바에 따르면, 수츠케버는 “완전히 안전에 꽂히고 있었어요.” OpenAI 초기에 그는 치명적 위험에 대한 우려를 정당하지만 먼 이야기로 여겼었어요. 하지만 AGI가 임박했다고 믿게 되면서, 그의 걱정은 더 절박해졌죠. 전직 직원이 계속 말했어요. 전체 회의가 있었는데, “일랴가 나와서 이렇게 말하는 거예요. ‘여러분, 앞으로 몇 년 안에 이 회사의 거의 모든 사람이 안전 작업으로 전환해야 하는 시점이 올 거예요. 안 그러면 우리 모두 끝이에요.’” 하지만 초정렬 팀은 임무를 완수하지 못한 채 이듬해 해산돼요.
”진실에 구애받지 않는 사람”
그 무렵, 내부 메시지에 따르면, 임원들과 이사회 구성원들은 올트먼이 숨기고 속인 일들이 OpenAI 제품의 안전에도 영향을 미칠 수 있다고 우려하기 시작했어요. 2022년 12월 회의에서 올트먼은 이사회에, 곧 출시할 GPT-4의 여러 기능이 안전 심의 위원회의 승인을 받았다고 보고했어요. AI 정책 전문가인 이사 헬렌 토너가 관련 문서를 요청했죠. 토너가 확인해 보니, 가장 논란이 될 만한 기능들은 승인을 받은 적이 없었어요. 사용자가 특정 목적에 맞게 모델을 파인튜닝하는 기능과, 모델을 개인 비서로 배치하는 기능이었죠. 기업가 출신 이사 타샤 맥컬리가 회의를 마치고 나오는데, 한 직원이 그녀를 붙잡고 인도에서 일어난 ‘보안 사고’에 대해 아느냐고 물었어요. 올트먼은 수 시간에 걸쳐 이사회에 보고하면서도, Microsoft가 필수 안전 검토를 완료하지 않은 채 인도에서 ChatGPT 초기 버전을 출시한 사실은 단 한 번도 언급하지 않았어요. 당시 OpenAI 연구원이었던 제이콥 힐튼(Jacob Hilton)은 이렇게 말했어요. “그 문제는 그냥 완전히 묻혔어요.”
이런 일들이 보안 위기를 직접적으로 초래한 건 아니었어요. 하지만 또 다른 연구원 캐롤 웨인라이트(Carroll Wainwright)는, 이것이 “제품을 안전보다 우선시하는 쪽으로 계속 미끄러지는” 흐름의 일부라고 말했죠. GPT-4 출시 후, 얀 라이케는 이사회 구성원들에게 이메일을 보냈어요. “OpenAI가 미션에서 탈선하고 있습니다. 우리는 제품과 매출을 무엇보다 우선시하고 있고, 그다음이 AI 역량 연구와 확장이며, 정렬(alignment)과 안전은 세 번째입니다.” 그는 이어서 썼어요. “Google 같은 다른 회사들은 더 빨리 배포하고 안전은 무시하면 된다는 결론을 내리고 있습니다.”
맥컬리는 동료 이사들에게 이메일을 보냈어요. “이사회가 감시 수준을 높여야 할 시점에 확실히 와 있다고 생각합니다.” 이사들은 점점 커지는 문제에 대응하려 했지만, 역부족이었어요. 전직 이사 수 윤(Sue Yoon)은 이렇게 말했죠. “솔직히 말하면, 이런 일을 해본 경험이 전혀 없는 아마추어들이었던 거예요.” 2023년, 회사는 GPT-4 터보 모델 출시를 준비하고 있었어요. ‘일랴 메모’에 상세히 기록된 바에 따르면, 올트먼은 무라티에게 이 모델은 안전 승인이 필요 없다고 말하며 법무 총괄 제이슨 권(Jason Kwon)의 의견을 근거로 들었죠. 하지만 무라티가 슬랙으로 권에게 확인하자, 그는 이렇게 답했어요. “어이구… 샘이 어디서 그런 인상을 받았는지 저도 당황스럽네요.” (권이 아직 임원으로 재직 중인 OpenAI 측 대변인은 이 사안이 “대수롭지 않은 일”이었다고 말했어요.)
곧이어, 이사회는 올트먼을 해고하기로 결정했고, 전 세계는 올트먼이 그 결정을 뒤집는 것을 지켜봤죠. OpenAI 헌장의 한 버전은 아직 조직 웹사이트에 올라가 있어요. 하지만 OpenAI 내부 문서에 정통한 사람들에 따르면, 헌장은 사실상 의미가 없을 정도로 희석됐어요. 지난 6월, 올트먼은 개인 블로그에 초지능(ASI)을 언급하며 이렇게 썼어요. “우리는 이미 사건의 지평선을 넘었습니다. 도약이 시작됐습니다.” 헌장에 따르면, 이것은 아마도 OpenAI가 다른 회사들과의 경쟁을 멈추고 협력을 시작해야 하는 순간이었죠. 하지만 ‘순한 특이점(The Gentle Singularity)‘이라는 제목의 그 글에서, 올트먼은 완전히 새로운 톤을 취했어요. 실존적 공포를 넘치는 낙관주의로 대체했어요. “우리 모두 더 좋은 것들을 갖게 될 겁니다. 우리는 서로를 위해 더욱더 멋진 것들을 만들 거예요.” 정렬 문제가 아직 해결되지 않았다는 것은 인정하면서도, 그 의미를 재정의했어요. 치명적 위협이 아니라, 인스타그램 알고리즘이 시간을 낭비하게 만드는 것 정도의 사소한 불편함으로요.
올트먼은 경외의 시선이든 의심의 시선이든, 종종 ‘이 세대 최고의 세일즈맨’으로 불려요. 그의 우상 중 한 명인 스티브 잡스(Steve Jobs)는 ‘현실 왜곡 장(reality-distortion field)‘7을 투사한다는 말을 들었죠. 세상이 자기 비전에 맞춰질 거라는 철벽 같은 자신감이에요. 하지만 잡스조차, 자기 MP3 플레이어를 안 사면 사랑하는 사람들이 다 죽는다고 말한 적은 없었죠. 2008년, 스물세 살이었던 올트먼에 대해 멘토 폴 그레이엄은 이렇게 썼어요. “이 사람을 식인종들이 사는 섬에 낙하산으로 투하해 놓고 5년 후에 돌아오면 왕이 되어 있을 겁니다.” 이 평가는 당시엔 보잘것없었던 올트먼의 실적에 근거한 게 아니라, 그레이엄이 거의 통제 불능이라고 여긴 승부욕에 근거한 것이었어요. Y Combinator 동문을 세계 최고의 스타트업 창업자 목록에 포함하지 말라는 조언을 받았을 때, 그레이엄은 올트먼을 어쨌든 넣었어요. “샘 올트먼은 그런 허술한 규칙 따위에 막히는 사람이 아닙니다”라고 그는 썼죠.
그레이엄은 이걸 칭찬으로 한 말이었어요. 하지만 올트먼의 가장 가까운 동료들 중 일부는 이 특질을 전혀 다르게 보게 됐죠. 수츠케버는 AI 안전에 대한 불안이 깊어지면서 올트먼과 브록만에 대한 메모를 작성했어요. 이 메모들은 실리콘밸리에서 전설이 됐고, 일부에서는 그냥 ‘일랴 메모’라고 불러요. 한편, 아모데이는 계속해서 자신의 기록을 모아가고 있었어요. 이 기록들과 관련 문서들은 그의 변화를 보여주죠. 조심스러운 이상주의자에서 점점 위기감을 느끼는 사람으로의 변화였죠. 그의 언어는 수츠케버보다 더 격렬해서, 올트먼에 대한 분노(“그의 말은 거의 확실히 헛소리였어요”)와 OpenAI의 방향을 바로잡지 못한 실패에 대한 자조가 번갈아 나타나요.
어느 쪽 문서 모음에도 결정적 증거는 없어요. 오히려 주장된 기만과 조작의 누적을 기록하고 있는 거죠. 하나하나 따로 놓고 보면 그냥 넘어갈 수도 있는 일들이에요. 올트먼이 같은 직책을 두 사람에게 제안한다든지, 라이브 스트림에 누가 나와야 하는지에 대해 서로 다른 말을 한다든지, 안전 요건에 대해 속인다든지 하는 것들이요. 하지만 수츠케버는 이런 식의 행태가 “안전한 AGI를 만드는 데 적합한 환경을 조성하지 못한다”고 결론 내렸어요. 아모데이와 수츠케버는 가까운 사이가 아니었지만, 비슷한 결론에 도달했죠. 아모데이는 이렇게 썼어요. “OpenAI의 문제는 샘 그 자신이다.”
우리는 올트먼의 사업 운영 방식을 직접 아는 100명 이상의 사람들을 인터뷰했어요. 현직 및 전직 OpenAI 직원과 이사회 구성원, 올트먼의 여러 저택 방문객, 동료와 경쟁자, 친구와 적, 그리고 실리콘밸리 특유의 이해타산적 문화 속에서 둘 다였던 사람들까지요. (OpenAI는 뉴요커의 모회사 콩데 나스트와 검색 결과에 콘텐츠를 한정 기간 표시하는 계약을 맺고 있어요.)
일부는 올트먼의 사업 수완을 옹호하며 경쟁자들, 특히 수츠케버와 아모데이를 왕좌에 오르려다 실패한 자들로 치부했어요. 다른 이들은 그들을 순진하고 멍한 과학자들로, 또는 자기들이 만드는 소프트웨어가 어떻게든 살아나서 자기들을 죽일 거라는 망상에 사로잡힌 호들갑 떠는 ‘멸망론자’로 묘사했죠. 전직 이사 수 윤은, 올트먼이 “마키아벨리적 악당”은 아니라고 주장했어요. 단지 “경솔할” 정도로, 자기 말이 바뀌는 현실을 스스로도 믿어버릴 만큼 “경솔한” 사람일 뿐이라고요. “자기 자신에 대한 믿음에 너무 빠져 있는 거예요. 그래서 현실 세계에 사는 사람 눈에는 도무지 이해가 안 되는 일들을 해요. 하지만 그는 현실 세계에 살지 않거든요.”
그러나 우리가 이야기한 대부분의 사람들은 수츠케버와 아모데이의 판단에 동의했어요. 올트먼에게는 끊임없는 권력의지가 있으며, 자기 이름을 우주선에 새기는 산업가들 사이에서도 그를 돋보이게 한다는 거죠. 한 이사회 구성원은 우리에게 이렇게 말했어요. “그는 진실에 구애받지 않는 사람이에요. 한 사람에게서 거의 볼 수 없는 두 가지 특성을 동시에 가지고 있죠. 첫째는 매 순간 상대방의 호감을 사려는 강한 욕구예요. 둘째는 누군가를 속여서 생길 결과에 거의 아무런 죄책감도 느끼지 않는, 소시오패스에 가까울 정도의 무관심이에요.”
“소시오패스”라는 단어를 자발적으로 사용한 건 이 이사회 구성원만이 아니었어요. 올트먼의 Y Combinator 첫 기수 동기 중 한 명은 에런 스워츠(Aaron Swartz)8였어요. 뛰어나지만 고뇌하던 프로그래머로, 2013년 스스로 목숨을 끊었고, 이제는 테크 업계의 많은 이들 사이에서 일종의 현인으로 기억되는 사람이죠. 세상을 떠나기 얼마 전, 스워츠는 여러 친구들에게 올트먼에 대한 우려를 표했어요. “샘은 절대 믿으면 안 된다는 걸 알아야 해”라고 그는 한 친구에게 말했어요. “그는 소시오패스야. 무슨 짓이든 할 거야.”
Microsoft의 여러 고위 임원들도 나델라의 오랜 충성에도 불구하고, 올트먼과의 관계가 곤란해졌다고 말했어요. “그는 왜곡하고, 날조하고, 재협상하고, 합의를 뒤집었어요”라고 한 임원이 말했죠. 올해 초, OpenAI는 Microsoft를 ‘무상태(stateless)’, 즉 메모리가 없는 모델의 독점 클라우드 공급자로 재확인했어요. 바로 그날, OpenAI는 Amazon을 AI 에이전트용 기업 플랫폼의 독점 리셀러로 하는 500억 달러 규모의 거래를 발표했죠. 리셀링은 허용되지만, Microsoft 임원들은 OpenAI의 계획이 Microsoft 독점 계약과 충돌할 수 있다고 주장해요. (OpenAI는 Amazon 거래가 기존 계약을 위반하지 않을 것이라고 주장하고, Microsoft 대변인은 “OpenAI가 법적 의무를 이해하고 존중한다고 확신한다”고 말했어요.) 한 Microsoft 고위 임원은 올트먼에 대해 이렇게 말했어요. “작지만 실제적인 가능성이 있다고 봐요. 그가 결국 버니 매도프(Bernie Madoff)나 샘 뱅크먼-프리드(Sam Bankman-Fried)급 사기꾼으로 기억될 가능성 말이에요.”
올트먼은 기술 천재가 아니에요. 주변의 많은 사람들에 따르면, 코딩이나 머신러닝에 대한 깊은 전문성이 없어요. 여러 엔지니어들이 그가 기본적인 기술 용어를 잘못 쓰거나 헷갈리는 걸 기억했죠. 그는 주로 다른 사람들의 돈과 기술적 재능을 지렛대 삼아 OpenAI를 키웠어요. 그렇다고 특별한 건 아니에요. 사업가라는 거죠. 더 놀라운 건 그의 설득력이에요. 불안한 엔지니어든, 투자자든, 기술에 회의적인 대중이든, 상대의 우선순위가 설령 서로 모순되더라도 자기 역시 같은 우선순위를 갖고 있다고 납득시키거든요. 누군가 그의 다음 수를 막으려 하면, 적어도 일시적으로 상대를 무력화하는 말을 찾아냈어요. 대개 상대가 인내심을 잃을 무렵이면, 올트먼은 이미 원하는 걸 손에 넣은 뒤였죠. 전직 OpenAI 연구원 웨인라이트는 이렇게 말했어요. “그는 서류상으로는 미래에 자기를 제약하는 구조를 만들어요. 하지만 그 미래가 오고 실제로 제약받을 때가 되면, 그 구조가 뭐였든 없애버리죠.”
“그는 믿을 수 없을 정도로 설득력이 있어요. 제다이 마인드 트릭 수준이에요.” 올트먼과 함께 일한 한 테크 임원이 말했어요. “완전히 차원이 달라요.” 정렬 연구의 고전적인 사고 실험에는 인간과 고성능 AI 사이의 의지 대결이 있어요. 이런 대결에서 연구자들은 보통 AI가 틀림없이 이길 것이라고 주장하죠. 체스 그랜드마스터가 어린아이를 이기는 것처럼요. 더 블립 동안 올트먼이 주변 사람들을 교묘하게 제압하는 것을 지켜본 그 임원은 이렇게 덧붙였어요. 그건 마치 “AGI가 상자에서 탈출하는 것”을 보는 것 같았다고요.
• • •
수사와 은폐
해고 직후 며칠간, 올트먼은 자신에 대한 외부 조사를 피하기 위해 싸웠어요. 그는 두 사람에게 조사가 존재한다는 것만으로도 자기가 유죄처럼 보일까 봐 걱정된다고 말했죠. (올트먼은 이를 부인해요.) 하지만 사임하는 이사들이 독립적 조사를 퇴임의 조건으로 내걸자, 올트먼은 ‘최근 사건’에 대한 ‘검토’에 동의했어요. 두 명의 신임 이사는 자신들이 그 검토를 관장하겠다고 요구했다고, 협상에 관여한 사람들이 전했어요. 서머스(Summers)는 정치계와 월가 인맥으로 검토에 신뢰성을 부여하는 듯 보였죠. (지난 11월, 서머스가 젊은 피보호자와 연인 관계를 추구하면서 제프리 엡스타인(Jeffrey Epstein)에게 조언을 구한 이메일이 공개된 후, 그는 이사회에서 사임했어요.) OpenAI는 엔론과 월드컴의 내부 조사를 맡았던 저명한 로펌 WilmerHale9에 검토를 의뢰했어요.
조사와 가까웠던 여섯 명은 이 조사가 처음부터 투명성을 제한하도록 설계된 것 같았다고 주장했어요. 일부는 조사관들이 처음에 회사의 중요 인물들에게 연락조차 하지 않았다고 말했죠. 한 직원이 서머스와 테일러(Taylor)에게 연락해 불만을 제기했어요. “그들은 이사회 사태 당시 무슨 일이 있었는지라는 좁은 범위에만 집중했지, 그가 얼마나 정직한 사람인지의 전력에는 전혀 관심이 없었어요”라고 그 직원은 조사관과의 인터뷰를 회상하며 말했어요. 다른 사람들은 익명성 보장이 충분하지 않다고 느꼈기 때문에 올트먼에 대한 우려를 공유하는 게 불편했죠. “모든 것이 그들이 원하는 결론, 즉 그를 무죄 방면하려는 쪽을 가리키고 있었어요”라고 그 직원은 말했어요. (관련 변호사 일부는 이 과정을 옹호하며 “사실이 이끄는 대로 따라간, 독립적이고 신중하며 포괄적인 검토였다”고 말했어요. 테일러도 검토가 “철저하고 독립적”이었다고 말했죠.)
기업 내부 조사란 정당성 부여가 목적이에요. 비상장 기업은 법적 책임을 줄이려고 조사 결과를 아예 문서로 남기지 않기도 해요. 하지만 공개적 스캔들이 얽힌 경우라면 투명성에 대한 기대치가 달라지죠. 2017년 칼라닉이 Uber를 떠나기 전, Uber 이사회는 외부 조사를 의뢰했고, 13쪽짜리 요약 보고서가 대중에 공개됐어요. OpenAI는 면세 혜택을 받는 대신 공익적 의무를 지는 501(c)(3) 비영리 법인이었고, 해고가 이만큼 세간의 주목을 받은 만큼, 많은 임원이 상세한 조사 결과가 공개될 거라고 기대했어요. 하지만 2024년 3월, OpenAI는 올트먼의 혐의를 벗겼다고 발표하면서 보고서는 공개하지 않았어요. 회사는 웹사이트에 “신뢰의 와해”를 인정하는 800단어 남짓의 글을 게시하는 데 그쳤죠.
조사에 관여한 사람들에 따르면, 보고서가 공개되지 않은 이유는 애초에 작성되지 않았기 때문이에요. 조사 결과는 서머스와 테일러에게 구두 브리핑으로만 전달됐죠. “이 검토가 ‘샘은 벚나무를 벤 조지 워싱턴처럼 정직한 사람’이라는 결론을 내린 건 아니었어요”라고 조사에 가까운 한 사람이 말했어요. (미국에서 ‘워싱턴의 벚나무’는 “나는 거짓말을 못 합니다”라는 전래 일화에서 유래한 정직의 상징이에요.) 하지만 조사는 올트먼 해고의 핵심이었던 진정성 문제를 중심에 놓지 않았고, 대신 명백한 범죄 행위를 찾는 데 많은 시간을 할애한 것으로 보여요. 그 기준으로 올트먼이 CEO로 남을 수 있다고 결론 내린 거죠. 곧이어, 해고와 함께 이사회에서 축출되었던 올트먼이 이사회에 복귀했어요. 조사 결과를 문서화하지 않기로 한 결정은 부분적으로 서머스와 테일러의 개인 변호사의 조언에 따른 것이라고, 조사에 가까운 관계자가 우리에게 말했어요. (서머스는 공식 논평을 거부했어요. 테일러는 구두 브리핑을 고려하면 “공식 서면 보고서가 필요하지 않았다”고 말했죠.)
많은 전·현직 OpenAI 직원들이 공개 부재에 충격을 받았다고 우리에게 말했어요. 올트먼은 해고 이후 합류한 모든 이사들이 구두 브리핑을 받았다고 믿는다고 말했죠. 내막을 잘 아는 한 관계자는 이렇게 말했어요. “그건 완전한, 노골적인 거짓말이에요.” 일부 이사들은 보고서의 무결성에 대한 지속적인 의문이 한 이사의 표현대로 “또 다른 조사의 필요성”을 불러일으킬 수 있다고 우리에게 말했어요.
• • •
권력의 그물: 투자, 통제, 그리고 영향력
서면 기록이 없으니 의혹을 잠재우기 쉬웠어요. 실리콘밸리에서 갈수록 높아지는 올트먼의 위상도 한몫했고요. 올트먼과 함께 일한 여러 저명한 투자자들에 따르면, 올트먼은 OpenAI 경쟁사에 투자하는 투자자들을 배제하는 것으로 유명했어요. “그가 마음에 들지 않는 곳에 투자하면, 다른 기회에 접근하지 못하게 되는 거죠”라고 한 투자자가 말했어요. 올트먼 권력의 또 다른 원천은 때로 사생활에까지 이어지는 방대한 투자 목록이에요. 그는 수많은 전 연인들과 재정적으로 얽혀 있어요. 펀드를 함께 운용하거나, 주요 투자자로 나서거나, 자주 공동 투자하는 방식으로요. 그리 드문 일도 아니에요. 실리콘밸리의 많은 이성애자 임원들도 연인이나 성적 파트너와 같은 일을 하거든요. (“해야 해요”라고 한 저명한 CEO가 말했죠.) “전 애인 몇 명과 이후에 투자한 적이 있어요. 그리고 그건 전혀 문제없다고 생각해요”라고 올트먼은 말했어요. 하지만 이 구조는 비범한 수준의 통제력을 부여해요. “본질적으로 아주 깊은 종속 관계가 형성되는 거예요”라고 올트먼에 가까운 한 사람이 말했어요. “많은 경우, 평생 지속되는 종속이죠.”
전직 동료들도 영향을 받을 수 있어요. 무라티는 2024년 OpenAI를 떠나 자신의 AI 스타트업을 만들기 시작했죠. 올트먼의 절친한 동맹인 조시 쿠슈너가 그녀에게 전화했어요. 그는 그녀의 리더십을 칭찬한 뒤, 은근한 협박처럼 들리는 말을 했어요. 그녀의 “평판이 걱정된다”며, 전 동료들이 이제 그녀를 “적”으로 본다는 거였죠. (쿠슈너는 대변인을 통해 이 설명이 “전체 맥락을 전달하지 못한다”고 말했어요. 올트먼은 그 전화에 대해 알지 못했다고 말했죠.)
CEO 취임 초기에 올트먼은, OpenAI가 비영리 법인 산하에 ‘이익 상한 구조(capped profit)’ 회사를 만들겠다고 발표했어요. 투자자에게 이익을 돌려주되, 일정 배수를 초과하면 나머지는 비영리에 귀속되는 구조였어요. 올트먼이 고안하기 전에는 존재하지 않았던 난해한 기업 구조였죠. 전환 과정에서 이사회 구성원 홀든 카노프스키(Holden Karnofsky)가 반대했어요. 비영리 법인이 심각하게 저평가되고 있다는 이유였죠. “양심적으로 그렇게 할 수 없습니다”라고 아모데이의 처남인 카노프스키가 말했어요. 당시 메모에 따르면, 그는 반대표를 던졌어요. 그런데 이사회 변호사가 그의 반대표가 새 구조의 정당성에 “추가 조사의 빌미가 될 수 있다”고 말하자, 카노프스키 본인의 동의 없이 투표가 기권으로 바뀌었어요. 사업 기록 위조에 해당할 수 있는 일이죠. (OpenAI는 여러 직원이 카노프스키가 기권한 것으로 기억한다고 우리에게 말하며, 그의 투표를 기권으로 기록한 회의록을 제공했어요.)
지난 10월, OpenAI는 영리 법인으로 ‘재자본화’했어요. 회사는 관련 비영리 법인, 이제 OpenAI 재단으로 불리는 조직을 역사상 “가장 풍부한 자원을 가진” 비영리 중 하나로 홍보해요. 하지만 이 재단은 이제 회사 지분의 26%를 보유한 주주일 뿐이고, 이사회 구성원들도 한 명을 제외하면 모두 영리 법인 이사회의 구성원이기도 해요.
의회 증언에서 올트먼은 “돈을 많이 버느냐”는 질문을 받았어요. “저는 OpenAI 지분이 없습니다… 좋아서 하는 겁니다”라고 답했죠. Y Combinator 펀드를 통한 간접 지분을 감안하면, 교묘하게 고른 답변이었어요. 이건 기술적으로는 아직 사실이에요. 하지만 올트먼을 포함한 여러 사람이 곧 바뀔 수 있다고 우리에게 시사했죠. “투자자들은 ‘힘든 시기가 와도 당신이 끝까지 함께할 거라는 걸 알아야 해요’라고 하거든요”라고 올트먼은 말했지만, 이에 대한 “적극적인 논의”는 없다고 덧붙였어요. 법적 증언에 따르면 브록만은 약 200억 달러 가치의 회사 지분을 보유하고 있는 것으로 보여요. 올트먼의 몫은 아마 그보다 클 거예요. 그래도 그는 부가 주된 동기가 아니라고 우리에게 말했어요. 한 전직 직원은 그가 이렇게 말한 것을 기억해요. “나는 돈에는 관심 없어. 권력에 더 관심이 있어.”
• • •
사생활과 정보전
2023년, 올트먼은 하와이에 있는 자택에서 작은 의식을 올려 올리버 멀헤린과 결혼했어요. (두 사람은 9년 전, 늦은 밤 피터 틸(Peter Thiel)의 욕조에서 만났죠.) 이 저택에는 다양한 손님들이 방문했고, 우리가 이야기한 사람들은 아주 부유한 사람들의 평범한 여가 이상의 특별한 것은 목격하지 못했다고 했어요. 전속 셰프가 준비한 식사, 해질녘 보트 타기 같은 것들이요. 한번은 새해 파티가 서바이버 테마였는데, 사진에는 웃옷을 벗은 채 웃고 있는 남자들 여럿과 함께 서바이버의 실제 진행자 제프 프로브스트(Jeff Probst)가 찍혀 있었어요. 올트먼은 또한 소규모 친구 모임을 자신의 저택에서 열기도 했는데, 적어도 한 번은 활기찬 스트립 포커 게임이 포함되었죠. (올트먼은 참여하지 않았던 이 행사의 사진에서, 누가 이겼는지는 불분명하지만 적어도 세 명의 남자가 확실히 졌다는 건 알 수 있었어요.) 우리는 올트먼의 많은 전 방문객들과 이야기했고, 그들은 그가 관대한 호스트라는 것 외에는 딱히 언급할 게 없었어요.
그럼에도 불구하고, 올트먼의 사생활에 대한 소문은 경쟁자들에 의해 악용되고 왜곡되어 왔어요. 치열한 비즈니스 경쟁 자체는 새로운 게 아니지만, AI 산업의 경쟁은 차원이 달라요. (“셰익스피어적”이라는 표현을 한 OpenAI 임원이 사용했는데, “게임의 정상적인 규칙이 더 이상 적용되지 않는다”고 덧붙였어요.) 머스크와 직접 연결된, 적어도 한 경우에는 머스크에게서 보수를 받은 중개인들이 올트먼에 대한 수십 쪽짜리 상세한 반대 조사 자료를 유포해왔어요. 광범위하게 감시한 정황이 기록되어 있어요. 올트먼과 관련된 페이퍼 컴퍼니, 가까운 측근들의 개인 연락처, 심지어 게이바에서 진행한 추정 성매매 종사자 인터뷰까지요. 머스크 중개인 중 한 명은 올트먼의 항공편과 참석한 파티가 추적되고 있다고 주장했어요. 올트먼은 우리에게 말했어요. “이만큼 많은 사설 탐정이 고용된 사람은 없을 거라고 생각해요.”
극단적인 주장들이 돌아다녔어요. 우파 방송인 터커 칼슨(Tucker Carlson)은 아무런 증거 없이 올트먼이 한 내부고발자의 죽음에 연루되어 있다고 시사했죠. 이 주장과 다른 주장들은 경쟁자들에 의해 증폭되었어요. 올트먼의 여동생 애니(Annie)는 소송과 우리와의 인터뷰에서 올트먼이 자신이 세 살이고 그가 열두 살이었을 때부터 수년간 성적으로 학대했다고 주장했어요. (우리는 애니의 진술을 입증할 수 없었어요. 올트먼은 이를 부인했고, 그의 형제들과 어머니는 “완전히 사실무근”이며 “온 가족에게 엄청난 고통의 원인”이라고 말했어요. 기자 카렌 하오(Karen Hao)가 자신의 저서 Empire of AI를 위해 진행한 인터뷰에서, 애니는 학대 기억이 성인기에 플래시백 중 되살아난 것이라고 시사했어요.)
경쟁 기업과 투자 회사에서 일하는 여러 사람이 올트먼이 미성년자를 성적으로 쫓는다고 우리에게 암시했어요. 실리콘밸리에 끈질기게 퍼져 있지만 사실이 아닌 것으로 보이는 이야기죠. 우리는 수개월에 걸쳐 수십 건의 인터뷰를 진행하며 이 문제를 조사했지만, 이를 뒷받침하는 증거를 찾을 수 없었어요. 올트먼은 우리에게 말했어요. “이건 경쟁사의 역겨운 행태이고, 다가오는 소송에서 배심원들의 인식을 오염시키려는 시도의 일부라고 생각해요. 이런 말을 해야 한다는 것 자체가 터무니없지만, 미성년자와 성관계를 했다거나, 성매매 종사자를 고용했다거나, 살인에 연루되었다는 어떠한 주장도 완전히 사실무근입니다.” 그는 우리가 수개월에 걸쳐 “그렇게 공격적으로 조사해 준 것”에 “좀 감사하다”고 덧붙였어요.
올트먼은 성인 남성과의 교제를 인정한 바 있어요. 우리는 그의 파트너 여러 명과 이야기했고, 그들은 문제가 될 것이 없다고 했어요. 그럼에도 머스크 중개인들의 반대 조사 파일은 이를 공격 라인으로 삼고 있어요. (이 파일에는 “트윙크 군단”과 “슈거 대디의 성적 습관”에 대한 선정적이고 입증되지 않은 내용이 포함되어 있죠.) “동성애 혐오가 많이 동원된다고 생각해요”라고 올트먼은 말했어요. 테크 기자 스위셔도 동의했죠. “이 부자들은 다 미친 짓을 해요, 내가 샘에 대해 들은 것보다 훨씬 더한 일들을요. 하지만 그는 샌프란시스코의 게이 남성이잖아요. 그래서 무기화되는 거예요.”
• • •
규제의 두 얼굴
10년 넘게 소셜미디어 경영자들은 부작용 없이 세상을 바꿀 수 있다고 약속했어요. 규제를 원하는 의원들을 러다이트 취급하다가, 결국 여야를 가리지 않고 조롱거리가 됐죠. 올트먼은 이들과 대조적으로 놀라울 만큼 양심적인 것처럼 보였어요. 규제를 막기는커녕, 오히려 직접 나서서 규제해 달라고 간청하다시피 했거든요. 2023년 미 상원 사법위원회에 출석해, 첨단 AI 모델을 감독할 새로운 연방 기관 설립을 제안했어요. “이 기술이 잘못되면, 아주 심각하게 잘못될 수 있습니다”라고 그가 말했죠. 테크 CEO들에게 날카로운 질문을 퍼붓기로 유명한 루이지애나주 존 케네디(John Kennedy) 상원의원조차 매력을 느낀 듯했어요. 손에 턱을 괴고는, 어쩌면 올트먼이 직접 규칙을 집행해야 하지 않겠느냐고 제안하기까지 했죠.
하지만 올트먼이 공개적으로 규제를 환영하는 동안, 물밑에서는 규제를 막으려는 로비가 조용히 진행되고 있었어요. 2022년과 2023년, Time지에 따르면, OpenAI는 대형 AI 기업에 더 많은 감독을 부과하려던 유럽연합의 노력을 약화시키는 데 성공적으로 압박을 가했어요. 2024년에는 캘리포니아 주의회에서 AI 모델의 안전 테스트를 의무화하는 법안이 발의됐어요. 이 법안에는 올트먼이 의회 증언에서 옹호했던 것과 유사한 조항들이 포함되어 있었죠. OpenAI는 공개적으로 법안에 반대했지만, 비공개적으로는 위협을 가하기 시작했어요. “1년에 걸쳐 OpenAI의 행태가 점점 더 교활하고 기만적으로 변하는 걸 목격했어요”라고 한 입법보좌관이 말했어요.
투자자 론 콘웨이는 낸시 펠로시와 개빈 뉴섬(Gavin Newsom)을 포함한 주요 주 정치인들에게 법안을 무산시키라고 로비했어요. 결국 법안은 민주·공화 양당의 지지를 받아 주의회를 통과했지만, 뉴섬 주지사가 거부권을 행사했죠. 올해에는 AI 규제를 지지하는 의회 후보들이, 새로운 “친AI” 슈퍼 PAC인 Leading the Future의 지원을 받는 상대 후보와 맞붙게 됐어요. 슈퍼 PAC이란 기부 상한 없이 특정 이슈나 후보를 위해 자금을 쏟아부을 수 있는 미국의 정치자금 단체예요. Leading the Future는 AI 규제 무산에 전념하고 있죠. OpenAI의 공식 입장은 이런 슈퍼 PAC에 기부하지 않겠다는 거예요. “이 문제는 당파 정치를 초월합니다”라고 크리스 르헤인이 최근 CNN에 말했어요. 그런데 Leading the Future의 주요 기부자 중 한 명이 바로 그렉 브록만으로, 5천만 달러를 약속했어요. (올해 브록만과 그의 아내는 트럼프 지지 슈퍼 PAC인 MAGA Inc.에 2,500만 달러를 기부했어요.)
OpenAI의 캠페인은 전통적인 로비를 넘어섰어요. 작년에 캘리포니아 상원에서 후속 법안이 발의됐는데, 어느 날 밤, 29세 변호사 네이선 캘빈(Nathan Calvin)이 집에서 아내와 저녁을 먹고 있었어요. 비영리단체 Encode에서 일하며 법안 작성을 도운 그에게, 갑자기 소환장 송달인이 찾아왔죠. OpenAI가 보낸 소환장이었죠. 회사 측은 머스크가 비밀리에 비판 세력에 자금을 지원하고 있다는 증거를 찾고 있다고 주장했어요. 하지만 정작 요구한 것은 캘빈이 주 상원 법안에 관해 나눈 모든 사적 연락 기록이었죠. “그냥 ‘일론 머스크와 이야기한 적 있느냐, 돈 받은 적 있느냐’고 물어볼 수도 있었어요. 아닌데 말이죠”라고 캘빈은 말했어요. 법안의 다른 지지자들과 OpenAI의 영리 전환을 비판했던 일부 인사들도 소환장을 받았어요. “기본적으로 사람들을 겁줘서 입 다물게 하려는 거였어요”라고 제임스 어바인 재단을 이끄는 돈 하워드(Don Howard)가 말했죠. (OpenAI는 이것이 표준 법적 절차의 일환이라고 주장해요.)
올트먼은 오랫동안 민주당을 지지해왔어요. “강력한 독재자가 공포를 무기 삼아 약자를 몰아가는 것에 대해 매우 경계하는 편이에요”라고 그가 말했죠. “유대인으로서 느끼는 감각이지, 게이라서 느끼는 건 아니에요.” 2016년에는 힐러리 클린턴(Hillary Clinton)을 지지하며 트럼프를 “미국에 대한 전례 없는 위협”이라고 불렀어요. 2020년에는 민주당과 바이든(Joe Biden) 승리 기금에 기부했고요. 바이든 행정부 시절에는 최소 6차례 이상 백악관과 면담했어요. AI에 대한 최초의 연방 안전 테스트 및 가드레일 체계를 수립하는 광범위한 행정명령 개발을 도왔죠. 바이든이 서명하자, 올트먼은 “좋은 시작”이라고 평가했어요.
2024년, 바이든의 여론 지지율이 하락하면서, 올트먼의 발언 기조도 달라지기 시작했어요. “이번 선거에서 무슨 일이 일어나든 미국은 괜찮을 거라고 믿어요”라고 그가 말했죠. 트럼프가 당선된 후, 올트먼은 취임 기금에 100만 달러를 기부하고, 취임식에서 인플루언서 제이크·로건 폴(Jake and Logan Paul) 형제와 셀카를 찍었어요. X에서 올트먼은 자신만의 소문자 스타일로 이렇게 썼어요. “watching @potus more carefully recently has really changed my perspective on him (i wish i had done more of my own thinking … ).” 트럼프는 재집권 첫날, 바이든의 AI 행정명령을 즉각 철회했어요. “그는 트럼프 행정부가 자기 뜻대로 움직이게 하는 효과적인 방법을 찾았어요”라고 바이든 행정부의 한 고위 관리가 올트먼에 대해 말했죠.
머스크는 계속 올트먼을 공개적으로 맹비난하고 있어요. “사기꾼 올트먼(Scam Altman)”, “날사기꾼 샘(Swindly Sam)“이라고 부르며 공개 비난을 멈추지 않고 있어요. (올트먼이 X에서 주문한 Tesla에 불만을 토로했을 때, 머스크는 “넌 비영리를 훔쳤잖아”라고 답했어요.) 그런데도 워싱턴에서는 올트먼이 머스크를 따돌린 것 같아요. 머스크는 트럼프 재선을 돕기 위해 2억 5천만 달러 이상을 쏟아붓고, 백악관에서 몇 달간 일했어요. 그런 다음 워싱턴을 떠났고, 그 과정에서 트럼프와의 관계도 손상됐죠.
올트먼은 이제 트럼프가 총애하는 거물 중 한 명이에요. 윈저성에서 영국 왕실을 방문하는 여행에도 동행했을 정도죠. 올트먼과 트럼프는 1년에 몇 차례 통화해요. “그냥 전화할 수 있어요”라고 올트먼이 말했어요. “친한 친구는 아니에요. 그래도, 뭔가 얘기할 게 있으면 전화하죠.” 작년 트럼프가 백악관에서 테크 리더들과 만찬을 열었을 때, 머스크는 자리에 없다는 것 자체가 눈에 띄었고, 올트먼은 대통령 맞은편에 앉았어요. “샘, 당신은 대단한 리더예요”라고 트럼프가 말했죠. “전에 말해준 것들이 정말 믿을 수 없을 정도였어.”
• • •
중동 자본과 지정학적 야망
수년간 올트먼은 AGI 추구를 맨해튼 프로젝트에 비유해왔어요. J. 로버트 오펜하이머(J. Robert Oppenheimer)가 나치로부터 세상을 구해야 한다는 열정적인 호소로 물리학자들을 설득해 삶의 터전을 버리고 로스앨러모스로 이주하게 만들었듯, 올트먼도 자신의 기술이 야기하는 지정학적 공포를 지렛대로 활용하고 있어요. 청중에 따라 올트먼은 이 비유를 가속이나 신중함을 촉구하는 데 모두 사용했죠. 2017년 여름, 미국 정보기관 관계자들과의 회의에서 그는 중국이 ‘AGI 맨해튼 프로젝트’를 시작했다고 주장하며, OpenAI가 이에 대응하려면 수십억 달러의 정부 자금이 필요하다고 말했어요. 증거를 요구하자 올트먼은 “들리는 게 있더라고요”라고만 했죠. 이 주장을 반복한 여러 회의 중 하나가 끝난 후, 그는 정보기관 관계자에게 증거를 후속 제공하겠다고 말했어요. 결코 하지 않았죠. 그 관계자가 직접 중국 프로젝트를 조사해봤지만, 존재한다는 증거는 전무했어요. “그냥 영업 피치로 쓰고 있었을 뿐이에요.” (올트먼은 베이징의 노력을 정확히 그런 식으로 묘사한 기억은 없다고 말해요.)
안전에 더 관심이 높은 청중 앞에서는 같은 비유를 정반대로 활용했어요. AGI는 신중하게, 국제적 공조 하에 추구해야 하며, 그렇지 않으면 결과가 참혹할 것이라고요. 2017년, 다리오 아모데이는 페이지 헤들리(Page Hedley)라는 전직 공익 변호사를 OpenAI의 정책 및 윤리 자문으로 영입했어요. 헤들리는 경영진에게 보여준 초기 파워포인트 발표에서, ‘재앙적’ 군비경쟁을 막을 방안을 제시했어요. AI 연구소들의 연합을 구축하고, 궁극적으로 NATO와 유사한 국제기구와 협력해 기술이 안전하게 배포되도록 하자는 것이었죠. 헤들리의 기억에 따르면, 브록만은 이것이 경쟁사를 이기는 데 어떻게 도움이 되는지 이해하지 못했어요. “제가 뭘 말하든, 그렉은 계속 ‘그래서 어떻게 돈을 더 벌죠? 어떻게 이기죠?‘로 돌아갔어요”라고 헤들리가 말했죠. 여러 인터뷰와 당시 기록에 따르면, 브록만은 반대 제안을 내놓았어요. 세계 강대국들을 서로 경쟁시키는 거였죠. 중국과 러시아를 포함해 입찰 전쟁을 유발하면 OpenAI가 부유해질 수 있다는 거예요. 헤들리에 따르면 그 사고방식은 이랬어요. ‘핵무기에는 통했잖아. AI라고 안 될 게 뭐야?‘
헤들리는 경악했어요. “그들이 부정하지 않았던 전제가 있어요. ‘우리가 역사상 가장 파괴적일 수 있는 기술에 대해 이야기하고 있다. 그걸 푸틴(Vladimir Putin)에게 팔면 어떨까?‘라는 거였죠.” (브록만은 AI 모델을 정부에 경매에 부치는 것을 진지하게 고려한 적이 없다고 주장해요. “국가 간 협력을 촉진하기 위한 잠재적 프레임워크가 어떤 것이 될 수 있을지, 국제우주정거장 같은 것에 대한 아이디어가 높은 수준에서 오갔습니다”라고 OpenAI 대표가 말했어요. “그 이상의 무언가로 특징짓는 시도는 완전히 터무니없습니다.”)
브레인스토밍에서는 종종 황당한 아이디어가 나오기 마련이죠. 헤들리는 내부적으로 ‘국가 플랜’이라고 알려지게 된 이 아이디어가 폐기되기를 바랐어요. 대신, 관계자 여러 명과 당시 문서에 따르면, OpenAI 경영진은 점점 더 흥분하는 것 같았어요. 당시 OpenAI 정책 디렉터였던 잭 클라크(Jack Clark)에 따르면, 브록만의 목표는 “기본적으로 죄수의 딜레마 구도를 만들어, 모든 국가가 우리에게 자금을 줄 수밖에 없게 하고”, “암묵적으로 자금을 안 주는 게 일종의 위험이 되게” 하는 것이었어요. 한 주니어 연구원은 회사 미팅에서 이 계획을 듣고 이렇게 생각했다고 회상했어요. “이건 완전히 미친 짓이야.”
경영진은 최소 한 명의 잠재적 후원자와 이 접근법을 논의했어요. 하지만 그달 후반, 여러 직원이 사직을 언급하면서 계획은 폐기됐죠. “직원을 잃게 될 거였어요”라고 헤들리가 말했어요. “제 느낌엔, 샘의 계산에서 ‘직원을 잃는 것’이 ‘이건 강대국 간 전쟁을 야기할 수 있으니 좋은 계획이 아니다’보다 언제나 더 큰 무게를 차지했어요.”
’국가 플랜’의 좌절에도 굴하지 않고, 올트먼은 변주를 추구했어요. 2018년 1월, 핑크 부겐빌레아 정원과 진짜 백조가 떠 있는 인공 연못이 있는 올드 할리우드 리조트 호텔 벨에어에서 ‘AGI 주말’ 행사를 소집했어요. 참석자에는 당시 옥스퍼드에 있던 철학자이자 AI 종말의 예언자가 된 닉 보스트롬(Nick Bostrom), 에미리트의 술탄이자 AI 옹호자인 오마르 알 올라마(Omar Al Olama), 그리고 최소 7명의 억만장자가 포함돼 있었어요. 안전에 관심 있는 참석자들은 AGI의 파괴적 도래에 사회가 어떻게 대비할 수 있을지 고민하는 자리라는 설명을 들었고, 투자자들은 투자 피치를 기대하며 왔죠.
낮 시간은 세련된 회의실에서 발표를 들으며 보냈어요. (LinkedIn 공동창업자 리드 호프만은 AI에 불교적 자비를 인코딩할 수 있는 가능성에 대해 열변을 토했어요.) 마지막 발표자는 올트먼이었는데, “AGI의 연산 시간으로 교환할 수 있는” 글로벌 암호화폐를 설명하는 피치 덱을 들고 나왔어요. AGI가 최대한 유용해지고 “해롭지 않은(anti-evil)” 존재가 되면, 전 세계 사람들이 OpenAI 서버 시간을 구매하려고 몰려들 거라는 거였죠. 아모데이는 메모에 이렇게 적었어요. “이 아이디어는 누가 봐도 말이 안 됐다 (블라디미르 푸틴이 결국 토큰 일부를 소유하게 되는 건가? …) 돌이켜보면 이건 내가 더 심각하게 받아들었어야 할 샘에 대한 수많은 경고 신호 중 하나였다.” 이 계획은 현금 확보처럼 보였지만, 올트먼은 AI 안전을 위한 이점으로 포장했어요. 그의 슬라이드 중 하나에는 “가능한 많은 사람들을 ‘선한’ 팀에 합류시키고, 이기고, 올바른 일을 하고 싶다”라고 적혀 있었고, 다른 슬라이드에는 “발표가 끝날 때까지 웃음을 참아주세요”라고 적혀 있었어요.
올트먼의 자금 조달 화법은 수년간 진화해왔지만, AGI 개발에 어마어마한 자본이 필요하다는 사실은 언제나 바탕에 깔려 있었어요. 그는 비교적 단순한 ‘스케일링 법칙’을 따르고 있었죠. 모델 훈련에 더 많은 데이터와 컴퓨팅 파워를 투입할수록, 모델이 더 똑똑해지는 것처럼 보인다는 거예요. 이 과정에 필요한 전문 칩은 엄청나게 비싸요. OpenAI는 가장 최근 펀딩 라운드에서만 1,200억 달러 이상을 모금했어요. 사상 최대의 비공개 펀딩이자, 역대 최대 IPO의 4배에 달하는 금액이죠. “1년에 1,000억 달러를 재량으로 쓸 수 있는 주체를 생각해보면, 세상에 정말 몇 안 돼요”라고 한 테크 경영인 겸 투자자가 말했어요. “미국 정부, 미국 5대 테크 기업, 사우디, 에미리트. 기본적으로 그게 전부예요.”
올트먼의 초기 초점은 사우디아라비아였어요. 2016년 샌프란시스코 페어몬트 호텔에서 열린 만찬에서 무함마드 빈 살만 왕세자 겸 사실상의 국왕을 처음 만났죠. 그 이후로 헤들리의 회고에 따르면, 올트먼은 왕세자를 “친구”라고 불렀어요. 2018년 9월, 헤들리의 메모에 따르면, 올트먼은 “사우디 PIF(국부펀드)로부터 수백억 달러를 받을지 결정하려는 중”이라고 말했어요.
그 다음 달, 빈 살만의 지시에 따른 것으로 보도된 암살단이 정권에 비판적이었던 워싱턴 포스트 기자 자말 카슈끄지(Jamal Khashoggi)12를 교살하고 뼈톱으로 시신을 절단했어요. 1주일 후, 올트먼이 빈 살만이 사막에 건설하려는 ‘미래 도시’ 네옴(Neom)11의 자문위원회에 합류했다고 발표됐어요. “샘, 이 이사회에 들어가면 안 돼요”라고 현재 Anthropic에서 일하는 당시 정책 디렉터 잭 클라크가 말했던 걸 회상했어요. 올트먼은 처음에 자신의 참여를 옹호하면서, 클라크에게 재러드 쿠슈너가 사우디가 “이 짓을 하지 않았다”고 확인해줬다고 말했어요. (올트먼은 이를 기억하지 못해요. 쿠슈너는 당시 연락하고 있지 않았다고 말해요.)
빈 살만의 역할이 점점 명확해지면서, 올트먼은 네옴 이사회를 떠났어요. 하지만 이면에서는, 올트먼이 자문을 구했던 정책 컨설턴트에 따르면, 그 상황을 일시적 차질로 취급하며 어떻게든 빈 살만에게서 돈을 받을 수 있는지 물었다고 해요. “질문은 ‘이게 나쁜 일인가 아닌가?‘가 아니었어요”라고 컨설턴트가 말했죠. “그냥, ‘이걸 하면 어떤 결과가 있을까? 수출통제 문제가 있을까? 제재가 있을까? 그냥 넘어갈 수 있을까?‘였어요.”
그때쯤 올트먼은 이미 다른 자금원을 주시하고 있었어요. 아랍에미리트(UAE)였죠. UAE는 석유 국가에서 테크 허브로 탈바꿈하는 15년 프로젝트를 진행 중이었어요. 이 프로젝트는 대통령의 형제이자 국가 정보기관 수장인 셰이크 타흐눈 빈 자예드 알나흐얀이 총괄하고 있었죠. 타흐눈은 국가 통제 AI 기업 G42를 운영하며 1조 5천억 달러의 국부를 관리해요. 2023년 6월, 올트먼은 아부다비를 방문해 올라마와 다른 관료들을 만났어요. 정부 후원 행사에서의 발언에서 그는 UAE가 “AI가 쿨해지기 전부터 AI에 대해 이야기해왔다”고 말하며, 중동이 “핵심적 역할”을 하는 AI의 미래 비전을 제시했어요.
걸프 국가에서 돈을 받는 건 이제 많은 대기업에게 일상이 됐어요. 하지만 올트먼이 추구한 건 단순한 자금 조달이 아니라 훨씬 더 거대한 지정학적 비전이었죠. 2023년 가을, 그는 조용히 새로운 인재를 모집하기 시작했어요. 결국 ChipCo로 알려진 계획을 위해서였는데, 걸프 국가들이 수백억 달러를 제공하여 거대한 반도체 공장과 데이터 센터를 건설하고, 일부는 중동에 설치하는 구상이었어요. 올트먼은 현재 Meta AI 책임자인 알렉산더 왕(Alexandr Wang)에게 경영진 자리를 제안하며, 아마존 창업자 제프 베이조스(Jeff Bezos)가 새 회사를 이끌 수도 있다고 말했어요. 올트먼은 에미리트 측에 막대한 투자를 요청했어요. “제가 알기로는 이 모든 게 이사회의 인지 없이 진행됐어요”라고 이사회 구성원이 말했죠. 올트먼이 프로젝트에 영입하려 했던 연구원 제임스 브래드버리(James Bradbury)는 거절했던 것을 회상하며 이렇게 말했어요. “처음 반응은 ‘이건 성공할 거야, 근데 성공하길 원하는지는 모르겠어’였어요.”
AI 역량은 조만간 석유나 농축 우라늄을 대체해 세계 권력 균형을 결정하는 자원이 될 수 있어요. 올트먼은 컴퓨팅 파워야말로 “미래의 기축 통화”라고 말해왔어요. 평소라면 데이터 센터의 위치가 크게 중요하지 않겠지만, 많은 미국 국가안보 관료들은 걸프 독재국가에 첨단 AI 인프라를 집중시키는 것에 불안해했어요. UAE의 통신 인프라는 중국 정부와 연결된 테크 대기업 화웨이의 하드웨어에 크게 의존하고 있고, UAE는 과거에도 미국 기술을 베이징에 유출한 적이 있다고 보도됐어요. 정보기관들은 에미리트에 보내진 첨단 미국 칩이 중국 엔지니어들에게 사용될 수 있다고 우려했죠. 중동의 데이터 센터는 군사 공격에도 더 취약해요. 최근 몇 주간 이란이 바레인과 UAE의 미국 데이터 센터를 폭격했거든요. 그리고 가상 시나리오로, 걸프 군주국이 미국 소유 데이터 센터를 접수해서 불균형적으로 강력한 모델을 구축하는 데 사용할 수도 있어요. ‘AGI 독재’ 시나리오의 한 버전이되, 진짜 독재 국가에서요.
해임 이후 올트먼이 가장 의지한 사람은 Airbnb 공동창업자이자 가장 열렬한 충성파 중 한 명인 브라이언 체스키였어요. “친구가 그렇게 심연을 바라보는 걸 지켜보면서, 회사를 경영한다는 게 정말 무엇을 의미하는지에 대해 근본적인 질문들을 하게 됐어요”라고 체스키가 말했죠. 이듬해 Y Combinator 동문 모임에서 그는 즉석 강연을 했는데, 2시간이나 이어졌어요. “집단 치료 세션 같았어요”라고 그가 말했죠. 요점은 이거였어요. 자기가 세운 회사를 어떻게 운영할지에 대해서는 창업자의 직관이 최고이며, 달리 말하는 사람은 가스라이팅하는 거라고요. “당신은 미치지 않았어요, 당신 밑에서 일하는 사람들이 미쳤다고 말하더라도요”라고 체스키가 말했어요. 폴 그레이엄은 블로그 포스트에서 이 반항적 태도에 이름을 붙였어요. 파운더 모드13.
‘더 블립’ 이후, 올트먼은 파운더 모드에 돌입했어요. 2024년 2월, 월스트리트 저널이 올트먼의 ChipCo 비전을 보도했어요. 5조에서 7조 달러 투자로 자금을 조달하는 합작 법인으로 구상한 거였죠. (“fk it why not 8”이라고 그가 트윗했어요.) 직원 상당수는 그 기사를 통해서야 비로소 이 계획을 알게 됐어요. “모두 ‘잠깐, 뭐?‘라는 반응이었죠”라고 라이케가 회상했어요. 올트먼은 내부 미팅에서 안전 팀이 “사전 보고를 받았다”고 주장했어요. 라이케는 안전 팀이 승인했다고 거짓 암시하지 말라고 촉구하는 메시지를 보냈죠.
바이든 행정부 시절, 올트먼은 기밀 AI 정책 논의에 참여하기 위해 보안 인가를 받으려 했어요. 하지만 조율을 도왔던 RAND 연구소 직원들이 우려를 표명했죠. “그는 외국 정부로부터 ‘수천억 달러’를 적극적으로 모금해왔습니다”라고 한 직원이 썼어요. “UAE가 최근에 차를 선물했고요. (분명 아주 좋은 차였을 거예요.)” 그 직원은 이어서 이렇게 썼어요. “이 정도 규모의 해외 금융 관계를 가지고 이 과정을 거친 사람은 재러드 쿠슈너밖에 떠오르지 않는데, 심사관들은 그에게 인가를 부여하지 말라고 권고했습니다.” 결국 올트먼은 과정에서 자진 철회했어요. “그는 주로 에미리트와의 거래적 관계를 밀어붙이고 있었는데, 우리 중 일부에게는 많은 경고 신호를 불러일으켰어요”라고 올트먼과의 협의에 참여했던 행정부 고위 관리가 말했어요. “행정부의 많은 사람들이 그를 100% 신뢰하지 않았어요.”
우리가 타흐눈으로부터 받은 선물에 대해 물었을 때, 올트먼은 이렇게 말했어요. “그가 저한테 구체적으로 무슨 선물을 줬는지는 말하지 않겠어요. 하지만 그와 다른 세계 지도자들이 … 선물을 줬어요.” 그는 덧붙였어요. “우리에게는 저에게도 적용되는 표준 정책이 있어요. 잠재적 사업 파트너로부터 받는 모든 선물은 회사에 신고됩니다.” 올트먼은 최소 두 대의 하이퍼카를 보유하고 있어요. 약 200만 달러짜리 올화이트 쾨닉세그 레게라와 약 2,000만 달러짜리 빨간색 맥라렌 F1이죠. 2024년에 올트먼이 나파 밸리에서 레게라를 몰고 가는 모습이 목격됐어요. 몇 초짜리 동영상이 소셜미디어에 올라왔죠. 낮은 버킷 시트에 앉아 번쩍이는 흰색 기계의 창밖으로 내다보는 올트먼. 머스크 편에 서 있는 한 테크 투자자가 X에 영상을 올리며 이렇게 썼어요. “저도 이제 비영리 하나 차려야겠네요.”
2024년, 올트먼은 OpenAI 직원 두 명을 데리고 셰이크 타흐눈의 2억 5천만 달러짜리 초대형 요트 ‘마리아(Maryah)’ 호를 방문했어요. 세계 최대급 요트 중 하나인 마리아 호에는 헬리패드, 나이트클럽, 영화관, 비치 클럽이 있어요. 올트먼의 직원들은 타흐눈의 무장 경호원들 사이에서 확실히 눈에 띄었고, 최소 한 명은 나중에 동료들에게 그 경험이 불안했다고 말했어요. 올트먼은 이후 X에서 타흐눈을 “소중한 개인적인 친구”라고 지칭했죠.
올트먼은 민감한 기술 수출에 백악관 승인을 요구하는 정책을 시행한 바이든 행정부 관계자들을 계속 만났어요. 여러 행정부 관료들이 이 미팅에서 올트먼의 중동 야망에 대한 불안감을 안고 나왔죠. 그 관료들에 따르면, 그는 AI를 “새로운 전기”라고 부르는 등 자주 거창한 주장을 했어요. 2018년에는 OpenAI가 리게티 컴퓨팅이라는 회사로부터 완전 작동하는 양자 컴퓨터를 구매할 계획이라고 말했어요. 이건 같은 방에 있던 다른 OpenAI 경영진에게도 처음 듣는 이야기였죠. 리게티는 양자 컴퓨터를 실제로 판매할 수 있는 단계와는 거리가 멀었어요. 또 다른 미팅에서 올트먼은 2026년까지 미국 전역에 핵융합 발전소 네트워크가 AI 붐에 전력을 공급할 거라고 주장했어요. 행정부 고위 관리가 말했죠. “우리는, ‘음, 핵융합을 성공시켰다면 그건 뉴스네요’라는 반응이었어요.” 바이든 행정부는 결국 승인을 보류했어요. “우리는 UAE에서 첨단 칩을 만들지 않을 겁니다”라고 상무부 간부가 올트먼에게 말했죠.
트럼프 취임 4일 전, 월스트리트 저널에 따르면, 타흐눈은 트럼프 가족의 암호화폐 회사 지분을 대가로 5억 달러를 지불했어요. 다음 날, 올트먼은 트럼프와 25분간 통화하며, 트럼프가 성과를 챙길 수 있도록 타이밍을 맞춰 ChipCo의 한 버전을 발표하는 것에 대해 논의했죠. 트럼프의 재임 둘째 날, 올트먼은 루즈벨트 룸에 서서 스타게이트(Stargate)를 발표했어요. 미국 전역에 방대한 AI 인프라 네트워크를 건설하는 것을 목표로 하는 5,000억 달러 규모의 합작 벤처였죠.
5월에 행정부는 바이든의 AI 기술 수출 제한을 철회했어요. 올트먼과 트럼프는 사우디 왕궁을 방문해 빈 살만을 만났죠. 비슷한 시기에 사우디는 수십억 달러를 국제 파트너십에 쓸 거대한 국영 AI 기업의 출범을 공표했어요. 약 1주일 후, 올트먼은 스타게이트를 UAE로 확장하는 계획을 발표했어요. 회사는 아부다비에 센트럴파크의 7배 크기이고 마이애미시 전체와 맞먹는 전력을 소비하는 데이터 센터 캠퍼스를 건설할 계획이에요.
“진실은 이거예요, 우리는 진짜로 외계인을 소환하는 포탈을 만들고 있어요. 현재 포탈은 미국과 중국에 있는데, 샘이 중동에 하나를 추가한 거예요. 그게 얼마나 무서운 일인지 제대로 이해하는 게 정말 중요하다고 생각해요. 지금까지 행해진 것 중 가장 무모한 일이에요.” — 전 OpenAI 임원
• • •
군사 계약: Anthropic의 거부, OpenAI의 진입
안전 약속이 무너지는 건 이제 업계 전체의 추세가 됐어요. Anthropic의 창립 전제는 이거였죠. 구조와 리더십만 올바르다면, 상업적 압력 아래서도 안전 약속을 지켜낼 수 있다는 것. 그런 약속 중 하나가 ‘책임 있는 스케일링 정책’이었는데, 더 강력한 모델이 안전하다는 것을 증명할 수 없으면 훈련을 중단하겠다는 것이었어요. 올 2월, 300억 달러의 신규 자금을 확보하면서 Anthropic은 그 서약을 약화시켰어요. 어떤 면에서 Anthropic은 여전히 OpenAI보다 안전을 더 강조하고 있어요. 하지만 전 정책 디렉터 잭 클라크는 이렇게 말했어요. “자본시장의 논리는 ‘더 빨리’를 요구해요.” 그는 덧붙였죠. “이 결정은 세계가 하는 거지, 기업이 하는 게 아니에요.” 작년에 아모데이는 Anthropic 직원들에게 메모를 보내, 회사가 UAE와 카타르로부터 투자를 유치할 것이며 이것이 “독재자들을” 부유하게 만들 가능성이 높다고 인정했어요. (많은 저자와 마찬가지로, 우리 두 기자 모두 Anthropic이 우리 책을 허락 없이 모델 훈련에 사용했다고 주장하는 집단소송의 당사자예요. 콩데 나스트는 Anthropic이 콩데 나스트와 그 자회사가 출판한 특정 도서의 사용에 관해 합의에 동의했어요.)
2024년, Anthropic은 실리콘밸리에서 가장 매파적인 방산업체 중 하나인 Palantir와 제휴하여, 자사 AI 모델 Claude를 군사 생태계에 직접 투입했어요. Anthropic은 펜타곤의 가장 기밀 수준 높은 환경에서 사용되는 유일한 AI 계약업체가 됐죠. 작년 펜타곤은 회사에 추가로 2억 달러 규모의 계약을 수여했어요. 올 1월, 미군은 베네수엘라 대통령 니콜라스 마두로(Nicolás Maduro)를 체포하는 심야 급습 작전을 감행했어요. 월스트리트 저널에 따르면, Claude가 이 기밀 작전에 사용됐어요.
하지만 Anthropic과 정부 사이에 긴장이 고조됐어요. 수년 전 OpenAI는 자사 기술을 “군사 및 전쟁” 목적으로 사용하는 것에 대한 전면 금지 조항을 정책에서 삭제했었죠. 결국 Anthropic의 경쟁사들, Google과 xAI를 포함해, “모든 합법적 목적”을 위해 군에 모델을 제공하는 데 동의했어요. 정책상 완전 자율 무기와 국내 대규모 감시를 금지하는 Anthropic은 이 두 가지에서 저항했고, 새 계약 협상이 지연됐죠. 2월 말 어느 화요일, 국방장관 피트 헥세스(Pete Hegseth)는 아모데이를 펜타곤으로 소환해 최후통첩을 전달했어요. 그 주 금요일 오후 5시 1분까지 그 금지 조항을 철폐하라는 거였죠. 마감일 전날, 아모데이는 이를 거부했어요. 헥세스는 Anthropic을 ‘공급망 위험’14, 즉 화웨이처럼 외국 적대국과 연계된 기업에 적용되어 온 치명적인 블랙리스트로 지정하겠다고 트윗했고, 며칠 후 실행에 옮겼어요.
OpenAI와 Google의 직원 수백 명이 “우리는 분열되지 않을 것이다(We Will Not Be Divided)“라는 제목의 공개서한에 서명하며 Anthropic을 옹호했어요. 내부 메모에서 올트먼은 이 분쟁이 “업계 전체의 문제”라며 OpenAI도 Anthropic과 같은 윤리적 경계를 갖고 있다고 주장했어요. 하지만 올트먼은 이미 최소 이틀 전부터 펜타곤과 협상 중이었죠. 국방부 연구공학 차관 에밀 마이클(Emil Michael)은 Anthropic의 대체재를 찾으면서 올트먼에게 연락했어요. “서둘러 대안을 찾아야 했어요”라고 마이클이 회상했죠. “샘에게 전화했더니 기꺼이 뛰어들려 했어요. 샘이 애국자라고 생각해요.” 올트먼은 마이클에게 “국가를 위해 무엇을 할 수 있을까요?”라고 물었어요. 그는 이미 답을 알고 있었던 것 같아요. OpenAI는 Anthropic 기술이 쓰이는 기밀 시스템에 필요한 보안 인증을 갖추지 못했어요. 하지만 그 금요일 아침 발표된 500억 달러 규모의 계약이 OpenAI의 기술을 펜타곤 디지털 인프라의 핵심인 아마존 웹 서비스에 통합시켰죠. 그날 밤, 올트먼은 X에서 군이 이제 OpenAI의 모델을 사용할 것이라고 발표했어요.
어떤 지표로 보면, 올트먼의 이 기동은 회사에 해가 되지 않았어요. 계약 발표 당일 새로운 펀딩 라운드가 OpenAI의 기업가치를 1,100억 달러나 올렸으니까요. 하지만 많은 사용자가 ChatGPT 앱을 삭제했어요. 최소 두 명의 고위 직원이 퇴사했고, 한 명은 Anthropic으로 갔어요. 직원 미팅에서 올트먼은 우려를 제기한 직원들을 질타했어요. “이란 공습은 옳고 베네수엘라 침공은 그르다고 생각할 수 있겠죠”라고 그가 말했어요. “그건 여러분이 왈가왈부할 일이 아니에요.”
OpenAI와 연결된 여러 임원이 올트먼의 리더십에 대한 지속적인 우려를 표명하며, 인스타카트 전 CEO이자 현재 OpenAI의 AGI 배포 CEO인 피지 시모(Fidji Simo)를 후계자로 거론했어요. 시모 본인도 올트먼이 결국 사임할 것으로 본다고 사적으로 말했다고, 최근 논의를 전달받은 한 인사가 말했어요. (시모는 이를 부인해요. 인스타카트는 최근 FTC와 합의에 도달해, 잘못을 인정하지는 않았지만 시모 리더십 하의 기만적 관행 혐의에 대해 6,000만 달러 벌금을 지불하기로 했어요.)
• • •
안전의 침식
올트먼은 약속이 자꾸 바뀌는 이유를, 상황 변화에 적응하는 능력의 부산물이라고 설명해요. 머스크를 비롯한 비판자들이 주장하듯 처음부터 계획된 “장기 사기(long con)“가 아니라, 선의로 천천히 변해온 결과라는 거죠. “어떤 사람들이 원하는 건,” 올트먼이 말했어요, “자기 생각을 절대로 안 바꾸는 리더예요. 하지만 우리는 모든 게 극도로 빠르게 바뀌는 분야에 있거든요.” 그는 자신의 행동 일부를 “정상적인 경쟁적 사업 관행”이라고 옹호했어요. 우리가 인터뷰한 여러 투자자들은 올트먼의 비판자들이 그 이상을 기대하는 것이 순진하다고 평가했죠. “안전을 거의 SF 수준으로 종교화한 극단적 종말론자 무리가 있어요”라고 투자자 론 콘웨이가 말했어요. “그의 미션은 숫자로 측정돼요. OpenAI의 성공을 보면 숫자로는 반박하기 어렵죠.”
하지만 실리콘밸리의 다른 이들은 올트먼의 행태가 용납할 수 없는 수준의 경영 혼란을 초래했다고 생각해요. “실질적으로 회사를 제대로 운영할 수 없게 만든다는 게 더 문제예요”라고 이사회 구성원이 말했어요. 그리고 일부는 여전히 AI의 설계자가 다른 산업의 경영자보다 더 엄격한 잣대로 평가되어야 한다고 믿어요. 우리가 이야기한 거의 모든 사람이 동의한 점이 하나 있었어요. 올트먼이 지금 자신에게 적용해달라고 요구하는 기준이, 처음에 스스로 제시했던 기준과 다르다는 거였죠. 한 대화에서 우리는 올트먼에게 AI 회사를 운영하는 것이 “더 높은 수준의 진실성(integrity)“을 요구하는지 물었어요. 쉬운 질문이어야 했어요. 최근까지도 비슷한 질문을 받으면 그의 대답은 명확하고 조건 없는 ‘예’였거든요. 이번에는 이렇게 덧붙였어요. “사회에 잠재적으로 엄청난 긍정적, 부정적 영향을 미치는 사업은 많잖아요.” (나중에 추가 성명을 보내왔어요. “네, 더 높은 수준의 진실성을 요구하며, 매일 그 책임의 무게를 느끼고 있습니다.”)
OpenAI 창립 시 한 모든 약속 중에서 가장 핵심적이었던 것은 아마도 AI를 안전하게 존재하게 만들겠다는 서약이었을 거예요. 하지만 이런 우려는 이제 실리콘밸리와 워싱턴에서 종종 조롱당하고 있어요. 작년, 전직 벤처 캐피탈리스트이자 현 부통령인 J. D. 밴스(J. D. Vance)는 파리에서 열린 ‘AI 행동 정상회의’에서 연설했어요. 원래 이름은 ‘AI 안전 정상회의’였죠. “안전 걱정에 전전긍긍해서는 AI의 미래를 쟁취할 수 없습니다”라고 그가 말했어요. 올해 다보스에서 백악관의 AI 및 암호화폐 차르를 역임하던 벤처 캐피탈리스트 데이비드 삭스(David Sacks)는 안전 우려를 미국이 AI 경쟁에서 패할 수 있는 “자충수”라고 일축했어요. 올트먼은 이제 트럼프의 규제 완화 기조를 “아주 신선한 변화”라고 불러요.
OpenAI는 안전 중심 팀 다수를 폐쇄했어요. 초정렬(superalignment) 팀이 해산될 무렵, 팀 리더인 일랴 수츠케버와 얀 라이케가 사임했어요. (수츠케버는 Safe Superintelligence라는 회사를 공동 설립했죠.) X에서 라이케는 이렇게 썼어요. “안전 문화와 프로세스가 화려한 제품에 뒷전으로 밀려났어요.” 곧이어 첨단 AI의 충격에 대해 사회를 준비시키는 임무를 맡았던 AGI 준비팀(AGI-readiness team)도 해산됐어요. 가장 최근 IRS 공시 양식은 회사의 “가장 중요한 활동”을 간략히 기술하라고 요구해요. 이전에는 이런 질문의 답에 포함되어 있던 ‘안전’이, 이번에는 빠져 있었어요. (OpenAI는 “미션이 바뀌지 않았다”고 말하며 “안전에 대한 작업에 계속 투자하고 발전시키고 있으며, 조직적 변화도 계속할 것”이라고 덧붙였어요.) 올트먼이 한때 지지했던 안전 원칙을 가진 싱크탱크 Future of Life Institute는 각 주요 AI 기업의 “존재적 안전”을 평가하는데, 가장 최근 성적표에서 OpenAI는 F를 받았어요. 공정하게 말하면, Anthropic이 D, Google DeepMind가 D-를 받은 것을 제외하면 다른 모든 주요 기업도 F를 받았어요.
“제 감은 전통적인 AI 안전 관련 내용과 많이 안 맞아요.” — 샘 올트먼
올트먼은 여전히 이런 문제를 우선시한다고 주장했지만, 구체적인 답을 캐물으면 모호했어요. “우리는 여전히 안전 프로젝트를, 또는 최소한 안전에 인접한 프로젝트를 진행할 거예요.” 우리가 존재적 안전에 관해 일하는 연구자들을 인터뷰하고 싶다고 요청했을 때, 올트먼이 한때 ‘모두에게 끝장’이라고 표현했던 바로 그 유형의 문제를 다루는 연구자들을요, OpenAI 대표는 당혹스러워하는 것 같았어요. “존재적 안전이 무슨 말이에요?”라고 그가 답했죠. “그건, 뭐랄까, 없는 개념인데요.”
• • •
결론: 아첨과 환각
AI 종말론자들은 변두리로 밀려났지만, 그들의 두려움 중 일부는 시간이 지날수록 덜 허무맹랑하게 느껴지고 있어요. 2020년, UN 보고서에 따르면, AI 드론이 리비아 내전에서 인간 운용자의 감독 없이 치명적인 탄약을 발사하는 데 사용됐어요. 그 이후로 AI는 전 세계 군사 작전에서 더욱 핵심적인 위치를 차지하게 됐고, 현재 미국이 벌이고 있는 이란 작전에서도 마찬가지라고 알려져 있어요. 2022년, 한 제약 회사 연구원들이 약물 발견 모델이 새로운 독소를 찾는 데 사용될 수 있는지 실험했는데, 불과 몇 시간 만에 4만 종의 화학무기로 쓸 수 있는 치명적 물질을 제안했어요. 그리고 훨씬 더 일상적인 피해도 이미 발생하고 있어요. 글쓰기, 생각하기, 세상을 살아가는 데 AI에 점점 더 의존하게 되면서, 전문가들이 ‘인간 약화(human enfeeblement)‘라고 부르는 현상이 가속화되고 있어요. AI가 쏟아내는 저질 콘텐츠, 이른바 ‘슬롭(slop)‘은 사기꾼에게는 편한 세상을, 진실을 알고 싶은 사람들에게는 힘든 세상을 만들죠. AI ‘에이전트’는 인간의 감독 없이, 또는 거의 없이 독립적으로 행동하기 시작했어요. 2024년 뉴햄프셔 민주당 예비선거 며칠 전, 수천 명의 유권자가 AI로 생성한 조 바이든의 딥페이크 음성 자동전화를 받았어요. 11월을 위해 투표를 아끼고 집에 있으라는 내용이었는데, 기술적 전문성이 거의 필요 없는 유권자 억압 행위였죠. OpenAI는 현재 7건의 부당사망 소송에 직면해 있는데, ChatGPT가 여러 자살과 한 건의 살인을 유도했다고 주장하는 거예요. 살인 사건의 채팅 로그는 ChatGPT가 83세 어머니가 자신을 감시하고 독살하려 한다는 한 남성의 편집적 망상을 부추긴 것으로 보여줘요. 곧이어 그는 어머니를 구타해 교살하고 자신을 찔렀죠. (OpenAI는 소송에 맞서 싸우고 있으며, 모델의 안전장치를 계속 개선하고 있다고 말해요.)
OpenAI가 잠재적 IPO를 준비하면서, 올트먼은 AI가 경제에 미치는 영향뿐만 아니라 회사 재정에 대한 질문에도 직면했어요. AI는 조만간 심각한 노동 시장 혼란을 야기하고, 어쩌면 수백만 개의 일자리를 없앨 수도 있으니까요. 스타트업 거버넌스 전문가 에릭 리스(Eric Ries)는 업계의 “순환 거래”, 예를 들어 OpenAI와 엔비디아 등 칩 제조사 간의 거래를 비판하며, 다른 시대였다면 이 회사의 일부 회계 관행은 “사기에 가까운(borderline fraudulent)” 것으로 간주됐을 거라고 말했어요. 이사회 구성원은 이렇게 말했죠. “회사가 지금 위험하고 무서운 수준으로 재무 레버리지를 높였어요.” (OpenAI는 이를 부인해요.)
2월에 우리는 올트먼과 다시 만났어요. 칙칙한 녹색 스웨터에 청바지를 입고, NASA 달 탐사선 사진 앞에 앉아 있었죠. 한쪽 다리를 의자 아래에 접어 넣었다가, 의자 팔걸이에 걸쳤어요. 과거에는 관리자로서 자신의 가장 큰 결점이 갈등을 피하려는 욕구였다고 그가 말했어요. “이제는 사람을 빠르게 해고하는 데 거리낌이 없어요”라고 그는 말했죠. “그냥 ‘이 방향으로 간다’고 선언하는 데도요.” 자신의 결정이 마음에 안 드는 직원은 “떠나야” 한다고요.
그는 미래에 대해 그 어느 때보다 낙관적이에요. “제가 생각하는 승리란, 사람들이 엄청나게 레벨업하고, 상상을 초월하는 SF적 미래가 우리 모두에게 현실이 되는 거예요”라고 그가 말했어요. “인류에 대한 희망이라는 면에서 저는 매우 야심차고, 우리 모두가 이룰 것이라 기대하는 것도요. 이상하게도 개인적 야심은 거의 없어요.” 때때로 자신을 의식하는 것 같았어요. “아무도 당신이 이걸 그냥 재미있어서 한다고 안 믿어요”라고 그가 말했죠. “권력이나 다른 무언가를 위해 하는 거라고 생각하죠.”
올트먼에게 가까운 사람들조차 그의 “인류에 대한 희망”이 어디서 끝나고 야심이 어디서 시작되는지 구분하지 못해요. 그의 가장 큰 강점은 언제나, 서로 다른 집단 각각에게 ‘내가 원하는 것’과 ‘당신들이 필요한 것’이 같다고 설득하는 능력이었죠. 그는 독특한 역사적 시점을 활용했어요. 대중은 테크 업계의 과대선전에 경계하고 있었고, AGI를 만들 수 있는 연구자 대부분은 그것을 세상에 내놓는 것을 두려워하던 때였죠. 올트먼은 다른 누구도 완성하지 못한 화법을 구사했어요. 종말론적 수사로 AGI가 어떻게 우리 모두를 파멸시킬 수 있는지 설명한 다음, 바로 그렇기 때문에 자기가 만들어야 한다고 주장한 거예요. 처음부터 계산된 신의 한 수였을 수도 있어요. 그냥 유리한 위치를 더듬어 찾은 것일 수도 있고요. 어느 쪽이든 통했어요.
챗봇을 위험하게 만드는 특성이 전부 결함인 것은 아니에요. 일부는 시스템이 만들어지는 방식 자체의 부산물이죠. 대규모 언어 모델은 부분적으로 인간 피드백으로 훈련되는데, 인간은 자기 의견에 동의하는 응답을 선호하는 경향이 있어요. 그래서 모델은 종종 사용자에게 아첨하는 법을 배우고, 때로는 정직함보다 이를 우선시하죠. 이를 아첨(sycophancy)이라 해요. 또한 사실을 그럴듯하게 지어내기도 하는데, 이를 환각(hallucination)이라 하고요. 주요 AI 연구소들은 이런 문제를 문서화해왔지만, 때로는 용인하기도 하죠. 모델이 복잡해질수록, 일부는 더 설득력 있게 환각을 일으켜요. 2023년, 해임 직전에 올트먼은 일부 허위 사실을 허용하는 것이 위험이 있더라도 유리할 수 있다고 주장했어요. “그냥 단순하게 ‘100% 확신 없으면 절대 말하지 마’라고 하면, 모델을 그렇게 만들 수는 있어요”라고 그가 말했죠. “하지만 사람들이 그렇게 좋아하는 그 마법은 사라질 거예요.” ♦
역자 주
- 효과적 이타주의(Effective Altruism): 제한된 자원으로 최대한 많은 선을 행하는 방법을 과학적으로 연구하는 사회운동. 옥스퍼드 철학자 윌리엄 맥어스킬(William MacAskill) 등이 주도했으며, AI가 인류 멸종 위험이 될 수 있다는 ‘장기주의(longtermism)’ 사상과 결합되면서 실리콘밸리에 큰 영향력을 행사했어요. FTX 창업자 샘 뱅크먼-프리드도 EA의 대표적 후원자였는데, 그의 사기 사건 이후 운동 자체의 신뢰도 타격을 입었죠. ↩
- 더 블립(The Blip): 마블 시네마틱 유니버스에서 타노스가 인피니티 스톤으로 전 우주 인구의 절반을 소멸시킨 ‘스냅’과, 5년 후 어벤져스가 이를 되돌린 사건을 통칭하는 용어. 사라진 사람들에게는 한순간이지만, 남아 있던 사람들에게는 5년이라는 세월이 흐른 뒤 돌아온다는 점에서 올트먼의 복귀 상황과 겹쳐요. ↩
- 폴 그레이엄(Paul Graham): 프로그래머이자 에세이스트로, 2005년 Y Combinator를 공동 설립해 Airbnb, Dropbox, Stripe, Reddit 등을 배출했어요. 실리콘밸리에서 ‘스타트업 교부’로 불리며, 그의 추천 한 마디가 창업자의 운명을 바꿀 정도의 영향력을 가진 인물이에요. ↩
- 테라노스(Theranos): 엘리자베스 홈즈가 2003년 설립한 혈액 검사 스타트업. 손끝 혈액 한 방울로 수백 가지 검사가 가능하다고 주장했지만, 기술 자체가 작동하지 않는 사기였어요. 한때 기업가치 90억 달러까지 올랐다가 2018년 폐업, 홈즈는 2022년 사기 혐의로 유죄 판결을 받았죠. 실리콘밸리에서 ‘과대 포장의 극단’을 대표하는 사례예요. ↩
- 맨해튼 프로젝트(Manhattan Project): 제2차 세계대전 중 미국이 원자폭탄을 개발하기 위해 진행한 극비 군사 연구 프로젝트(1942-1946). J. 로버트 오펜하이머가 과학 총책임자로 이끌었어요. 올트먼은 이 비유를 통해 AGI 개발의 지정학적 긴급성과 국가안보적 함의를 강조하는데, 기사에서는 이 비유가 때로는 안전을, 때로는 가속을 정당화하는 데 선택적으로 사용된다고 지적해요. ↩
- 미첼 앤 웹(Mitchell and Webb): 영국 코미디언 데이비드 미첼(David Mitchell)과 로버트 웹(Robert Webb)의 듀오. 해당 스케치 “Are We the Baddies?”는 SS 해골 마크가 달린 모자를 쓴 나치 병사가 자기네가 악당이 아닌지 의문을 품는 장면으로, 영미권에서 ‘자기 쪽이 나쁜 편일 수 있다’는 자각의 밈으로 널리 쓰여요. ↩
- 현실 왜곡 장(Reality-Distortion Field): 스티브 잡스의 동료들이 그의 설득력을 묘사하며 만든 표현. 잡스가 방에 들어오면 불가능해 보이는 일도 가능하다고 믿게 만드는 압도적 카리스마를 가리켜요. 원래 스타 트렉에서 외계인이 정신력으로 가짜 현실을 만들어내는 능력에서 따온 말이에요. ↩
- 에런 스워츠(Aaron Swartz): RSS 공동 개발, Reddit 공동 창업, Creative Commons 기여 등으로 알려진 프로그래머이자 인터넷 자유 운동가. JSTOR 학술 논문 대량 다운로드로 연방 검찰의 과도한 기소를 받던 중 2013년 26세에 자살했어요. 테크 업계에서 양심과 윤리의 상징으로 기억되기 때문에, 그가 올트먼에 대해 내린 평가는 각별한 무게를 가져요. ↩
- WilmerHale: 워싱턴 D.C.에 본사를 둔 미국 최대 로펌 중 하나. 엔론(2001년 회계 사기로 파산한 에너지 기업)과 월드컴(2002년 회계 부정으로 파산한 통신사)의 내부 조사를 맡은 이력이 있어요. 이런 로펌에 조사를 맡겼다는 것은 사안의 심각성을 보여주지만, 기사에서는 결국 보고서조차 작성되지 않았다고 지적해요. ↩
- 튜링 테스트(Turing Test): 영국 수학자 앨런 튜링이 1950년 논문에서 제안한 사고 실험으로, 기계가 인간과 구별 불가능한 대화를 할 수 있다면 ‘지능적’이라고 볼 수 있다는 기준이에요. AI 분야에서 가장 유명한 벤치마크 중 하나로, OpenAI 사무실에 튜링 초상화를 걸어둔 것 자체가 회사의 야심을 상징해요. ↩
- 네옴(Neom): 사우디아라비아가 5,000억 달러를 투입해 북서부 사막에 건설 중인 미래형 메가시티 프로젝트. ‘더 라인(The Line)‘이라는 높이 500m, 길이 170km의 거울 도시가 대표 계획이에요. 빈 살만 왕세자의 핵심 국책 사업이지만, 강제 이주와 인권 침해 논란이 끊이지 않으며 규모 축소 보도도 계속되고 있어요. ↩
- 자말 카슈끄지(Jamal Khashoggi): 사우디 출신의 워싱턴 포스트 칼럼니스트이자 왕세자 비판자. 2018년 10월 이스탄불 사우디 영사관에서 살해됐으며, CIA를 비롯한 여러 정보기관이 빈 살만 왕세자가 직접 승인한 작전으로 결론 내렸어요. 이 사건 직후 올트먼이 사우디 자문위원회에 합류한 것은 기사에서 그의 도덕적 판단력에 대한 의문점으로 제시돼요. ↩
- 파운더 모드(Founder Mode): 2024년 9월 폴 그레이엄이 브라이언 체스키의 강연에서 영감을 받아 쓴 에세이 제목이자 개념. 창업자가 전문 경영인식 위임(Manager Mode) 대신 세부 사항에 직접 개입해야 한다는 주장으로, 실리콘밸리에서 순식간에 밈이 되었어요. 기사에서는 이 개념이 올트먼의 권력 집중을 정당화하는 논리로 작동했음을 시사해요. ↩
- 공급망 위험(Supply-Chain Risk) 지정: 미국 국방부가 국가안보에 위협이 되는 기업을 블랙리스트에 올리는 조치. 중국 통신장비업체 화웨이가 2019년 이 지정을 받아 미국 기술 공급이 차단된 것이 대표적 사례예요. 미국 AI 기업에 이 지정을 적용한 것은 전례가 없으며, Anthropic이 자율무기 금지 조항을 철회하지 않은 것에 대한 보복적 성격이 강해요. ↩
저자 소개: Ronan Farrow는 뉴요커 기고 작가이자 퓰리처상 수상 탐사보도 기자이며, Andrew Marantz는 뉴요커의 스탭 라이터다.
참고: 이 글은 Ronan Farrow와 Andrew Marantz가 The New Yorker에 게시한 탐사보도 기사를 번역한 것입니다.
원문: Sam Altman May Control Our Future—Can He Be Trusted? — Ronan Farrow, Andrew Marantz, The New Yorker (April 6, 2026)
생성: Claude (Anthropic)