← 메인으로

‘보통 기술’로서의 AI

게시일: 2025년 11월 27일 | 원문 작성일: 2025년 4월 15일 | 저자: Arvind Narayanan & Sayash Kapoor | 원문 보기

AI를 보통의 기술로 바라보는 관점 - 일상 속 기술로서의 AI(왼쪽)와 디스토피아적 공포(오른쪽)를 대비하는 일러스트레이션

핵심 요약

AI를 ‘보통의 기술’로 바라보는 새로운 세계관. 전기나 인터넷처럼 강력하지만, 인간이 통제 가능한 도구로 보자는 관점이에요.

  • 변화는 점진적이다 — 발명 → 혁신 → 채택 → 확산까지 수십 년이 걸려요. 적응할 시간은 충분합니다.
  • ‘초지능’ 개념보다 ‘역량’과 ‘권력’으로 봐야 한다 — AI 통제는 신을 가두는 게 아니라, 시스템 안전·사이버보안 같은 공학 문제예요.
  • 진짜 리스크는 SF가 아닌 현실에 — 편향 고착화, 불평등 심화, 권력 집중 같은 시스템적 문제가 더 시급해요.
  • 정책은 ‘비확산’보다 ‘회복탄력성’ — 어떤 미래든 적응 가능한 사회를 만드는 게 더 현명한 전략이에요.

• • •

들어가며: AI에 대한 두 가지 세계관

이 글은 AI를 바라보는 새로운 세계관으로 ‘보통의 기술(normal technology)‘이라는 관점을 제안하려고 해요.

지금까지 AI에 대한 이야기는 크게 두 가지였죠. 하나는 AI가 인류의 모든 문제를 해결해 줄 거라는 유토피아적 비전이고, 다른 하나는 통제 불가능한 ‘초지능(superintelligence)‘이 등장해 인류를 위협할 거라는 디스토피아적 비전이에요. 이 두 관점은 AI를 마치 우리와는 완전히 다른 존재처럼 다룬다는 공통점이 있어요.

하지만 AI를 ‘보통의 기술’로 본다고 해서 그 파급력을 과소평가하는 건 절대 아니에요. 세상을 바꾼 전기(electricity)인터넷(internet)도 결국 ‘보통의 기술’이거든요. ‘보통의 기술’이라는 관점은 AI가 인간의 도구이며, 우리가 통제할 수 있고 또 통제해야 하는 대상으로 봐야 한다는 점을 강조해요.

이 글은 총 네 부분으로 구성되어 있어요. 1부에서는 AI 발전과 확산의 속도에 대해 알아보고, 2부에서는 발전된 AI가 존재하는 세상은 어떤 모습일지 그려볼 겁니다. 3부에서는 이 관점을 통해 AI 리스크를 재평가하고, 마지막 4부에서는 어떤 정책적 접근이 필요한지 논의해 보겠습니다.

• • •

제1부: 발전의 속도 (The Speed of Progress)

AI가 사회에 미치는 영향을 예측하려면, AI 기술의 개발과 채택이 얼마나 빠른 속도로 이루어지는지 이해하는 게 정말 중요해요. 이 속도를 알아야 ‘AI가 갑자기 세상을 뒤집을 것’이라는 식의 신화를 걷어낼 수 있죠.

우리는 기술 발전의 단계를 발명(invention)혁신(innovation)채택(adoption)확산(diffusion)으로 구분해서 봐야 해요. 새로운 AI 방법론이 나오는 것과, 그게 실제 제품으로 만들어지고, 마침내 사회 전반에 퍼져서 영향을 미치는 건 완전히 다른 시간 단위로 일어나거든요. 사회적 변화는 이 느린 확산 단계에서 비로소 나타나죠.

그림 1: AI 영향력의 각 단계별 속도 제한

그림 1: AI의 영향력은 방법론 개발, 애플리케이션 개발, 확산의 각 단계에서 ‘속도 제한’을 받습니다

AI의 사회적 영향력에 브레이크를 거는 ‘속도 제한’ 요인들은 다음과 같아요:

  • 안전이 중요한 분야에서의 느린 확산: 의료나 금융처럼 안전이 무엇보다 중요한 분야에서는 새로운 AI 기술이 나와도 실제 현장에 적용되기까지 수십 년이 걸려요. Epic의 패혈증 예측 도구가 좋은 예시죠. 내부 테스트에서는 정확도가 높아 보였지만, 실제 병원에서는 패혈증 환자 3명 중 2명을 놓치고 잘못된 경고를 남발해 의료진을 혼란에 빠뜨렸어요.
  • 인간과 조직의 변화 속도라는 한계: 기술의 생산성 향상은 기술 자체만으로 이뤄지지 않아요. 전기화(electrification)의 사례를 보면, 공장에 전기가 도입되고도 생산성이 폭발적으로 증가하기까지 수십 년이 걸렸어요. 공장의 전체 레이아웃을 재설계하고, 업무 절차, 노동자의 기술 등 모든 것이 전기에 맞게 근본적으로 바뀌어야 했기 때문이죠.
  • 현실 세계가 AI 혁신에 가하는 제약: AI가 게임 같은 시뮬레이션 환경에서는 빠르게 발전하지만, 현실 세계에서는 그렇지 못해요. 이걸 ‘역량-신뢰성 격차(capability-reliability gap)‘라고 불러요. 자율주행차를 생각해보면 쉬워요. 현실의 도로는 예측 불가능한 변수가 너무 많아서, 게임처럼 빠른 시행착오를 통해 학습하기가 어렵고 위험하죠.
  • 벤치마크가 현실 세계의 유용성을 측정하지 못하는 문제: AI가 변호사 시험에서 상위 10% 성적을 거뒀다는 뉴스가 화제가 됐지만, 이게 AI가 변호사 일을 잘할 수 있다는 뜻은 아니에요. 이런 벤치마크는 측정하기 쉬운 암기 위주의 작업에 치중되어 있어 복잡한 전문직의 실제 업무 역량을 제대로 반영하지 못하거든요. 이걸 ‘구성 타당성(construct validity)‘의 문제라고 해요.
  • 점진적일 수밖에 없는 경제적 영향: AI 때문에 갑작스러운 경제적 대변혁이 일어날 가능성은 낮아요. 어떤 작업이 자동화되면 그 작업의 경제적 가치는 떨어지게 마련이죠. 그러면 인간은 아직 자동화되지 않은 새로운 고부가가치 작업으로 자연스럽게 이동해요. 즉, AGI가 달성해야 할 목표는 계속해서 더 높은 곳으로 옮겨가게 되는 셈이에요.

결론적으로 AI가 사회에 미치는 영향력에는 여러 강력한 브레이크가 걸려 있어요. 갑작스러운 대변혁보다는 점진적 변화가 훨씬 더 가능성 높은 시나리오예요.

• • •

제2부: 발전된 AI가 있는 세상의 모습

그렇다면 이렇게 점진적으로 발전하는 AI의 최종 모습은 어떤 걸까요? 이 질문에 답하려면, 먼저 ‘초지능’이라는 개념 자체에 의문을 제기해야 해요. 미래에 대해 제대로 생각하려면, ‘지능(intelligence)‘이라는 모호한 단어 대신 ‘역량(capability)‘‘권력(power)‘이라는 더 정확한 개념을 사용해야 합니다.

그림 2: 컴퓨팅의 일반성 사다리

그림 2: 컴퓨팅의 일반성 사다리 - 기계어부터 고수준 프로그래밍 추상화까지의 발전

AI의 지능이 인간을 넘어 폭발적으로 증가할 거라는 주장은 설득력이 약해요. 왜냐하면 인간의 능력은 언제나 도구와 기술에 의해 확장되어 왔거든요. 그런 의미에서 현대의 우리는 단순한 도구만 쓰던 조상들에 비해 이미 ‘초지능적인’ 존재라고 할 수 있죠.

그림 3: 지능 폭발 개념

그림 3: 지능 폭발 개념 - 종간 지능 비교 척도 (Luke Muehlhauser의 그림을 재구성)

AI 리스크를 바라보는 두 가지 상반된 관점을 비교해볼게요:

초지능 관점보통의 기술 관점
핵심 가정AI 역량 증가 → 권력 획득은 불가피권력 획득 자체를 막을 수 있음
초점정렬(Alignment) — AI가 인간 이익에 반하지 않도록통제(Control) — 애초에 위험한 권력을 주지 않기
비유신과 같은 존재를 상자에 가두기시스템 안전, 사이버보안 원칙 적용
난이도극도로 어려움 (미해결 문제)어렵지만 다룰 수 있음 (기존 공학 적용)
그림 4: 기술이 인간의 역량을 확장하는 방식

그림 4: 기술이 인간의 역량과 권력을 확장하는 방식

체스 같은 게임은 AI의 잠재력에 대해 잘못된 직관을 심어주기 쉬워요. 게임에는 명확한 규칙과 목표가 있지만, 현실 세계는 그렇지 않거든요. 지정학적 예측이나 설득처럼 복잡하고 불확실성이 큰 영역에는 ‘환원 불가능한 오류(irreducible error)‘가 존재하기 때문에, AI가 인간을 압도적으로 능가하기는 어려울 거예요.

그림 5: AI 역량과 통제에 대한 접근법 비교

그림 5: AI 역량과 통제에 대한 두 가지 접근법의 인과 관계 비교

AI ‘통제(control)‘의 개념도 훨씬 넓게 봐야 해요. 단순히 ‘인간이 최종 확인’하는 수준을 넘어서는 다양한 통제 방법이 있습니다:

  • 시스템 안전(System safety): 오작동 시 안전한 상태로 전환되는 fail-safe나, 위험 한도를 넘으면 자동으로 작동을 멈추는 circuit breaker 같은 원칙들이에요.
  • 사이버보안(Cybersecurity): 시스템의 각 부분에 꼭 필요한 최소한의 권한만 부여하는 ‘최소 권한 원칙(principle of least privilege)‘이 대표적이죠.
  • 다양한 검증 및 감독 기법: 시스템의 행동을 되돌릴 수 있게 설계하는 가역적 행동(reversible actions), 코드의 정확성을 수학적으로 증명하는 형식 검증(formal verification), 그리고 시스템이 제대로 작동하는지 지속적으로 확인하는 감사(auditing)와 모니터링(monitoring) 같은 기법들도 있습니다.

앞으로 인간의 일은 점점 더 AI 통제(AI control)과업 명세화(task specification)에 집중하는 방향으로 진화할 거예요. 마치 산업혁명 이후 인간의 일이 육체노동에서 기계를 조작하고 관리하는 일로 바뀐 것처럼 말이죠.

• • •

제3부: 리스크 (Risks)

AI를 ‘보통의 기술’로 보면, 우리가 걱정해야 할 리스크의 우선순위도 달라져요. 이번 장에서는 흔히 얘기하는 AI 리스크들이 이 렌즈를 통해 어떻게 달라 보이는지 살펴볼게요.

군비 경쟁은 오래된 문제다

AI 군비 경쟁을 새로운 실존적 위협으로 볼 필요는 없어요. 이건 이미 잘 알려진 시장 실패의 한 형태일 뿐이거든요. 안전이 시장 성공과 직결되는 자율주행차 산업 vs 유해성의 원인을 특정하기 어려워 바닥을 향한 경쟁이 벌어지는 소셜 미디어를 비교해 보면 명확해요. 해법은 이미 입증되었죠 — 각 산업 분야의 특성에 맞는 규제를 도입하는 거예요.

악용에 대한 방어는 모델의 하위단에 있어야 한다

모델 정렬(model alignment)만으로는 AI 악용을 막기 어려워요. 이건 태생적으로 취약한 방어 수단이에요. 예를 들어, 해커가 피싱 이메일을 보내기 위해 AI를 쓴다고 가정해 보죠. ‘설득력 있는 이메일 작성’이라는 개별 작업 자체는 악의적이지 않아요. 악의는 여러 작업들을 조합하는 해커의 의도에 있는데, 모델은 이 전체 맥락을 알 수가 없죠. 따라서 방어는 모델 단이 아니라, 이메일 필터나 브라우저 보호 기능 같은 하위단(downstream)에서 이루어져야 해요.

AI는 방어에도 유용하다

AI의 역량을 리스크의 원천으로만 볼 게 아니라, 방어적 잠재력도 함께 봐야 해요. 사이버보안 분야에서는 이미 AI가 취약점 자동 탐지, 위협 분석 등을 통해 방어 능력을 강화하고 있어요. 이는 공격-방어 균형(offense-defense balance)을 방어자에게 유리하게 바꾸는 중요한 역할을 해요.

치명적인 불일치는 추측에 기반한 리스크다

불일치(misalignment)는 AI가 개발자의 의도와 다르게 행동하는 것을 말해요. 유명한 ‘종이 클립 생산 극대화(paperclip maximizer)’ 사고 실험이 대표적이죠. 하지만 이런 시나리오는 현실 세계의 기술 채택 과정, 즉 덜 중요한 환경에서 충분한 테스트와 안전 검증을 거치는 반복적인 과정을 무시한 추측성 리스크(speculative risk)에 가까워요.

역사는 보통의 AI가 많은 종류의 시스템적 리스크를 초래할 수 있음을 시사한다

추측성 파국 시나리오보다는, 보통의 기술이 증폭시키는 현실적이고 시스템적인 리스크에 집중해야 해요:

시스템적 리스크 목록

  • 편향과 차별의 고착화 (entrenchment of bias)
  • 불평등 심화 (increasing inequality)
  • 소수 기업으로의 권력 집중 (concentration of power)
  • 특정 직업에서의 대규모 실직 (massive job losses in specific occupations)
  • 노동 환경 악화 (worsening labor conditions)
  • 사회적 신뢰의 침식 (erosion of social trust) - 딥페이크 등의 확산
  • 정보 생태계의 오염 (pollution of the information ecosystem)
  • 자유 언론의 쇠퇴 (decline of the free press)
  • 대규모 감시 (mass surveillance)
  • 권위주의 조장 (enabling authoritarianism)
  • 민주주의의 후퇴 (democratic backsliding)

이런 문제들이야말로 우리가 가장 시급하게 다뤄야 할 위협입니다.

• • •

제4부: 정책 (Policy)

그렇다면 이런 다양한 리스크 앞에서 정책 입안자들은 어떻게 해야 할까요? 가장 큰 과제는 AI 미래에 대한 깊은 불확실성이에요. ‘초지능’ 리스크를 막기 위한 정책(예: 비확산)이 ‘보통의 기술’ 리스크(예: 시장 독점)를 악화시킬 수 있는 딜레마 상황이거든요.

불확실성 하에서의 정책 수립의 어려움

AI 정책에서는 전통적인 정책 도구인 타협이나 확률 기반의 비용-편익 분석이 잘 통하지 않아요. AI 리스크 확률이라는 것 자체가 탄탄한 근거 없이 전문가들의 주관적 판단에 의존하는 경우가 많기 때문입니다.

정책 목표로서의 불확실성 줄이기

따라서 불확실성을 줄이는 것 자체를 중요한 정책 목표로 삼아야 합니다. 이를 위한 핵심 전략은 다음과 같아요:

  • 실제 세상에서 발생하는 AI 리스크에 대한 리서치에 전략적으로 자금을 지원해야 합니다.
  • 투명성 보고서 의무화 같은 정책을 통해 AI의 사용 현황, 실패 사례, 리스크를 지속적으로 모니터링해야 합니다.
  • 모든 AI 정책 결정 과정에서 증거 수집을 최우선으로 고려해야 합니다.

회복탄력성을 옹호하며

불확실성 아래에서 가장 강력한 거버넌스 전략은 회복탄력성(resilience)입니다. 회복탄력성이란, 시스템이 외부 충격을 받더라도 핵심 기능을 유지하면서 적응하고 대처하는 능력을 말해요.

신기술 거버넌스에 대한 네 가지 접근법을 비교해볼게요:

접근법시점전략AI에 적용하면?
위험 분석사전위험을 미리 식별·평가·관리AI 리스크 확률이 불확실해서 한계
사전 예방사전증거 불확실해도 예방 조치비확산 정책 → 권력 집중 부작용
책임사후피해 후 법적 책임으로 억제AI 피해 인과관계 입증 어려움
회복탄력성사전+사후충격에도 적응하는 시스템 구축어떤 결과가 나와도 후회하지 않을 정책

회복탄력성을 높이는 정책들은 대부분 AI의 미래가 어떻게 되든 상관없이 유익한 정책들이에요. 이런 정책을 “후회 없는(no regret)” 정책이라고 부르는데, 어떤 시나리오가 펼쳐지더라도 나중에 후회하지 않을 선택이라는 뜻이죠.

비확산 정책의 문제점

하드웨어 수출 통제나 개발 라이선스제 같은 비확산 정책은 현실적으로 시행하기 어려워요. 또한, 소수의 기업에만 기술 개발을 허용함으로써 위험한 단일 실패점을 만들고, 권력을 집중시키며, 방어 기술 리서치를 방해하죠. 역설적이지만, 장기적으로는 이 정책이 막으려던 리스크를 오히려 키울 수 있어요.

AI의 혜택 실현하기

AI의 혜택은 저절로 오지 않아요. 이를 실현하려면 정책적 지원이 필수적입니다. 지나치게 경직된 규제는 유익한 기술 채택을 가로막을 수 있죠. 전자 서명이나 드론 산업의 사례처럼, 법적 불확실성을 해소해 주는 ‘확산을 가능하게 하는 규제(diffusion-enabling regulation)‘가 필요합니다. 또한 정부는 AI 리터러시 교육, 직업 훈련, 공공 데이터 개방 등 ‘자동화의 보완재(complements of automation)‘에 적극적으로 투자해야 합니다.

• • •

마치며

결론적으로 ‘AI를 보통의 기술로 보는 것’은 단순히 하나의 주장이 아니라, AI의 현재와 미래를 이해하는 포괄적인 세계관입니다.

이 세계관은 ‘초지능’ 세계관과는 근본적으로 다른 가정, 어휘, 그리고 인식론적 도구를 사용해요. 예를 들어, 우리는 AI와 과거 기술들 사이에 충분한 유사성이 있기 때문에, 기술 확산 이론 같은 기존의 패턴들이 AI에도 적용될 것이라고 가정해요.

최고의 정책 경로는 가상의 초지능을 막으려 애쓰는 게 아니에요. 대신, 강력하고 새로운 ‘보통의 기술’을 활용하고 변화에 적응할 수 있는, 회복탄력성 있고 공정한 사회를 만드는 것입니다.

우리는 이 대안적 관점을 명확하게 제시함으로써, AI의 미래에 대한 양극화된 담론 속에서 서로 다른 신념을 가진 사람들 사이에서도 더 깊은 상호 이해가 싹트기를 바랍니다.

저자 소개: Arvind Narayanan은 프린스턴 대학교 컴퓨터과학과 교수이며, Sayash Kapoor는 프린스턴 대학교에서 박사 과정 중입니다. 두 사람은 함께 AI Snake Oil의 저자이기도 합니다.

참고: 이 글은 Knight First Amendment Institute at Columbia University에 기고된 긴 분량의 에세이를 번역 및 요약한 것입니다. 원문은 총 4부로 구성되어 있으며, AI를 바라보는 대안적 관점을 체계적으로 제시합니다.

원문: AI as “Normal” Technology - Arvind Narayanan & Sayash Kapoor, Knight First Amendment Institute at Columbia University (2025년 4월 15일)

생성: Claude (Anthropic)

총괄: (디노이저denoiser)