AI의 역사: 앨런 튜링부터 ChatGPT까지 70년의 여정

AI의 역사: 앨런 튜링부터 ChatGPT까지 70년의 여정

2026. 1. 6. 07:00과학/IT

인공지능의 대서사시: 기계적 연산에서 초지능의 태동까지

서론: 인류 최후의 발명품을 향한 여정

인공지능(Artificial Intelligence, AI)의 역사는 단순히 컴퓨터 과학의 한 분과가 겪어온 기술 발전의 기록이 아니다. 이는 "인간의 마음이란 무엇인가?", "지능은 물질로부터 발생할 수 있는가?"라는 인류의 오래된 철학적 질문을 공학적 언어로 번역해 온 장대한 서사시이다. 1956년 다트머스(Dartmouth)의 여름, 소수의 선구자가 모여 '생각하는 기계'의 가능성을 타진했던 그 순간부터, 2020년대 거대언어모델(LLM)이 인간의 언어를 유창하게 구사하기까지, AI는 과도한 낙관과 처절한 절망(AI Winter)의 주기를 반복하며 진화해 왔다.

 

본 내용은 인공지능의 기원부터 현재에 이르기까지의 역사를 심층적으로 분석한다. 특히 기술적 변곡점마다 발생했던 '기호주의(Symbolism)'와 '연결주의(Connectionism)' 간의 패러다임 전쟁, 연구 자금의 흐름이 초래한 산업적 흥망성쇠, 그리고 주요 알고리즘의 수학적 원리와 그 사회적 파급력을 포괄적으로 다룬다. 이를 통해 우리는 현재의 생성형 AI 혁명이 어디서 비롯되었으며, 향후 AGI(일반 인공지능)로 나아가는 길목에서 어떠한 역사적 맥락을 고려해야 하는지 통찰을 얻을 수 있을 것이다.


제1부: 전사(Pre-history)와 이론적 태동 (1940년대 ~ 1955년)

1.1 생각하는 기계에 대한 철학적·수학적 기원

인공지능의 개념적 뿌리는 현대 컴퓨터가 발명되기 훨씬 이전부터 존재했다. 고대 신화의 자동 인형(Automata)이나 17세기 라이프니츠(Gottfried Wilhelm Leibniz)가 상상했던 "인간의 사유를 계산으로 환원하는 보편 기호(Characteristica Universalis)"는 AI의 원형적 아이디어였다. 그러나 이것이 과학의 영역으로 들어온 것은 20세기 초, 수학자들에 의해 논리학이 형식화되면서부터이다. 조지 불(George Boole)은 인간의 논리적 사고를 0과 1의 대수적 연산으로 표현할 수 있음을 보였고, 이는 훗날 디지털 컴퓨터의 논리 회로 설계의 기반이 되었다.

 

1940년대에 이르러, 신경생리학과 수학의 융합이 시도되었다. 1943년 워런 맥컬록(Warren McCulloch)과 월터 피츠(Walter Pitts)는 인간 뇌의 뉴런이 전기 신호를 주고받으며 논리 연산을 수행한다는 점에 착안하여, 최초의 인공 신경세포 모델인 '맥컬록-피츠 뉴런(McCulloch-Pitts Neuron)'을 제안했다. 이들은 이러한 인공 뉴런들의 네트워크가 이론적으로 튜링 머신(Turing Machine)이 수행할 수 있는 모든 계산을 수행할 수 있음을 증명함으로써, 생물학적 뇌와 디지털 컴퓨터 사이의 이론적 동형성을 확립했다. 이는 훗날 연결주의 AI의 시초가 되는 결정적인 연구였다.

1.2 앨런 튜링과 '이미테이션 게임'

인공지능 역사의 첫 페이지를 장식하는 가장 중요한 인물은 앨런 튜링(Alan Turing)이다. 그는 1950년 철학 저널 Mind에 기고한 기념비적인 논문 "계산 기계와 지능(Computing Machinery and Intelligence)"을 통해 AI 분야의 의제를 설정했다.

1.2.1 "기계가 생각할 수 있는가?"에 대한 조작적 정의

튜링은 "생각(Think)"이라는 단어의 정의가 모호하기 때문에, "기계가 생각할 수 있는가?"라는 질문은 무의미하다고 보았다. 대신 그는 이 질문을 "기계가 인간을 흉내 낼 수 있는가?"라는 검증 가능한 게임으로 대체할 것을 제안했다. 이것이 바로 '이미테이션 게임(Imitation Game)', 즉 튜링 테스트(Turing Test)이다.

  • 실험의 구조: 심판(C)은 격리된 방에 있는 사람(B)과 컴퓨터(A)와 텍스트(텔레타이프)로 대화를 나눈다. 심판이 일정 시간 대화 후 어느 쪽이 컴퓨터인지 구별해내지 못한다면, 그 컴퓨터는 지능이 있는 것으로 간주해야 한다.
  • 철학적 함의: 튜링은 지능을 '내적 의식 상태'가 아니라 '외적 행동(Behavior)'으로 정의했다. 이는 "오리처럼 걷고 오리처럼 꽥꽥거리면 그것은 오리다"라는 기능주의(Functionalism)적 관점의 시초였다.
  • 반론에 대한 방어: 튜링은 논문에서 기계 지능에 대한 여러 반론을 예상하고 반박했다.
    • 레이디 러브레이스의 반론: "기계는 입력된 명령만 수행할 뿐 창조할 수 없다." → 튜링은 기계가 학습을 통해 스스로 규칙을 수정하고 예측 불가능한 결과를 내놓을 수 있다고 반박했다.
    • 의식의 부재: "기계는 감정을 느낄 수 없다." → 튜링은 타인의 마음도 오직 행동을 통해서만 추론할 수 있다는 유아론(Solipsism)적 한계를 지적하며, 기계가 감정을 표현하는 행동을 완벽히 수행한다면 그것을 이해했다고 보아야 한다고 주장했다.

1.2.2 아동 기계(Child Machine)와 학습의 예견

튜링은 성인의 지능을 가진 프로그램을 단번에 짜는 것보다, 백지상태의 '아동 기계(Child Machine)'를 만들어 교육(학습)시키는 방식이 더 효율적일 것이라고 예견했다. 이는 현대의 머신러닝(Machine Learning), 특히 지도 학습(Supervised Learning)과 강화 학습의 개념을 정확히 꿰뚫어 본 통찰이었다.

1.3 사이버네틱스와 초기 로봇 공학

이 시기, 노버트 위너(Norbert Wiener)가 창시한 사이버네틱스(Cybernetics)는 생물체와 기계의 제어 및 통신 과정을 통합적으로 연구했다. 사이버네틱스는 피드백 루프(Feedback Loop)를 통해 목표를 추적하고 오차를 수정하는 시스템을 다루었으며, 이는 초기 AI 연구에 큰 영감을 주었다. 1950년대 초, 윌리엄 그레이 월터(William Grey Walter)의 로봇 거북이 'Elsie'와 'Elmer'는 단순한 진공관 회로만으로 빛을 쫓거나 배터리가 떨어지면 충전소로 이동하는 복잡한 행동을 보여주었다. 또한 1951년 마빈 민스키(Marvin Minsky)와 딘 에드먼즈(Dean Edmonds)는 최초의 신경망 컴퓨터인 SNARC를 제작했다. 이 기계는 3000개의 진공관과 B-24 폭격기의 자동조종 장치 부품을 이용해 쥐가 미로를 탈출하는 과정을 시뮬레이션했다.


제2부: 인공지능의 탄생과 1차 황금기 (1956년 ~ 1974년)

2.1 1956년 다트머스 회의: 분야의 탄생

인공지능이 독립적인 학문 분야로 정립된 것은 1956년 여름, 다트머스 대학에서 열린 "인공지능에 관한 다트머스 하계 연구 프로젝트(Dartmouth Summer Research Project on Artificial Intelligence)"에서였다.

2.1.1 역사적인 제안서

1955년, 존 매카시(John McCarthy), 마빈 민스키(Marvin Minsky), 너새니얼 로체스터(Nathaniel Rochester), 클로드 섀넌(Claude Shannon)은 록펠러 재단에 연구비를 신청하며 다음과 같은 대담한 가설을 제시했다.

"학습의 모든 측면이나 지능의 다른 모든 기능은 원칙적으로 기계가 시뮬레이션할 수 있을 만큼 정밀하게 기술될 수 있다(Every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it)."

이 제안서에서 존 매카시는 처음으로 '인공지능(Artificial Intelligence)'이라는 용어를 사용했다. 당시 '사이버네틱스'나 '복잡한 정보 처리'와 같은 용어가 혼재되어 있었으나, 매카시는 생물학적 유추에서 벗어나 컴퓨터 과학 중심의 새로운 정체성을 확립하기 위해 이 용어를 고집했다.

2.1.2 주요 참석자와 성과

다트머스 회의에는 당대 최고의 석학들이 모였다.

  • 존 매카시: LISP 언어의 창시자이자 훗날 스탠퍼드 AI 연구소를 설립.
  • 마빈 민스키: MIT AI 연구소를 설립하고 기호주의와 연결주의를 넘나든 거장.
  • 앨런 뉴얼(Allen Newell) & 허버트 사이먼(Herbert Simon): 카네기멜런 대학(CMU)의 연구팀. 이들은 회의장에 빈손으로 오지 않았다. 그들은 이미 작동하는 세계 최초의 AI 프로그램인 '논리 이론가(Logic Theorist)'를 시연하여 참석자들을 경악하게 했다.
  • 아서 사무엘(Arthur Samuel): 스스로 학습하여 실력이 느는 체커 프로그램을 개발, '기계 학습(Machine Learning)'이라는 용어를 대중화했다.

비록 2개월간의 워크숍 동안 획기적인 기술적 돌파구가 마련된 것은 아니었지만, 이 회의를 통해 연구자들은 서로의 비전을 공유하고 AI라는 깃발 아래 결집하게 되었다.

2.2 기호주의 AI(Symbolic AI)의 전성시대

1950년대 후반부터 1970년대 초반까지는 AI 연구의 1차 황금기(The Golden Years)였다. 이 시기를 지배한 패러다임은 '기호주의(Symbolism)'였다. 기호주의는 인간의 지능이 기호(Symbol)를 조작하는 과정에서 나온다고 보았다. 즉, 세상을 논리적 규칙과 기호로 표현(Representation)하고 이를 추론(Reasoning)하면 지능을 구현할 수 있다는 믿음이었다.

2.2.1 논리 이론가(Logic Theorist)와 일반 문제 해결자(GPS)

뉴얼과 사이먼이 개발한 논리 이론가(1956)는 러셀과 화이트헤드의 저서 수학 원리(Principia Mathematica)에 나오는 수학 정리 52개 중 38개를 증명해 냈으며, 그중 하나는 저자들보다 더 간결하고 우아한 증명법을 찾아냈다. 이는 기계가 단순한 수치 계산을 넘어, 고도의 지적 활동인 논리적 추론을 수행할 수 있음을 증명한 사건이었다.

 

이어 그들은 일반 문제 해결자(General Problem Solver, GPS)(1957)를 개발했다. GPS는 '수단-목표 분석(Means-Ends Analysis)'이라는 휴리스틱(Heuristic)을 사용하여, 현재 상태와 목표 상태의 차이를 줄여나가는 방식으로 다양한 퍼즐을 해결했다. 이는 인간의 문제 해결 과정을 모방하려는 최초의 인지과학적 시도였다.

2.2.2 LISP와 마이크로월드(Microworlds)

존 매카시는 1958년, 기호 처리에 특화된 프로그래밍 언어 LISP(List Processing)를 개발했다. LISP는 데이터와 코드를 동일한 리스트 구조로 취급하는 혁신적인 언어였으며, 재귀(Recursion)와 가비지 컬렉션(Garbage Collection) 기능을 도입하여 AI 프로그래밍의 표준이 되었다. 매카시는 LISP를 통해 "상식적 추론 프로그램을 위한 조언자(Advice Taker)"를 구현하고자 했다.

 

MIT의 연구자들은 현실 세계의 복잡성을 피하기 위해 **마이크로월드(Microworlds)**라는 제한된 환경을 설정했다. 대표적인 예가 테리 위노그라드(Terry Winograd)의 SHRDLU(1970)이다. 이 프로그램은 '블록 세계(Blocks World)'라는 가상 공간에서 사용자가 자연어로 "파란 피라미드 위에 빨간 블록을 올려놔"라고 명령하면, 문장을 해석하고 계획을 세워 로봇 팔로 블록을 옮겼다. 당시로서는 놀라운 수준의 자연어 이해와 계획 능력을 보여주었다.

2.2.3 ELIZA와 챗봇의 시초

1966년 조셉 와이젠바움(Joseph Weizenbaum)은 ELIZA라는 챗봇을 개발했다.21 ELIZA는 로저스 학파의 심리상담사를 흉내 내어, 사용자의 말에서 키워드를 추출해 되묻는 단순한 패턴 매칭 규칙을 사용했다.

  • 사용자: "내 남자친구 때문에 화가 나."
  • ELIZA: "남자친구가 당신을 화나게 했나요?"
  • 이 단순한 알고리즘에도 불구하고 많은 사람들은 ELIZA가 자신의 감정을 이해한다고 믿고 깊은 대화를 나누었다(Eliza Effect). 이는 튜링 테스트의 통과 가능성을 시사함과 동시에, 인간이 기계에 얼마나 쉽게 의인화된 감정을 투영하는지를 보여주었다.

2.3 연결주의의 도전과 퍼셉트론

기호주의가 주류를 이루는 동안, 프랭크 로젠블랫(Frank Rosenblatt)은 1958년 퍼셉트론(Perceptron)을 고안했다. 이는 시각 정보를 처리하는 단층 신경망으로, 가중치(Weight)를 조정하여 학습할 수 있었다. 로젠블랫은 IBM 704 컴퓨터를 이용해 퍼셉트론을 시뮬레이션하고, 나중에는 'Mark I Perceptron'이라는 하드웨어를 직접 제작했다. 뉴욕타임스는 이를 두고 "스스로 걷고, 말하고, 보고, 글을 쓰고, 자신을 복제하고, 자신의 존재를 인식하게 될 기계의 배아"라고 대서특필했다. 이 과장된 보도는 훗날 AI 겨울을 불러오는 빌미가 되었다.

2.4 과도한 낙관론과 예언들

이 시기 AI 연구자들의 자신감은 하늘을 찔렀다.

  • H.A. Simon (1958): "10년 안에 디지털 컴퓨터가 세계 체스 챔피언이 될 것이다."
  • H.A. Simon (1965): "20년 안에 기계는 인간이 할 수 있는 모든 일을 할 수 있게 될 것이다."
  • Marvin Minsky (1967): "한 세대 안에 인공지능 창조 문제는 실질적으로 해결될 것이다."

그러나 이러한 예측은 '상식의 부재', '계산 복잡도(Combinatorial Explosion)', '모호성 처리의 어려움'이라는 현실의 벽에 부딪히며 점차 빗나가기 시작했다.


제3부: 첫 번째 AI 겨울 (1974년 ~ 1980년)

3.1 실망의 도래와 자금 중단

1970년대 중반에 들어서면서, AI 연구는 눈에 띄는 성과를 내지 못하고 정체되었다. 기계 번역 프로젝트는 문맥을 이해하지 못한 채 엉터리 번역을 쏟아냈고, 마이크로월드 밖의 현실 세계 문제는 너무나 복잡했다. 정부와 기업은 더 이상 "곧 해결된다"는 약속을 믿지 않게 되었다.

3.1.1 라이트힐 보고서(Lighthill Report)

1973년, 영국 과학연구위원회(SRC)는 저명한 유체역학자 제임스 라이트힐(James Lighthill) 경에게 AI 연구 현황에 대한 평가를 의뢰했다. 라이트힐 보고서는 충격적이었다. 그는 AI의 성과를 "장대함(Grandiosity)"에 비해 "미미하다"고 혹평하며, AI가 해결했다고 주장하는 문제들은 현실과 동떨어진 '장난감 문제(Toy Problems)'에 불과하다고 지적했다. 특히 '조합 폭발' 문제를 해결하지 못하면 AI는 실용화될 수 없다고 결론지었다. 이 보고서의 영향으로 영국 정부는 에든버러, 서식스, 에식스 대학을 제외한 모든 AI 연구 자금을 전액 삭감했다. 유럽의 AI 연구는 초토화되었다.

3.1.2 DARPA의 태도 변화와 SUR 프로젝트 실패

미국에서도 비슷한 일이 벌어졌다. 미 국방부 산하 DARPA는 1970년대 초 음성 이해 연구(Speech Understanding Research, SUR) 프로그램에 막대한 자금을 쏟아부었으나, 카네기멜런 대학의 'Harpy' 시스템 등을 제외하고는 목표 성능에 도달하지 못했다.26 DARPA는 이에 대한 실망감으로 "기초 연구보다는 구체적인 임무 중심의 연구"로 지원 방향을 급선회했다. 자유롭고 탐구적이었던 1960년대의 연구 분위기는 급격히 얼어붙었다. 이것이 **'첫 번째 AI 겨울(First AI Winter)'**의 시작이었다.

3.2 『퍼셉트론』 논쟁과 신경망의 몰락

AI 겨울을 가속화한 또 다른 결정타는 학계 내부에서 나왔다. 1969년, 마빈 민스키와 시모어 페퍼트(Seymour Papert)는 『퍼셉트론(Perceptrons)』이라는 책을 출간했다.

  • XOR 문제의 증명: 그들은 수학적 분석을 통해 로젠블랫의 단층 퍼셉트론이 선형 분리 불가능한 문제, 대표적으로 배타적 논리합(XOR) 문제를 해결할 수 없음을 증명했다.
  • 다층 신경망에 대한 비관: 이론적으로는 다층 퍼셉트론(MLP)이 XOR 문제를 해결할 수 있다는 것을 알았으나, 당시에는 다층 신경망을 학습시킬 효과적인 알고리즘(역전파 등)이 알려지지 않았다. 민스키와 페퍼트는 "다층 신경망을 학습시키는 것은 불가능하거나 계산적으로 너무 비효율적일 것"이라는 비관적 견해를 피력했다.

이 책의 파급력은 엄청났다. AI 분야의 거두가 내린 사형 선고에 신경망 연구에 대한 자금 지원은 완전히 끊겼다. 연결주의 연구자들은 뿔뿔이 흩어졌고, 로젠블랫은 1971년 보트 사고로 사망하며 자신의 이론이 부활하는 것을 보지 못했다. 이후 10여 년간 신경망은 금기시되는 단어가 되었다.


제4부: 전문가 시스템과 2차 황금기 (1980년 ~ 1987년)

4.1 지식 기반 시스템(Knowledge-Based Systems)으로의 전환

범용 인공지능에 대한 꿈이 좌절된 후, 연구자들은 전략을 수정했다. "인간처럼 생각하는 기계" 대신 "특정 분야의 전문가처럼 행동하는 기계"를 만들기로 한 것이다. 에드워드 파이겐바움(Edward Feigenbaum)이 주창한 전문가 시스템(Expert System)은 지식(Knowledge)이 추론(Inference)보다 중요하다는 철학에 기반했다.

4.1.1 시스템 구조와 성공 사례

전문가 시스템은 특정 도메인의 지식을 If-Then 형태의 규칙(Rule)으로 저장한 '지식 베이스(Knowledge Base)'와, 이를 이용해 결론을 도출하는 '추론 엔진(Inference Engine)'으로 구성된다.

  • DENDRAL (1965~): 스탠퍼드에서 개발된 최초의 전문가 시스템. 질량 분석 데이터를 통해 유기 분자의 구조를 추론했다. 화학 분야의 전문 지식을 기계에 이식한 성공적 사례였다.
  • MYCIN (1970년대 중반): 전염성 혈액 질환을 진단하고 항생제를 처방하는 시스템. 600여 개의 규칙을 사용했으며, 불확실성을 다루기 위해 '확신도(Certainty Factor)' 개념을 도입했다. 평가 결과 전문의보다 더 정확한 진단을 내렸으나, 법적/윤리적 문제로 실제 병원 도입은 무산되었다.
  • R1 / XCON (1980): 카네기멜런 대학이 개발하고 DEC(Digital Equipment Corporation)가 도입한 시스템. 고객의 요구에 맞춰 VAX 컴퓨터 시스템의 복잡한 부품 구성을 자동으로 설계해주었다. XCON은 연간 4,000만 달러 이상의 비용을 절감하며 전문가 시스템의 상업적 가치를 증명했다.

4.2 산업화와 국가 간 경쟁

XCON의 성공은 기업들의 AI 투자를 촉발했다. 1980년대 초, AI는 학문적 연구를 넘어 거대한 산업으로 성장했다.

4.2.1 LISP 머신 전쟁

AI 소프트웨어 개발에 특화된 하드웨어인 LISP 머신 시장이 열렸다. MIT AI 연구소 출신들이 설립한 심볼릭스(Symbolics)와 LMI(Lisp Machines Inc.)는 LISP 언어를 하드웨어적으로 가속화하는 워크스테이션을 판매하며 치열하게 경쟁했다. 1980년대 중반, 심볼릭스의 매출은 급증했고, AI 엔지니어는 최고의 고소득 직종으로 부상했다.

4.2.2 일본의 제5세대 컴퓨터 프로젝트

1982년, 일본 통상산업성(MITI)은 10년 계획의 '제5세대 컴퓨터 시스템(FGCS)' 프로젝트를 발표했다. 그들의 목표는 수퍼컴퓨터와 AI를 결합하여, 자연어 대화와 번역, 추론이 가능한 병렬 처리 컴퓨터를 만드는 것이었다. 일본의 이 야심 찬 계획은 미국과 유럽을 자극했다. 위기감을 느낀 미국은 MCC(Microelectronics and Computer Technology Corporation)를 설립하고 DARPA의 전략적 컴퓨팅 구상(Strategic Computing Initiative)을 통해 막대한 예산을 투입했으며, 영국은 Alvey 프로젝트로 대응했다. 바야흐로 AI의 2차 황금기였다.

4.3 신경망의 부활: 연결주의의 반격

기호주의가 산업계를 장악하는 동안, 학계 구석에서는 신경망 연구가 되살아나고 있었다. 1982년 물리학자 존 홉필드(John Hopfield)는 홉필드 네트워크를 제안하여 신경망의 물리적 에너지 상태 안정화를 수학적으로 설명했다.

 

결정적인 순간은 1986년에 찾아왔다. 제프리 힌튼(Geoffrey Hinton), 데이비드 루멜하트(David Rumelhart), 로널드 윌리엄스(Ronald Williams)는 『병렬 분산 처리(Parallel Distributed Processing)』라는 책을 통해 오차 역전파(Backpropagation) 알고리즘을 대중화했다. 역전파는 출력단의 오차를 입력단으로 거꾸로 전파하며 가중치를 수정하는 방식으로, 민스키가 "불가능하다"고 했던 다층 신경망(MLP)의 학습을 가능케 했다. 이는 30년 뒤 다가올 딥러닝 혁명의 씨앗이 되었다.


제5부: 두 번째 AI 겨울과 통계적 학습의 시대 (1987년 ~ 2010년)

5.1 LISP 머신 시장의 붕괴 (1987년)

1987년, AI 산업은 갑작스러운 붕괴를 맞이했다. 원인은 복합적이었다.

첫째, 하드웨어의 범용화다. 무어의 법칙에 따라 IBM PC와 애플 매킨토시, 썬 마이크로시스템즈의 워크스테이션 성능이 비약적으로 향상되었다. 범용 컴퓨터가 고가의 특수 목적용 LISP 머신보다 더 빠르고 저렴해지자, LISP 머신 시장은 순식간에 증발했다. 심볼릭스를 비롯한 AI 하드웨어 기업들은 줄도산했다.

둘째, 전문가 시스템의 한계다. 전문가 시스템은 관리가 어려웠다. 규칙이 수천 개로 늘어나자 시스템은 느려졌고, 규칙 간의 충돌을 해결하기 어려웠다. 또한 상식의 부재로 인해 예상치 못한 상황에서 엉뚱한 오류를 범했다(Brittleness). 유지보수 비용이 도입 효과를 상회하기 시작했다.

5.2 "AI"라는 단어의 금기화와 겨울의 심화

일본의 제5세대 컴퓨터 프로젝트 역시 뚜렷한 성과 없이 1990년대 초 종료되었다. DARPA는 1988년 전략적 컴퓨팅 구상의 신규 AI 지출을 중단했다.

이 시기 'AI'라는 단어는 과장 광고와 실패의 대명사가 되었다. 연구자들은 연구비를 받기 위해 의도적으로 '인공지능'이라는 단어를 피하고, '지능형 시스템', '정보학', '기계 학습' 등의 용어를 사용해야 했다. 이것이 '두 번째 AI 겨울(Second AI Winter)'이다.

5.3 기계 학습(Machine Learning)과 확률론적 접근의 승리

겨울의 추위 속에서도 기술은 진보했다. 1990년대 AI 연구는 과거의 거창한 기호 논리 대신, 수학적으로 엄밀한 확률(Probability)과 통계(Statistics)를 받아들였다. 이것이 현대적 기계 학습(Machine Learning)의 본격적인 시작이다.

5.3.1 주요 알고리즘의 부상

  • 베이지안 네트워크(Bayesian Networks): 주디아 펄(Judea Pearl) 등이 정립한 이 모델은 불확실한 정보를 확률적으로 추론하는 강력한 도구였다.
  • 서포트 벡터 머신(SVM): 1990년대 중반, 블라디미르 밥닉(Vladimir Vapnik) 등이 제안한 SVM은 데이터를 분류하는 최적의 경계선(Hyperplane)을 찾는 알고리즘이다. SVM은 수학적으로 깔끔하고, 적은 데이터로도 높은 성능을 보여주며 신경망을 누르고 당시 학계를 지배했다.

5.3.2 Deep Blue와 AI 에이전트

1997년, IBM의 딥 블루(Deep Blue)가 세계 체스 챔피언 개리 카스파로프를 꺾었다.2 이는 인간의 직관을 모방한 것이 아니라, 엄청난 연산 능력을 바탕으로 한 탐색(Search) 알고리즘의 승리였다.

또한 로드니 브룩스(Rodney Brooks)가 주창한 행위 기반 AI(Behavior-based AI)는 복잡한 세계 모델링 대신 "세상이 곧 모델이다"라는 철학으로 로봇 공학에 혁신을 가져왔다. 이는 2002년 청소 로봇 룸바(Roomba)의 상용화와 2003년 NASA 화성 탐사 로버(Spirit & Opportunity)의 자율 주행 성공으로 이어졌다.

이 시기의 특징은 "작동하면 더 이상 AI라고 부르지 않는다(AI Effect)"는 것이었다. 음성 인식, 광학 문자 판독(OCR), 데이터 마이닝 등 AI 기술은 일상 속으로 조용히 스며들었다.


제6부: 딥러닝 혁명과 인공지능의 르네상스 (2012년 ~ 2016년)

6.1 신경망의 암흑기와 '캐나다 마피아'

1990년대와 2000년대 초반, 신경망은 찬밥 신세였다. 층을 깊게 쌓으면 오차가 제대로 전달되지 않는 '기울기 소실 문제(Vanishing Gradient Problem)' 와 과적합(Overfitting) 문제 때문이었다. 대부분의 연구자가 SVM과 같은 얕은 모델에 집중할 때, 제프리 힌튼(Geoffrey Hinton), 얀 르쿤(Yann LeCun), 요슈아 벤지오(Yoshua Bengio) 등 소수의 연구자만이 딥러닝(Deep Learning) 연구를 고집했다. 이들은 '딥러닝의 음모자들(Deep Learning Conspiracy)' 혹은 '캐나다 마피아'라 불리며 서로 협력하고 연구를 이어갔다.

6.2 2012년 AlexNet 쇼크: 빅뱅의 시작

2000년대 후반, 세 가지 요소가 결합하며 역사의 흐름을 바꿨다.

  1. 빅데이터(Big Data): 인터넷의 발달로 ImageNet과 같은 대규모 레이블 데이터셋이 구축되었다.
  2. GPU(Graphics Processing Unit): 엔비디아의 GPU를 이용한 병렬 연산이 신경망 학습 속도를 수십 배 가속화했다.
  3. 알고리즘의 개선: ReLU 활성화 함수, 드롭아웃(Dropout) 등 기울기 소실과 과적합을 해결하는 기법들이 개발되었다.

2012년, 이미지 인식 대회인 ILSVRC에서 힌튼 교수의 제자 알렉스 크리제브스키(Alex Krizhevsky) 등이 개발한 AlexNet이 등장했다. AlexNet은 2위 팀(기존 기계 학습 방식)의 오차율 26%를 15.3%로 낮추는 압도적인 격차로 우승했다. 이 사건은 전 세계 연구자들에게 "딥러닝이 답이다"라는 충격을 안겼고, 컴퓨터 비전, 음성 인식, 자연어 처리 등 모든 분야가 딥러닝으로 급격히 재편되었다.

6.3 알파고(AlphaGo)와 이세돌: 세기의 대국

2016년 3월, 구글 딥마인드(DeepMind)의 알파고(AlphaGo)가 이세돌 9단에게 도전장을 던졌다. 바둑은 직관과 창의성이 필요한 인간 지능의 최후의 보루로 여겨졌다. 알파고는 기보를 학습한 정책망(Policy Network)과 승률을 예측하는 가치망(Value Network)이라는 두 개의 심층 신경망에, 스스로 대국하며 실력을 쌓는 강화 학습(Reinforcement Learning), 그리고 몬테카를로 트리 탐색(MCTS)을 결합했다.

 

결과는 4:1 알파고의 승리였다. 특히 제2국 37수는 인간 바둑 이론에서는 상상할 수 없는 수였으나, 결국 대세를 장악하는 신의 한 수로 평가받았다. 이 사건은 한국뿐만 아니라 전 세계에 AI의 잠재력과 공포를 동시에 각인시켰으며, AI 연구에 대한 천문학적인 투자를 이끌어냈다.


제7부: 생성형 AI와 거대언어모델(LLM)의 시대 (2017년 ~ 현재)

7.1 "Attention Is All You Need": 트랜스포머의 등장

2017년, 구글 브레인 팀은 "Attention Is All You Need"라는 논문을 통해 트랜스포머(Transformer) 아키텍처를 발표했다. 이전까지 자연어 처리에 쓰이던 RNN(순환 신경망)은 단어를 순서대로 처리해야 해서 속도가 느리고, 문장이 길어지면 앞의 내용을 잊어버리는 문제가 있었다. 트랜스포머는 '어텐션(Attention)' 메커니즘을 통해 문장 내의 모든 단어 관계를 한 번에 병렬로 파악했다.

  • 예: "The animal didn't cross the street because it was too tired." 라는 문장에서 'it'이 'street'가 아니라 'animal'을 가리킨다는 것을 어텐션 가중치를 통해 즉각적으로 파악한다.

이 구조는 대규모 데이터를 효율적으로 학습할 수 있게 하여, 오늘날 모든 거대언어모델(LLM)의 기반이 되었다.

7.2 GPT 시리즈와 LLM의 스케일링 법칙

OpenAI는 트랜스포머의 잠재력을 극대화했다. 그들은 레이블이 없는 방대한 인터넷 텍스트를 모델에게 미리 학습시키는 '사전 학습(Pre-training)' 후, 특정 작업에 맞춰 미세 조정하는 전략을 택했다. 이것이 GPT(Generative Pre-trained Transformer)이다.

모델 출시 연도 파라미터 수 주요 특징
GPT-1 2018 1.17억 개 트랜스포머 디코더 기반의 비지도 사전 학습 가능성 입증
GPT-2 2019 15억 개 제로샷(Zero-shot) 학습 가능. 문장 생성 능력이 뛰어나 공개 제한 논란
GPT-3 2020 1,750억 개 모델 크기만 키워도 놀라운 능력(번역, 코딩 등)이 창발(Emergence)함
GPT-4 2023 비공개 (조단위 추정) 멀티모달(이미지+텍스트), 추론 능력 강화, 인간 수준의 전문성

2022년 11월 출시된 ChatGPT는 인류 역사상 가장 빠르게 사용자 1억 명을 돌파하며, AI를 연구실에서 일상으로 끌어내렸다.

7.3 이미지 생성과 멀티모달의 진화

이미지 생성 분야에서는 2014년 이안 굿펠로우의 GAN(Generative Adversarial Networks)이 초기 혁신을 주도했다. 경찰(판별자)과 위조지폐범(생성자)의 경쟁을 모사한 GAN은 진짜 같은 이미지를 만들었지만 학습이 불안정했다. 2020년대 들어, 물리학의 확산 현상에서 영감을 받은 디퓨전 모델(Diffusion Models)이 등장했다. 노이즈를 점진적으로 제거하며 이미지를 만드는 DALL-E 2, Stable Diffusion, Midjourney 등은 텍스트 프롬프트만으로 예술 작품 수준의 이미지를 생성하며 창작의 영역을 AI로 확장시켰다. 또한 비전 트랜스포머(ViT)의 등장으로 컴퓨터 비전 분야에서도 CNN 독주 체제가 끝나고, 텍스트와 이미지를 통합적으로 이해하는 멀티모달(Multi-modal) 모델이 주류가 되고 있다.


결론: 끝나지 않은 역사와 미래

인공지능의 역사는 주기(Cycle)와 융합(Convergence)의 역사다. 기호주의와 연결주의는 반목과 경쟁을 거쳐 이제 뉴로-심볼릭 AI(Neuro-symbolic AI)라는 형태로 융합을 시도하고 있다. 과거의 전문가 시스템이 실패했던 상식과 유연성의 문제는 거대언어모델이 해결해 나가고 있으며, 딥러닝의 블랙박스 문제는 다시금 설명 가능한 AI(XAI)에 대한 요구를 불러오고 있다.

 

현재 우리는 일반 인공지능(AGI)이라는 성배를 향한 가장 가파른 기술적 경사면에 서 있다. 튜링이 꿈꾸었던 '아동 기계'는 이제 인류의 모든 지식을 학습하고, 스스로 코드를 짜며, 예술을 창작하고 있다. 그러나 1970년대의 겨울이 가르쳐주었듯, 과도한 낙관은 금물이다. 에너지 소비, 윤리적 정렬(Alignment), 그리고 인간 노동의 가치 변화 등 해결해야 할 난제들이 기술의 발전 속도만큼이나 빠르게 쌓여가고 있기 때문이다.

 

인공지능의 역사는 아직 끝나지 않았다. 아니, 진정한 역사는 이제 막 시작되었는지도 모른다.