튜링이 컴퓨터를 발명한 순간, AI의 특이점인가?
하나의 사고 실험에서 새로운 세계로
우리가 매일 사용하는 AI, 예를 들어 스마트폰의 음성 비서, 추천 알고리즘, 최근에 폭발적으로 인기를 끌고 있는 ChatGPT는 도대체 어디서 온 것일까요? 많은 사람들은 AI가 마치 어떤 천재가 실험실에서 번뜩이는 아이디어로 "발명"한 것처럼 느낄 것입니다. 하지만 진실은 그보다 훨씬 더 흥미롭습니다. AI는 고립된 발명이 아니라 거의 한 세기를 넘는 "사고의 릴레이"와 같습니다. 그 출발점은 한 줄의 코드가 아니라, "기계는 생각할 수 있는가?"라는 깊은 철학적 질문입니다. 이 질문은 마치 잔잔한 호수에 던져진 돌처럼, 여러 세대의 뛰어난 두뇌에 물결을 일으켰습니다. 그때부터 철학자, 수학자, 엔지니어, 심리학자 등 수많은 선구자들이 이 분야에 뛰어들었습니다. 어떤 이는 그것의 이름을 정의했고, 어떤 이는 그 길을 열었으며, 어떤 이는 겨울 속에서 지켰고, 어떤 이는 오늘날 그 에너지를 폭발시켰습니다. 이 글에서는 다른 시각으로, 10명의 가장 대표적인 인물을 통해 AI의 0에서 1로의 주요 전환점을 연결합니다. 여러분은 다음과 같은 것들을 보게 될 것입니다:
- 위대한 꿈이 어떻게 "명명"되고 "정의"되었는가.
- "기호"와 "연결" 두 기술 노선이 어떻게 충돌하고 융합되었는가.
- 세 명의 "심층 학습의 아버지"가 어떻게 겨울 속에서 지켰고, 결국 전체 분야의 부흥을 맞이했는가.
철학에서 과학으로 "지능"을 가져오다
모든 위대한 기술 혁명의 출발점은 종종 구체적인 발명이 아니라, 충격적인 질문입니다. 인공지능(AI)의 출발점은 특히 그렇습니다. 그 이야기는 시끄러운 기계나 신비로운 코드 한 줄에서 시작되지 않고, 한 천재 수학자가 종이에 제시한 사고 실험에서 시작됩니다. 이 사람과 그의 질문은 "지능"이라는 수천 년 동안 철학의 전당에 머물러 있던 개념을 현대 과학의 경기장으로 처음 끌어들였습니다. 그는 앨런 튜링(Alan Turing)입니다.
1950년, 컴퓨터 과학의 새벽이 막 시작되었을 때, 당시의 기계는 무겁고 느려서 가장 기본적인 연산만 수행할 수 있었습니다. 그러나 튜링의 사고는 이미 시대의 한계를 넘어섰습니다. 그는 그의 획기적인 논문 "계산 기계와 지능"에서, 겉보기에는 간단하지만 매우 깊은 질문을 던졌습니다: "기계는 생각할 수 있는가?" 튜링은 "생각"의 정의를 직접 논의하는 것이 끝없는 철학적 수렁에 빠질 것임을 날카롭게 인식했습니다. 그래서 그는 이를 검증 가능한 게임인 "모방 게임"(The Imitation Game)으로巧妙하게 전환했습니다. 이것이 나중에 세계적으로 유명한 "튜링 테스트"가 되었습니다.
게임의 규칙은 다음과 같습니다: 한 질문자가 두 개의 익명의 객체와 텍스트로 소통합니다. 그 중 하나는 인간이고, 다른 하나는 기계입니다. 만약 충분한 시간 동안 질문자가 어떤 것이 기계인지 구별할 수 없다면, 우리는 그 기계가 테스트를 통과했다고 말할 수 있으며, 인간과 다름없는 지능 행동을 보였다고 할 수 있습니다. 이것이 AI의 출발점이 독특한 이유입니다: 그것은 특정 작업을 해결하기 위한 "발명"이 아니라, 근본적인 질문에 대한 "도전"입니다.
튜링 테스트의 위대함은 "지능"이라는 모호한 개념에 대해 조작 가능하고 평가할 수 있는 기준을 제공했다는 점입니다. 그것은 기계 내부에 영혼이나 의식이 있는지에 대한 논쟁에 얽매이지 않고, 외부 행동에 집중합니다. 이는 마치 우리가 블랙박스를 열어 내부 구조를 탐구할 필요 없이, 그 출력을 관찰함으로써 능력을 판단할 수 있다는 것과 같습니다. 이러한 실용적인 사고는 순수한 철학적 사유를 엔지니어와 과학자들이 도전할 수 있는 공학적 목표로 변모시켰습니다.
튜링은 사고의 씨앗을 뿌렸지만, 그것이 뿌리를 내리고 싹트기 위해서는 비옥한 토양과 열정적인 정원사가 필요했습니다. 그 사람은 곧 나타났고, 그의 이름은 존 맥카시(John McCarthy)입니다. 1955년, 튜링은 이미 세상을 떠났지만, 그가 제기한 질문은 대서양 건너편의 젊은 학자들을 고무시켰습니다. 당시 "사고하는 기계"에 대한 연구는 여러 분야에 분산되어 있었고, 이름도 다양했습니다. 예를 들어 "사이버네틱스"(Cybernetics), "자동기 이론"(Automata Theory) 등이 있었습니다.
젊은 다트머스 대학의 수학 조교수인 맥카시는 이러한 산발적인 불꽃들이 하나의 타오르는 불꽃으로 모여야 한다고 생각했습니다. 그는 1956년 여름에 수주간의 세미나를 조직하여 미국 최고의 두뇌들을 초대해 기계가 인간의 지능을 모방할 가능성에 대해 논의할 계획을 세웠습니다. 마빈 민스키(Marvin Minsky) 등과 함께 작성한 회의 제안서에서 그들은 천재적인 낙관론으로 가득 차 있었고, "지능의 모든 측면은 원칙적으로 정확하게 설명될 수 있으며, 따라서 기계가 그것을 모방할 수 있다"고 선언했습니다.
이 새로운 분야에 명확한 정체성을 부여하기 위해, 맥카시는 눈에 띄는 이름이 필요했습니다. 그는 당시 영향력 있는 "사이버네틱스"라는 용어를 피했습니다. 왜냐하면 그는 이 새로운 분야가 사이버네틱스의 창시자인 노버트 위너(Norbert Wiener)의 학문적 영역의 일부로 여겨지기를 원하지 않았기 때문입니다. 맥카시는 나중에 이 새로운 용어를 만든 이유는 경계를 명확히 하고 독립적인 학문적 정체성을 확립하기 위해서라고 회상했습니다. 그가 신중하게 선택한 이름은 바로 "인공지능"(Artificial Intelligence)입니다.
1956년의 다트머스 회의는 AI 역사에서 "창세기"가 되었습니다. 그것은 이 학문을 공식적으로 명명했을 뿐만 아니라, 더 중요한 것은 공동의 꿈을 가진 사상가들을 모아 최초의 연구 프로그램을 확립했습니다. 회의에서 앨런 뉴웰(Allen Newell)과 허버트 사이먼(Herbert Simon)은 역사상 최초의 "사고하는" 프로그램인 "논리 이론가"(Logic Theorist)를 선보였습니다. 이 프로그램은 인간처럼 기호 논리를 사용하여 수학 정리를 증명할 수 있었고, 이는 참석자들에게 큰 격려가 되었습니다.
"인공지능"이라는 이름의 탄생은 새로운 대륙이 공식적으로 발견되었음을 의미합니다. 그것은 "기계 지능"에 열정을 가진 모든 탐험자에게 공동의 정체성과 통일된 깃발을 제공했습니다. 그들은 더 이상 고립된 수학자, 심리학자 또는 엔지니어가 아니라 "인공지능 과학자"가 되었습니다. 맥카시는 이 학문을 명명했을 뿐만 아니라, 1958년에 Lisp 언어를 창조했습니다. 이 강력한 기호 처리 도구는 초기 AI 연구자들의 "공식 언어"가 되어, 그들이 추상적인 논리와 사고를 실제로 기계에서 실행할 수 있는 프로그램으로 변환할 수 있게 해주었습니다.
튜링이 철학적인 "문제"를 제기한 것에서 맥카시가 학문적인 "이름"을 부여한 것까지, 인공지능은 0에서 1로의 중요한 도약을 완료했습니다. 튜링은 궁극적인 목표를 정의했고, 맥카시는 집결의 신호를 울리며 인류 역사상 가장 웅장하고 흥미진진한 과학적 여정을 시작했습니다. 이 여정은 "우리가 누구인가"라는 철학적 질문에서 시작하여, 결국 코드와 알고리즘으로 "새로운 지능을 창조하는" 과학적 실천으로 나아갔습니다.
두 길의 첫 번째 충돌: 천재의 낙관과 현실의 냉수
초기 AI 과학자들은 왜 그렇게 낙관적이었을까요?
인공지능의 새벽 시기에, 전체 분야는 거의 광적인 낙관주의로 가득 차 있었습니다. 이 신뢰의 핵심은 간결하고 강력한 신념인 "기호주의"에서 비롯되었습니다. 매사추세츠 공과대학교의 마빈 민스키(Marvin Minsky)를 선두로 한 첫 번째 세대 AI 과학자들은 인간의 지능과 모든 지혜 활동이 일련의 논리 기호와 형식 규칙으로 분해될 수 있다고 확신했습니다. 그들에게 뇌는 단지 "육체로 만들어진 기계"일 뿐이며, 우리가 올바른 규칙을 찾기만 하면 컴퓨터에서 사고 과정을 재현할 수 있다고 믿었습니다.
이러한 신념은 공허한 것이 아니었고, 일련의 흥미진진한 초기 성공에 기반하고 있었습니다. 1956년, "논리 이론가"(Logic Theorist)라는 프로그램이 등장했으며, 이는 역사상 최초의 진정한 인공지능 프로그램으로 여겨졌습니다. 이 프로그램은 유명한 수학 저작 "수학 원리"에서 38개의 정리를 성공적으로 증명했으며, 그 중 일부는 원문보다 더 우아한 증명 방법을 찾기도 했습니다. 그 창조자 중 한 명인 허버트 사이먼(Herbert A. Simon)은 흥분하며 선언했습니다: "우리는 비숫자적 사고를 할 수 있는 컴퓨터 프로그램을 발명하여, 오래된 마음과 몸의 문제를 해결했습니다." 이 성과는 기계가 과거에 인간 전용으로 여겨졌던 창의적인 지적 작업을 수행할 수 있음을 세계에 증명했습니다. 또 다른 유명한 예는 SHRDLU 시스템으로, 이는 가상의 블록 세계에서 자연어 명령을 통해 "그 빨간 피라미드를 파란 블록 위에 놓아라"와 같은 복잡한 작업을 이해하고 실행할 수 있었습니다.
이러한 "장난감 세계"에서의 성공은 비록 규모는 제한적이었지만, 일반 지능으로 가는 길을 밝히는 등불과 같았습니다. 바로 이러한 가시적 성과들이 사이먼과 민스키 등을 크게 고무시켰습니다. 그들은 오늘날 보기에도 매우 대담한 예측을 했습니다. 예를 들어, 사이먼은 10년 이내에 기계가 인간 국제 체스 챔피언을 이길 수 있을 것이라고 예언했습니다. 그 "황금 시대"에 사람들은 기호주의의 길을 따라가면 인간과 어깨를 나란히 하는 기계 지능을 실현하는 것은 시간 문제라고 믿었습니다.
첫 번째 AI 겨울은 어떻게 왔을까요?
그러나 천재들의 낙관은 곧 "현실"이라는 차가운 벽에 부딪혔습니다. AI 연구자들이 "장난감 세계"에서 잘 작동하던 프로그램을 실제 복잡한 세계에 적용하려고 할 때, 기호주의의 근본적인 문제가 드러났습니다. 첫째, 기호주의는 현실 세계에 만연한 "상식"과 "불확실성"을 처리하는 데 어려움을 겪었습니다. 인간의 일상적인 결정은 모호함, 직관, 기본적인 배경 지식으로 가득 차 있으며, 이러한 것들은 정확한 논리 규칙으로 인코딩하기가 매우 어렵습니다.
예를 들어, 우리는 "물은 젖어 있다", "새는 날 수 있다"는 것을 알고 있지만, 이러한 무한한 상식을 기계에 수동으로 입력하는 것은 거의 불가능한 작업입니다. 둘째, AI 시스템은 확장할 때 치명적인 장애물인 "조합 폭발"(combinatorial explosion)에 직면합니다. 이는 문제의 변수가 조금만 증가해도 시스템이 계산해야 할 가능성이 기하급수적으로 증가하여, 곧 모든 컴퓨터의 처리 능력을 초과하게 된다는 것을 의미합니다.
SHRDLU 시스템처럼, 그 "블록 세계"가 조금만 복잡해지면 성능이 급격히 저하되어 비현실적으로 변합니다. 이러한 근본적인 한계는 AI 발전이 처음에 약속한 것보다 훨씬 뒤처지게 만들었습니다. 실망감이 퍼지기 시작했고, 결국 1973년 "라이트힐 보고서"(Lighthill Report)라는 문서에 의해 폭발했습니다. 이 보고서는 영국 정부의 위임으로 작성되었으며, "현재까지 어떤 분야의 성과도 당초 약속한 중대한 영향을 미치지 못했다"고 날카롭게 비판했습니다.
보고서는 AI 연구가 현실 문제를 해결하는 데 실패했음을 지적하며, 특히 "조합 폭발" 문제에 대한 무력함을 강조했습니다. 그 결과, 많은 AI 기초 연구가 계속 지원받을 가치가 없다고 결론지었습니다. 이 보고서의 발표는 영국 정부가 AI 연구에 대한 자금을 대폭 삭감하게 만들었고, 많은 대학의 AI 실험실이 문을 닫아야 했습니다. 이 한파는 대서양 건너편 미국에도 영향을 미쳤고, 자금 지원 기관들은 신중해지기 시작했으며, 단기적이고 명확한 응용 가능성이 있는 프로젝트에 더 중점을 두게 되었습니다.
이렇게 약속과 현실 간의 큰 간극으로 인해 인공지능은 첫 번째 "겨울"을 맞이하게 되었습니다. 민스키조차 나중에 그들이 "가장 큰 실수는 우리가 해결하려고 했던 문제가 얼마나 어려운지 깨닫지 못한 것"이라고 인정했습니다.
왜 AI가 "불확실성을 수용하는 법"을 배우는 것이 중대한 진전이라고 할 수 있을까요?
기호주의의 길이 막다른 골목에 다다랐을 때, 전혀 다른 사고 경로가 AI에 새로운 희망의 빛을 가져왔습니다. 이 새로운 길의 개척자는 튜링 상 수상자인 주데아 펄(Judea Pearl)입니다. 그는 "확률 혁명"을 이끌었으며, 그 핵심 사상은 "AI가 비흑백의 논리로 세상을 이해하도록 강요하기보다는, 불확실성을 수용하고 처리하는 방법을 가르치는 것이 더 낫다"는 것입니다. 펄의 혁신적인 무기는 그가 1980년대 후반에 제안한 "베이즈 네트워크"(Bayesian networks)입니다.
이것은 서로 다른 변수 간의 확률 의존 관계를 직관적인 그래픽 구조로 나타낼 수 있는 기발한 그래프 모델입니다. 더 중요한 것은, AI가 새로운 증거에 따라 사건 발생 가능성에 대한 "신념"을 동적으로 업데이트할 수 있도록 하는 엄격한 수학적 방법을 제공합니다. 이는 의료 진단과 같은 분야에서 엄청난 힘을 발휘했습니다. 전통적인 전문가 시스템은 "만약... 그렇다면..." 규칙을 사용하여 진단하려고 했습니다. 예를 들어, "환자가 열이 나면, 그는 독감에 걸렸을 가능성이 있다"고 말입니다.
하지만 현실은 훨씬 더 복잡합니다: 열은 다른 질병의 증상일 수도 있으며, 각 증상과 질병 간의 연관 강도도 다릅니다. 이러한 절대 규칙 기반 시스템은 불완전하거나 모순된 정보에 직면했을 때 매우 취약해집니다. 반면, 베이즈 네트워크 기반 방법은 완전히 다릅니다. 여러 질병과 여러 증상의 확률 관계 네트워크를 구축할 수 있습니다. 의사가 "환자가 열이 난다"는 증거를 입력하면, 시스템은 절대적인 결론을 내리지 않고, 베이즈 정리에 따라 모든 관련 질병(예: 독감, 폐렴 등)의 가능성 확률을 자동으로 업데이트합니다.
"환자가 기침을 한다"는 새로운 증거를 입력하면, 시스템은 다시 계산을 수행하여 확률 분포를 조정하여 현실에 더 가까운 확률 기반 진단 제안을 제공합니다. "확실성"을 추구하는 것에서 "불확실성"을 수용하는 것으로의 전환은 중대한 사고의 진전을 의미합니다. 이는 AI가 정보가 불완전하고 모호한 현실 세계에서 합리적으로 추론하고 결정을 내릴 수 있는 능력을 처음으로 갖게 해주었습니다. 펄의 작업은 AI가 현실의 곤경에서 벗어날 수 있는 강력한 새로운 도구를 제공했을 뿐만 아니라, 의료, 음성 인식, 고장 진단 등 여러 분야에 널리 적용되었습니다. 더 중요한 것은, 그것이 인공지능 발전을 위한 새로운 길을 열었다는 것입니다.
겨울 속에서 지키다: 신경망의 부흥과 "세 거두"
기호주의의 낙관적 물결이 사라지고 인공지능 연구가 긴 "겨울"에 접어들었을 때, 대부분의 연구자와 자금은 더 실용적인 전문가 시스템과 같은 분야로 전환되었습니다. 그러나 학계의 변두리에는 연결주의와 신경망이라는 길이 거의 버려질 뻔한 길이 진정한 지능으로 가는 올바른 방향이라고 굳게 믿는 소수의 사람들이 있었습니다. 그들은 겨울 속에서 지키는 자들이며, 소수파 중의 소수파입니다.
바로 이러한 고집스러운 신념이 결국 인공지능의 두 번째 혁명의 불꽃을 점화했습니다. 이 그룹의 리더는 나중에 "심층 학습의 세 거두"로 불리게 되는 제프리 힌튼(Geoffrey Hinton), 얀 르쿤(Yann LeCun), 요슈아 벤지오(Yoshua Bengio)입니다.
"심층 학습"이란 무엇인가?
이 세 과학자의 기여를 이해하기 위해서는 먼저 근본적인 질문에 답해야 합니다: "심층 학습"이란 무엇인가? 그것은 초기 신경망과 본질적으로 어떤 차이가 있는가? 초기 신경망, 예를 들어 퍼셉트론은 구조가 매우 간단하여 일반적으로 한두 개의 층만 있었습니다. 이는 마치 그림을 처음 배우는 아이가 매우 기본적인 선과 색 블록만 인식할 수 있는 것과 같습니다. 만약 그에게 고양이를 인식하게 하려면, 먼저 고양이의 특징을 수동으로 알려줘야 합니다—"뾰족한 귀가 있다", "수염이 있다", "둥근 얼굴이 있다" 등입니다.
이 과정은 "특징 공학"이라고 불리며, 시간과 노력이 많이 들고 효과도 좋지 않습니다. 왜냐하면 현실 세계는 이보다 훨씬 복잡하기 때문입니다. 반면, 심층 학습은 그 이름에서 알 수 있듯이 "깊이"에 핵심이 있습니다—여러 층(몇 층에서 수백 층까지)을 포함하는 신경망을 사용합니다. 이러한 다층 구조는 강력한 능력을 부여합니다: 자동으로 특징을 학습하는 것입니다. 우리는 더 생생한 비유를 사용하여 이해할 수 있습니다: 이는 아이에게 그림을 가르치는 것이 아니라, 그에게 완전한 시각 피질 시스템을 제공하는 것입니다.
고양이의 사진을 볼 때, 이 "심층" 네트워크의 첫 번째 층은 가장 기본적인 가장자리와 모서리를 자동으로 인식하는 법을 배울 수 있습니다. 두 번째 층은 첫 번째 층의 결과를 바탕으로 눈, 귀와 같은 더 복잡한 형태를 조합하는 법을 배웁니다. 더 깊은 층은 "고양이 얼굴" 또는 전체 "고양이"의 개념을 인식하는 법을 배웁니다. 전체 과정은 엔드 투 엔드로 진행되며, 원시 픽셀에서 최종 "고양이" 결론까지 기계가 전 과정에서 자율적으로 학습하며, 인간이 "뾰족한 귀"나 "수염"이 무엇인지 복잡하게 정의할 필요가 없습니다.
이러한 구체적인 것에서 추상적인 것, 단계적으로 발전하는 학습 방식이 심층 학습과 초기 신경망의 가장 본질적인 차이점이며, 그 힘의 원천입니다.
"세 거두": 겨울 속에서 불꽃을 점화한 소수파
바로 이러한 "깊이"의 힘에 대한 공동 신념이 힌튼, 르쿤, 벤지오를 밀접하게 연결시켰습니다. 신경망이 외면받던 수십 년 동안 그들은 학계의 의구심을 뚫고, 세 방향에서 각자 싸우며, 결국 심층 학습을 이론에서 현실로 전환하는 핵심 문제를 공동으로 해결했습니다.
- 제프리 힌튼(Geoffrey Hinton): 깊은 네트워크를 "훈련 가능하게" 만든 기초자 힌튼은 "심층 학습의 아버지"로 불리며, 그의 가장 큰 기여는 "어떻게 효과적으로 깊은 네트워크를 훈련할 것인가"라는 근본적인 문제를 해결한 것입니다.
1986년, 그는 동료들과 함께 역전파 알고리즘(Backpropagation)을 보급했습니다. 이 알고리즘은 마치 엄격한 선생님과 같아서, 네트워크가 잘못된 판단을 내릴 때, 마지막 층에서부터 오류 신호를 단계적으로 "역전파"하여 각 층의 신경세포가 자신의 매개변수를 어떻게 미세 조정해야 하는지를 알려줍니다. 이 돌파구는 다층 신경망의 훈련을 가능하게 하여, 전체 심층 학습 분야의 기초를 마련했습니다.
- 얀 르쿤(Yann LeCun): AI가 세상을 "보게" 만든 개척자 르쿤은 기계가 세상을 "보는" 방법에 초점을 맞췄습니다. 그는 이미지 처리는 일반 데이터와 동일하게 처리할 수 없다는 것을 깨달았습니다. 생물학적 시각 피질에서 영감을 받아, 그는 1980년대 말에 합성곱 신경망(Convolutional Neural Networks, CNN)을 개발했습니다.
CNN은 "합성곱 커널"을 통해 눈이 지역 정보를 포착하는 방식을 모방하며, "가중치 공유"를 통해 모델의 매개변수 수를 크게 줄여 이미지 처리 시 효율적이고 정확하게 만듭니다. 그가 1998년에 설계한 LeNet-5 네트워크는 은행의 수표 손글씨 숫자 인식 시스템에 성공적으로 적용되어, CNN의 최초 상업적 응용 사례가 되었으며, 이후 모든 컴퓨터 비전의 돌파구를 위한 길을 닦았습니다.
- 요슈아 벤지오(Yoshua Bengio): AI가 "언어"를 이해하게 만든 이론가 르쿤이 AI에게 "보는" 법을 가르치는 동안, 벤지오는 AI가 "읽고" "이해하는" 방법을 고민했습니다.
그는 자연어 처리(NLP)에서 "차원 재앙" 문제를 해결하는 데 전념했습니다. 그가 제안한 신경 확률 언어 모델은 단어 벡터(Word Embeddings) 개념을 혁신적으로 도입했습니다. 이 기술은 각 단어를 고차원 연속 벡터 공간에 매핑하여, 의미가 유사한 단어들이 공간에서 가까운 위치에 있도록 합니다. 예를 들어, "왕"과 "여왕"의 벡터는 매우 가까워집니다. 이는 기계가 처음으로 단어 간의 의미 관계를 포착할 수 있게 하여, 이후의 기계 번역, 감정 분석 등 모든 시퀀스 모델 발전의 기초를 다졌습니다.
이 세 과학자는 각각 "어떻게 학습할 것인가"(역전파), "어떻게 볼 것인가"(CNN), "어떻게 이해할 것인가"(단어 벡터)를 해결하여, 그들의 작업은 서로 보완하며 현대 심층 학습의 핵심 기술 지도를 공동으로 구축했습니다.
2012년 ImageNet: 혁명을 촉발한 "우주 대폭발"
비록 "세 거두"가 이미 이론적 화약을 갖추고 있었지만, 이 혁명을 촉발하기 위해서는 결정적인 순간이 필요했습니다. 그 순간은 2012년에 도래했습니다. ImageNet 대규모 시각 인식 챌린지(ILSVRC)는 당시 컴퓨터 비전 분야의 "올림픽"으로, 참가 알고리즘이 1000개 카테고리에 걸쳐 100만 장 이상의 이미지를 인식하고 분류해야 했습니다. 2012년 이전에는 대회 챔피언이 전통적인 기계 학습 방법을 사용하는 팀에 의해 차지되었고, 성과 향상도 항상 더디었습니다.
그러나 그 해 모든 것이 바뀌었습니다. 힌튼과 그의 두 학생인 알렉스 크리제프스키(Alex Krizhevsky)와 일리야 수츠케버(Ilya Sutskever)는 AlexNet이라는 심층 합성곱 신경망을 가지고 대회에 참가했습니다. AlexNet은 8층 깊이의 네트워크로, 르쿤의 CNN 구조를 채택했을 뿐만 아니라, 성능을 향상시키고 과적합을 방지하기 위해 ReLU 활성화 함수와 Dropout과 같은 새로운 기술을 창의적으로 사용했으며, 두 개의 GPU의 강력한 계산 능력을 활용하여 병렬 훈련을 진행했습니다.
결과는 파괴적이었습니다. AlexNet은 15.3%의 Top-5 오류율로 챔피언을 차지했으며, 두 번째의 성적은 26.1%였습니다. 10% 이상의 큰 차이는 AI 분야에 큰 지각 변동을 일으켰습니다. 그것은 더 이상 미세한 진보가 아니라, 차원의 압도적인 차이였습니다. 이 승리는 명백히 증명했습니다: 충분한 데이터와 계산 능력이 뒷받침된다면, 심층 학습의 성능은 모든 전통적인 방법을 초월합니다. 2012년의 ImageNet 대회는 AI 역사에서 분수령 사건으로 여겨지며, 심층 학습 혁명의 "촉발점"이 되었습니다.
힌튼이 말했듯이, 그 이후로 "거의 모든 컴퓨터 비전 연구가 신경망으로 전환되었습니다." 이 승리는 AI 겨울의 완전한 종료와 심층 학습이 지배하는 새로운 시대의 시작을 알리는 발신 총과 같았습니다. 수십 년 동안 어둠 속에서 지켜온 소수파는 마침내 그들의 여명을 맞이하게 되었습니다.
실험실에서 전 세계로
AI의 창조, 보급 및 반성 만약 심층 학습의 세 거두가 인공지능에 강력한 엔진을 제공했다면, 2010년대 이후의 이야기는 이 엔진에 방향타를 연결하고 도로를 포장하며, 궁극적으로 인류를 어디로 이끌 것인지에 대한 고민입니다.
이 과정은 또한 몇몇 핵심 인물에 의해 추진되었으며, 그들은 각각 세 가지 핵심 질문에 답했습니다: AI는 어떻게 "창조하는 법"을 배우는가? AI는 어떻게 상아탑을 벗어나는가? 그리고 AI가 막대한 힘을 가지게 되었을 때, 우리는 어떻게 그것을 다루어야 하는가? "생성적 AI"의 질적 변화: 이안 굿펠로우와 바에서의 논쟁에서 얻은 영감 2014년, 몬트리올에서 박사 과정을 밟고 있던 이안 굿펠로우(Ian Goodfellow)는 친구들과 함께 한 바에서 모임을 가졌습니다.
컴퓨터가 사실적인 사진을 생성하는 방법에 대한 학술 논쟁이 그의 영감을 불러일으켰습니다. 그는 그날 밤 즉시 천재적인 프레임워크인 생성적 적대 신경망(Generative Adversarial Networks, GAN)을 구상했습니다. 이 아이디어의 정수는 "대립"에 있습니다. GAN 시스템은 서로 경쟁하는 두 개의 신경망으로 구성됩니다: 하나는 "생성기"(Generator)이고, 다른 하나는 "판별기"(Discriminator)입니다.
생성기의 임무는 뛰어난 "위조가"처럼 실제 데이터의 특징을 지속적으로 학습한 후, 허위의 "위조품"(예: 가짜 얼굴 사진)을 창조하는 것입니다. 반면 판별기는 "감정가" 역할을 하며, 진짜 데이터와 생성기가 위조한 위조품을 정확하게 구별하는 것이 유일한 목표입니다. 훈련 과정은 끝나지 않는 제로섬 게임과 같습니다: 생성기는 판별기를 속이기 위해 노력하고, 판별기는 속임수를 간파하기 위해 필사적으로 노력합니다.
이 대립이 격화되는 과정에서 두 신경망은 함께 진화합니다. 결국 판별기가 더 이상 진위를 효과적으로 구별할 수 없게 되면, 이는 생성기가 고도로 사실적인 데이터를 생성하는 능력을 갖추었다는 것을 의미합니다. 이 아이디어는 너무나 새롭고 강력하여, 심층 학습의 세 거두 중 한 명인 얀 르쿤(Yann LeCun)은 이를 "지난 20년간 기계 학습 분야에서 가장 흥미로운 아이디어"라고 극찬했습니다. GAN의 탄생은 AI 발전사에서의 질적 변화를 의미합니다.
이전까지 AI는 더 열심히 "인식하는 자"로서 분류, 인식 및 예측에 능숙했습니다. 그러나 GAN은 AI에게 "창조자"라는 정체성을 부여하여, 처음으로 무에서 유를 창조하는 복잡한 콘텐츠를 생성할 수 있는 능력을 갖추게 하여, 오늘날 우리가 잘 알고 있는 AIGC(생성적 인공지능) 시대의 문을 열었습니다.
기술 보급의 핵심: 앤드류 응과 "새로운 전력"의 전파
혁신적인 기술이 실험실에만 머물러 있다면, 그 가치는 결국 제한적입니다. AI를 소수의 엘리트 도구에서 전 세계 수백만 명이 학습하고 적용할 수 있는 기술로 전환하는 데, 앤드류 응(Andrew Ng)은 결정적인 "전파자" 역할을 했습니다. 스탠포드 대학교의 교수이자 Coursera의 공동 창립자인 앤드류 응은 2011년에 출시한 온라인 과정 "기계 학습"이 MOOC(대규모 공개 온라인 과정) 열풍의 촉발점이 되어, 전 세계 수백만 명이 등록하여 학습하게 만들었습니다.
그 후, 그는 DeepLearning.AI와 협력하여 "심층 학습 전문 과정"과 비기술자를 위한 "모두를 위한 AI"와 같은 과정을 출시하여 AI 지식의 접근 장벽을 더욱 낮추었습니다. 2023년까지 그의 과정에 참여한 사람은 800만 명이 넘습니다. 앤드류 응은 단순히 지식을 보급하는 것에 그치지 않고, "AI는 새로운 전력이다"(AI is the new electricity)라는 영향력 있는 개념을 제시했습니다.
그는 100년 전 전력이 농업, 교통, 제조업 등 거의 모든 산업을 혁신적으로 변화시켰듯이, AI도 현재 기초 기술로서 전례 없는 힘으로 각 산업을 재편하고 있다고 믿었습니다. 이 비유는 AI의 미래를 정확하게 지적합니다—AI는 고립된 제품이 아니라, 사회의 모든 측면에 침투할 기반 시설입니다. 바로 이러한 AI의 공학화와 산업화 응용에 대한 통찰이 AI가 학술 연구에서 산업 실천으로 나아가는 과정을 크게 촉진했습니다.
AI 윤리의 경종
팀니트 겁루와 피할 수 없는 반성 AI의 힘이 기하급수적으로 증가하고 사회적 결정에 깊이 개입하기 시작할 때, 모든 이에게 심각한 질문이 제기됩니다: 우리는 이 기술이 공정하고 정의로우며 책임감 있게 작동하도록 어떻게 보장할 수 있을까요? AI 윤리 과학자인 팀니트 겁루(Timnit Gebru)는 이 분야에서 가장 대표적인 "고발자"가 되었습니다. 2018년, 겁루는 공동 저자와 함께 "Gender Shades"라는 이정표가 되는 연구를 발표했습니다.
그들은 당시 주류 상업적 얼굴 인식 시스템이 심각한 편견을 가지고 있음을 발견했습니다: 피부색이 밝은 남성을 인식할 때 정확도는 거의 완벽에 가까웠지만, 피부색이 어두운 여성을 인식할 때 오류율이 무려 35%에 달했습니다. 이 연구는 경종을 울리며, 훈련 데이터의 편견이 AI 시스템에 의해 어떻게 확대될 수 있는지를 강력하게 드러냈고, 이는 소외된 집단에 시스템적 불공정을 초래할 수 있습니다. 이 연구는 IBM과 마이크로소프트와 같은 기업이 알고리즘을 개선하여 편견을 줄이도록 촉구했습니다.
몇 년 후, 구글 윤리 AI 팀의 공동 책임자였던 겁루는 "무작위 앵무새의 위험: 언어 모델이 너무 커질 수 있는가?"라는 논문으로 다시 한 번 논란의 중심에 섰습니다. 이 논문은 대형 언어 모델이 가지고 있는 편견, 환경 비용, 그리고 인간 언어 패턴을 모방할 뿐 실제 의미를 이해할 수 없는 위험을 날카롭게 지적했습니다—마치 "무작위의 앵무새"와 같다는 것입니다. 이 논문은 그녀와 구글 고위층 간의 갈등을 초래했고, 결국 그녀는 강제로 퇴사하게 되었습니다.
겁루의 경험은 AI 발전이 새로운 단계에 접어들었음을 나타냅니다. AI가 더 이상 실험실의 장난감이 아니라, 채용, 신용 승인, 심지어 사법 판결에 영향을 미칠 수 있는 강력한 도구가 되었을 때, 그 편견, 위험 및 사회적 영향에 대한 검토는 매우 중요해졌습니다. 그녀의 작업은 전체 산업에 경각심을 일깨우며, 기술의 발전이 인문적 관심과 사회적 책임을 동반하지 않으면, 복지가 아닌 새로운 족쇄를 가져올 수 있음을 상기시킵니다. 굿펠로우의 창조에서 응의 보급, 겁루의 반성에 이르기까지, 이 세 인물의 이야기는 AI가 새로운 시대에 어떻게 완전한 그림을 그리는지를 함께 보여줍니다: 무한한 창의력을 가진 기술이 전례 없는 속도로 세계에 통합되고 있으며, 동시에 우리는 그것과 어떻게 공존할 것인지에 대해 진지하게 고민하기 시작해야 합니다.
하나의 질문에서 시작하다
"기계는 생각할 수 있는가?" 모든 위대한 변혁은 종종 놀라운 발명에서 시작되지 않고, 충격적인 질문에서 시작됩니다. 인공지능(AI)의 창세기는 바로 그러합니다. 그것의 출발점은 특정한 기계도, 신비로운 코드 한 줄도 아닌, 영국 수학자 앨런 튜링(Alan Turing)이 20세기 중반에 세계에 던진 철학적 질문입니다: "기계는 생각할 수 있는가?" 그 당시 컴퓨터는 방처럼 거대했으며, 이 질문은 마치 공상 과학 소설처럼 들렸습니다. 그러나 튜링의 비범함은 이 질문을 철학적 사유에 머물게 하지 않았다는 점입니다. 그는 "모방 게임"이라는 기발한 사고 실험을 설계했으며, 이는 나중에 널리 알려진 "튜링 테스트"가 되었습니다. 이 테스트는 "생각"이라는 모호한 개념의 정의를 우회하며, 만약 기계가 인간과 대화할 수 있고, 그 행동이 인간과 구별할 수 없다면, 우리는 그 기계가 지능을 갖추었다고 볼 수 있는가?라는 질문을 제기합니다.
이 질문의 제시는 마치 긴 밤을 가르는 번개와 같습니다. 그것은 처음으로 "지능 창조"라는 고대의 꿈을 신화와 철학의 영역에서 검증 가능하고 도전할 수 있는 공학적 범주로 끌어올렸습니다. 튜링은 우리에게 답을 주지 않았지만, 모든 후속자에게 명확한 목표와 그릴 수 있는 청사진을 제공했습니다. 그는 세상에 말했습니다: 지능은 아마도 정확하게 설명하고 모방할 수 있는 것입니다. 이 사고의 불꽃은 매우 비옥한 토양에 뿌려졌습니다.
2차 세계대전 이후, 특히 1950년대에는 전례 없는 과학적 낙관주의와 "할 수 있다"는 정신이 만연했습니다. 인류는 막 원자력을 다루고, 전자 계산기를 발명하고, 생명의 암호를 해독했습니다. 과학의 승리는 사람들에게 인간의 지혜와 새로 발명된 강력한 도구로는 어떤 거대한 도전도 극복할 수 있다고 믿게 만들었습니다. 만약 기계가 복잡한 탄도 계산을 할 수 있고, 적의 암호를 해독할 수 있다면, 왜 더 나아가 인간의 학습, 추론 및 창조 능력을 모방할 수 없겠습니까?
바로 이러한 시대적 배경 속에서, 당대 가장 뛰어나고 통찰력 있는 인재들이 같은 꿈에 매료되기 시작했습니다. 그러나 그들의 사고의 불꽃은 수학, 심리학, 정보 이론 및 신흥 컴퓨터 과학 등 여러 분야에 분산되어 있었습니다. 그들은 기회가 필요했습니다. 이 분산된 흐름을 하나의 큰 강으로 모을 수 있는 순간이 필요했습니다. 그 순간은 1956년 여름에 도래했습니다. 존 맥카시(John McCarthy)라는 젊은 수학자가 마빈 민스키(Marvin Minsky), 네이선 로체스터(Nathaniel Rochester), 정보 이론의 아버지 클로드 섀넌(Claude Shannon)과 함께 록펠러 재단에 대담한 제안을 제출했습니다.
그들은 미국 뉴햄프셔주 다트머스 대학에서 수주간의 여름 세미나를 개최할 계획을 세웠습니다. 제안서의 서두는 그 시대의 낙관과 야망으로 가득 차 있었습니다: "우리는 1956년 여름에... 인공지능에 대한 연구를 진행할 것을 제안합니다. 연구는 학습의 모든 측면이나 지능의 다른 특성이 원칙적으로 정확하게 설명될 수 있다는 추측에 기반할 것입니다. 따라서 기계가 그것을 모방할 수 있게 될 것입니다."
이 새로운 분야에 명확한 정체성을 부여하기 위해, 맥카시는 고심 끝에 새로운 용어를 만들었습니다: "인공지능"(Artificial Intelligence). 이 선택은 우연이 아닙니다. 당시 "사이버네틱스"(Cybernetics)라는 분야가 이미 상당한 영향력을 가지고 있었으며, 이는 생물과 기계의 피드백 및 제어 시스템을 연구하는 것이었습니다. 그러나 맥카시는 이 새로운 분야가 논리, 추론 등 고급 인지 기능을 컴퓨터로 실현하는 데 집중하기를 원했으며, 사이버네틱스의 틀에 얽매이지 않기를 원했습니다. 이 이름의 탄생은 마치 "독립 선언"과 같았으며, 같은 꿈을 가진 모든 탐험자에게 공동의 깃발을 제공했습니다.
1956년 여름, 이 회의는 나중에 "다트머스 회의"로 알려지게 되었습니다. 그것은 엄격한 학술 회의가 아니라, 6주에서 8주 동안 지속된 긴 두뇌 폭풍과 같았습니다. 앨런 뉴웰(Allen Newell), 허버트 사이먼(Herbert Simon), 레이 솔로모노프(Ray Solomonoff) 등 AI 분야의 거물들이 모두 참석했습니다. 그들은 각기 다른 배경을 가지고 있으며, 논리학, 심리학, 수학 및 공학의 다양한 관점을 가져왔습니다.
회의의 절정 중 하나는 뉴웰과 사이먼이 선보인 "논리 이론가"(Logic Theorist) 프로그램이었습니다. 이 프로그램은 유명한 수학 저작 "수학 원리"에서 여러 정리를 성공적으로 증명했습니다. 이는 단순한 기술 시연이 아니라, 기계가 과거에 인간 전용으로 여겨졌던 복잡한 기호 추론 작업을 수행할 수 있음을 세계에 증명하는 선언과 같았습니다. 이는 "기계는 생각할 수 있는가?"라는 질문에 처음으로 긍정적이고 가시적인 초기 답변을 제공했습니다.
이것이 AI의 "창세기"입니다. 그것은 특정 실험실의 일회성 성공에서 태어난 것이 아니라, 위대한 사고의 교차점에서 발생했습니다. 다트머스 회의가 이렇게 중요한 이유는 세 가지입니다: 첫째, 이 분야에 이름을 붙였습니다. 이제 "인공지능"은 공식적인 정체성을 가지게 되어, 후속 자금, 인재 및 관심을 끌게 되었습니다. 둘째, 핵심 의제를 확립했습니다. 회의에서는 기호 처리, 신경망, 자연어 처리 등 방향을 논의했으며, 이러한 주제는 이후 수십 년 동안 AI 연구의 주요 항로가 되었습니다. 셋째, 최초의 커뮤니티를 구축했습니다. 이 회의는 외로운 사상가들을 학문 공동체로 연결시켰고, 그들은 각자의 기관으로 돌아가 가장 초기의 AI 실험실(예: 매사추세츠 공과대학교, 카네기 멜론 대학교 및 스탠포드 대학교)을 설립하여, 나중에 거대한 나무가 자랄 씨앗을 뿌렸습니다. 다트머스 회의는 후세에 "AI의 헌법 회의"로 칭송받았습니다. 그것은 튜링이 제기한 위대한 질문을 공식적으로 수많은 세대의 최고의 인재들이 참여하는 과학적 여정으로 전환했습니다.
회의 참석자들은 미래에 대한 예측이 지나치게 낙관적이었고, 앞으로의 어려움과 "겨울"을 예견하지 못했지만, 그들이 점화한 불꽃은 결코 꺼지지 않았습니다. 하나의 질문에서 시작하여 하나의 학문이 탄생했습니다. AI의 이야기는 이제 막 시작되었습니다.
천재의 망상과 현실의 벽
다트머스 회의가 인공지능에 공식적으로 이름을 붙인 후, 무한한 낙관과 대담한 예측으로 가득한 "황금 시대"(약 1956-1974년)가 시작되었습니다.
이 초기 AI 선구자들은 허버트 사이먼과 마빈 민스키 등을 대표로 하여, 그들이 기계 지능으로 가는 열쇠를 이미 쥐고 있다고 확신했습니다. 그들의 자신감은 공허한 것이 아니었고, "미니어처 세계"에서 얻은 일련의 놀라운 성공에 의해 점화되었습니다. 이러한 초기 성과 중 가장 대표적인 것은 "논리 이론가"(Logic Theorist) 프로그램입니다. 앨런 뉴웰, 허버트 사이먼, J.C. 쇼가 1956년에 개발한 이 프로그램은 세계 최초의 인공지능 프로그램으로 널리 알려져 있습니다.
그 임무는 수학자 화이트헤드와 러셀의 저서 "수학 원리"에서 제시한 수학 정리를 증명하는 것이었습니다. 결과는 놀라웠습니다: "논리 이론가"는 책의 앞부분 52개 정리 중 38개를 성공적으로 증명했으며, 심지어 그 중 하나는 원저보다 더 간결하고 우아한 증명 방법을 찾았습니다. 이 성과는 연구자들에게 큰 격려가 되었고, 기계가 단순히 계산할 수 있을 뿐만 아니라, 과거에 인간 전용으로 여겨졌던 복잡한 논리 추론 활동을 수행할 수 있음을 명확히 보여주었습니다.
이어 이 팀은 1959년에 "일반 문제 해결기"(General Problem Solver, GPS)를 출시했습니다. GPS의 혁신성은 인간이 문제를 해결할 때의 일반적인 사고 방식을 모방하려고 했다는 점입니다. 이는 특정 분야의 지식(예: 규칙)과 일반적인 해결 전략을 분리하여, "수단-목적 분석"이라는 전략을 사용하여 끊임없이 하위 목표를 설정하여 최종 답변에 접근하는 방식입니다. GPS는 하노이의 탑, 기하학적 증명 등 일련의 고전적인 논리 퍼즐을 성공적으로 해결하여, 기계가 다양한 문제를 해결할 수 있는 "사고 기계"를 만드는 희망을 보여주었습니다.
만약 GPS가 기계의 "사고" 능력을 보여주었다면, 매사추세츠 공과대학교의 SHRDLU 시스템은 기계가 물리적 세계와 상호작용하는 "이해" 능력을 처음으로 갖게 해주었습니다. 테리 위노그라드(Terry Winograd)가 1970년에 만든 이 가상의 "블록 세계"에서 사용자는 일상 영어로 시스템에 명령을 내릴 수 있습니다. 예를 들어 "그 큰 빨간 블록을 집어라"와 같은 명령입니다. SHRDLU는 명령을 해석하고, 맥락을 이해하며(예를 들어 "어떤 피라미드?"라고 물으면 스스로 명확히 하기를 요청합니다), 일련의 동작을 계획하고 실행할 수 있으며, 심지어 이 세계의 상태에 대한 질문에 답할 수 있습니다. SHRDLU의 성공은 언어 이해, 추론 계획 및 동작 실행을 완벽하게 통합하여, 사람과 자유롭게 대화하고 협력하는 지능형 로봇의 초기 형태를 보여주었습니다. 이러한 "장난감 세계"에서의 성공은 거대한 낙관주의를 불러일으켰습니다.
사이먼은 1965년에 대담하게 예측했습니다: "20년 이내에 기계는 인간이 할 수 있는 모든 일을 할 수 있을 것이다." 민스키도 동의하며 말했습니다: "한 세대의 시간 내에... '인공지능' 문제는 기본적으로 해결될 것이다." 그러나 이러한 천재들의 망상이 이상적인 실험실에서 복잡한 현실 세계로 나아가려 할 때, 그들은 곧 단단하고 차가운 벽에 부딪혔습니다. 이 벽은 두 가지 근본적인 문제로 구성되어 있습니다. 첫째는 "조합 폭발"(Combinatorial Explosion)입니다.
간단한 블록 세계에서는 가능성이 제한적입니다. 그러나 문제가 조금만 확대되면, 예를 들어 체스에서 바둑으로, 또는 몇 개의 블록 이동을 계획하는 것에서 도시 교통을 계획하는 것으로 넘어가면, 계산해야 할 가능성이 기하급수적으로 증가하여, 순간적으로 당시 및 오늘날 가장 강력한 컴퓨터의 계산 능력을 소진할 수 있습니다. 초기 AI는 "장난감 문제"에서의 우아함이 현실의 복잡성 앞에서 무너지는 것을 보았습니다. 두 번째 문제는 "상식과 맥락의 결여"입니다.
인간 세계는 많은 자명한 상식과 모호한 맥락으로 가득 차 있습니다. 예를 들어, 우리는 "물은 젖어 있다", "밧줄은 당길 수 있지만 밀 수 없다", "한 사람이 비를 맞으면 감기에 걸릴 수 있다"는 것을 알고 있습니다. 이러한 지식은 너무나 기본적이어서 우리는 그 존재조차 인식하지 못합니다. 그러나 오직 논리와 규칙만 아는 AI 시스템에게는 이 세계가 완전히 낯선 것입니다. 그것은 이러한 암묵적인 배경 지식을 이해할 수 없으며, 그로 인해 실제 장면에서의 추론 능력이 극도로 약하고 터무니없게 됩니다.
SHRDLU는 "블록을 집어라"는 명령을 이해할 수 있지만, "약속을 집어라"는 것이 무엇을 의미하는지 이해할 수 없습니다. 이러한 "기호의 접지" 문제는 기호주의 AI가 극복하기 어려운 간극이 되었습니다. 지나치게 높은 기대와 잔혹한 현실 간의 간극은 거대한 실망감을 불러일으켰고, 결국 두 가지 상징적인 사건이 인공지능의 첫 번째 "겨울"을 촉발했습니다. 첫 번째 사건은 1973년 영국 정부가 발표한 "라이트힐 보고서"(Lighthill Report)입니다.
이 보고서는 응용 수학자 제임스 라이트힐 경(Sir James Lighthill)이 작성하였으며, 당시 AI 연구에 대해 가차 없는 비판을 가했습니다. 보고서는 AI가 자동화 및 언어 처리와 같은 핵심 분야에서 "현재까지 어떤 분야도 약속한 중대한 영향을 미치지 못했다"고 날카롭게 지적했습니다. 이는 AI 연구의 두 가지 약점을 지적했습니다: 현실 세계 문제를 해결하는 데 있어 "조합 폭발"에 직면하고, "상식"을 전혀 처리할 수 없다는 것입니다. 이 영향력 있는 보고서는 영국 정부가 대학 AI 연구에 대한 자금을 대폭 삭감하게 만들었고, 영국의 AI 연구는 거의 정체 상태에 빠지게 되었습니다.
두 번째 큰 타격은 미국에서 AI 분야의 선구자인 마빈 민스키가 보낸 것입니다. 1969년, 민스키는 시모어 파펫(Seymour Papert)과 함께 "퍼셉트론"(Perceptrons)이라는 책을 공동 저술했습니다. 이 책에서 그들은 수학적으로 엄밀하게 증명하여, 당시 기호주의와 병행하던 또 다른 기술 경로인 연결주의(즉 신경망의 전신)의 근본적인 한계를 지적했습니다. 그들은 단층 신경망(즉 "퍼셉트론")이 선형 모델이며, 가장 기본적인 문제인 "배타적 OR"(XOR) 문제조차 해결할 수 없음을 증명했습니다.
이 결론 자체는 옳았지만, 외부에서는 이를 전체 신경망 경로에 대한 "사형 선고"로 해석했습니다. 이 책의 막대한 영향력은 연결주의 연구에 대한 자금이 거의 완전히 중단되게 만들었고, 이 길은 10년 이상 침체기에 접어들게 되었습니다. 이렇게 해서 한때의 열정은 빠르게 식어버렸습니다. 지나치게 높은 기대, 극복하기 어려운 이론적 한계, 그리고 뒤따르는 자금 철회가 결합하여 인공지능을 첫 번째 긴 겨울로 몰아넣었습니다.
천재들의 망상이 현실의 벽에 부딪히며, 전체 분야는 떠들썩한 정점에서 침묵의 저점으로 떨어져, 다음 번 잠복 중인 부흥을 기다리게 되었습니다.
잠복과 부흥
불확실성 속에서 길을 찾다 20세기 80년대 말, 인공지능의 "황금 시대"는 차가운 바람을 맞이하게 되었습니다. 한때 큰 기대를 모았던 전문가 시스템 시장은 붕괴되었고, LISP 기계 산업은 쇠퇴하였으며, 정부와 기업의 투자 열정도 급격히 식었습니다. AI 연구는 다시 한 번 저점에 접어들었고, 이것이 역사적인 두 번째 "AI 겨울"입니다.
그러나 첫 번째 겨울과 거의 모든 것이 침묵에 빠졌던 상황과는 달리, 이번에는 AI 발전이 완전히 멈추지 않고, 마치 얼어붙은 강처럼 표면은 조용하지만, 얼음 아래 두 개의 암류가 조용히 흐르고 있었습니다. 한쪽은 특정 분야에서 자신의 가치를 증명하기 위해 노력하는 "주류"였고, 다른 한쪽은 조용히 힘을 축적하며 봄을 기다리는 "잠재력"이었습니다. 첫 번째 경로는 기호주의 AI가 역경 속에서 생존을 탐색하는 것이었습니다. 전문가 시스템은 지식 기반 구축 비용이 높고 불확실성을 처리하는 데 어려움이 있어 결국 쇠퇴했지만, 그것이 남긴 유산은 소중했습니다: AI가 특정 장면에서 실제 문제를 해결할 수 있는 능력을 증명하여, AI의 상업적 응용을 위한 첫 번째 불빛을 밝혔습니다.
더 중요한 것은, 전문가 시스템이 왜 실패했는지를 반성하는 과정에서 한 사상가가 AI 발전을 위한 새로운 방향을 제시했습니다. 그는 주데아 펄(Judea Pearl)입니다. 펄은 현실 세계가 불확실성으로 가득 차 있으며, 비흑백의 논리 규칙만으로는 세계의 복잡성을 설명하기에 부족하다는 것을 깨달았습니다. 그는 확률론과 인과 추론을 AI에 도입하여, 기계가 "가능성"으로 사고하는 법을 배우고, 불완전한 정보 속에서 합리적인 결정을 내리는 방법을 가르쳤습니다.
이는 기호주의에 대한 중요한 보완일 뿐만 아니라, AI가 이상적인 논리 세계에서 불확실성과 변화로 가득한 현실 세계로 나아가는 데 중요한 첫 걸음을 내딛게 했습니다. 동시에, 또 다른 더 은밀하고 혁신적인 경로가 학계의 변두리에서 "잠복"하고 있었습니다. 그것은 신경망을 대표하는 연결주의 연구입니다. 이 경로의 탐험자들은 진정한 "심층 잠수부"입니다. 그들의 무기고에는 강력한 이론적 무기가 추가되었습니다. 1986년, 제프리 힌튼(Geoffrey Hinton)은 역전파 알고리즘을 재발견하고 그 유효성을 체계적으로 증명했습니다.
이 알고리즘은 다층 신경망의 훈련 문제를巧妙하게 해결하여, 기계가 "반성"을 통해 오류를 단계적으로 조정하여 더 복잡한 패턴을 학습할 수 있게 해주었습니다. 힌튼은 나중에 그들이 당시 낙관적으로 생각했던 것처럼 이 알고리즘이 "모든 것을 해결할 것"이라고 회상했습니다. 그러나 이론의 여명은 현실의 겨울을 즉시 몰아내지 못했습니다. 90년대에 접어들면서 신경망 연구는 세 가지 높은 벽에 부딪혔습니다: 계산 능력 부족, 데이터 부족, 그리고 동료들의 학문적 의구심. 당시의 컴퓨터 성능은 약해 대규모 네트워크 훈련을 지원할 수 없었습니다.
동시에, 서포트 벡터 머신(SVM)과 같은 통계적 학습 방법은 많은 작업에서 당시 신경망보다 더 뛰어나고 효율적으로 성능을 발휘하여, 많은 연구 자금과 인재가 다른 분야로 유입되었습니다. 신경망은 다시 한 번 비현실적인 기술로 여겨지며, 연구는 자금 부족과 외면받는 곤경에 빠졌습니다. 바로 이러한 어려운 환경 속에서 일부 연구자들은 지키기로 선택했습니다. 얀 르쿤(Yann LeCun)은 그 중 가장 뛰어난 대표자입니다.
1988년, 그는 AT&T 벨 연구소에 합류하여 주류 학계의 압박 속에서도 모든精力을 생물학적 시각 피질을 모방한 특별한 신경망인 합성곱 신경망(CNN)의 개발에 쏟았습니다. 르쿤은 이 네트워크 구조가 기계가 세상을 "보는" 열쇠라고 확신했습니다. 르쿤의 목표는 매우 명확했습니다: 기계가 손으로 쓴 은행 수표를 인식하게 하는 것이었습니다. 수년간의 반복 끝에 그는 1998년에 클래식한 LeNet-5 모델을 출시했습니다.
이 네트워크는 상업 시스템에 성공적으로 배포되었고, 21세기 초에는 매일 약 2000만 장의 수표를 처리하여 당시 미국 수표 유통 총량의 약 10%를 차지했습니다. 이는 이정표적인 성공이었습니다. 이는 신경망 기술이 겨울 속에서 얻은 드문 상업적 승리일 뿐만 아니라, 얼어붙은 땅에 묻힌 씨앗처럼, 이 "잠재력"이 내포한 거대한 에너지를 증명하는 것이었습니다. 그것은 세상에 알렸습니다: 신경망은 공상에 불과하지 않으며, 실제 세계의 문제를 해결할 수 있고, 무한한 잠재력을 가지고 있습니다.
이렇게 해서 90년대부터 21세기 초까지 AI의 두 가지 경로가 병행하여 발전했습니다. 한 경로는 확률과 인과를 도구로 삼아 AI가 상업 세계에서 어렵게 "살아남고", 더 성숙하게 불확실성과 공존하는 법을 배우게 했습니다. 다른 경로는 학문의 구석에서 "잠복"하며, 소수의 사람들이 지키는 가운데 미래의 혁명을 위해 가장 날카로운 무기를 조용히 갈고 있었습니다. 이 두 힘은 하나는 드러나고 하나는 숨겨져, 다가오는 대폭발을 위한 서사를 함께 엮어갔습니다.
이때 하드웨어 분야에서 "동풍"이 조용히 일어나고 있었습니다—GPU를 대표로 하는 병렬 계산 하드웨어는 강력한 행렬 연산 능력과 신경망의 계산 요구가 자연스럽게 일치합니다. 이 하드웨어의 동풍이 마침내 계산 능력, 데이터 및 알고리즘이라는 비옥한 토양에 도달했을 때, 세계를 뒤흔드는 기술 혁명이 시작될 준비가 되었습니다.
세상을 "보는 것"에서 "세상을 창조하는 것"으로
2012년 9월 30일, ImageNet 대규모 시각 인식 챌린지(ILSVRC)는 역사적인 전환점을 맞이했습니다.
제프리 힌튼 교수와 그의 두 학생인 알렉스 크리제프스키(Alex Krizhevsky)와 일리야 수츠케버(Ilya Sutskever)로 구성된 팀이 AlexNet이라는 심층 신경망 모델을 제출했습니다. 그 성과는 컴퓨터 비전 분야를 놀라게 했습니다: 그 이미지 인식 오류율은 단 15.3%로, 두 번째의 성적보다 무려 10.8% 낮았습니다.
이는 단순한 대회의 승리가 아니라, 발신 총과 같은 것이었습니다. AlexNet은 명백한 성과로 심층 네트워크, 방대한 데이터 및 GPU의 강력한 계산 능력을 통해 기계가 정말로 세상을 "보는" 법을 배울 수 있음을 증명했습니다. 그로부터 심층 학습 혁명이 완전히 촉발되었고, AI 발전은 새로운 시대에 접어들게 되었습니다. 만약 AlexNet이 AI에게 전례 없는 "눈"을 부여했다면, 불과 2년 후 한 젊은 연구자가 AI에게 자유로운 "상상력"을 부여했습니다.
2014년, 당시 박사 과정에 있던 이안 굿펠로우(Ian Goodfellow)는 친구들과 학술 문제를 논의하던 중 번뜩이는 아이디어를 떠올렸습니다—생성적 적대 신경망(Generative Adversarial Networks, GAN). GAN의 원리는 "창"과 "방패"의 영원한 경쟁과 같습니다. 내부에는 서로 경쟁하는 두 개의 신경망이 있습니다: 하나는 "생성기"(Generator)이고, 다른 하나는 "판별기"(Discriminator)입니다.
생성기의 임무는 진짜와 같은 데이터를(예: 이미지) 생성하여 판별기를 속이는 것입니다. 반면 판별기는 진짜 데이터와 생성기가 위조한 위조품을 구별하는 것이 유일한 목표입니다. 이 지속적인 대립과 진화 속에서 생성기는 경쟁에서 이기기 위해 "위조" 기술을 점점 더 발전시켜, 결국 인간이 구별하기 어려운 새로운 콘텐츠를 창조할 수 있게 됩니다. 고해상도 얼굴부터 예술 작품, 의학 이미지까지, GAN은 AI가 처음으로 "인식자"와 "분석자"에서 "창조자"로 변모하게 해주었습니다.
AI는 더 이상 단순히 세상을 이해하는 것이 아니라, 새로운 디지털 "세상"을 창조할 수 있는 능력을 갖추게 되었습니다. AI가 시각적 창조 분야에서 고공행진을 하고 있을 때, 또 다른 더 깊은 구조적 변화가 조용히 진행되고 있었습니다. 2017년, 구글의 연구팀은 "Attention Is All You Need"(주의가 당신이 필요한 모든 것)이라는 혁신적인 논문을 발표했습니다. 이 논문은 과거에 시퀀스 데이터를 처리할 때 일반적으로 의존하던 순환 신경망(RNN) 구조를 버리고, 완전히 새로운 아키텍처인 Transformer를 제안했습니다.
Transformer의 핵심은 "자기 주의 메커니즘"(Self-Attention)이라는 설계로, 이는 텍스트 내의 장거리 의존 관계를 더 잘 포착할 수 있을 뿐만 아니라, 효율적인 병렬 계산을 구현하여 모델의 훈련 속도와 확장 잠재력을 크게 향상시킵니다. Transformer 아키텍처의 탄생은 AI에게 마치 마천루로 가는 견고한 기초를 제공한 것과 같습니다. 이는 이후 대형 언어 모델(LLM)의 폭발을 위한 길을 닦았습니다.
2018년 OpenAI가 첫 번째 GPT 모델을 발표한 이후, 이 기술 경로는 빠르게 발전했습니다. 모델의 매개변수 수와 데이터 규모는 기하급수적으로 증가하였고, AI의 능력도 질적으로 변화하여, 단순한 텍스트 생성에서 유창한 대화, 코드 작성, 심지어 "소수 샘플 학습"과 같은 놀라운 능력을 보여주는 GPT-3으로 진화했습니다. AI의 창의력은 이미지에서 인류의 가장 핵심적인 지능 영역인 언어로 확장되었습니다.
힘의 확산과 반성
공학화에서 윤리적 제약으로 기술의 돌파구가 세상을 변화시키려면, 실험실에서 산업으로의 "마지막 1킬로미터"가 필요합니다.
이 과정에서 앤드류 응(Andrew Ng)과 같은 인물들이 중요한 "전파자" 역할을 했습니다. 그들은 AI의 공학화와 대중 교육을 추진하여, 복잡한 심층 학습 기술을 규모화 가능한 응용 도구와 과정으로 전환하여 수천 명의 엔지니어와 학습자가 AI를 습득하고 적용할 수 있도록 하여, AI의 힘이 사회의 모든 분야로 확산되는 속도를 크게 가속화했습니다. 그러나 한 가지 힘이 충분히 강력해지면, 그것이 가져오는 것은 기회뿐만 아니라 위험이기도 합니다.
2019년, OpenAI는 새로운 모델 GPT-2를 발표할 때 전례 없는 신중한 태도를 취했습니다. 그들의 강력한 텍스트 생성 능력이 가짜 뉴스, 스팸 또는 사이버 괴롭힘과 같은 악의적인 용도로 사용될 수 있다는 우려로 인해, 그들은 처음에 소형 버전만 발표하고 전체 모델을 보류하기로 결정했습니다. 이 조치는 "개방 연구"와 "책임 있는 공개"에 대한 기술계의 격렬한 논쟁을 촉발했습니다. 결국 "남용의 강력한 증거가 없다"는 것을 관찰한 후, OpenAI는 같은 해 11월에 전체 1.5B 매개변수 모델을 공개했습니다. GPT-2의 발표 논란은 빙산의 일각에 불과합니다. 생성적 AI 능력이 보급됨에 따라, Deepfake(딥페이크) 기술은 심각한 사회적 문제로 떠오르기 시작했습니다. AI를 이용한 얼굴 교체나 음성 합성은 정치인의 가짜 비디오나 오디오를 쉽게 만들어, 가짜 정보를 퍼뜨리고, 대중의 신뢰를 훼손하며, 심지어 선거 과정에 개입할 수 있습니다. 게다가 연구자들은 이러한 모델이 방대한 인터넷 데이터에서 훈련되면서, 인간 사회에 존재하는 편견을 충실히 반영한다는 것을 곧 발견했습니다.
예를 들어, 분석 결과 GPT-2는 직업을 설명할 때 여성과 더 고정관념적인 직업을 연결하는 경향이 있음을 보여주었습니다. 이러한 도전에 직면하여, AI 분야에서 새로운 비판적인 목소리가 점점 더 커지기 시작했습니다. 팀니트 겁루(Timnit Gebru)를 대표로 하는 AI 윤리 연구자들은 더 강력한 모델을 추구하는 동시에, 기술의 사회적 영향, 알고리즘 편견 및 잠재적 위험을 진지하게 검토해야 한다고 강력히 주장하기 시작했습니다. 그들이 추진하는 연구 방향은 모델의 편견을 감지하고 완화하는 방법에서부터 책임 있는 AI 거버넌스 프레임워크를 구축하는 방법까지, AI 발전이 사회적으로 진지하게 다루어지고 제약을 받아야 하는 새로운 단계에 접어들었음을 나타냅니다.
2012년 AlexNet이 AI에게 "세상을 이해하게" 한 것에서, GAN과 Transformer가 AI에게 "세상을 창조하게" 한 것, 그리고 현재 우리가 점점 더 강력해지는 AI를 "제약해야" 한다는 고민에 이르기까지, 이 짧은 10여 년의 비약은 단순한 기술 능력의 도약이 아니라, AI와 인간 사회의 관계를 깊이 재구성하는 것입니다. AI는 더 이상 엔지니어의 서재에 있는 도구가 아니라, 우리의 현실을 형성하고 미래에 영향을 미치는 강력한 힘이 되었습니다.
마지막으로: 다음 "튜링"은 어떤 질문을 할까요?
인공지능의 70여 년 여정을 돌아보면, 우리는 어떤 천재의 번뜩이는 "발명"이 아니라, 수많은 세대의 사고의 릴레이를 보게 됩니다. 이 긴 경주에서 앨런 튜링은 출발점에서 첫 총성을 울렸습니다. 그는 AI를 창조하지 않았지만, "기계는 생각할 수 있는가?"라는 간단하면서도 깊은 질문으로 전체 경로의 종착점을 정의했습니다. 이어서 존 맥카시는 1956년 다트머스 회의에서 이 새로운 분야에 공식적으로 "이름"을 붙여 선구자들에게 공동의 정체성과 깃발을 부여했습니다.
그 후, 마빈 민스키를 대표로 하는 기호주의자들은 자신감을 가지고 첫 번째 구간을 달려갔습니다. 그들은 지능이 논리와 규칙으로 구축될 수 있다고 믿었고, 초기의 눈부신 성과를 거두었습니다. 그러나 현실 세계의 복잡성은 그들을 곧 벽에 부딪히게 했고, AI는 첫 번째 겨울을 맞이하게 되었습니다. 긴 침묵 속에서 제프리 힌튼, 얀 르쿤, 요슈아 벤지오라는 "세 거두"는 아무도 주목하지 않는 구석에서 연결주의의 불씨를 지키며, 뇌를 모방한 신경망이 올바른 길이라고 굳게 믿었습니다.
그들의 지킴은 결국 계산 능력과 데이터의 동풍을 맞이하게 되었습니다. 이안 굿펠로우의 생성적 적대 신경망(GAN)이 등장하면서 AI는 더 이상 단순한 인식자가 아니라 창조자가 되어, 파란만장한 생성적 시대를 열었습니다. 기술이 고공행진을 하는 가운데, 팀니트 겁루와 같은 이들의 경고는 이 경주가 새로운 단계에 접어들었음을 나타냅니다—우리는 이 강력한 힘의 윤리와 사회적 책임을 진지하게 검토하기 시작해야 합니다. 역사적 맥락에서 우리는 미래의 윤곽을 더 명확하게 볼 수 있습니다.
예를 들어, 초기 기호주의와 연결주의의 경로 간의 논쟁은 심층 학습의 승리로 끝나지 않았습니다. 오늘날, 그것들은 "신경 기호 AI"의 형태로 융합을 향해 나아가고 있으며, 대형 모델이 강력한 인식 능력 외에도 더 강력한 논리적 추론 능력과 설명 가능성을 갖추게 하고 있습니다. 마찬가지로 AI 윤리의 부각도 우연이 아닙니다. 이는 기술력이 임계점에 도달한 후 사회 발전의 필연적 요구입니다. AI가 고용에 영향을 미치고, 공공 여론을 형성하며, 심지어 역사 서사에 참여하기 시작할 때, 그 공정성, 투명성 및 사회적 책임에 대한 논의는 우리가 반드시 해결해야 할 과제가 됩니다.
그렇다면, 이 수많은 사고의 충돌, 경로의 투쟁, 개인의 고집으로 구성된 역사를 이해하는 것이 우리 일반인에게 어떤 의미가 있을까요? 그 답은: 그것이 우리가 인식의 틀을 구축하고 AI에 대한 신비감과 불안감을 제거하는 데 도움을 준다는 것입니다. 우리가 AI가 튜링의 질문, 민스키의 벽에 부
