posts / 과학

인공지능 역사 완벽 정리: 튜링부터 딥러닝까지

phoue

9 min read --

“기계는 생각할 수 있는가?” 앨런 튜링의 질문에서 시작된 AI의 여정, 그 장대한 역사를 쉽고 재미있게 돌아봅니다.

  • AI의 탄생 배경과 초기 이론적 토대
  • 두 번의 ‘AI 겨울’을 초래한 원인과 극복 과정
  • 딥러닝 혁명이 우리 삶과 산업을 어떻게 바꾸었는지

“기계는 생각할 수 있는가?” - AI 역사의 시작

인공지능 역사의 장대한 서막은 1950년, 영국의 천재 수학자 앨런 튜링이 던진 “기계는 생각할 수 있는가?(Can machines think?)“라는 근본적인 질문에서 열렸습니다. 이 질문은 단순히 기술적 가능성을 넘어, 지능의 본질에 대한 철학적 고민을 촉발하며 이후 수십 년간 이어질 인공지능 연구의 방향을 제시하는 등대와도 같았죠. 튜링은 ‘생각’이라는 모호한 개념 대신, 기계가 인간과 얼마나 유사하게 지능적인 행동을 하는지 판별하는 실용적인 실험, 바로 **‘튜링 테스트(Turing Test)’**를 제안했습니다.

앨런 튜링과 튜링 테스트의 개념도
앨런 튜링과 튜링 테스트의 개념도

튜링 테스트의 핵심은 기능주의적 관점, 즉 지능의 ‘기능’에 초점을 맞춘다는 데 있습니다. 인간 심문관이 텍스트 대화를 통해 상대를 구별할 수 없다면, 그 기계는 지능을 가진 것으로 봐야 한다는 것이죠. 이 관점의 전환은 지능을 뇌라는 하드웨어에서 분리해 정보 처리라는 소프트웨어의 문제로 재정의했고, 컴퓨터 과학자들이 지능 구현이라는 목표에 도전할 수 있는 이론적 토대를 마련해주었습니다.

이 글에서는 튜링의 질문에서 시작해, 1956년 다트머스 회의의 뜨거운 열기, 두 번의 혹독한 ‘AI 겨울’을 지나 딥러닝 혁명으로 우리 일상에 스며들기까지, 대규모 언어 모델(LLM) 시대 직전까지의 인공지능 역사를 깊이 있게 따라가 보겠습니다.

***

제1장: 인공지능 역사의 시작: 탄생과 여명기 (1940-50년대)

1.1. 이론적 토대: 인공두뇌학과 초기 신경망

인공지능이라는 용어가 탄생하기 전, 뇌가 **‘뉴런(neuron)’**이라는 신경세포의 거대한 전기적 네트워크라는 사실이 밝혀지면서 ‘기계로 뇌를 모방할 수 있지 않을까?‘라는 아이디어가 싹텄습니다.

이 아이디어는 노버트 위너의 ‘인공두뇌학(Cybernetics)’, 클로드 섀넌의 정보 이론 등과 결합하며 구체화되었습니다.

인공 뉴런의 기본 모델
인공 뉴런의 기본 모델

1943년, 워런 매컬러와 월터 피츠는 뇌 뉴런을 수학적으로 모델링한 최초의 ‘인공 뉴런’ 개념을 발표했습니다. 이 모델은 여러 입력을 받아 임계값을 넘으면 출력을 내보내는 간단한 구조로, 간단한 논리 연산(AND, OR, NOT)이 가능함을 증명했죠. 이는 훗날 인공 신경망 기술의 이론적 초석이 되었습니다.

이 이론은 1951년 마빈 민스키가 만든 최초의 신경망 기계 **‘SNARC’**를 통해 물리적으로 구현되며 그 가능성을 입증했습니다.

Advertisement

1.2. 1956년 다트머스 회의: ‘인공지능’의 공식 출범

1956년 여름, 다트머스 대학에서 열린 역사적인 워크숍은 흩어져 있던 ‘생각하는 기계’ 연구를 하나의 학문 분야로 묶는 결정적 계기가 되었습니다.

젊은 수학자 존 매카시는 “학습이나 지능의 어떤 특징이라도 기계가 시뮬레이션할 수 있다"는 대담한 가설 아래, **‘인공지능(Artificial Intelligence)’**이라는 새로운 용어를 제안하며 이 분야의 정체성을 확립했습니다.

이 회의에 참여한 앨런 뉴얼과 허버트 사이먼 등은 10년 안에 컴퓨터가 체스 챔피언을 이기는 등 엄청난 낙관론을 펼쳤습니다. 비록 예언은 성급했지만, 다트머스 회의의 열정은 인공지능을 독립 학문으로 출범시키는 기폭제가 되었습니다.

1.3. 초기 성공과 두 가지 접근법

초기 AI 연구자들은 게임이나 논리 증명처럼 규칙이 명확한 ‘닫힌 세계’에서 성공을 거두었습니다. 아서 새뮤얼의 체커 프로그램은 스스로 학습하며 실력을 키워 **‘머신러닝’**의 초기 개념을 구현했습니다.

가장 충격적인 성과는 1956년 앨런 뉴얼과 허버트 사이먼이 공개한 **‘논리 이론가(Logic Theorist)’**였습니다. 이 프로그램은 수학 정리 52개 중 38개를 증명했고, 일부는 인간보다 더 우아한 증명법을 찾아내기도 했습니다.

이러한 성공들은 AI의 두 가지 핵심 접근법을 보여주었습니다.

  1. 뇌 구조를 모방하는 ‘연결주의(Connectionism)’ (상향식)
  2. 인간의 논리를 기호와 규칙으로 모델링하는 ‘기호주의(Symbolism)’ (하향식)

당시에는 논리 이론가의 명확한 성공 덕분에 AI 연구의 무게 중심이 기호주의로 급격히 기울었습니다.

***

제2장: 기호주의의 부상과 첫 번째 AI 겨울 (1960-80년대 초)

2.1. 기호주의 AI의 시대 (GOFAI)

1960-70년대는 ‘착하고 오래된 방식의 AI(Good Old-Fashioned AI, GOFAI)‘라고도 불리는 기호주의 AI가 주류를 차지했습니다. 이 접근법은 인간 전문가의 지식을 컴퓨터가 이해할 수 있는 기호와 규칙으로 명시적으로 프로그래밍하는 ‘하향식(top-down)’ 방식을 따릅니다.

이 방식의 가장 큰 장점은 결론 도출 과정을 단계별로 추적할 수 있는 **‘설명 가능성’**이었습니다. 저는 기호주의 AI를 마치 ‘교과서 천재’와 같다고 생각합니다. 정해진 공식과 규칙 안에서는 완벽한 논리를 펼치지만, 교과서 밖의 모호하고 예측 불가능한 현실 문제 앞에서는 쉽게 무너지는 모습을 보였죠.

Advertisement

2.2. 전문가 시스템: 지식의 상업화

기호주의 AI는 의료 진단, 광물 탐사 등 특정 분야 전문가의 지식을 구현한 **‘전문가 시스템(Expert System)’**을 통해 상업적 성공을 거뒀습니다.

전문가 시스템의 기본 구조
전문가 시스템의 기본 구조

전문가 시스템은 ‘지식 베이스’와 ‘추론 엔진’으로 구성되며, ‘만약 A이면 B이다(IF-THEN)’ 형태의 규칙을 사용해 문제를 해결했습니다. 이는 AI 기술이 실질적인 경제적 가치를 창출할 수 있음을 보여주며 막대한 투자를 이끌었습니다.

2.3. 한계와 첫 번째 ‘AI 겨울’

하지만 1970년대 중반, 장밋빛 전망은 차가운 현실에 부딪히며 ‘첫 번째 AI 겨울(AI Winter)’ (c. 1974-1980)이 찾아왔습니다.

  • 조합적 폭발: 현실 세계의 문제는 변수가 너무 많아 당시 컴퓨터의 계산 능력으로 감당할 수 없었습니다.
  • 지식 획득의 병목: 전문가의 지식과 방대한 ‘상식’을 일일이 코드로 옮기는 것은 거의 불가능에 가까웠고, 예측하지 못한 상황에 매우 취약했습니다.
  • 연결주의에 대한 비판: 1969년 마빈 민스키의 저서 『퍼셉트론』은 단순 신경망이 XOR 같은 기초 논리 문제조차 풀 수 없음을 증명하며, 신경망 연구 자금을 고갈시켰습니다.

이러한 한계들로 인해 AI 연구 지원은 대폭 삭감되었고, 인공지능 분야는 긴 침체기를 맞았습니다.

***

비교: 기호주의 vs 연결주의 AI

두 접근 방식의 차이점은 인공지능 역사를 이해하는 핵심입니다.

특성기호주의 AI (Symbolic AI)연결주의 AI (Connectionist AI)
핵심 철학지능은 기호와 규칙의 조작에서 비롯된다.지능은 단순한 처리 장치들의 상호 연결된 네트워크에서 창발한다.
접근 방식하향식 (Top-down): 인간의 지식을 명시적으로 프로그래밍한다.상향식 (Bottom-up): 데이터로부터 패턴을 학습하여 지식을 스스로 형성한다.
지식 표현명시적인 규칙, 사실, 논리적 관계로 표현된다. (예: 지식 베이스)네트워크 내 뉴런 간의 연결 강도(가중치)로 암묵적으로 표현된다.
학습 방식주로 논리적 추론과 탐색 알고리즘에 의존하며, 학습 능력이 제한적이다.대량의 데이터를 통한 통계적 학습(훈련)이 핵심이다. (예: 역전파)
주요 기술전문가 시스템, 논리 프로그래밍, 탐색 알고리즘인공 신경망 (ANN), 퍼셉트론, 딥러닝
장점- 결과에 대한 설명이 용이하다 (Explainable).
  • 규칙이 명확한 문제에 강력하다. | - 데이터로부터 스스로 학습할 수 있다.
  • 잡음(noise)이 있거나 불완전한 데이터에 강건하다 (Robust). | | 단점 | - 현실 세계의 모호함과 불확실성에 취약하다 (Brittle).
  • 지식 획득 병목 현상이 발생한다.
  • 새로운 상황에 대한 유연성이 부족하다. | - 작동 원리를 이해하기 어렵다 (Black Box).
  • 대량의 학습 데이터가 필요하다.
  • 학습 과정에 많은 계산량이 요구된다. | | 역사적 사례 | 논리 이론가 (Logic Theorist), 전문가 시스템 (MYCIN 등), 딥 블루 (Deep Blue) | 퍼셉트론 (Perceptron), SNARC, 알파고 (AlphaGo) |

***

제3장: 연결주의의 부활과 두 번째 AI 겨울 (1980-2000년대 초)

3.1. 역전파 알고리즘과 다층 신경망

첫 AI 겨울 속에서도 소수의 연구자들은 연결주의의 불씨를 지켰습니다. 1980년대 중반, 신경망을 부활시킬 결정적 돌파구인 **‘오차 역전파(Backpropagation) 알고리즘’**이 확산되었습니다.

역전파 알고리즘은 신경망의 예측값과 정답 사이의 오차를 거꾸로 전파하며 연결 가중치를 미세 조정하는 방식입니다. 이 알고리즘 덕분에 여러 ‘은닉층(hidden layer)‘을 가진 다층 신경망의 효과적인 학습이 가능해졌고, 연결주의는 다시 AI 연구의 중심으로 돌아올 수 있었습니다.

Advertisement

1989년 얀 르쿤이 개발한 손글씨 우편번호 인식 시스템은 역전파 기반 심층 신경망이 실제 산업 현장에서 유용함을 보여준 획기적인 성과였습니다.

3.2. 딥 블루 대 카스파로프: 기계 지능의 이정표

1997년, 기호주의 AI는 다시 한번 대중의 주목을 받았습니다. IBM의 체스 슈퍼컴퓨터 **‘딥 블루(Deep Blue)’**가 세계 챔피언 게리 카스파로프에게 승리한 것입니다.

체스 챔피언 게리 카스파로프와 딥 블루의 대결
체스 챔피언 게리 카스파로프와 딥 블루의 대결

딥 블루의 승리는 초당 2억 개의 수를 계산하는 압도적인 ‘계산 능력’으로 모든 경우의 수를 탐색하는 무차별 대입 탐색(brute-force search) 방식의 정점이었습니다. 이는 ‘지능’의 승리라기보다 ‘계산 능력’의 승리에 가까웠지만, 대중에게 AI의 잠재력을 다시 한번 각인시키는 계기가 되었습니다.

3.3. 다시 찾아온 두 번째 ‘AI 겨울’

부활의 조짐에도 불구하고, 1980년대 후반부터 2000년대 초반까지 AI 분야는 또다시 **‘두 번째 AI 겨울’**을 맞았습니다.

  • 상업적 실패: 기대를 모았던 전문가 시스템이 현실 문제 해결에 한계를 보이며 관련 시장이 붕괴했습니다.
  • 기술적 한계: 당시의 컴퓨팅 파워로는 역전파 알고리즘을 활용해 깊은 신경망을 학습시키기 역부족이었고, 층이 깊어질수록 학습이 안 되는 ‘기울기 소실 문제(Vanishing Gradient Problem)‘가 심각한 난제였습니다.

이러한 한계는 다시 연구 자금 고갈로 이어졌고, AI 분야는 강력한 엔진(알고리즘)은 있지만 충분한 연료(데이터)와 차체(컴퓨팅 파워)가 없는 상태로 긴 침체에 빠졌습니다.

***

제4장: 딥러닝 혁명: AI 역사의 주류가 되다 (2000년대 중반 이후)

4.1. 딥러닝 혁명의 세 가지 촉매제

두 번의 겨울을 지나 2000년대 중반, 세 가지 핵심 요소가 맞물리며 AI의 봄을 이끌었습니다.

딥러닝 혁명을 이끈 세 가지 요소: 알고리즘, 데이터, 컴퓨팅 파워
딥러닝 혁명을 이끈 세 가지 요소: 알고리즘, 데이터, 컴퓨팅 파워

  1. 빅데이터(Big Data): 인터넷 보급으로 전례 없는 규모의 데이터가 축적되었고, 특히 1,400만 장 이상의 이미지를 담은 ‘이미지넷(ImageNet)’ 데이터셋은 결정적이었습니다.
  2. GPU(Graphics Processing Unit) 컴퓨팅: 게임 그래픽을 위해 개발된 GPU의 병렬 처리 방식이 신경망 학습에 매우 효율적이라는 사실이 발견되면서, 저렴한 비용으로 심층 신경망을 훈련할 길이 열렸습니다.
  3. 알고리즘의 진화: 2006년 제프리 힌튼 등이 신경망의 고질적인 ‘기울기 소실 문제’를 완화하는 방법을 제시하면서, 수십 개 층을 가진 ‘깊은(deep)’ 신경망의 안정적인 학습이 가능해졌고, ‘딥러닝(Deep Learning)’ 시대가 본격적으로 시작되었습니다.

4.2. 결정적 순간: 이미지넷 대회와 음성 인식

딥러닝의 잠재력은 2012년 ‘이미지넷 대규모 시각 인식 챌린지(ILSVRC)‘에서 증명되었습니다. 제프리 힌튼 교수 팀이 개발한 **‘알렉스넷(AlexNet)’**은 압도적인 성능으로 우승하며 딥러닝 시대의 도래를 알렸습니다. 2015년에는 딥러닝 모델의 이미지 인식 오류율이 마침내 인간의 수준(약 5%)을 넘어섰습니다.

Advertisement

비슷한 시기, 음성 인식 분야에서도 딥러닝 기술이 오류율을 획기적으로 낮추면서 스마트폰 음성 비서나 자동 통역 서비스 성능이 비약적으로 향상되었습니다.

4.3. 알파고 쇼크: 새로운 차원의 지능

딥러닝 혁명의 정점은 2016년 3월, 구글 딥마인드의 **‘알파고(AlphaGo)’**가 세계 최정상 바둑기사 이세돌 9단에게 4승 1패로 승리한 사건입니다.

역사적인 대국을 펼친 이세돌 9단과 알파고
역사적인 대국을 펼친 이세돌 9단과 알파고

딥 블루의 승리가 ‘계산의 힘’을 보여줬다면, 알파고의 승리는 훨씬 큰 충격을 주었습니다. 경우의 수가 우주 원자보다 많아($10^{360}$) 무차별 탐색이 불가능한 바둑에서, 알파고는 딥러닝과 강화학습을 통해 인간의 ‘직관’과 유사한 영역을 구현했기 때문입니다.

알파고는 인간의 기보에 없던 창의적인 수를 두며, 단순히 인간을 모방하는 것을 넘어 새로운 지식을 ‘창조’할 수 있음을 보여주었습니다. 알파고 쇼크는 딥러닝이 복잡한 전략적 사고와 창의적 문제 해결까지 가능하다는 것을 증명한 상징적인 사건이었습니다.

***

제5장: 우리 삶에 스며든 인공지능: 일상과 산업의 변화

딥러닝 혁명 이후, AI는 연구실을 나와 우리 일상과 산업의 풍경을 근본적으로 바꾸기 시작했습니다.

5.1. 일상 속의 AI: 보이지 않는 지능

우리가 매일 경험하는 편리함 뒤에는 딥러닝 알고리즘이 있습니다.

콘텐츠 추천, 음성 비서 등 일상 속 AI 서비스
콘텐츠 추천, 음성 비서 등 일상 속 AI 서비스

  • 콘텐츠 추천 시스템: 유튜브, 넷플릭스는 AI를 활용해 사용자의 취향을 분석하고 좋아할 만한 콘텐츠를 개인화하여 추천합니다.
  • 개인 비서 및 스마트 홈: 애플 시리, 구글 어시스턴트 등 AI 음성 비서는 자연어 처리 기술로 우리의 명령을 이해하고 다양한 작업을 수행합니다.
  • 이미지 인식 및 처리: 스마트폰 카메라는 자동으로 장면을 인식해 최적의 설정을 맞추고, 카메라 앱은 얼굴을 인식해 재미있는 AR 필터를 적용합니다.

5.2. 산업 현장의 AI: 효율성의 새로운 지평

  • 제조업: ‘스마트 팩토리’에서 AI는 설비 고장을 사전에 예측하고, 비전 시스템으로 미세한 불량을 자동으로 검출합니다.
  • 금융: AI 챗봇이 24시간 고객 상담을 하고, ‘로보어드바이저’가 자산을 운용하며, 금융 사기를 예방합니다.
  • 헬스케어: 딥러닝 모델이 의료 영상에서 미세한 암세포를 찾아내 의사의 조기 진단을 돕습니다.

5.3. 자율주행 기술: 이동의 패러다임을 바꾸다

자율주행 자동차는 AI 기술의 집약체입니다. 차량의 각종 센서 데이터를 융합해 주변 환경을 3D로 인식하고, 딥러닝 기반 컴퓨터 비전 기술로 다른 차량, 보행자, 신호등을 식별하고 움직임을 예측합니다.

Advertisement

자율주행 자동차의 환경 인식 시스템
자율주행 자동차의 환경 인식 시스템

이렇게 인식된 정보를 바탕으로 AI는 주행 경로를 계획하고 제어하며 안전한 운전 결정을 내립니다. 완전 자율주행은 아직 멀었지만, 차선 유지 보조 등 첨단 운전자 보조 시스템(ADAS) 형태로 AI는 이미 우리 곁에 와 있습니다.

이러한 소비자용 AI 서비스는 AI 기술의 ‘결과물’인 동시에, 다음 세대 AI를 훈련시킬 방대한 데이터를 생산하는 **‘데이터 엔진’**으로서 거대한 선순환 구조를 만들어냈습니다.

***

결론: 과거가 미래에게 던지는 질문

인공지능 역사는 튜링의 질문에서 시작해, 두 번의 혹독한 ‘AI 겨울’을 견디고, 빅데이터와 GPU라는 토대 위에서 딥러닝 혁명을 통해 우리 삶의 일부가 되었습니다.

LLM 시대 직전까지 AI가 걸어온 길을 돌아보면 몇 가지 핵심을 발견할 수 있습니다.

  1. AI 발전은 순환적입니다. 기호주의와 연결주의 사이의 긴장 관계 속에서 과도한 기대(붐)와 깊은 실망(겨울)을 반복하며 발전해 왔습니다.
  2. 혁신은 융합의 결과입니다. 딥러닝 혁명은 알고리즘 하나가 아닌, 빅데이터, 컴퓨팅 파워, 알고리즘 개선이라는 세 박자가 맞아떨어진 결과물이었습니다.
  3. 과거의 문제는 여전히 유효합니다. 데이터 편향성, 프라이버시, ‘블랙박스’ 문제, 일자리 대체 등 과거부터 제기된 윤리적, 사회적 과제는 오늘날 더욱 중요해졌습니다.

결국 인공지능의 과거를 되짚어보는 것은 현재의 LLM 혁명을 이해하고 미래의 변화에 현명하게 대처하기 위한 필수 과정입니다. ‘기계 지능을 어떻게 인간의 가치와 목표에 맞게 정렬(align)시킬 것인가’라는 수십 년 된 질문은, 여전히 우리 시대의 가장 중요한 과제로 남아있습니다.

이러한 과거의 교훈을 바탕으로, 우리는 어떻게 해야 LLM이라는 강력한 도구를 인류에게 이롭게 사용할 수 있을까요? 여러분의 생각을 댓글로 공유해주세요.

참고자료
  • 간단히 요약해보는 인공지능의 역사 브런치
  • 17화 인공지능 기술, 다트머스 회의를 통해 부상하다 브런치
  • 인공지능 위키백과
  • Dartmouth Workshop(O), Conference(X) (1) - 어쩌다 인공지능 티스토리
  • [전채남의 AI Story] 다트머스 학술회의 영남일보
  • 인공지능의 역사 티스토리
  • 기호주의 AI 나무위키
  • AI 겨울: 과대 기대와 실망이 만들어낸 혁신의 주기 콘텐츠 테일러
  • [AI역사]인공지능의 역사 인공지능 두 번째 겨울과 융성기 5장 Eunkwangº
  • AI 겨울 위키백과
  • 생각하는 기계 AI…미국 다트머스회의에서 ‘인공지능’ 단어 탄생해 AI라이프
  • 인공지능의 중대 사건들, 딥 블루의 체스 승리 네오플랫폼
  • 한 눈에 확인하는 인공지능(AI) 기술의 역사 엔지니어 아빠
  • 인공지능의 윤리적 이슈와 사회적 책임 코드잇
#인공지능역사#ai역사#딥러닝#튜링테스트#알파고#기호주의#연결주의

Recommended for You

인텔, 삼성, SK가 참전한 '유리기판 전쟁', 미래 반도체의 승자는?

인텔, 삼성, SK가 참전한 '유리기판 전쟁', 미래 반도체의 승자는?

5 min read --
딥시크, 혁신의 탈을 쓴 감시자인가?

딥시크, 혁신의 탈을 쓴 감시자인가?

5 min read --
석유의 기원: 공룡의 눈물이라는 신화와 과학적 진실

석유의 기원: 공룡의 눈물이라는 신화와 과학적 진실

4 min read --

Advertisement

댓글