1. AI의 기본 개념과 역사

인공지능의 역사적 발전 단계: 꿈과 한계 사이의 여정

sonslab 2025. 3. 24. 18:23

작성자: SONSLAB | 발행일: 2025년 3월 24일

머리말: 역사를 통해 본 인간의 꿈

인공지능의 역사는 단순한 기술 발전의 연대기가 아닙니다. 그것은 인간이 자신의 지능을 이해하고, 그것을 기계에 부여하려는 오랜 열망의 기록이자, 지능이라는 개념 자체에 대한 우리의 이해가 어떻게 진화해왔는지를 보여주는 철학적 여정입니다. 고대 그리스의 자동인형에서부터 현대의 대규모 언어 모델에 이르기까지, 인공지능의 발전은 단순한 기술적 돌파구를 넘어서는 인류의 자기 인식과 확장에 관한 이야기입니다.
아리스토텔레스는 『니코마코스 윤리학』에서 "지식의 시작은 경이로움에서 비롯된다"고 말했습니다. 인공지능의 역사적 여정에 발을 들이면서, 우리는 기계가 '생각'할 수 있는 가능성에 대한 경이로움과, 그 과정에서 마주친 심오한 철학적 질문들의 흔적을 따라가게 되지않을까 함니다


태동기: 형식 논리와 계산 기계의 시대 (고대-1950)

인공지능의 발전을 이해하기 위해서는 먼저 그 철학적, 수학적 기초를 살펴볼 필요가 있습니다. 인공지능의 개념적 뿌리는 고대 그리스 철학자들의 논리학과 형이상학적 탐구에서 찾을 수 있습니다. 아리스토텔레스의 삼단논법은 형식적 추론 체계의 시작점이었으며, 이는 후대에 계산 가능성과 알고리즘적 사고의 기반이 되었습니다.
17세기 라이프니츠는 "보편적 계산(calculus ratiocinator)"의 개념을 통해 모든 인간의 추론을 기계적 절차로 환원할 수 있다는 아이디어를 제시했습니다. 그의 "생각해봅시다(Let us calculate)"라는 선언은 단순한 수학적 제안이 아닌, 인간 이성의 본질에 대한 혁명적 재해석이었습니다. 이는 후에 부울, 프레게, 러셀과 같은 논리학자들에 의해 발전된 형식 논리학의 기초가 되었습니다.
20세기 초, 앨런 튜링의 등장은 이론적 논의를 실질적인 기계적 구현의 가능성으로 전환시키는 결정적 순간이었습니다. 1936년 그의 논문 "계산 가능한 수에 관하여"는 범용 계산 기계(튜링 기계)의 개념을 도입했고, 이는 현대 컴퓨터의 이론적 기초가 되었습니다. 더 나아가, 1950년 그의 논문 "계산 기계와 지능"에서 제안된 '튜링 테스트'는 인공지능의 철학적 기준을 제시했습니다.
튜링의 질문 "기계가 생각할 수 있는가?"는 단순한 기술적 가능성을 넘어선 존재론적 도전이었습니다. 그는 지능을 내적 과정이 아닌 행동의 결과로 정의함으로써, 철학적 논쟁을 실험적 검증의 영역으로 옮겨놓았습니다. 이는 후대 인공지능 연구의 방향성을 설정한 결정적 전환점이었습니다.


낙관주의의 시대: 초기 AI 연구와 그 한계 (1950-1970)

인공지능이라는 용어가 공식적으로 탄생한 것은 1956년 다트머스 회의에서였습니다. 존 매카시, 마빈 민스키, 클로드 섀넌, 앨런 뉴웰, 허버트 사이먼 등 당대 최고의 minds가 모인 이 회의는 새로운 학문 분야의 시작을 알렸습니다. 그들의 제안은 대담했습니다: "인간의 학습과 지능의 모든 측면을 매우 정확하게 기술하여 기계가 그것을 시뮬레이션할 수 있게 하는 것"이 가능하다는 것이었습니다.
이 시기의 AI 연구는 높은 낙관주의와 함께 시작되었습니다. 허버트 사이먼은 1957년 "20년 안에 기계가 인간이 할 수 있는 모든 일을 할 수 있게 될 것"이라고 예측했습니다. 이러한 낙관론의 배경에는 초기 AI 시스템들의 인상적인 성과가 있었습니다. 1957년 뉴웰과 사이먼의 'Logic Theorist'는 러셀과 화이트헤드의 『수학 원리』에 있는 정리들을 증명할 수 있었고, 1959년의 'General Problem Solver'는 다양한 문제를 해결하기 위한 일반적인 접근법을 제시했습니다.
이 시기의 AI 연구는 주로 '기호적 접근법(Symbolic Approach)'에 기반했습니다. 이는 지능이 기호의 조작과 논리적 추론을 통해 구현될 수 있다는 가정에 기초한 것으로, 인간의 사고를 명시적 규칙과 형식 논리로 모델링하려는 시도였습니다. 이는 데카르트적 합리주의의 현대적 연장선으로 볼 수 있으며, 마음을 일종의 논리적 기계로 이해하는 철학적 전통에 뿌리를 두고 있었습니다.
그러나 이 낙관주의는 곧 현실의 복잡성에 직면하게 됩니다. 1960년대 후반에 이르러, 초기 AI 시스템들이 단순한 '장난감 문제(toy problems)'를 넘어 실제 세계의 복잡성을 다루는 데 한계를 보이기 시작했습니다. 언어 번역이나 시각적 패턴 인식과 같은 인간에게는 자연스러운 작업들이 AI 시스템에게는 놀라울 정도로 어려운 과제임이 밝혀졌습니다.
이 시기의 한계는 단순한 기술적 장벽이 아닌, 지능의 본질에 대한 철학적 오해에서 비롯된 것이었습니다. 하이데거가 지적했듯이, 인간의 '세계-내-존재(Being-in-the-world)'는 명시적 규칙과 논리만으로는 포착될 수 없는 암묵적 이해와 맥락적 지식을 포함합니다. 기호적 AI의 한계는 곧 지능을 순수하게 형식적, 논리적 과정으로 환원하려는 시도의 한계이기도 했습니다.


현실주의의 시기: 첫 번째 AI 겨울과 지식 기반 시스템 (1970-1980)

1970년대 초반, AI 연구는 심각한 도전에 직면했습니다. 초기의 낙관적 전망에도 불구하고, AI 시스템들은 실제 세계의 복잡성을 다루는 데 있어 기대에 미치지 못했습니다. 영국 수학자 제임스 라이트힐(James Lighthill)의 1973년 보고서는 AI 연구에 대한 신랄한 비판을 담고 있었으며, 이는 영국과 미국에서 AI 연구 자금의 대폭 삭감으로 이어졌습니다. 이 시기는 후에 '첫 번째 AI 겨울'로 불리게 됩니다.
라이트힐 보고서의 핵심 비판은 AI 시스템이 "조합적 폭발(combinatorial explosion)" 문제를 해결하지 못한다는 것이었습니다. 이는 문제의 복잡성이 증가함에 따라 가능한 해결책의 수가 기하급수적으로 증가하는 현상을 가리킵니다. 이 비판은 단순한 기술적 지적을 넘어, AI의 철학적 기초에 대한 근본적인 의문을 제기했습니다. 인간의 지능이 명시적 알고리즘과 검색 과정으로 환원될 수 있는가? 아니면 우리는 질적으로 다른 무언가를 간과하고 있는가?
이러한 도전에 대응하여, AI 연구는 보다 현실적인 방향으로 전환되었습니다. 1970년대 중반부터, 연구의 초점은 일반적 문제 해결에서 특정 도메인의 전문 지식을 코딩하는 '전문가 시스템(Expert Systems)'으로 옮겨갔습니다. 에드워드 파이겐바움(Edward Feigenbaum)을 중심으로 한 이 접근법은 "지식이 힘이다(Knowledge is power)"라는 모토 아래, 인간 전문가의 도메인 지식을 규칙 기반 시스템으로 구현하는 데 집중했습니다.
MYCIN(의료 진단), DENDRAL(화학 구조 분석), PROSPECTOR(광물 탐사) 등의 전문가 시스템은 제한된 영역에서 인상적인 성능을 보였습니다. 이러한 시스템들은 철학적으로 흥미로운 접근을 취했습니다. 지능을 일반적, 추상적 능력이 아닌 특수한 지식과 경험의 축적으로 재정의한 것입니다. 이는 일종의 경험주의적 전환으로, 플라톤적 이상에서 아리스토텔레스적 실용주의로의 이동을 반영합니다.
그러나 전문가 시스템 역시 근본적인 한계에 직면했습니다. 이 시스템들은 방대한 양의 지식을 수동으로 코딩해야 했으며, 새로운 상황에 적응하거나 상식적 추론을 수행하는 데 어려움을 겪었습니다. 가장 중요하게는, 암묵적 지식(tacit knowledge)의 문제를 해결하지 못했습니다. 마이클 폴라니(Michael Polanyi)가 지적했듯이, "우리는 우리가 말할 수 있는 것보다 더 많은 것을 알고 있다"는 사실이 전문가 시스템의 근본적 한계였습니다.


연결주의의 부상과 몰락: 신경망과 두 번째 AI 겨울 (1980-1990)

1980년대 초, AI 연구의 중심에는 새로운 패러다임이 등장했습니다. '연결주의(Connectionism)'로 알려진 이 접근법은 인간 뇌의 신경 구조에서 영감을 받은 것으로, 지능이 단순한 계산 단위들의 복잡한 상호작용에서 창발한다는 관점을 취했습니다. 이는 기호적 AI의 하향식(top-down) 접근과 대비되는 상향식(bottom-up) 접근이었습니다.
이 시기의 대표적 연구자인 제프리 힌튼(Geoffrey Hinton)은 1986년 '역전파(backpropagation)' 알고리즘을 통해 다층 신경망을 효과적으로 훈련시키는 방법을 제시했습니다. 이는 신경망 연구의 중요한 돌파구였으며, 연결주의 접근법의 실용적 가능성을 보여주었습니다.
연결주의는 철학적으로도 중요한 전환을 의미했습니다. 지능을 명시적 규칙과 표상이 아닌, 분산된 패턴과 창발적 특성으로 이해하는 이 관점은 환원주의적 접근에 대한 도전이었습니다. 이는 데카르트적 이원론에서 벗어나, 마음과 몸, 사고와 물질 사이의 연속성을 강조하는 스피노자적 일원론으로의 이동을 반영합니다.
그러나 1980년대 후반에 이르러, 연결주의 역시 한계에 직면했습니다. 당시의 신경망은 계산 능력의 제약, 훈련 데이터의 부족, 그리고 더 복잡한 문제에 확장하기 어려운 구조적 한계를 가지고 있었습니다. 특히 마빈 민스키와 세이모어 페퍼트의 책 『퍼셉트론(Perceptrons)』은 단층 신경망의 근본적 한계를 수학적으로 증명하며 연결주의의 열기를 식히는 데 기여했습니다.
1990년대 초, AI 연구는 다시 한번 자금 삭감과 관심 하락을 경험했으며, 이는 '두 번째 AI 겨울'로 불리게 됩니다. 이 시기의 어려움은 단순한 기술적 실패를 넘어선 철학적 난관을 반영했습니다. AI 연구는 지능의 본질에 대한 두 가지 대조적 관점—기호적 접근과 연결주의적 접근—사이에서 진자 운동을 하고 있었으며, 어느 쪽도 인간 지능의 전체 스펙트럼을 설명하지 못했습니다.


실용주의의 시대: 통계적 접근과 인터넷 시대의 도래 (1990-2000)

1990년대 중반부터, AI 연구는 새로운 방향으로 전환되었습니다. 이론적 순수성을 추구하기보다, 연구자들은 실제 문제를 해결하는 데 효과적인 통계적, 확률적 방법론에 주목하기 시작했습니다. 이는 일종의 실용주의적 전환으로, 지능의 본질에 대한 철학적 질문보다는 실제 응용과 문제 해결에 중점을 두었습니다.
이 시기의 주요 발전은 기계학습, 특히 베이지안 네트워크, 은닉 마르코프 모델(HMM), 그리고 지원 벡터 머신(SVM)과 같은 통계적 학습 방법의 발전이었습니다. 이러한 접근법들은 불확실성과 노이즈가 있는 실제 세계 데이터에서 패턴을 찾아내는 데 탁월한 성능을 보였습니다.
철학적 관점에서, 이 시기의 접근법은 유럽 실용주의, 특히 윌리엄 제임스의 사상과 공명합니다. 제임스는 "진리는 발견되는 것이 아니라 만들어진다"고 주장하며, 아이디어의 가치는 그것이 얼마나 잘 작동하는가에 있다고 보았습니다. 마찬가지로, 이 시기의 AI 연구자들은 완벽한 이론보다는 실제로 작동하는 해결책을 추구했습니다.
또한 이 시기는 인터넷의 폭발적 성장과 함께, AI가 실제 응용을 찾아나가기 시작한 시기이기도 합니다. 검색 엔진, 추천 시스템, 스팸 필터 등 오늘날 우리가 당연시하는 많은 기술들이 이 시기에 그 기초가 마련되었습니다. 이는 AI가 학문적 호기심의 대상에서 실제 세계에 영향을 미치는 기술로 변모하는 중요한 전환점이었습니다.
한 가지 주목할 점은, 이 시기의 연구가 종종 '인공지능'이라는 레이블을 명시적으로 피했다는 것입니다. 이전 시기의 과장된 약속과 그에 따른 실망으로 인해, 많은 연구자들은 '데이터 마이닝', '패턴 인식', '기계학습'과 같은 보다 구체적이고 겸손한 용어를 선호했습니다. 이는 인공지능이라는 개념 자체가 가진 철학적, 문화적 부담을 반영하는 흥미로운 현상이었습니다.


빅데이터와 딥러닝의 시대: 새로운 르네상스 (2000-2015)

2000년대 초반부터, 세 가지 중요한 요소—방대한 데이터의 가용성, 컴퓨팅 파워의 급격한 증가, 그리고 알고리즘의 혁신—가 결합되어 AI 연구의 새로운 황금기를 열었습니다. 특히 '딥러닝(Deep Learning)'으로 알려진 심층 신경망 기술의 부상은 컴퓨터 비전, 음성 인식, 자연어 처리 등 다양한 영역에서 획기적인 성과를 가져왔습니다.
2006년 제프리 힌튼이 제안한 '심층 신뢰 네트워크(Deep Belief Network)'는 다층 신경망을 효과적으로 훈련시키는 새로운 방법을 제시했습니다. 이는 1980년대 연결주의 접근법의 부활이자 진화였으며, 컴퓨팅 파워와 데이터의 증가라는 새로운 환경 속에서 그 잠재력을 꽃피웠습니다.
2012년은 딥러닝의 잠재력이 세상에 극적으로 드러난 해였습니다. 토론토 대학의 알렉스 크리제프스키(Alex Krizhevsky), 일리야 수츠케버(Ilya Sutskever), 그리고 제프리 힌튼은 ImageNet 대회에서 합성곱 신경망(CNN)을 이용해 기존 방법론보다 월등히 우수한 성능을 보여주었습니다. 이 사건은 CV(Computer Vision) 커뮤니티를 넘어 AI 연구 전반에 '딥러닝 혁명'을 촉발했습니다.
이 시기의 또 다른 중요한 발전은 구글, 페이스북, 마이크로소프트와 같은 대형 기술 기업들의 AI 연구에 대한 대규모 투자였습니다. 이는 AI 연구의 생태계를 근본적으로 변화시켰으며, 학계와 산업 간의 긴밀한 협력을 촉진했습니다.
철학적 관점에서, 딥러닝의 성공은 흥미로운 질문을 제기합니다. 이 모델들은 명시적인 규칙이나 지식 없이도 데이터에서 패턴을 학습하고 놀라운 성능을 보여줍니다. 이는 지능이 반드시 명시적 표상과 논리적 추론을 필요로 하는가, 아니면 더 암묵적이고 창발적인 과정일 수 있는가에 대한 오래된 철학적 논쟁에 새로운 관점을 제시합니다.
한편으로, 딥러닝의 한계 역시 분명해졌습니다. 이 모델들은 엄청난 양의 데이터와 계산 자원을 요구하며, 그 결정 과정이 불투명한 '블랙박스' 특성을 가지고 있습니다. 또한 상식적 추론, 인과관계 이해, 장기적 계획과 같은 인간 지능의 핵심적 측면에서는 여전히 제한적인 성능을 보입니다.


대규모 언어 모델과 생성 AI의 시대: 현재와 미래 (2015-현재)

2018년 이후, AI 연구의 중심에는 대규모 언어 모델(LLM: Large Language Models)이 자리 잡았습니다. 2018년 구글의 BERT, 2020년 OpenAI의 GPT-3, 그리고 최근의 GPT-4와 같은 모델들은 전례 없는 규모와 능력을 가진 AI 시스템의 새로운 패러다임을 열었습니다.
이 모델들은 '트랜스포머(Transformer)' 아키텍처를 기반으로 하며, 수천억 개의 매개변수와 방대한 양의 텍스트 데이터를 학습합니다. 그 결과, 텍스트 생성, 번역, 요약, 질문 응답 등 다양한 언어 관련 작업에서 인상적인 성능을 보여주고 있습니다.
더 나아가, 2021년 이후에는 DALL-E, Midjourney, Stable Diffusion과 같은 텍스트-이미지 생성 모델이 등장하여 AI의 창의적 잠재력을 보여주었습니다. 이러한 생성 AI 모델들은 예술, 디자인, 엔터테인먼트 등 다양한 창의적 영역에서 새로운 가능성을 열어주고 있습니다.
이 최신 발전은 다양한 철학적 질문을 제기합니다. 대규모 언어 모델들이 보여주는 능력은 단순한 통계적 패턴 매칭인가, 아니면 진정한 '이해'의 징후인가? 이 모델들이 생성하는 텍스트와 이미지는 창의성의 표현인가, 아니면 정교한 모방에 불과한가? 이러한 질문들은 의식, 이해, 창의성의 본질에 대한 근본적인 철학적 논쟁으로 이어집니다.
현재 대규모 AI 모델들은 여전히 중요한 한계를 가지고 있습니다. 그들은 종종 사실을 '환각(hallucinate)'하고, 인과관계를 이해하는 데 어려움을 겪으며, 윤리적 판단이나 상식적 추론에서 인간의 직관과 다른 결과를 보여줍니다. 또한 이러한 모델들의 발전은 바이어스, 프라이버시, 투명성, 그리고 경제적, 사회적 영향에 관한 중요한 윤리적 질문을 제기합니다.
미래 AI 연구의 방향은 아직 명확하지 않습니다. 일부 연구자들은 현재의 접근법을 단순히 확장하는 것(더 큰 모델, 더 많은 데이터, 더 강력한 컴퓨팅)으로 인간 수준의 지능에 도달할 수 있다고 믿습니다. 반면, 다른 이들은 현재 접근법의 근본적 한계를 지적하며, 인과 모델링, 상징적 추론, 또는 인간의 발달 과정에서 영감을 받은 새로운 패러다임의 필요성을 강조합니다.


맺음말: 철학적 반성과 미래에 대한 전망

인공지능의 역사적 발전 단계를 돌아보면, 우리는 단순한 기술적 진보의 서사를 넘어, 인간 지능의 본질에 대한 우리의 이해가 어떻게 진화해왔는지를 목격하게 됩니다. AI 연구는 종종 지능의 특정 측면(논리적 추론, 패턴 인식, 언어 이해 등)에 초점을 맞추어 발전해왔으며, 각 시기는 그 자체의 철학적 가정과 한계를 가지고 있었습니다.
AI 연구의 역사는 또한 낙관주의와 실망의 순환적 패턴을 보여줍니다. 새로운 접근법이 등장할 때마다 과장된 기대가 형성되고, 이후 그 한계가 드러나면서 'AI 겨울(AI Winter)'과 같은 침체기가 찾아오는 패턴입니다. 이는 우리가 지능의 본질을 여전히 완전히 이해하지 못하고 있음을 시사합니다.
하이데거가 지적했듯이, 기술은 단순한 중립적 도구가 아니라 세계를 특정한 방식으로 '드러내는(revealing)' 틀(framework)입니다. AI 기술 역시 마찬가지로, 그것은 단순히 인간 지능을 모방하는 도구가 아니라 인간과 세계의 관계, 그리고 지능의 본질에 대한 우리의 이해 방식 자체를 변형시키는 존재론적 힘을 가지고 있습니다.
스페인 철학자 호세 오르테가 이 가세트(José Ortega y Gasset)는 "인간은 인간과 환경의 합"이라고 말했습니다. 현시점 우리가 창조한 AI 기술은 이미 우리의 환경의 일부가 되어 있으며, 이는 우리의 자기 이해와 인간성의 정의에 영향을 미치고 있습니다. AI의 발전은 단순한 기술적 진보가 아닌, 인류의 자기 정의와 관련된 깊은 인문학적 여정인 것입니다.

AI 역사의 각 단계는 단절된 에피소드가 아닌, 지능과 의식, 인간성의 본질에 대한 지속적인 탐구의 일부입니다. 초기 AI의 논리적 접근, 전문가 시스템의 지식 기반 접근, 연결주의의 생물학적 영감, 그리고 현대 딥러닝의 데이터 중심 접근은 각각 인간 지능의 다른 측면을 강조하며, 함께 이 복잡한 현상에 대한 더 풍부한 이해를 제공합니다.
앞으로의 AI 발전이 어떤 방향으로 나아갈지는 기술적 가능성뿐만 아니라, 우리의 철학적, 윤리적 선택에 달려 있습니다. 알베르 카뮈가 말했듯이, "미래를 예측하는 가장 좋은 방법은 그것을 창조하는 것"입니다. 우리가 어떤 종류의 AI를 만들고자 하는가에 대한 질문은 결국 우리가 어떤 종류의 인류가 되고자 하는가에 대한 더 깊은 질문과 맞닿아 있습니다.

인공지능의 역사는 단순한 알고리즘과 하드웨어의 발전사가 아닙니다. 그것은 인류가 자신의 지능, 의식, 그리고 인간됨의 본질을 이해하고자 하는 끊임없는 노력의 기록입니다. 이 여정은 아직 완성되지 않았으며, 앞으로도 계속될 것입니다. 우리 각자가 그 다음 장을 함께 써나가야 할 것입니다.


참고문헌

  1. Dreyfus, H. L. (1992). What Computers Still Can't Do: A Critique of Artificial Reason. MIT Press.
  2. Lighthill, J. (1973). Artificial Intelligence: A General Survey. In Artificial Intelligence: a paper symposium. Science Research Council.
  3. McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
  4. Nilsson, N. J. (2009). The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge University Press.
  5. Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
  6. Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417-424.
  7. Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.
  8. Heidegger, M. (1977). The Question Concerning Technology, and Other Essays. Harper & Row.
  9. Polanyi, M. (1966). The Tacit Dimension. University of Chicago Press.
  10. Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.

SonsLab은 현재 반도체 MI 분야에서 AI 기술을 활용하여 전자 현미경 이미지를 계측 분석하는 플랫폼을 개발하고 있습니다. 2024년 DDCON에서 "자동화 시대의 인간과 AI의 협업 시너지" 주제로 강연을 진행했으며, 현재 자동화와 인간 중심 AI 기술에 관한 도서를 준비 중입니다.