논리의 언어로 기계를 깨우다: 초기 AI 연구의 주요 접근법
작성자: sonslab | 발행일: 2025년 4월 22일
들어가며
현대 인공지능 기술의 화려한 성과들 "ChatGPT로 대화하고, DALL-E로 이미지를 생성하고, 자율주행차가 도로를 누비는 세상" 이 갑자기 등장한 것처럼 느껴질 수 있습니다. 그러나 이 기술들의 뿌리는 60~70년 전 초기 AI 연구자들의 꿈과 아이디어로 거슬러 올라갑니다. 이전 글들에서 인공지능의 정의와 범주, 역사적 발전 단계, 약한 AI와 강한 AI의 구분, 그리고 튜링 테스트의 철학적 의미에 대해 살펴보았습니다. 오늘은 그 첫 번째 단계인 초기 AI 연구의 주요 접근법 "논리 기반과 규칙 기반 시스템" 에 대해 알아보겠습니다.
당신은 혹시 어린 시절 '스무고개' 게임을 해본 적이 있나요? "그것은 생물인가요?", "그것은 바다에 사나요?" 이런 질문들을 통해 상대방이 생각한 대상을 추측하는 게임입니다. 초기 AI 연구자들은 인간의 지능이 바로 이런 논리적 규칙들의 집합이라고 생각했습니다. 그들은 충분한 규칙과 지식을 컴퓨터에 프로그래밍하면 인간과 같은 사고를 할 수 있을 것이라 믿었죠. 이 접근법이 어떻게 발전했고, 어떤 성과와 한계를 가져왔는지 함께 살펴보겠습니다.
추론과 탐색: 초기 AI의 기본 방법론
1950년대, 컴퓨터 과학이 태동할 무렵 AI 연구자들은 컴퓨터가 해결할 수 있는 가장 기본적인 문제부터 시작했습니다. 체스와 같은 게임, 수학 정리 증명, 간단한 퍼즐 풀기 등이 그 예입니다. 이러한 문제들은 명확한 규칙과 목표가 있어서 컴퓨터가 접근하기 좋았습니다.
앨런 튜링(이전 글에서 언급한 튜링 테스트의 창안자)은 컴퓨터가 체스를 둘 수 있는 알고리즘을 고안했고, 뉴웰과 사이먼은 1956년 '논리 이론가(Logic Theorist)'라는 프로그램을 만들어 수학 정리를 자동으로 증명하는 시스템을 개발했습니다. 이 프로그램은 화이트헤드와 러셀의 『수학 원리(Principia Mathematica)』에 나오는 정리들 중 38개를 성공적으로 증명했습니다.
이들은 이어서 일반 문제 해결사(General Problem Solver, GPS)를 개발했는데, 이는 목표 지향적인 문제 해결 방법을 사용했습니다. 현재 상태와 목표 상태 사이의 차이를 줄이는 방향으로 작동하는 이 접근법은 인간의 문제 해결 과정을 모방하려는 시도였습니다.
이 시기의 접근법은 주로 다음과 같은 특징을 가졌습니다:
- 상태 공간 탐색: 문제를 초기 상태, 목표 상태, 그리고 그 사이를 연결하는 행동들로 정의
- 휴리스틱 탐색: 완전한 탐색이 불가능할 때 효율적인 방향을 찾기 위한 경험적 규칙 사용
- 게임 트리: 체스나 체커와 같은 게임에서 가능한 모든 수를 트리 형태로 표현
논리 기반 AI: 형식 논리에서 지능을 찾다
초기 AI 연구의 한 갈래는 수학적 논리학에 기반을 둔 접근법이었습니다. 컴퓨터 과학의 이론적 기초를 놓은 앨런 튜링, 존 매카시, 마빈 민스키 같은 연구자들은 인간의 지능이 본질적으로 논리적 추론의 형태를 가진다고 생각했습니다.
논리 기반 AI는 인간의 사고를 형식 논리 체계로 표현할 수 있다는 가정에서 출발합니다. 이 접근법의 철학적 뿌리는 놀랍게도 2300년 전 아리스토텔레스의 삼단논법(syllogism)까지 거슬러 올라갑니다.
"모든 인간은 죽는다. 소크라테스는 인간이다. 따라서 소크라테스는 죽는다."
이를 현대적 LaTeX 문법의 논리식으로 표현하면 다음과 같습니다. 처음 보시는 분들은 조금 복잡해 보일수 있겠네요
$$Human(Socrates) \land \forall x [Human(x) \rightarrow Mortal(x)] \therefore Mortal(Socrates)$$
$Human(Socrates) \land \forall x [Human(x) \rightarrow Mortal(x)] \therefore Mortal(Socrates)$
Human(Socrates) | 논리적 명제 | "소크라테스는 인간이다"를 의미하는 술어(predicate) 표현 |
\land | 논리곱 (AND) | 앞뒤 두 명제가 모두 참일 때 전체가 참 |
\forall x | 전칭 기호 (Universal Quantifier) | "모든 x에 대해"라는 뜻 |
\rightarrow | 함의 (Implication) | "만약 ~라면, ~이다" |
\therefore | 결론 기호 | "그러므로" 또는 "따라서" |
Mortal(Socrates) | 논리적 결론 | "소크라테스는 죽는다"는 의미의 술어 표현 |
아리스토텔레스가 확립한 이런 논리 체계는 19세기에 이르러 프레게(Gottlob Frege)와 부울(George Boole)에 의해 수학적 형식으로 발전되었습니다. 특히 부울의 불 대수(Boolean algebra)는 컴퓨터 과학의 기초가 되었으며, 명제를 참(1)과 거짓(0)으로 표현하는 방식은 후에 디지털 컴퓨터의 설계에 직접적인 영향을 미쳤습니다.
1958년, 존 매카시는 '조언자(Advice Taker)'라는 가상의 시스템을 제안했는데, 이는 논리적 문장들을 입력받아 자동으로 결론을 도출하는 시스템이었습니다. 이 아이디어는 후에 'LISP'라는 프로그래밍 언어 개발로 이어졌고, 이 언어는 오늘날까지도 AI 연구에 영향을 미치고 있습니다.
1960년대 후반, 존 매카시는 AI 연구에 **상황 계산법(Situation Calculus)**이라는 형식 논리 체계를 도입했습니다. 이는 로봇이 세계를 이해하고 계획을 세우는 데 사용될 수 있는 시간과 행동의 논리적 표현이었습니다.
1970년대에는 로버트 코왈스키(Robert Kowalski)가 **논리 프로그래밍(Logic Programming)**의 기초를 확립했고, 이는 프롤로그(Prolog) 언어의 개발로 이어졌습니다. 프롤로그는 사실과 규칙을 기반으로 논리적 추론을 수행하는 선언적 프로그래밍 언어로, 오늘날까지도 AI와 자연어 처리 분야에서 사용되고 있습니다.
% 프롤로그 예제
parent(john, mary).
parent(john, tom).
parent(mary, ann).
grandparent(X, Z) :- parent(X, Y), parent(Y, Z).
% 질의: john은 ann의 조부모인가?
?- grandparent(john, ann).
논리 기반 시스템의 핵심 특징은 다음과 같습니다:
- 형식 논리 사용: 명제 논리, 술어 논리, 양상 논리 등을 활용
- 지식 표현: 세상의 지식을 논리식으로 표현
- 자동 추론: 주어진 사실들로부터 새로운 사실을 유도하는 메커니즘
- 완전성(completeness)과 건전성(soundness): 논리 시스템이 모든 참인 문장을 도출할 수 있고(완전성), 거짓된 문장을 도출하지 않는(건전성) 성질 추구
규칙 기반 시스템: 전문가의 지식을 담다
1970년대에 들어서면서 AI 연구자들은 보다 실용적인 접근법을 모색하기 시작했습니다. 이론적으로 완벽한 논리 시스템보다는, 특정 영역에서 전문가의 지식을 '규칙(rules)'의 형태로 표현하는 방식이 등장했습니다. 이것이 바로 '규칙 기반 시스템' 또는 '전문가 시스템(expert system)'의 시작이었습니다.
에드워드 파이겐바움(Edward Feigenbaum)이 주도한 스탠포드 대학의 **지식 공학(Knowledge Engineering)**은 전문가의 지식을 규칙 집합으로 표현하는 방법론을 발전시켰습니다. 그는 "지능적인 행동의 핵심은 지식이며, AI 시스템의 힘은 그 시스템이 보유한 전문 지식에서 나온다"고 주장했습니다.
전형적인 규칙 기반 시스템은 다음과 같은 형태의 '만약-그러면(if-then)' 규칙들로 구성됩니다:
IF 환자가 발열 증상을 보이고
AND 환자가 기침을 하고
AND 환자의 흉부 X-ray에 폐 침윤이 있다면
THEN 환자는 폐렴 가능성이 높다
이런 규칙들이 수백, 수천 개 모여 하나의 지식베이스를 형성합니다. 그리고 '추론 엔진(inference engine)'이라 불리는 시스템 구성 요소가 이 규칙들을 적용하여 결론을 도출합니다.
규칙 기반 시스템의 주요 특징은 다음과 같습니다:
- 도메인 특화: 의학, 지질학, 컴퓨터 설정 등 특정 영역의 문제에 집중
- 전문가 지식 활용: 해당 분야 전문가의 지식과 경험을 규칙으로 코딩
- 설명 가능성: 시스템이 왜 특정 결론에 도달했는지 설명 가능
- 선언적 지식: 어떻게(how) 문제를 해결할지가 아니라, 무엇(what)이 참인지를 명시
성공 사례: 전문가 시스템의 황금기
1970년대 중반부터 1980년대까지는 규칙 기반 전문가 시스템의 황금기였습니다. 많은 성공적인 시스템들이 개발되었는데, 주요 사례로는 다음이 있습니다:
DENDRAL (1965): DENDRAL은 1965년에 스탠포드 대학에서 에드워드 파이겐바움(Edward Feigenbaum), 조슈아 레더버그(Joshua Lederberg), 칼 디제라시(Carl Djerassi) 등이 공동으로 개발한 시스템으로, 유기 화합물의 질량 분석 데이터를 기반으로 분자 구조를 추론하였습니다. 이 프로젝트는 Heuristic DENDRAL과 Meta-DENDRAL이라는 두 개의 주요 프로그램으로 구성되어 있었으며, 초기 전문가 시스템의 대표적인 사례로 평가받고 있습니다. 정보의 역사 스텐포드전시관
MYCIN (1976): 스탠포드 대학에서 개발한 의료 진단 시스템으로, 혈액 감염 진단과 항생제 처방을 도왔습니다. 약 600개의 규칙을 사용했으며, 불확실성을 다루기 위해 **확신도(certainty factors)**라는 개념을 도입했습니다. 당시 전문의들과 비슷한 수준의 정확도를 보였습니다.
PROSPECTOR (1979): PROSPECTOR는 1970년대 후반에 개발된 광물 탐사를 위한 전문가 시스템으로, 지질학적 데이터를 분석하여 특정 지역에서 광물이 발견될 가능성을 예측하였습니다. 이 시스템은 1980년에 워싱턴 주 마운트 톨먼(Mount Tolman) 근처에서 약 1억 달러 가치의 몰리브덴 광상을 발견하는 데 기여하였습니다. Knowledge Bank
XCON/R1 (1980): 디지털 이큅먼트 코퍼레이션(DEC)에서 개발한 시스템으로, 고객의 요구에 맞는 컴퓨터 시스템 구성을 자동화했습니다. 약 10,000개의 규칙을 포함했으며, 연간 수천만 달러의 비용 절감 효과를 가져왔다고 합니다.
이러한 성공에 힘입어 1980년대 초반에는 전문가 시스템 개발을 위한 '쉘(shell)' 소프트웨어가 상용화되었고, 많은 기업들이 AI 기술에 투자했습니다. 일본의 '제5세대 컴퓨터 프로젝트'와 같은 대규모 국가 프로젝트도 이 시기에 시작되었습니다.
이러한 전문가 시스템은 일반적으로 다음과 같은 구조를 가졌습니다:
- 지식 베이스(Knowledge Base): 전문가의 지식을 IF-THEN 규칙 형태로 저장
- 추론 엔진(Inference Engine): 규칙을 적용하여 결론을 도출하는 메커니즘
- 사용자 인터페이스: 시스템과 사용자 간의 상호작용을 위한 인터페이스
한계와 도전: 지식 획득의 병목 현상
초기 AI 접근법들은 놀라운 성과를 거두었지만, 곧 근본적인 한계에 부딪히게 됩니다. 이것이 바로 '지식 획득의 병목 현상(knowledge acquisition bottleneck)'입니다.
규칙 기반 시스템이 효과적으로 작동하려면 방대한 양의 지식이 명시적 규칙으로 코딩되어야 했습니다. 그러나 전문가로부터 지식을 추출하고 이를 컴퓨터가 이해할 수 있는 형태로 변환하는 과정은 매우 느리고 비용이 많이 드는 작업이었습니다.
더 큰 문제는 전문가들조차 자신의 지식이나 의사결정 과정을 명확하게 설명하지 못하는 경우가 많다는 점이었습니다. 미국의 철학자 마이클 폴라니(Michael Polanyi)가 말한 "우리는 우리가 말할 수 있는 것보다 더 많이 알고 있다"라는 말처럼, 인간의 지식 중 많은 부분은 암묵적(tacit)이고 명시적으로 표현하기 어렵습니다.
또한 논리 기반 AI는 프레임 문제(Frame Problem)라는 근본적인 도전에 직면했습니다. 프레임 문제란 행동이나 사건의 결과로 어떤 것이 변하고 어떤 것이 변하지 않는지 효율적으로 추론하는 문제입니다. 인간에게는 자명한 이런 상식적 추론이 형식 논리 체계에서는 명시적으로 표현되어야 했고, 이는 실용적이지 않았습니다.
예를 들어, 방 안에 있는 로봇이 컵을 옮기는 행동을 한다고 생각해 봅시다. 이 행동은 컵의 위치를 변경하지만, 방의 크기, 벽의 색깔, 다른 물체의 위치 등은 변경하지 않습니다. 인간은 이러한 사실을 자연스럽게 알고 있지만, 논리 기반 AI에게는 변하지 않는 모든 것을 명시적으로 기술해야 하는 어려움이 있었습니다.
규칙 기반 시스템은 또한 다음과 같은 한계를 가지고 있었습니다:
- 예외 처리의 어려움: 모든 예외 상황을 규칙으로 표현하기 어려움
- 불확실성 처리: 확실하지 않은 정보나 모호한 상황 처리에 취약
- 학습 능력 부재: 새로운 경험으로부터 자동으로 학습하지 못함
- 상식 추론의 어려움: 인간에게는 자명한 상식을 컴퓨터에게 가르치기 어려움
이러한 한계들은 1980년대 후반에 이르러 'AI 겨울'이라 불리는 침체기를 가져왔고, 연구자들은 새로운 접근법을 모색하기 시작했습니다. 논리 기반 및 규칙 기반 접근법은 제한된 도메인에서는 효과적이었지만, 일반적인 인공지능을 달성하기에는 불충분했습니다.
현대적 의미: 논리와 규칙 기반 접근법의 유산
1990년대 이후, AI 연구는 논리적 규칙에서 확률적 모델(probabilistic models)과 기계 학습(machine learning)으로 중심이 이동했습니다. 이 전환은 부분적으로 초기 접근법의 한계를 극복하기 위한 시도였습니다.
베이지안 네트워크, 히든 마르코프 모델, 신경망과 같은 통계적 방법들은 엄격한 규칙 대신 데이터에서 패턴을 학습하는 능력을 제공했습니다. 이러한 방법들은 불확실성을 자연스럽게 다룰 수 있었고, 지식 획득 병목 현상을 완화했습니다.
그러나 이는 AI의 "블랙박스" 특성을 증가시켰습니다. 논리 기반 및 규칙 기반 시스템은 결정 과정이 명확하게 추적 가능했지만, 많은 현대 AI 시스템은 왜 특정 결정을 내리는지 설명하기 어렵습니다.
초기 접근법은 완전히 사라진 것이 아니라 현대 AI 연구의 일부로 통합되었습니다:
- 설명 가능한 AI(XAI): 최근 주목받고 있는 '설명 가능한 AI'는 복잡한 딥러닝 모델의 결정 과정을 인간이 이해할 수 있는 형태로 설명하려는 시도입니다. 이는 초기 전문가 시스템의 설명 기능을 현대적으로 재해석한 것으로 볼 수 있습니다.
- 뉴로-상징적 AI(neuro-symbolic AI): 최신 연구 분야로, 논리 기반 방법론과 심층 학습의 강점을 결합하려고 시도합니다.
- 지식 그래프(Knowledge Graph): 구글과 같은 회사들이 사용하는 '지식 그래프'는 초기 AI의 지식 표현 방식을 발전시킨 것으로 볼 수 있습니다. 개체와 그들 간의 관계를 그래프 형태로 표현하여 검색 결과를 개선하는 데 활용됩니다.
- 하이브리드 접근법: 최신 AI 시스템 중에는 신경망과 규칙 기반 시스템을 결합한 하이브리드 접근법을 사용하는 경우가 많습니다. 예를 들어, 자연어 처리에서 언어 규칙과 통계적 학습을 결합하는 방식이 효과적일 수 있습니다.
최근 급부상한 대규모 언어 모델(LLM)에서도 논리적 추론 능력은 중요한 연구 주제입니다. GPT-4, Claude 3.7과 같은 모델들이 더 나은 추론 능력을 갖추면서, 논리학과 형식적 추론의 원칙은 다시 주목받고 있습니다.
철학적 시사점: 규칙과 경험 사이의 긴장
초기 AI 연구의 접근법은 인간 지능의 본질에 대한 깊은 철학적 질문을 제기합니다. 인간의 지능은 논리적 규칙을 따르는 것인가, 아니면 경험과 패턴 인식에 기반한 것인가?
이 질문은 서양 철학의 오랜 논쟁인 '이성주의(rationalism)'와 '경험주의(empiricism)' 사이의 대립을 떠올리게 합니다. 데카르트나 라이프니츠와 같은 이성주의 철학자들은 진리를 얻기 위해서는 순수한 논리적 추론이 필요하다고 보았습니다. 반면 로크나 흄과 같은 경험주의 철학자들은 모든 지식이 궁극적으로 감각 경험에서 비롯된다고 주장했습니다.
초기 AI의 논리 기반, 규칙 기반 접근법은 이성주의적 전통에 가깝습니다. 반면, 현대 딥러닝은 대규모 데이터로부터 패턴을 학습한다는 점에서 경험주의적 성격이 강합니다.
흥미롭게도, 인간의 지능은 이 두 가지 접근법 모두를 활용하는 것으로 보입니다. 우리는 논리적 추론을 통해 문제를 해결하기도 하고, 직관적인 패턴 인식에 의존하기도 합니다. 완전한 인공지능을 만들기 위해서는 어쩌면 이 두 가지 접근법의 통합이 필요할지도 모릅니다.
철학자 휴버트 드레이퍼스(Hubert Dreyfus)는 1972년 저서 『인공지능에 대하여: 알케미에서 성배까지(What Computers Can't Do: A Critique of Artificial Reason)』에서 AI의 논리적 접근법을 비판했습니다. 그는 인간의 지능이 명시적 규칙보다는 암묵적 지식(tacit knowledge)과 상황 인식(situational awareness)에 의존한다고 주장했습니다. 이러한 비판은 후에 AI 연구의 방향을 바꾸는 데 중요한 역할을 했습니다.
나가며: 지식과 학습의 균형을 찾아서
초기 AI 연구자들은 인간의 지능을 논리적 규칙과 명시적 지식의 집합으로 이해했습니다. 그들의 접근법은 특정 도메인에서 인상적인 성과를 거두었지만, 결국 지식 획득의 병목 현상과 암묵적 지식의 표현 문제에 부딪혔습니다.
현대 AI는 다른 방향 대규모 데이터에서 패턴을 찾는 기계학습으로 발전했지만, 이제는 다시 지식 표현과 논리적 추론의 중요성이 재조명되고 있습니다. 이는 아마도 인간 지능의 두 가지 측면 논리적 사고와 패턴 인식을 모두 포착하려는 시도일 것입니다.
제가 반도체 이미지를 분석하는 AI 시스템을 개발하면서 느끼는 것은, 가장 효과적인 시스템은 도메인 지식과 데이터 중심 학습을 적절히 결합한 것이라는 점입니다. 전문가의 지식을 무시하고 순수하게 데이터에만 의존하면 결과가 비효율적이거나 신뢰할 수 없을 수 있습니다. 반대로, 데이터로부터의 학습 없이 전통적인 영상처리리 규칙만으로는 복잡한 패턴을 포착하기 어렵습니다.
AI 연구의 초기 접근법을 되돌아보는 것은 단순히 역사적 호기심을 충족시키는 것이 아니라, 인공지능의 미래에 대한 중요한 통찰을 얻을 수 있습니다. 학습과 논리, 암묵적 지식과 명시적 규칙, "데이터와 이론" 이 두 세계 사이의 균형을 찾는 것이 미래 AI 연구의 중요한 과제일 것입니다.
여러분은 어떻게 생각하시나요? 인간의 지능은 논리적 규칙과 추론을 통해 작동하나요, 아니면 경험과 패턴 인식이 더 중요할까요? 아니면 두 가지가 긴밀하게 상호작용하는 것일까요?
Sonslab은 현재 반도체 MI 분야에서 엔지니어들에게 AI 기술을 활용하여 전자 현미경 이미지를 계측 분석하는 플랫폼을 개발하고 있습니다. 2024년 DDCON에서 "자동화 시대의 AI와 인간의 협업 시너지" 주제로 강연을 진행했으며, 인간 중심 AI 기술과 응용 Application 개발에 관심을 가지고 관련 도서를 준비 중입니다.
인공지능,규칙기반시스템,논리기반AI,전문가시스템,AI역사,지식표현,인지과학,기호적AI,AI철학,머신러닝