작성자: SONSLAB | 발행일: 2025년 3월 23일
머리말: 정의의 모호성이 던지는 철학적 질문
우리는 일상 속에서 '인공지능'이라는 용어를 빈번히 사용하면서도, 이에 대한 명확한 정의에는 도달하지 못한 채 살아가고 있습니다. 스마트폰에 내장된 음성 비서, 자율주행 자동차의 판단 시스템, 체스 세계 챔피언을 패배시킨 컴퓨터 프로그램까지 이 모든 것을 우리는 '인공지능'이라 부르지만, 그 개념적 경계와 본질적 범주는 여전히 안개 속에 가려져 있습니다.
아리스토텔레스는 『형이상학』에서 정의의 중요성을 강조하며 "무엇임(what-is-ness)"에 대한 이해가 모든 지식의 기초라고 주장했습니다. 인공지능에 대한 우리의 정의는 단순한 용어적 명확성을 넘어, 인간 지능의 본질과 기계적 사고의 가능성에 대한 근본적인 이해와 연결되어 있습니다. 이 글에서는 인공지능의 다양한 정의와 그 철학적 함의, 그리고 인공지능의 범주화에 대해 탐구해 보고자 합니다.
인공지능의 정의: 역사적 진화와 다양한 관점
인공지능의 정의는 시대와 연구 분야에 따라 끊임없이 변화해 왔습니다. 이러한 정의의 다변성은 단순한 의미론적 혼란이 아닌, 지능이라는 개념 자체의 다면성과 우리의 기술적 이해의 진화를 반영합니다.
초기 정의와 그 한계
인공지능이라는 용어를 최초로 제안한 존 매카시(John McCarthy)는 1956년 다트머스 회의에서 인공지능을 "기계를 지능적으로 만드는 과학과 공학"이라고 정의했습니다. 이 정의는 의도적으로 광범위하게 설정되었으며, 지능이라는 개념 자체의 정의를 회피하는 방식으로 접근했습니다.
마빈 민스키(Marvin Minsky)는 보다 실용적인 관점에서 인공지능을 "인간이 수행하면 지능이 필요하다고 간주되는 작업을 기계가 수행하도록 하는 것"이라고 정의했습니다. 이 정의의 역설적 특성에 주목할 필요가 있습니다. 체스는 한때 고도의 지능을 요구하는 대표적인 활동으로 여겨졌으나, 컴퓨터가 인간 챔피언을 압도하기 시작하자 더 이상 '진정한 AI'의 시금석으로 간주되지 않게 되었습니다.
이처럼 인공지능의 정의는 고정된 개념이 아니라, 계속해서 도전해야 할 이동하는 목표(moving target)의 성격을 띠고 있습니다. 철학자 휴버트 드레이퍼스(Hubert Dreyfus)는 이를 "AI 효과(AI effect)"라고 불렀습니다—컴퓨터가 특정 작업을 수행할 수 있게 되면, 그 작업은 더 이상 '진정한 지능'의 표지로 간주되지 않는 현상입니다.
현대적 정의의 네 가지 접근법
현대 인공지능 연구에서는 스튜어트 러셀과 피터 노빅(Russell & Norvig)이 제시한 네 가지 접근법이 광범위하게 받아들여지고 있습니다:
- 인간처럼 사고하는 시스템(Thinking Humanly): 인간 인지 과정의 모델링에 중점을 둔 접근법으로, 인지과학과 신경과학의 발견을 통합합니다. 이 관점에서는 AI의 목표가 인간의 사고 과정을 충실히 재현하는 것입니다.
- 합리적으로 사고하는 시스템(Thinking Rationally): 논리학과 형식적 추론에 기반한 접근법으로, 아리스토텔레스의 삼단논법부터 현대 형식 논리학까지의 전통을 따릅니다. 이 관점에서는 AI가 완벽한 논리적 일관성을 가진 추론 체계를 구축해야 합니다.
- 인간처럼 행동하는 시스템(Acting Humanly): 튜링 테스트로 대표되는 접근법으로, 외부적 행동이 인간과 구별할 수 없을 정도로 유사하다면 그 시스템은 지능적이라고 간주합니다. 이는 내적 사고 과정보다 외적 행동의 유사성에 초점을 맞춥니다.
- 합리적으로 행동하는 시스템(Acting Rationally): 목표 달성을 위한 최적의 행동을 수행하는 '합리적 에이전트'의 개념에 기반한 접근법입니다. 이 관점에서는 AI가 주어진 목표와 환경 제약 하에서 최선의 결과를 도출하는 행동을 선택해야 합니다.
이 네 가지 접근법은 각각 철학, 인지과학, 수학, 경제학 등 다양한 학문적 전통에 뿌리를 두고 있으며, 인공지능 연구의 상이한 방향성을 제시합니다. 어느 한 접근법이 절대적으로 옳다기보다는, 각각이 인공지능의 서로 다른 측면을 조명하고 있다고 볼 수 있습니다.
정의의 철학적 함의
인공지능의 정의를 탐색하는 과정은 필연적으로 '지능'과 '사고'의 본질에 대한 철학적 질문으로 이어집니다. 17세기 데카르트는 "나는 생각한다, 고로 존재한다(Cogito, ergo sum)"라는 명제를 통해 사고와 존재의 본질적 연결을 주장했습니다. 오늘날 우리는 "기계가 생각할 수 있는가?"라는 질문 앞에 서 있으며, 이는 단순한 기술적 질문을 넘어 의식, 자아, 이해의 본질에 관한 형이상학적 탐구로 확장됩니다.
루드비히 비트겐슈타인은 『철학적 탐구』에서 '언어 게임'의 개념을 통해 의미가 사용에 의해 결정된다고 주장했습니다. 이 관점에서 보면, 인공지능의 정의 역시 고정된 실체가 아니라 사회적, 문화적, 역사적 맥락 속에서 형성되는 동적인 개념이라고 볼 수 있습니다. 우리가 AI에 부여하는 의미는 기술의 발전과 사회적 수용에 따라 계속해서 재구성되고 있는 것입니다.
인공지능의 범주: 능력과 한계의 스펙트럼
인공지능은 그 능력과 목적에 따라 다양한 방식으로 분류될 수 있습니다. 이러한 범주화는 단순한 분류학적 관심을 넘어, 인공지능 시스템의 한계와 잠재력, 그리고 인간과의 관계를 이해하는 데 중요한 틀을 제공합니다.
약한 인공지능과 강한 인공지능의 구분
인공지능 연구에서 가장 기본적인 구분은 '약한 인공지능(ANI: Artificial Narrow Intelligence)'과 '강한 인공지능(AGI: Artificial General Intelligence)' 사이의 경계선입니다. 이 구분은 철학자 존 설(John Searle)이 1980년 논문 "Minds, Brains, and Programs"에서 최초로 제시했습니다.
**약한 인공지능(ANI)**은 특정 영역이나 작업에 특화된 시스템으로, 현재 우리가 일상에서 접하는 대부분의 AI가 이 범주에 속합니다. 이들은 제한된 도메인에서 뛰어난 성능을 보이지만, 학습된 영역을 벗어난 일반화 능력은 극히 제한적입니다. 체스 프로그램이 바둑을 둘 수 없고, 의료 진단 AI가 법률 자문을 제공할 수 없는 것처럼, ANI는 분명한 기능적 경계를 갖습니다.
약한 인공지능의 철학적 함의는 '시뮬레이션'과 '실제' 사이의 구분에 있습니다. ANI는 지능적 행동을 시뮬레이션할 뿐, 의식이나 진정한 이해를 가지고 있지 않다는 관점이 지배적입니다. 설의 '중국어 방' 사고실험은 이러한 관점을 잘 보여줍니다. 규칙에 따라 중국어 문장을 조작하는 사람은 중국어를 '처리'할 수는 있지만 '이해'하지는 못하며, 약한 AI도 이와 유사한 한계를 갖는다는 것입니다.
**강한 인공지능(AGI)**은 인간 수준의 일반적 지능을 가진 시스템을 지칭합니다. AGI는 다양한 영역에서 유연하게 학습하고 적응하며, 추상적 개념을 이해하고 창의적인 문제 해결 능력을 갖추는 것을 목표로 합니다. 현재까지 진정한 의미의 AGI는 실현되지 않았으며, 이것이 기술적으로 가능한지, 또 언제 실현될 수 있을지에 대해서는 전문가들 사이에서도 의견이 크게 나뉩니다.
강한 인공지능의 핵심 질문은 "기계가 진정으로 사고할 수 있는가?"입니다. 이는 단순한 기능적 모방을 넘어, 의식, 이해, 자아의 가능성에 관한 근본적인 물음입니다. 앨런 튜링이 제안한 '생각하는 기계'의 가능성은 여전히 철학적 논쟁의 중심에 서 있으며, 이는 다양한 학문 분야에 걸친 '마음의 철학(philosophy of mind)'의 핵심 주제 중 하나입니다.
더 나아가, 일부 이론가들은 **초인공지능(ASI: Artificial Superintelligence)**의 개념을 제시합니다. 옥스퍼드 철학자 닉 보스트롬(Nick Bostrom)은 이를 "거의 모든 영역에서 가장 뛰어난 인간의 능력을 크게 초월하는 지능"으로 정의했습니다. ASI는 현재로서는 순전히 이론적인 개념이지만, 기술적 특이점(technological singularity)의 가능성과 그에 따른 윤리적, 존재론적 함의에 대한 중요한 사고실험을 제공합니다.
접근 방법에 따른 분류
인공지능은 그 구현 방식과 철학적 접근에 따라서도 다양하게 분류될 수 있습니다:
기호적 AI vs 연결주의적 AI: 이 구분은 AI 연구의 두 가지 주요 패러다임을 반영합니다. 기호적 AI(Symbolic AI)는 논리와 규칙 기반의 명시적 지식 표현에 중점을 두며, 초기 AI 연구의 주류였습니다. 반면 연결주의적 AI(Connectionist AI)는 신경망과 같은 생물학적 구조에서 영감을 얻은 접근법으로, 명시적 규칙보다는 데이터로부터의 학습을 강조합니다. 이 두 패러다임의 차이는 단순한 기술적 선호를 넘어, 인간 인지의 본질에 대한 서로 다른 철학적 관점을 반영합니다—논리와 규칙이 인지의 핵심인가, 아니면 연결 패턴과 창발적 특성이 더 본질적인가?
지도학습 vs 비지도학습 vs 강화학습: 이 구분은 AI 시스템이 데이터로부터 학습하는 방식에 따른 분류입니다. 지도학습은 '올바른 답'이 제공된 데이터를 통해 학습하며, 비지도학습은 그러한 명시적 지도 없이 데이터의 구조를 발견합니다. 강화학습은 환경과의 상호작용을 통해 '보상'을 최대화하는 방향으로 학습하는 방식입니다. 이러한 학습 패러다임의 차이는 인간의 학습과 지식 획득 방식에 대한 중요한 통찰을 제공합니다. 우리는 명시적 가르침, 자발적 패턴 발견, 환경과의 상호작용을 통해 다양한 방식으로 학습합니다.
설명 가능한 AI vs 블랙박스 AI: 최근 들어 중요성이 부각되는 이 구분은 AI 시스템의 의사결정 과정이 인간에게 이해 가능한 형태로 설명될 수 있는지에 관한 것입니다. 설명 가능한 AI(XAI: Explainable AI)는 그 결정 과정을 투명하게 제시할 수 있는 반면, 블랙박스 AI는 결과는 제공하지만 그 과정은 불투명합니다. 이는 단순한 기술적 특성을 넘어, 지식과 이해의 본질에 대한 철학적 질문과 연결됩니다. 결과만 알고 과정을 모른다면, 우리는 진정으로 '이해'하고 있는 것인가?
철학적 관점에서의 범주화
인공지능의 범주를 철학적 관점에서 재고찰하면, 다음과 같은 분류도 가능합니다:
현상학적 AI: 인간의 주관적 경험과 의식의 구조를 모방하려는 접근법으로, 에드먼드 후설과 마틴 하이데거의 현상학적 전통에 영감을 받습니다. 이 범주의 AI는 세계-내-존재(being-in-the-world)로서의 경험과 의미 창출 과정에 중점을 둡니다.
기능주의적 AI: 마음을 입력-처리-출력의 기능적 관계로 이해하는 철학적 입장에 기반한 접근법입니다. 기능주의의 관점에서는 올바른 기능적 관계가 구현된다면, 그 물리적 기반(생물학적 뇌든 실리콘 회로든)과 무관하게 지능이 창발할 수 있다고 봅니다.
실용주의적 AI: 존 듀이와 윌리엄 제임스의 실용주의 철학에 영감을 받은 접근법으로, 추상적 원리보다는 실제 문제 해결과 목표 달성에 중점을 둡니다. 이 관점에서는 AI의 '진정성'보다는 실용적 효용에 더 가치를 부여합니다.
이러한 철학적 범주화는 단순한 개념적 구분을 넘어, AI 시스템의 설계와 평가에 있어 서로 다른 우선순위와 가치 체계를 반영합니다. 우리가 AI를 어떻게 범주화하는가는 곧 우리가 어떤 종류의 AI를 만들고자 하는가에 대한 질문이기도 합니다.
맺음말: 정의와 범주의 진화하는 경계
인공지능의 정의와 범주에 대한 탐구는 단순한 분류학적 작업이 아닌, 인간 지능의 본질과 기계적 사고의 가능성에 대한 철학적 여정입니다. 이 여정은 고정된 목적지를 향한 선형적 경로가 아니라, 새로운 기술적 발전과 철학적 통찰에 따라 계속해서 재정의되는 순환적 과정입니다.
플라톤은 『메논』에서 "무엇인지 모르는 것을 어떻게 찾을 수 있으며, 찾았을 때 그것이 찾고 있던 것임을 어떻게 알 수 있는가?"라는 유명한 역설을 제기했습니다. 인공지능에 대한 우리의 탐구도 이와 유사한 인식론적 도전에 직면해 있습니다. 우리는 '인공지능'이라는 개념을 정의하면서도, 그 정의가 지속적으로 변화하는 대상을 추적하고 있습니다.
이러한 정의와 범주의 유동성은 결코 한계가 아닌, 이 분야의 풍요로운 역동성을 보여주는 증거입니다. 인공지능의 경계가 계속해서 확장되고 재정의됨에 따라, 우리는 인간 지능의 본질과 한계에 대해서도 새로운 통찰을 얻게 됩니다. 마치 비트겐슈타인이 언어의 한계가 곧 세계의 한계라고 주장했듯이, 인공지능의 경계에 대한 우리의 이해는 인간 지능과 의식의 경계에 대한 이해와 불가분하게 연결되어 있습니다.
인공지능의 정의와 범주에 대한 탐구는 결국 "우리는 누구인가?"라는 가장 오래된 철학적 질문으로 회귀합니다. 인공지능을 정의하고 범주화하는 과정에서, 우리는 인간 자신의 정체성과 인간 지능의 본질에 대한 이해를 더욱 풍부하게 해나가고 있는 것입니다.
참고문헌
- McCarthy, J. (1956). The Dartmouth Summer Research Project on Artificial Intelligence.
- Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
- Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417-424.
- Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.
- Dreyfus, H. L. (1992). What Computers Still Can't Do: A Critique of Artificial Reason. MIT Press.
- Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200-219.
- Wittgenstein, L. (1953). Philosophical Investigations. Blackwell Publishing.
- Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.
SonsLab은 현재 반도체 MI 분야에서 엔지니어들에게 AI 기술을 활용하여 전자 현미경 이미지를 계측 분석하는 플랫폼을 개발하고 있습니다. 2024년 DDCON에서 "자동화 시대의 인간과 협업 시너지" 주제로 강연을 진행했으며, 현재 자동화와 인간 중심 AI 기술에 관한 도서를 준비 중입니다.
'1. AI의 기본 개념과 역사' 카테고리의 다른 글
AI 겨울과 르네상스 시기의 교훈: 기대와 실망의 역사적 순환 (0) | 2025.04.26 |
---|---|
논리의 언어로 기계를 깨우다: 초기 AI 연구의 주요 접근법 (0) | 2025.04.22 |
튜링 테스트와 AI의 철학적 의미: 기계는 생각할 수 있는가? (0) | 2025.04.21 |
약한 인공지능과 강한 인공지능의 구분: 의식을 가진 기계는 가능할까? (1) | 2025.04.20 |
인공지능의 역사적 발전 단계: 꿈과 한계 사이의 여정 (0) | 2025.03.24 |