인공지능(人工知能, Artificial Intelligence)은 인간의 인지, 추론, 판단 등 지능(Natural Intelligence)을 컴퓨터로 구현하기 위한 기술이나 연구를 뜻합니다. 컴퓨터는 인간에 비해 제어, 연산 능력이 뛰어나지만 지능을 기반으로 한 인지, 추론, 판단 능력은 가지고 있지 않습니다. 인간 고유의 능력을 컴퓨터로 구현하고자 하는 인공지능의 역사는 기술적인 내용이라 어렵지만 매우 흥미롭습니다.
인공지능의 탄생기(1943~55)
인공두뇌학과 초기 신경 네트워크
1940년대 신경학 연구는 뇌가 뉴런으로 이루어진 전기적인 네트워크라고 보았고 위너는 인공두뇌학을 전기적 네트워크로 묘사했습니다. 튜링은 모든 계산을 디지털로 나타낼 수 있다는 계산 이론을 주장했고 이런 연구들을 통해 인공두뇌를 전자적으로 구축하는 아이디어가 나왔습니다. 월터 피츠(Walter Pitts)와 워런 매컬러(Warren Sturgis McCulloch)는 인공 신경망 네트워크를 분석하고 신경 네트워크 기술을 최초로 연구했습니다. 1951년 마빈 민스키는 첫 번째 신경 네트워크 기계인 SNARC를 구축했고 향후 50년간 인공지능의 가장 중요한 인물 중 하나가 되었습니다.
튜링 테스트
1950년 앨런 튜링은 생각하는 기계의 구현 가능성을 분석한 논문을 발표하면서 유명한 튜링테스트를 고안했습니다. 텔레프린터를 통한 대화에서 기계가 사람인지 기계인지 구별할 수 없을 정도로 대화를 잘 이끈다면 기계가 생각하고 있다고 할 수 있다는 튜링 테스트는 인공지능에 대한 최초의 철학적 제안이었습니다.
게임 인공지능
1951년 맨체스터 대학의 페란티 마크 1(Ferranti Mark 1) 기계로 크리스토퍼 스트레이(Christopher Strachey)는 체커 프로그램을 만들었고 디트리히 프린츠(Dietrich Prinz)는 체스 프로그램을 만들었습니다. 아서 새뮤얼(Arthur Samuel)이 개발한 체커 프로그램은 충분한 기술적 발전을 이룩했습니다.
상징 추론과 논리 이론
1950년대 중반 과학자들은 기계가 수를 다루듯 기호를 다루고 사람처럼 기호의 본질까지 다룰 수 있을 것이라고 생각했습니다. 1956년 앨런 뉴얼(Allen Newell)과 허버트 사이먼(Herbert A. Simon)은 논리 이론을 구현하고 러셀과 화이트헤드의 수학 원리 52개의 정리중 32개를 증명했습니다.
다트머스 컨퍼런스 : AI의 탄생
1956년 열린 다트머스 컨퍼런스에서 앨런 뉴얼(Allen Newell)과 아서 새뮤얼(Arthur Smuel)이 논리 이론을 소개했고 매카시는 인공지능(Artificial Intelligence)이라는 명칭을 제안했습니다. AI라는 명칭과 넓은 의미의 AI의 탄생을 알리는 순간이었습니다.
인공지능의 황금기(1956~74)
탐색 추리
초기 AI 프로그램은 게임의 승리나 정리 증명 같은 목표 달성을 위해 한 발짝씩 나아가는(Step-by-Step) 방식을 사용했는데 미로를 찾다가 막히면 길이 갈리는 곳까지 되돌아왔다가 다른 길로 가는 식이었습니다. 이런 방식을 탐색 추리라 불렀는데 미로에서 선택할 수 있는 경로가 천문학적으로 많다는 것이 문제였습니다. 문제 해결을 위해 추론 또는 경험적으로 찾은 규칙으로 정답이 아니라 추리되는 경로를 지우는 방식을 사용했습니다.
자연어 처리
AI 연구의 중요 목표는 자연어로 컴퓨터와 의사소통하는 것이었는데 다니엘 보로우(Daniel Bobrow)는 STUDENT라는 프로그램으로 고등학교 대수학 단어 문제를 풀었습니다. 의미 망이란 개념을 다른 개념들 사이의 노드와 링크로 나타내는 것인데 의미 망을 사용한 최초의 AI 프로그램은 로스 퀄리언(Ross Quillian)이 만들었습니다. 가장 성공적인 버전은 로거 섕크(Roger Schank)의 개념 종속 이론이었습니다. 조셉 웨이젠바움(Joseph Weizenbaum)의 ELIZA는 대화 상대가 컴퓨터가 아니라 사람이라 생각될 정도였고 첫 번째 채팅 프로그램이 되었습니다.
마이크로월드
1960년대 후반 MIT AI 연구소의 마빈 민스키와 시모어 페퍼트는 마이크로월드 연구라는 AI 연구를 제안했습니다. 과학자들이 마찰면이나 강체(형태가 변하지 않는 물체) 같은 간단한 모델을 사용하듯 평면 위의 다양한 형태와 색깔의 블록으로 이루어진 블록 단위의 세계에 초점을 맞추는 것이었습니다. 민스키와 페퍼트는 블록을 쌓을 수 있는 로봇 팔을 제작했습니다. 제라드 서스먼(Gerald Sussman), 아돌프 구즈먼(Adolfo Guzman), 다비드 왈츠(David Waltz), 패트릭 윈스턴(Patrick Winston)은 마이크로월드 패러다임으로 기계 비전의 혁신을 이끌었습니다. 테리 위노가드(Terry Winograd)의 SHRDLU는 마이크로월드의 성공작으로 일반 문장으로 소통해 작업을 계획하고 실행할 수 있었습니다.
인공지능의 1차 암흑기(1974~80)
컴퓨터 성능의 한계
로스 퀼리언(Ross Quillian)의 자연어 처리는 메모리 한계로 20개 단어에서만 발휘되었습니다. 1976년 한스 모라벡은 망막을 모션 캡처하려면 컴퓨터가 초당 1000MIPS를 처리해야 할 것이라고 추측했는데 당시 슈퍼컴퓨터의 속도는 80~130 MIPS에 불과했습니다.
폭발적인 조합 수와 비용이성
1972년 리처드 카프(Hichard Karp)는 컴퓨터로 최적의 해답을 찾는 데 막대한 조합 수가 필요해 실제 유용한 AI 시스템을 제작하기 힘들다고 평가했습니다. 상징적 지식과 추론 영상이나 자연어 처리를 위해 AI 프로그램은 어마어마한 양의 정보가 필요하다는 사실을 알게 됐는데 1970년대에는 누구도 이 정도 데이터베이스를 만들지 못했고 이런 데이터를 처리하는 방법을 알지 못했습니다.
모라벡의 패러독스
1970년대 컴퓨터가 기하학적 문제를 푸는 것은 비교적 쉬웠지만 얼굴을 인식하거나 장애물을 피해 움직이는 것은 매우 어려웠습니다. 이런 한계로 영상처리나 로봇 연구에 크게 진전을 보이지 못했습니다.
자금 지원의 중단
영국 정부나 DARPA, NRC같은 기관들은 AI 연구 부진에 실망했고 자금 지원을 중단했습니다. 영국의 AI 연구소는 해체되었습니다.
AI 연구에 대한 비판들
일부 철학자들은 AI 연구에 반대를 표했는데 존 루카스(John Lucas)는 괴델의 불완전성의 원리에 의해 컴퓨터는 사람처럼 행동할 수 없다고 주장했습니다. 휴버트 드레이퍼스(Hubert Dreyfus)는 인간의 추론은 구현적, 본능적, 무의식적으로 처리되기 때문에 AI의 가정이 맞지 않다고 주장했습니다. 존 설(John Searle)은 만약 상징이 기계에게 의미가 없다면 기계는 생각하는 것이 아니라고 주장했습니다. ELIZA의 제작자 조셉 웨이즌바움(Joseph Weizenbaum)은 1976년 인공지능의 오용이 인간의 삶을 평가 절하시킬 수도 있다고 주장했습니다.
인공지능의 붐이 일다 (1980~87)
전문가 시스템의 발전
전문가 시스템은 특정 지식의 범위에 대해 문제를 해결해주거나 질문에 대답해 주는 프로그램이며 전문가의 지식에서 파생된 논리적 법칙을 사용하였습니다. 1980년 디지털 장비 회사 CMU는 XCON이라는 전문가 시스템으로 매년 4천만 달러를 절약했습니다. 1985년 전 세계 회사들은 1억 달러 이상을 AI에 사용하여 전문가 시스템을 개발했습니다.
지식 혁명
지식 기반 시스템과 지식 엔지니어링은 1980년대 AI 연구자들의 핵심 주제가 되었습니다. Douglas Lenat는 일상적인 사실들을 포함한 데이터베이스로 상식 문제의 해결을 시도한 프로젝트를 이끌었습니다.
5세대 프로젝트와 투자
1981년 일본은 기계가 프로그램을 만들고 대화, 번역하며 그림을 해석하는 5세대 프로젝트를 준비하고 있었습니다. 영국은 앨비(Alvey) 프로젝트를 시작했고 미국의 기업 컨소시엄은 마이크로 전자공학과 컴퓨터 기술 협력을 실행했습니다. 1984년부터 DARPA는 전략적 컴퓨팅 계획을 수립하고 AI 투자를 3배로 늘렸습니다.
신경망 이론의 복귀
1982년 물리학자 존 홉필드(John Hopfield)가 신경망의 형태를 증명해냈고 데이비드 루멜하르트(David Rumelhart)가 역전파를 발견하면서 신경망 분야 연구를 되살렸습니다. 신경망은 1990년대 광학 문자 인식 및 음성 인식과 같은 프로그램의 구동 엔진으로 사용되면서 상업적 성공을 거뒀습니다.
인공지능의 2차 암흑기 (1987~93)
인공지능의 겨울 (AI winter)
최초로 성공한 전문가 시스템인 XCON은 유지비가 점점 비싸졌고 일반적이지 않은 질문에 이상 반응을 보여 전문가 시스템은 특별한 경우에만 유용했습니다. DARPA는 AI 대신 즉각 결과가 나오는 프로젝트에 투자하기로 결정했습니다. 1991년 일본의 5세대 프로젝트는 목표만큼 성과가 내지 못했습니다.
1993년 이후의 인공지능
성공 사례와 무어의 법칙
1997년 체스 플레이 컴퓨터인 딥 블루(Deep Blue)는 체스 세계 챔피언 가리 카스파로프를 이겼습니다. 2005년 스탠포드의 로봇은 DARPA 그랜드 챌린지에서 사막 도로 131마일을 자동운전으로 우승했습니다. 2007년 CMU팀은 DARPA 도시 챌린지에서 자동으로 55마일을 달렸습니다. 2011년 퀴즈 쇼에서 IBM 응답 시스템 왓슨은 여유롭게 챔피언을 이겼습니다. 획기적인 컴퓨터 성능 개선이 이러한 성공을 낳았습니다. 2년마다 컴퓨터 메모리 속도와 양은 2배씩 늘어난다는 무어의 법칙처럼 컴퓨터 성능의 문제는 서서히 극복되고 있었습니다.
지능형 에이전트(Intelligent Agent)
웹에서 많은 정보를 탐색하고 복잡한 작업을 수행해야 하는 경우가 늘어나면서 에이전트의 필요성도 증가했습니다. 1990년대 제안된 지능형 에이전트는 인공지능과 유사하지만 인공지능보다 추상적이며 인공지능의 핵심인 학습(Learning)보다는 특정 기능 수행에 초점을 맞춥니다. 데이터 마이닝 기술로 사용자가 좋아할 만한 곡을 추천해 주거나 쇼핑 리스트를 추천해 주는 시스템도 지능형 에이전트에 포함됩니다.
수학적 도구의 활용
AI 연구자는더욱 정교한 수학적 도구를 사용하여 개발하기 시작했는데 공유된 수학적 언어는 측정과 증명이 된 결과들의 성취를 가능하게 했습니다. 더 정밀한 수학적 모형이 신경망 네트워크와 진화 알고리즘을 위해 개발되었습니다.
알고리즘의 발전
AI 연구자들에 의해 최초로 개발된 알고리즘은 거대한 시스템의 일부로 나타나기 시작했습니다. AI는 데이터 마이닝, 산업 로봇공학, 논리학, 음성 인식, 은행 소프트웨어, 의학적 진단, 구글 검색 엔진 등 여러 분야에 유용하다는 것이 증명되었습니다.
인공지능과 4차 산업혁명
인공지능은 사물인터넷(IoT, Internet of Things), 클라우드 컴퓨팅, 빅데이터 등과 융합되면서 4차 산업혁명을 만들고 있습니다. 1차 산업혁명이 기계근육을 만들었다면 4차 산업혁명은 기계두뇌를 탄생시킬 것이라고 합니다. 제1차 산업혁명 때 기계에게 일자리를 뺏긴다는 두려움에 노동자들이 러다이트(기계파괴) 운동을 일으켰습니다. 4차 산업혁명에 접어들면서 많은 사람들이 일자리를 잃을 것을 우려하기 시작했습니다.
인공지능의 미래
초지능에 대한 상상
초지능(Superintelligence)이란 인간의 능력을 뛰어넘는 가설적인 지능체입니다. 인공지능이 일정 수준에 도달하면 스스로 지능을 개선할 수 있고 기하급수적인 지능 성장으로 인간의 지능을 뛰어넘을지도 모른다는 주장입니다. 로봇 전문가 한스 모라벡이나 발명가 레이 커즈와일 등은 인간이 기계와 결합한 사이보그로 진화하여 초지능을 가질 수 있다는 트랜스휴머니즘을 주장하기도 했습니다.
2016년 이세돌과 바둑 인공지능 프로그램인 알파고(AlphaGo)의 대결을 기억하십니까? 최고의 기사인 이세돌이 당연히 이길 줄 알았는데 알파고에게 1승 4패로 지고 말았습니다. 이 대결은 생각보다 훨씬 뛰어난 인공지능의 성능을 절감하게 만들었습니다. 끝없이 펼쳐질 인공지능의 놀라운 미래가 궁금하고 기다려집니다.