원래 이 글은 디지에코에 발행하려고 했던 글인데 워낙 인공지능 글들이 많아 퇴짜 받아서(T.T) 블로그에 순차적으로 오픈하려고 한다. 글이 좀 길어서 2개로 나눠서 오픈한다.


이세돌 9단과 알파고의 바둑 대전에 대한 총평


이번에 구글의 알파고라는 인공지능 시스템과 한국의 프로바둑기사인 이세돌 9단과의 바둑 대전은 알파고가 4승 1패로 이긴 것으로 결론이 났다. 기계와 인간의 대결이라는 컨셉으로 접근했던 이번 이벤트는 인공지능의 수준이 어디까지 올라왔는지를 잘 보여주는 사례로 남게 되었다. 물론 알파고는 오로지 바둑을 위한 인공지능 시스템이며 바둑이라는 세계 안에서의 결과이기에 바둑 이외의 다른 산업에까지 영향을 끼쳤다고 확대해석하기에는 무리는 있지만 그래도 풍부한 데이터를 기반으로 스스로 학습하고 반응하고 행동을 하는 인공지능의 현주소가 어디까지 올라왔는가를 가늠해볼 수 있는 좋은 이벤트였던 것은 사실이다. 솔직히 처음부터 나는 알파고의 완승을 예상했다. 0:5로 이세돌이 한판도 못이길 것이라고 생각을 했다. 결과적으로 1:4라는 알파고의 완승이었다만 놀라운 것은 이세돌 9단이 1~3국에서 밀리다가 4국에서 알파고에게서 항복을 받아냈었다는 것이다. 그 얘기인 즉, 현재의 인공지능이 아직은 완벽한 수준은 아니라는 얘기이며 여러 사람들이 얘기하는 영화 터미네이터처럼 기계가 인간을 지배하는 그런 상황까지 가려면 시간이 더 필요하다는 얘기다.



알파고와 이세돌 9단의 경기를 통해서 느꼈던 것은 첫 번째는 인공지능의 수준이 그 방면의 전문가 수준에 거의 이르렀다는 것이다. 알파고와 이세돌 9단의 경기는 바둑에 한하여 진행되었지만 그 상황만 보더라도 인공지능 시스템인 알파고는 바둑 분야의 최고 전문가인 이세돌 9단을 상대로 4승을 거뒀다. 그 얘기인 즉, 다른 분야의 인공지능의 수준도 지금, 혹은 더 개량하게 되면 그 방면의 전문가 못잖은 수준까지 올라오게 되며 하나의 역할을 충분히 할 수 있는 상황이 되었다는 얘기다. 또 하나는 아직 인공지능은 인간만이 갖을 수 있는 통찰력, 직관력, 의외성을 갖지 못했다는 것다. 이세돌 9단이 승을 거둔 4국의 경우 이세돌 9단의 승부수로 인해 알파고가 버그를 일으키고(버그라기 보다는 그 상황에 대한 데이터가 없어서 엉뚱한 값을 내보낸 것이지만) 그 이후에 시스템 혼란이 일어났다. 즉, 인공지능은 스스로 생각하고 창조적인 활동을 하기보다는 있는 데이터를 바탕으로 확률을 통한 최적의 선택을 할 수 있게 되는 구조이기 때문에 이른바 열린 마음으로 선택하는 인간의 의외성을 갖지 못한다는 구조적 한계를 갖고 있다는 것이 이번 이벤트를 통해서 나타났다고 본다. 즉, 사람이 하는 일에 대해서 보조자 역할을 할 수는 있지만 아직 메인으로 역할을 하기에는 조금은 모자르다는 것이 현재의 인공지능의 한계가 아닌가 하는 생각을 해본다.


올해 초에 미국 라스베가스에서 진행되었던 CES 2016의 핵심 키워드는 자동차, 가상현실(VR), 그리고 인공지능(AI)이었다. 인공지능을 통한 자동화 기술이 모든 산업의 기반 기술이 될 것이라고 예상하는 전문가들도 많이 있다. 그래서 오늘은 인공지능에 대해서 가볍게 얘기를 해볼까 한다.


인공지능이란?


인공지능이란 무엇인가에 대해서 얘기하기 위해서는 먼저 지능이라는 것에 대해서 알아봐야 한다. 일반적으로 지능이라는 것은 어떤 것을 인식하고 판단하는 것을 의미한다. 사람의 경우에는 살면서 눈으로 보고 귀로 듣고 말로 듣는 것들을 기억하고 그 기억을 기반으로 생각을 하고 판단을 한다. 지능의 범위를 생각하고 판단하는 것으로 얘기한다면 인공지능이라는 것은 그 생각하고 판단하는 것을 인공적으로, 즉 사람에 의해 만들어진 기계적인 생각과 판단을 의미한다고 보면 된다. 사람의 지능은 뇌를 통해서 표현(?)이 되지만 인공지능은 컴퓨터를 통해서 표현이 된다는 것이 차이다. 그리고 그 컴퓨터는 사람과 달리 신이 만든 것이 아닌 사람이 무기질로 된(즉, 생명이 없는) 것들을 조합해서 만든 것이기 때문에 인공적이라는 수식어가 붙는 것 같다. 이런 인공지능 시스템으로 대표적인 예가 IBM의 왓슨(Watson)과 이번에 이세돌과의 바둑 대결로 이슈몰이를 하고 있는 구글의 알파고이다. 왓슨과 알파고는 많이 알려진 시스템이고 뒤에서 얘기하겠지만 스마트 비서 서비스라 불리는 애플의 시리, MS의 코타나, 구글의 구글나우도 인공지능 서비스 영역에 들어간다. 이들 서비스도 왓슨이나 알파고에서 사용되는 알고리즘과 비슷한 알고리즘 및 습득 방식을 갖기 때문이다.


인공지능 연구의 역사



그렇다면 인공지능의 역사에 대해서 살펴보자. 인공지능의 시작은 1940년대 후반부터라고 얘기한다. 1940년대 후반부터 수학과 과학, 공학, 철학 등 다양한 영역의 과학자들이 인공적인 두뇌의 가능성이 논의가 되기 시작한다. 대표적인 예가 1950년에 앨런 튜닝은 생각하는 기계의 구현 가능성에 대한 분석이 담긴 논문을 발표했고 그 논문을 바탕으로 튜닝 테스트를 고안한다. 구글의 알파고를 인공지능 시스템이라고 얘기하는 이유 중 하나가 알파고가 바로 이 튜닝테스트를 통과했기 때문이다. 이렇게 여러 가능성에 대해서 논의가 된 이후 1956년에 본격적으로 학문으로서의 인공지능이 언급되기 시작했다. 바로 1956년에 진행된 다트머스 컨퍼런스에서 "학습의 모든 면 또는 지능의 다른 모든 특성로 기계를 정밀하게 기술할 수 있고 이를 시뮬레이션 할 수 있다"는 주장을 내세웠으며 AI의 기초를 선포한 것이다.


다트머스 컨퍼런스 이후에 인공지능에 대한 연구가 활발히 이뤄졌다. 이른바 인공지능 연구의 황금기라 불리는 1956년부터 1974년까지의 시기는 다양한 방법으로 인공지능에 대한 연구가 이뤄진 시기이다. 초기의 인공지능에 대한 연구는 이른바 탐색 추리 방식이다. 대표적인 예가 마이크로 마우스의 미로 찾기인데 미로 안에서 지나갔던 길을 기억하고 막다른 길에 다다르면 다시 분기가 되었던 지점으로 되돌아와 다른 방향으로 진행하는 것을 반복하여 미로를 빠져나가는 것에 대한 알고리즘을 연구했다. 이를 위해 다양한 수학적, 기하학적 알고리즘이 동원되었다. 또한 함께 진행되었던 것이 바로 자연어 처리이다. 단순한 단어로 컴퓨터와 대화하는 것이 아닌 우리가 얘기하는 하나의 문장을 이용하여 컴퓨터와 대화하는 것을 목표로 하는 연구였다. 문장에는 다양한 의미가 내포될 수 있기 때문에 자연어 처리는 인간의 지능에서만 가능하다고 여겨졌는데 그 부분을 인공적으로 처리할 수 있는 알고리즘을 연구하는 자연어 처리 알고리즘이 이 황금기가 불리는 시기에 함께 이뤄진 것이다. 그 외에도 마이크로 월드라 불리는 인위적인 간단한 상황에 초점을 두고 처리하는 알고리즘에 대한 연구도 함께 이뤄지기도 했다.


하지만 인공지능 연구에도 암흑기가 오게 되는데 바로 1975년부터 1980년까지를 1차 암흑기라 불린다. 황금기 때 연구된 내용에 대해서 회의감이 들기 시작하고 자금을 지원해줬던 정부 및 기업들로부터의 후원이 끊어진 시기이다. 대표적인 이유로 컴퓨터의 성능의 한계로 연구된 내용을 수행하기에 그 당시의 시스템 성능이 못 받쳐줬다는 것이다. 또 하나가 폭발적인 경우의 수 계산 및 비용 증가로 컴퓨터 성능과도 관계가 있는데 연구 결과를 만들어내기 위해서는 수많은 경우의 수를 처리해야 하고 그 과정에서 발생하는 비용이 천문학적이라는 것이다. 그리고 자연어 처리 알고리즘을 만들기 위해 필요한 엄청난 양의 데이터들의 처리 문제도 이유로 꼽았다. 앞서 언급한 컴퓨터 성능과도 관계가 있는데 자연어 처리를 위해서는 엄청난 양의 데이터를 분석해야 하고 그것을 또 저장해야 하는데 요즘은 빅데이터 시스템을 이용해서 처리할 수 있었겠지만 그 당시에는 그런 기술이 없었기 때문에 시도할 엄두를 내지 못했다. 이 외에도 다양한 이유로 연구에 대한 성과가 제대로 나오지 못했고 그 동안 자금을 지원했던 정부와 기업들이 연구 성과에 대해서 회의적으로 반응하고 자금 지원을 중단한 것이다. 이 시기가 인공지능에 대한 첫 번째 암흑기로 꼽힌다.


인공지능의 암흑기는 1980년대 전문가 시스템의 등장으로 인해 벗어나게 된다. 1980년대부터 본격적으로 도입되기 시작한 전문가 시스템의 기본이 바로 인공지능을 기반으로 하는 검색 시스템이기 때문이다. 이 시기에 일본 정부가 인공지능에 적극적으로 투자하기 시작하며 인공지능의 기본이 되는 신경망 이론의 복원이 이뤄진다. 전문가 시스템은 1972년 혈액형 진단 시스템인 MYCIN이 시작이라고 많이들 얘기한다. MYCIN 이후에 제한된, 그리고 전문적인 영역에서 쌓여진 내용들을 기반으로 검색해주는 전문가 시스템들이 만들어지기 시작하는데 지식 관리 시스템(KMS)이 전문가 시스템의 기반이 되었고 그것을 찾는 검색 알고리즘에 인공지능 알고리즘을 기반으로 하는 검색 알고리즘이 적용되게 된다. 또한 1982년에 존 홉필드와 데이비드 루멜하트에 의해서 인공지능 알고리즘의 기반이 되는 신경망 이론(실제로 이 이론은 1970년대 이후에 버려지다시피 한 죽은 이론이었습니다)을 부활시킨다. 그리고 이 신경망 이론은 1990년대에 광학 문자 인식과 음성 인식 기술의 엔진으로 적용되면서 상업적으로 성공하기도 한다.


1987년부터 1993년까지는 인공지능 분야의 2차 암흑기라 불린다. 1차 암흑기가 구현을 위한 시스템 성능이 문제가 되었다면 2차 암흑기의 이유는 특정 분야에만 집중된 연구가 문제가 되었다. 1차 암흑기를 벗어나게 만든 것이 바로 전문가 시스템의 연구였는데 앞서 얘기했던 것처럼 전문가 시스템은 특정 분야에만 유용했을 뿐 산업 및 사회 전반적으로 적용하는 데는 무리가 있었던 것이 사실이다. 하지만 1980년대 후반부터는 IBM을 비롯해 시스템의 성능이 비약적으로 향상되었고 인공지능에 대한 다양한 관심과 열망이 폭발하기 시작했다. 그런 요구사항을 전문가 시스템들은 못 받쳐줬고 이에 대한 실망감 및 연구에 대한 성과의 실망감이 투자를 인색하게 만든 것이다. 이를 인공지능 연구의 2차 암흑기라고 많은 전문가들이 얘기한다.


1993년 이후부터 지금까지는 인공지능에 대한 연구가 지속적으로 이뤄지고 있다. 1990년대 중반에는 지능형 에이전트라는 방식이 본격적으로 도입되게 된다. 지능형 에이전트는 시스템의 환경을 인식하고 성공을 가장 극대화 할 수 있는 방법을 취하는 방식이다. 그리고 최근 들어 인공지능 분야가 본격적으로 발전하게 되는데 그 기반이 되었던 것이 바로 빅데이터 시스템과 머신러닝 분야의 발전이다. 빅데이터 시스템의 발전은 기존에 인공지능 알고리즘을 수행하기 위해 엄청난 양의 데이터를 처리하는데 있어서 기존의 RDBMS를 이용했을 때의 비용 및 속도 문제를 해결할 수 있어 손쉬운 접근이 가능해졌다는데 의미가 있다. 이를 기반으로 머신러닝 분야도 함께 발전을 했는데 다양한 데이터들을 축적하고 축적된 데이터들을 빠른 속도로 분석하고 판단을 위한 논리 알고리즘의 업데이트를 돕는 방식이 개선되었기 때문에 인공지능 분야가 다시 급격히 발전되기 시작한 것이다. 즉, 과거에 나왔던 이론들에 대한 결과가 최근에 발전된 시스템에 적용되어 본격적으로 결실을 보게 되었다고 봐도 좋을 듯 하다.


(다음 글) 현재의 인공지능 적용과 발전 전망은?

저작자 표시 비영리 변경 금지
신고
블로그 이미지

학주니

학주니의 시선으로 본 IT 이슈와 사회 전반적인 이슈에 대한 블로그

댓글을 달아 주세요