본문 바로가기

심리학 이야기

[뇌과학/데이터사이언스] 인공지능, 딥러닝 쉽게 이해하기

 2년전 잠시 공부했던 자료를 티스토리에 옮겨봅니다. 2년전에 조사했던 자료라 현재 빠르게 발전하고있는 머신러닝 딥러닝기술보다 조금 옛날 이야기처럼 들릴 수 있지만, 양해부탁드립니다. 인공지능과 머신러닝에 대해 전혀 모르는 초보분들이 읽기 좋은 글이라고 생각해주시면 되겠습니다. 하단부터 읽어주세요. 

 인공지능, 딥러닝을 중심으로 자료를 정리해보도록 합니다. 포스팅은 주제선정이유, 인공지능, 학습알고리즘, 딥러닝 활용사례, 미래의 딥러닝 순으로 합니다. 솔직히 말씀드리면 이 주제는 일반적으로 사람들이 생각하는 인공지능! 하면 떠오르는 이야기와는 좀 다를 이야기를 할 것이기때문에 조금 집중해서 읽어주시면 감사하겠습니다. 

 먼저 주제 선정 이유입니다. 과거에는 기계와 사람의 경계가 분명했다고 볼 수 있습니다. 모라벡의 역설 “어려운 일은 쉽고, 쉬운일은 어렵다”처럼, 사람의 무의식적 행동, 보고 듣고 느끼고 인식하는 일상적인 행위들이 컴퓨터에게는 매우 어렵지만, 사람에게는 불가능한 천문학적 단위의 수를 계산하거나 복잡한 수식을 푸는 것은 컴퓨터에게는 쉽다는 그 경계가 있었습니다. 그 중에, 사람이 수많은 데이터 속에서 패턴을 발견하고 사물을 구분하는 이 학습능력을, 컴퓨터도 가질 수 있다는 인공지능, 딥러닝이라는 주제는 조원들의 흥미를 이끌었습니다. 또한 인공지능 시장이 점점 확대될 전망이라고 합니다. 세계 인공지능의 시장규모는 2015년 현재 약 1270억 달러로 한국돈으로 140조 6000억 정도 되고, 이 시장은 2년 후에 1650억달러로 182조 6800억으로 늘어 날것이라 예상되고있습니다. 국내에서도 인공지능에 대한 관심이 불고 있습니다. 2015년 신년사에서 두산그룹 회장이, “과감한 혁신, 투자가 필요한 기술로 사물인터넷, 3D프린터, 인공지능” 3가지를 꼽은 것을 보면 국내에서도 인공지능의 필요성에 많이 공감하고 있는것같습니다. 해외에서는 더 발빠르게 움직이고 있었습니다. 구글, IBM, 마이크로소프트, 페이스북, 트위터, 바이두, 알리바바, 페이팔... 많은 글로벌 IT기업들이 인공지능 전문가들을 영입하고, 관련 회사들을 수억수십억달러에 인수하고, 연구소를 설립하는 등 인공지능에 거의 전쟁에 가까운 투자경쟁을 보이고 있었고 이에 인공지능에 대해서 조사해볼만하다고 생각하여 주제선정을 하게되었습니다. 

 인공지능의 가장 보편적인 정의는 “인간의 지적행동이 기계에 의해 행해지는 행동”을 말합니다. 지적행동에 대한 것은 대표적으로 경험에 의해서 학습, 이해를 한다던지, 애매한 메세지를 보고도 의미를 생성한다던지 여러 요소에 대한 상대적인 중요성을 인식하는 것 등이 해당됩니다. 그리고 인공지능은 강인공지능, 약인공지능으로 나뉘어지는데 자아, 감정을 가진 인공지능이라 불리는 것이 강인공지능이고 영화 HER이나, 아이언맨의 자비스, 영화 채피가 강인공지능에 해당되는데 이부분은 아직 논할 가치도 없을만큼? 우리가 우주를 창조하겠다 하는 것처럼 멀리 있는 이야기라고 전문가들은 이야기를 하고있고 그래서 오늘 우리조가 발표할 것은 약인공지능에 대한 것입니다. 인공지능이 가능하도록 하는 것은 학습알고리즘이고 학습알고리즘이라는 말 자체를 거의 대체할만큼 강력하고 효율적인 알고리즘으로 평가받는 딥러닝이 있습니다. 

 학습알고리즘에 대한 정의를 살펴보자면 컴퓨터가 훈련을 통해 패턴을 찾아내 분류하는 기술적 방식, 아주아주 쉽게 말하면 빅데이터 분석 기술이라고 말할 수 있습니다. 학습알고리즘으로는 수많은 학습알고리즘이 개발되었고 그중에 하나가, 나중에 말씀드릴 딥러닝입니다. 빅데이터가 원유라면 학습알고리즘은 정제하는 과정을 통해, 의미있는 데이터 즉 휘발유를 만드는 것이라고 생각하면 이해하기쉽습니다. 학습알고리즘이라는 것은 지도학습과 비지도학습으로 나뉘어지는데 지도학습은, “이런 이미지가 고양이야!” 라고 학습을 시켜주면 학습된 결과를 바탕으로 고양이 사진을 판별하게 되는 과정이라서, 사전에 반드시 학습 데이터가 주어져야하고, 사전학습데이터가 적으면 오류가 커지기떄문에 데이터양도 충분해야 합니다. 반면에 비지도학습은 사전학습데이터가 없어도, “아 이런 이미지가 고양이구나. ”하고 스스로 학습할수 있는 것을 말합니다. 

 딥러닝은 최근에 새로 나타난 기술은 아니고, 이 알고리즘에 대한 아이디어는 1940년대부터 였습니다. 초반에는 혁신이라는 찬사를 받으면서 연구에 활기를 띄었었지만 높은 정확도를 보이는 대신 속도가 너무 느리다는 한계점을 보이면서 암흑기를 보냈습니다. 그후 한계점을 개선한 딥러닝이라는 알고리즘이 등장과 함께 컴퓨팅능력의 향상과 빅데이터의 등장으로 딥러닝이 재도약하게 되었습니다. 학습알고리즘 중에서도 특히 주목을 받고있는 이 딥러닝은, 사람의 뇌가 정보처리하는 방식과 유사한 빅데이터 분석기술이라 할수있습니다. 이 기술의 적용분야는 패턴 레코그니션, 패턴 인식 즉, 얼굴인식, 필기체 인식, 이미지 인식 등이 해당되고 타임 시리즈 프레딕션은 대표적으로 날씨 예측과 같이 시간적 흐름을 통해 무언가를 예측하는것. 시그널 프로세싱, 음성인식 컨트롤, 스마트카 제어.. 어노말리 디텍션같은 경우는 보안 분야에 적용되고 있습니다. 가장 대표적으로는 이미지, 얼굴인식, 음성인식등이 가장 보편적으로 많이 연구가 이루어진 분야입니다.  

 이러한 딥러닝이 적용되고 있는 일반적인 우리가 흔히 느끼고 있는 그런 사례들을 말씀드리자면 우리 스마트폰의 필기체 인식 시스템, 음성명령 인식 시스템이라던지, 우리아주대에 설치되어있는 차 번호판을 인식해 정산하는 주차관리시스템이라던지. 이런 것들이 약 인공지능, 딥러닝을 활용한 사례로 볼 수 있습니다. 아까 글로벌IT기업이 인공지능 기술, 그중에서도 특히 딥러닝 기술에 투자를 엄청 많이 하고 있다고 했는데 글로벌 IT기업이 딥러닝으로 어떤 연구를 진행해왔고, 어떤 연구를 진행중인지에 대해서도 정리해보도록 하겠습니다. 

 이 알고리즘은 공학적인 부분이 많이 들어가있어서, 공학적인 내용, 이해는 생략하고 사례들 중심으로 발표를 진행하겠습니다. 첫번째로는 구글의 사례입니다. 구글은 인공지능 맨해튼 프로젝트 라는 이름 하에 최근 1년간 열개가 넘는 딥러닝 관련 기업을 인수하면서 수억달러 단위의 기업 합병이 이루어지고 있습니다. 프로젝트의 첫 성과로 2012년에 비지도방식을 통해서, 유튜브에 등록된 동영상 중 고양이를 식별하는 딥러닝 기술을 공개했습니다. 영상에 나와있는 고양이를 “확인”하는데에만 그친 것이 아니라, 제목,태그 등 문자정보를 기반으로 스스로 학습하였습니다. 학습내용에 대한 지시 없이 동영상 안의 점이 연결되어있는 선의 특징을 찾고, 이를 바탕으로 형상을 구분해낸 이 성과는.. “이미지인식, 패턴인식”에 딥러닝기술을 활용한 것입니다. 또한 구글은 이에 이어서, 2014년 11월, 사진이미지를 문장으로 묘사하는 딥러닝 기술을 개발했습니다. 이 기술은 사진 속에서 어떤 일이 벌어지고 있는지, 다양한 사물 간에 어떤 관련이 있는지 등 이미지에 나타난 전반적인 상황을 컴퓨터가 읽어내고 이를 자연스러운 언어로 표현하게 합니다. 위 그림에서 첫 번 째 사진을 예로 들어보면, 사람이 흙먼지가 가득한 길 위에서 오토바이를 타고 있습니다. 이 사진을 구글에 입력하게 되면 실제로 ‘사람이 더러운 도로 위에서 오토바이를 타고 있다’ 라는 문장을 표시합니다. ‘가스레인지 위에 피자 두 개가 놓여 있다’처럼 사물의 개수와 위치까지도 설명할 수 있고 사람의 성별, 나이 등도 구별할 수 있다고 합니다. 기계가 이 사진에 대한 정보를 사전에 학습하지 않았음에도 스스로 물체를 식별하고, 상황을 정의하는 딥러닝 기술이 사용된 좋은 예라고 할 수 있습니다. 

 다음으로 페이스북의 얼굴인식기술 딥페이스 기술입니다. 페이스북에 친구와 사진을 찍어 올리면, 기존에 올렸던 사용자의 사진과 비교해서 얼굴을 인식하고 자동태그 추천을 해줍니다. 이 기술은 가장 먼저 사진에서 얼굴을 인식하고, 얼굴의 주요부분 67곳에 점을 찍어 얼굴 윤곽을 나눈 후 이를 컴퓨터 작업을 통해 변환하여 얼굴을 식별하게됩니다. 이렇게 분석된 데이터는, 정면 사진 뿐만 아니라 측면사진, 조명의 변화에도 정확하게 분석이 가능합니다. 사람이 육안으로 사진에 있는 사람을 식별하는 정확도가 97.57%라고하는데, 이 기술은 정확도가 97.25%로 사람과 거의 비슷한 정도를 보이고 있습니다. 

 최근에 페이스북은 사용자들이 사진을 업로드하기 전에 경고를 받을 수 잇는 기술도 개발 중이라고 합니다. 이 기술은 늦은 밤에 술취해서 민망한 사진, 게시글, 감성글을 올려 다음날에 곤란하지 않도록 도와주는 기능인데요. 사용자들이 밤에 올렸다가 다음날 삭제되는 데이터들을 분석해서, 그러한 글,사진들로 사용자가 늦은밤에 업로드를 시도하면, 페이스북이 “ 사진이 공개됩니다. 당신의 상사와 부모님이 보기를 원하십니까? ” 라는 식의 경고알람을 띄워줍니다 지난 2012년 아이유가 트위터에 실수로 업로드한 사진 때문에 구설수에 올랐었는데, 유명인들의 실수도 페이스북의 새로운 기능을 통해 줄어들 수 있지 않을까 생각합니다. 

 다음은 마이크로소프트입니다. 개인비서 서비스인 코타나는 딥러닝 기술을 음성인식에 활용한 대표적인 예입니다. 코타나는 애플의 시리와 자주 비교되곤 하는데 애플에 비해 딥러닝 기술이 잘 적용된 코타나는 사용자의 뉘앙스까지 파악한다는 면에서 더 좋은 평가를 받고 있습니다. 

 마이크로소프트의 또다른 딥러닝 적용 사례로 프로젝트 아담입니다. 프로젝트아담은 음성비서 코타나와 연동하여, 사용자가 스마트폰으로 찍은 개의 사진을 보고 컴퓨터가 사진 속 개의 품종을 알려주는 기술입니다. 사용자가 어떤 배경으로, 어떤 자세를 취한 강아지(DOG)의 사진을 찍더라도 품종을 구분해 낼 수 있습니다. 

 스카이프와 함께 선보인 동시통역기술 역시 대표적인 인공지능 기술 개발 사례입니다. 마치 사람이 동시통역을 하듯 대화를 실시간으로 다른 언어로 번역해 음성으로 전달해주는 번역기입니다. 현재는 스페인어와 영어, 만다린 중국어, 이탈리어만 제공되고 있지만 점차 확장될 것으로 예상됩니다. 사람이 말을 할 때, 개인이 가진 목소리 톤, 억양 등이 개별적으로 모두 다르기때문에 기계가 이를 모두 이해하고 정확하게 번역하는 것은 한계가 있었지만, 이 스카이프 트랜스레이터는 “페이스북에 업로드된 동영상”들을 데이터로 삼아 많은 사람들의 목소리, 톤등을 학습하여 상당히 정확한 동시통역기술을 개발할수 있었습니다. 

 다음은 IBM 사례입니다. IBM은 글로벌IT기업의 중인공지능에 대한 연구를  가장 처음 시작한 기업입니다. 1997년 “딥블루”를 개발해 세계 체스 최강자를 상대로 우승했으며, 2011년에는 인공지능 컴퓨터‘왓슨’이 퀴즈쇼에 출연해 퀴즈 챔피언들과의 대결에서 우승을 했습니다. 

 왓슨은 지도학습의 고전적 방식과 일부 딥러닝 기술을 활용하여 만들어진 것입니다. IBM은 이 기술을, 여러병원에 암환자 치료를 위한 의사보조시스템으로 활용하고자 연구하고있으며, 또한 중역회의에서 주요의사결정을 돕는 역할을 할 수 있을 것으로 기대하고 있습니다. 

 다음은 알리바바입니다. 알리바바는 2014년 8월, 비주얼 서치기능이 탑재된 ‘타오바오’ 모바일 앱을 출시하였습니다. 비주얼 서치 기능을 제공해 자신이 원하는 제품을 사진으로 찍어 검색하면, 그와 유사한 제품을 찾아줍니다. 사용자가 업로드한 이미지의 특징을 판단하고, 유사한 사진을 검색하는 딥러닝 기술을 적용한 예입니다. 

 최근 SNS에서 사진도용이 논란이 되고있습니다. 앞에서 언급한 페이스북의 얼굴인식기술을 활용한다면, 타인이 나의 사진을 도용하는 문제도 해결할수 있을 것이라 기대됩니다. 또한 금융사기가 점점 교묘해지고, 예측하기 어려워 금융업에서는 늘 소잃고 외양간 고치기를 했었습니다만 딥러닝알고리즘을 활용하여, 전세계에서 이뤄지는 온라인 결제에서 발견된 수만개의 잠재적인 특징을 분석해서 특정사기유형과 비교하거나, 혹은 사기방식을 탐지해서 다양한 유사수법을 파악할수있을 것으로 기대됩니다.