Share           Pin It

데이터 분석 및 알고리즘 개발을 업으로 하면서 딥러닝 Deep learning은 늘 관심의 대상이었다. 하지만 알고리즘을 실제 구현해보거나 여러 라이브러리를 이용해서 실제 문제에 적용하는 것을 시도하지 않았기에 그런 의미에서 딥러닝에 문외한이라 할 수도 있다. 그럼에도 -- 빅데이터 기술을 어느 순간부터 결국 업에 적용했던 때와 같이 -- 딥러닝 기술도 언젠가는 내가 담당하는 업에 적용해야할 때가 올 것을 알았기에 알고리즘의 기본 지식을 공부하거나 딥러닝 발전의 주요 논문을 빼놓지는 않고 찾아보곤 했다. 딥러닝의 가능성이 일반에 알려지기 시작한 2013년도부터 계속 지켜봐왔기에 딥러닝 전문가는 아니지만 딥러닝의 발전 과정을 어느 정도 꿰뚫고 있다고 생각하기에 어떤 기술들이 현재의 딥러닝을 가능케했는지를 정리해보는 것이 의미가 있을 듯해서 글을 적는다. 일단 MLP 이전의 내용은 생략한다. 그리고 어플리케이션 특화된 기술 -- 예를 들어, Translation의 랭귀지 모델 등 -- 도 생략한다. 

0. 컴퓨팅 파워 (하드웨어)
아래에 여러 알고리즘이나 트릭을 소개하겠지만, 실제 딥러닝을 가능케했던 것은 결국 컴퓨팅 파워의 기하급수적인 증가에 있다고 본다. GPU/TPU로 대변되는 하드웨어의 발전뿐만 아니라, 딥러닝 시대 이전 시대인 빅데이터를 가능케한 그리고/그래서 현재 딥러닝에 무한한 떡밥을 제공하는 클라우드, 즉 값싼 스토리지의 대중화가 결국 딥러닝을 꽃피웠다고 생각한다. 아래에 소개할 다양한 알고리즘이나 대중화된 오픈소스/라이브러리 등의 소프트웨어 이전에 하드웨어 기술을 빼놓고 딥러닝의 성공을 얘기하는 것은 있을 수 없는 일이다.

1. Pre-taining
90년대 말이나 2000년대 초에 나온 오래된 Neural Network 책을 보면 히든 레이어의 수를 늘리면 더 강력해질 거라는 얘기는 계속 해왔다. 하지만 실제 또는 토이 문제를 해결하는 뉴럴넷은 히든레이어가 겨우 1개, 많아봤자 2개를 넘지 않았다. 데이터의 부재와 하드웨어 성능에도 문제가 있었지만 3개 이상의 히든레이어를 가진 네트워크를 제대로 학습시키는 것이 만만치가 않았다. 이론상으로는 완벽해도, 랜덤에서 시작해서 복잡한 네트워크를 최적화시키는 것이 만만치가 않다. 그렇게 뉴럴넷이 잊혀졌지만 프리트레이닝 방식으로 뉴럴넷을 초기화하는 방법이 소개되면서 딥러닝이라는 시대의 조류를 만들어냈다. (데이터와 하드웨어의 발전과 더해서) 대표적으로 정답세트가 필요없는 auto-encoder 방식이 도입되고, RBM이나 DBN을 이론적으로 풀어내면서 뉴럴넷 학습/최적화가 쉬워졌다. 임의의 초기화가 아니라 어느 정도 길들여진 초기화를 통해서 네트워크의 최적화가 엄청 빠르고 쉬워졌다.

2. ReLU (Recified Linear Unit)
전통적인 뉴럴넷은 히든레이어의 액티베이션을 위해서 주로 sigmoid나 tanh 함수를 사용했다. 수학적으로 좋은 성질 (미분 가능)을 갖고 있기 때문이다. 하지만 레이어의 개수가 증가함에 따라서 최종 아웃풋에서 발생한 loss를 앞쪽으로 제대로 전달하지 못하는 gradient vanishing 현상이 발생했다. 네트워크 구조는 엄청 딥하게 만들어놨지만 backprogation에서 가중치의 변동은 최종 1~2개의 레이어에서만 일어나고 앞쪽 레이어는 실질적으로 무용지물이 되는 현상이다. 이를 위해서 마이너스 영역은 0으로, 포지티브 영역은 y=x로 액티베이션하는 ReLU를 적용하면서 이 문제를 해결했다. 최근에는 마이너스 영역으로 무조건 0으로 치환하는 것도 바람직하지 않아서 y = -ax (a << 1.0)하는 것이 낫다는 연구도 있었고, 더 최근에는 y = x * sigmoid(x)로 바꾸면 더 낫다는 논문도 나왔다. (Step 함수의 수학적 불완전성을 보완한 것이 sigmoid 함수이듯이 같은 식으로 ReLU의 미분가능 버전으로 바뀐 것이 x * sigmoid(x)다. continuous & smooth --> 미분가능)

3. Batch Normalization/Re-normalization
뉴럴넷/딥러닝의 성능은 최적화에 좌우된다. 데이터와 알고리즘의 차원이 큰 경우에 최적화는 매우 불안정하다. 그래서 다양한 regularization 방식이 소개됐다. 가장 쉬운 방식으로 가중치의 절대값의 합을 최소화하는 L1이나 제곱의 합을 최소화하는 L2 regularization을 사용한다. 회귀모델에서는 잘 잘동하는데 딥러닝 구조에서는 이 또한 복잡하다. 그래서 초기 딥러닝에서 네트워크를 안정적으로 학습시키기 위해서 drop-out이라는 방식을 이용했다. 즉, 전체 네트워크에서 임의의 일부 노드를 의도적으로 비활성화시켜도 전체 성능이 떨어지지 않게 만드는 방식이다. 그런데 이 방식은 학습속도를 기하급수적으로 늦춘다는 치명적인 단점이 있다. 그러던 중, 히든 레이어의 액티베이션값을 노말라이제이션을 하면 드랑아웃 등의 별도의 레귤라이제이션없이 모델을 안정적으로 학습시킬 수 있다는 실험 결과가 있었고, 현재의 대부분의 네트워크에 이 기법이 기본적으로 적용돼있다. (더 최근에는 작은 규모 또는 non-iid 미니배치에서도 잘 작동하도록 개선한 re-normalization이 소개됨) 딥러닝/뉴럴넷의 기초가 되는 회귀분석 regression에서 모든 독립/종속변수는 Normal 분포를 따른다는 기본 가정이 있는데 (<-- 매우 중요한 속성임), 히든레이어를 노말라이제션하면서 모델을 안정시켜주는 것 같다.
** 사견을 더 하자면 (주제 넘은 얘기지만), 처음 딥러닝을 공부하는 분들은 인터넷에 올라온 동영상 강의 몇 개만 보고 예제 코드 구현/실행해보는 것만으로 마스터할 수 있다고 생각하는 듯한데, 우선 기초적인 것부터 차근차근 공부했으면 합니다. 미적분, 확통, 응선대, 최적화부터 다 공부하라는 것은 아니지만, 적어도 linear regression정도는 마스터하고 딥러닝을 논했으면 합니다. (딥러닝의 첫 강의가 대부분 회귀분석이기는 하지만...) 가끔 커뮤니티에 올라오는 질문을 보고 있자면 이건 딥러닝을 배우겠다는 건지 아니면 그냥 숟가락을 떠서 입에 넣어달라는 건지...

4. LSTM와 ResNet
현재 딥러닝은 데이터의 디멘젼이 무척 큰 (때론 가변적인) 문제에 잘 적용되고 있다. 그런 문제로 자연어/문자열과 이미지 처리가 있다. 처음에는 문자열 데이터에 RNN을 적용하고 이미지 데이터에 CNN을 적용해서 문제를 해결했다. 하지만 문자열이 길어지거나 레이어가 깊어지면서 약점이 발견됐고, 이를 해결하기 위해서 LSTM과 ResNet이 소개됐고 현재는 거의 기본 방식으로 인식된다. (LSTM과 ResNet은 제대로 공부한 것이 아니어서 더 길게 설명하면 틀린 설명만 추가할 듯합니다.ㅠㅠ 알파고 제로 논문에서 ResNet을 사용한 걸 보고 이 글을 적기 시작했는데 역설적이게도 ResNet에 대해서 제일 모름.) 오리지널 인풋이나 이전 과정의 중간결과물을 재활용(?)해서 네트워크를 개선하는 것이 전혀 새로운 아이디어는 아니지만, LSTM과 ResNet은 이 방식으로 딥러닝의 성능 향상 및 여러 애플리케이션에서 성과를 내고 있다.

이상의 알고리즘이나 방법론은 딥러닝을 안정적으로 최적화시키거나 실제 문제에 더 적합한 구조를 만드는 것들에 관한 것인데, 다음은 딥러닝의 대중화에 기여한 것들에 관한 것이다.

5. Word2Vec W2V은 구조가 매우 단순해서 실제 딥러닝과는 거리가 멀지만, (특히) 일반 개발자들 중에서 딥러닝을 처음 접했던 분들이 처음/쉽게 접하면서 딥러닝의 세계로 이끌었다고 해도 관언이 아니다. 몇 년 전에 딥러닝을 한다는 개발자를 만나면 대부분 그저 W2V으로 어떤 문제를 풀고 있는 경우가 많았다. 형태상으로 유사하지만 W2V은 엄밀히 말해서 딥러닝은 아니다. W2V은 잘 알려졌듯이 데이터를 임베딩하는 방식이다. 고차원의 데이터, sparse한 데이터, 또는 비정형 특히 비수치 데이터를 정형의 수치 벡터로 바꿔주는 것을 임베딩이라고 이해하면 된다. 경우에 따라서 효과적인 데이터 차원 축소 방식을 제공하기도 한다. 그리고 이런 임베딩을 통해서 얻어진 수치벡터가 딥러닝의 인풋으로 활용되기 때문에 딥러닝과 무관하다고 말하기도 어렵다. 이후에 Glove 등의 다른 임베딩 방식의 발견에도 기여했다.

6. TensorFlow 2013년에 텐서플로우가 있었다면 제가 직접 다양한 딥러닝 알고리즘을 구현해서 여러 문제에 적용하는 것을 꾸준히 했을 거라는 생각이 든다. 개발에 익숙치 않은 개발자(??)에게 딥러닝의 모든 알고리즘을 직접 구현한다거나 일부 공개된 라이브러리를 제대로 활용하는 것이 쉬운 일이 아니다. 그래서 구현해서 적용해보는 건 포기하고, 그냥 이 동네에 기웃거리면서 어떻게 발전되는지만 지켜보고 있ㄴ...(ㅠㅠ) 텐서플로우 이전에도 Caffe나 Teano, Torch 등의 오픈 딥러닝 라이브러리가 있었지만 이 분야에 익숙한 전문가들을 위한 전유물이었다. 하지만 구글에서 텐서플로우를 오픈하면서 딥러닝이 좀더 일반인(?)에게로 저변이 확대됐다. 결과적으로 인공지능 (딥러닝)이 많은 부분에서 이젠 엔지니어링 분야로 넘어왔다고 봅니다.
(여담) 구글에 텐서플로우를 공개한 것은 하둡이나 하이브 등의 빅데이터 표준에서 밀렸던 과거가 있었기에 가능했다. 실제 맵리듀스나 빅테이블 등의 많은 빅데이터 개념들이 구글에서 나왔지만 그걸 모방한 하둡이 실질적인 표준이 됐다. 씨는 구글이 뿌렸지만 열매는 다른 기업들이 따먹은 것과 같았는데, 같은 실수를 인공지능 분야에서도 반복하지 않기 위해서 텐서플로우를 공개했고, 현재로써는 대중화에 성공했다고 본다.
추가 (2017.10.31) 갑자기 아이디어가 떠올라서 Python + Keras로 텐플을 이용중이다. 케라스 시퀀스 모델에 위에 설명한 개념들을 기계적으로 추가해서 Run하면 그만이다. 속도는 구조와 데이터가 커서 느리지만, 오늘 딥러닝을 처음 접한 사람도 바로 따라할 수 있다. 엔지니어링의 승리다.

7. Reinforcement Learning과 GAN 현재 가장 핫한 분야는 강화학습과 GAN일 거다. 인공지능 기술을 진짜 인공지능이 되도록 만들어주는 기술이라해도 과언이 아니다. 인공지능을 지능이라 부르기 위해서는 알고리즘이 ‘스스로 적응’할 수 있어야할텐데, 강화학습과 GAN이 가능하게 해주고 있다고 본다. 개인 소견으로 딥러닝이 인공지능의 끝은 아니라고 생각하지만, 어쨌든 현재로썬 강화학습과 GAN의 등장으로 딥러닝이 진짜 인공지능답게 만들어지고 있다고 본다.
(여담) 보통 강화학습을 supuervised와 unsupervised와 별개의 새로운 카테고리에 넣어서 설명하는데, 저의 개인적 의견은 강화학습을 supervised 하위에 넣는 게 맞다고 본다. 처음부터 결과를 알고 있는 supervised와는 달리 결과에 따른 리워드 (win/lose, 점수)가 나중에 평가된다는 점이 다소 다르지만 리워드 자체는 일종의 슈퍼바이저라고 보는 게 맞을 듯하다는 생각에서다. (사견이니 무시해도 된다.)

개발자들이 딥러닝을 쉽게 접급하게 해준 것은 Word2Vec, 일반인들이 딥러닝/AI에 관심을 갖게 만든 것은 강화학습을 이용한 AlphaGo (Atari가 먼저지만, 임팩트 면에서), 일반인들이 (그나마) 쉽게 딥러닝을 공부하고 다룰 수 있게 해준 것은 TensorFlow, 우리 실생활의 문제들에 딥러닝이 적용될 수 있게 해준 것은 LSTM (ResNet은 정확도를 높인..), 그리고 딥러닝을 더욱 인공지능처럼 만든 것은 강화학습과 GAN. ... 일런 것을 가능케해준 여러 지속적인 개선들... 뉴턴은 거인의 어깨 위에 섰기 때문에 조금 더 멀리 볼 수 있었다고 말했지만, 거인은 난쟁이들이 쌓아놓은 무수한 모래 성이 있었기에 그 위에 설 수 있었던 것 같다. 최근 10년, 대부분은 최근 3~4년 내에 일어난 사건들... 빠르다. (물론 LSTM과 같이 20년 전에 제안돼서 지금 꽃을 피우는 기술도 있다.)

설명이 부족하거나 일부 틀린 내용이 있을 수도 있습니다. 좀더 면밀히 공부해서 제대로 수정/보강하도록 노력하겠습니다.

이걸 그냥 적당히 슬라이드로 만들어서 전문가인양 모르는 사람들한테 약이나 팔고 다닐까? 하지만 어려운 기술에 대한 연성의 (쉬운이 아닌) 자료는 아무에게도 도움이 되지 않는다는 걸 깨달았습니다. 일부 약장수를 제외하곤...

** 딥러닝이 지금 인공지능을 이끌고 있지만, 인공지능의 미래가 딥러닝에 있다고는 생각지 않습니다.

=== Also in...

F: https://www.facebook.com/unexperienced

댓글을 달아 주세요

Share           Pin It
인간과 기계를 구분하는 것은 지능이 아니라 마음이다.

알파고와 이세돌 9단의 대국은 대한민국을 다른 — 좋은 의미든 나쁜 의미든 — 단계로 이끌고 있다. 내심 이 9단의 (완벽한) 승리를 바랬건만, 그렇지 못했던 것이 오히려 우리에게 큰 자극제가 됐다. 정부 주도의 이상한 움직임을 예상 못했던 것도 아니지만, 어쨌든 이번 대국을 통해서 우리는 더 전진하리라 믿는다. 이미 시작된 혁명을 가까이서 목격했고 여유는 없어도 늦지 않게 준비해나갈 수 있다.

세계의 곳곳에서 이미 시작된 혁명이지만 이번 대국을 통해서 이제서야 대한민국이 각성했다고 본다. 지금 세계적으로 일으나는 움직임 그리고 앞으로 대한민국을 뒤덮을 이 거대한 움직임을 지능혁명이라 명명할 것이다. 지능혁명이란 지능의 폭발적 증가를 뜻한다. 농업 기술의 발전으로 농업 생산물의 폭발적 증가를 일으킨 것이 농업혁명 (또는 제1의 물결)이었고, 증기기관의 발명과 함께 생산성의 폭발이 산업혁명 (제2의 물결)이었고, 그리고 컴퓨터의 발전과 함께 이뤄진 정보 통신의 발달 그리고 소프트웨어와 서비스 중심의 개편이 정보혁명 (제3의 물결)이었다. 그렇다면 인공지능의 발달로 인한 새로운 사회로의 전환을 지능혁명이라 명명하는 것이 틀린 표현은 아니다.

그런데 궁금한 점이 하나 있다. 분명 현재 그리고 향후 몇 년 동안 인공지능의 급진적인 발전을 목도할 것인데, 이 지능혁명은 인류에게 어느 수준의 혁명으로 불릴 것인가다. 지능혁명은 정보혁명 이후의 메이저 변혁 (제4의 물결)인가? 아니면 그저 정보혁명의 마이너 버전업 (제3.x의 물결)이 될 것인가?가 궁금하다. 스마트폰의 등장으로 촉발된 모바일 중심으로의 변화는 분명 정보혁명의 마이너 버전이었다. 그래서 나는 모바일혁명을 제3.1의 물결정도로 부른다. 그러면 지능은 단순히 정보혁명의 연장선상에 있는 제3.2의 물결일까? 아니면 정보혁명 다음의 거대한 물결, 즉 제4의 물결일까?

해커주의와 메이커스 운동에 따라서 정보혁명 이후의 세상을 다시 자급 사회로의 회귀를 예측했었는데, 그런 흐름의 겻갈레로 지능의 발전을 목도하고 있다. 어쩌면 지능혁명이 자급사회로의 회귀를 부추길 가능성이 있다. 지능의 폭발로 인한 로봇의 인간 대체 현상이 가속화됐을 때 잉여 노동력은 무엇을 해야할까? 혁명의 과실을 모두 고르게 나눈다면 큰 문제가 없을지 모르겠으나, 항상 그렇듯이 (소수 인간의 욕심으로) 인공지능과 로봇의 혜택을 모두가 고르게 누리지는 못할 것이다. 연명하기 위해서 다시 밭을 갈고 낚시/수렵을 하게 되는 인류의 모습을 상상하게 된다. 단순히 예술활동이 아닌 진짜 생존을 위해서… (고르게 혜택을 누리는 경우에도 자연주의가 도래할 가능성이 높다고 본다.) 어차피 그 때가 되면 인간이 산업에 영향을 줄 수 있는 부분은 거의 없다.

놀라운 컴퓨팅 파워에 인간의 창의성과 직관이 도전받고 있다. 바둑을 통해서 전략 게임이 직관이 아니라 계산에 압도되는 것을 이미 확인했다. 직관이 우리를 미지의 세계로 이끌었는데, 이젠 모든 상황에 대한 계산이 우리를 뻔한 미래로 이끌고 있다. 계산이 직관을 이기는 세상이 우리 곁으로 왔다. 지난 모든 혁명은 분명 인류에게 큰 기회였고 도움이었는데, 지금의 변화는 우리에게 어떤 새로운 기회를 가져다 줄 것인가? 어쩌면 일말의 기대마저 무너뜨리는 것은 아닐까?라는 두려움이 앞선다.

지능혁명 — 이게 맞다면 — 은 앞으로 어떻게 진행될까? 딥블루나 왓슨이 그랬듯이 알파고를 지능형 머신이라고 부르는 것이 맞을까?라는 의문이 여전히 있다. 알파고가 여전히 생각하는 기계 (thinking machine)이 아니라 계산하고 평가하는 기계이기 때문이다. 그런데 이젠 연산이 생각을 앞선 세대가 됐다. 딥블루와 왓슨으로 미국인들이 자각했듯이 알파고로 이젠 한국인들이 자각했다. 물론 자각했다고 제대로 된 미래를 계획할 수 있다는 얘기는 아니다. 구글/알파벳이 싼값에 알파고를 내세워서 마케팅을 잘했다는 비아양도 있지만, 알파고가 대한민국에서 많은 대한국민들이 보는 앞에서 이9단을 꺾은 것은 우리에겐 분명 행운이었다. 다른 나라 땅에서 다른 나라 사람을 이겼다면 지금처럼의 충격과 각성이 없었을 것이다. 그저 4년마다 돌아오는 월드컵 이벤트보다 우리에게 영향을 주지 않았을 것이다.

하지만 알파고는 우리 모두에게 두려움을 줬고 어떤 이들에게는 희망을 줬다. 인공지능이나 머신러닝 쪽으로 공부해보고/시켜보고 싶어한다는 얘기가 SNS에 전파되는 것을 여러 번 봤다. 이전 글에서 밝혔듯이 우리는 이젠 알파고키즈를 기다리고 있다. 그들이 이룩할 혁명적 발전, 즉 지능혁명을 기대한다. 3.2가 될지 4.0이 될지 여전히 알 수는 없지만 4.0이 될 가능성이 더 높아보인다. 우리는 근본적으로 변할 것이다. 원하든 원치 않든… 바라건대 수동적으로 이끌려갈 것이 아니라 능동적으로 이끌어갈 수 있기를… 

혁명은 이미 시작됐고, 우린 지금 그 한 가운데 놓여있다. 외롭지 않기를...

===
B: https://brunch.co.kr/@jejugrapher
F: https://www.facebook.com/unexperienced


댓글을 달아 주세요

알파고 키즈의 등장

Gos&Op 2016.03.12 10:30 |
Share           Pin It
(금요일에 생각한 것 위주로...) 어제 이세돌 9단과 알파고의 구글 딥마인드 챌런지 2차 대국이 끝난 후에는 나름 멘붕에 빠져 아무런 생각도 나지 않았는데, 자고 일어나서 다른 분들의 글을 읽으면서 여러 생각들이 막 떠오른다. 휴가를 내고 하루 종일 운전하면서 떠오른 생각을 정리하려 한다. 그냥 출근했더면 글을 적느라 아무 것도 못했을 것 같다.

알파고 키즈
역사적인 현장에는 늘 새로운 스타가 등장한다. 그러면 그를 모델로 삼은 새로운 세대가 등장하곤 한다. 최초의 메이저리거였던 박찬호나 맨체스터 유나이티드에서 당당히 레귤러 멤버로 확약한 박지성을 보고 자란 박찬호 키즈나 박지성 키즈가 있지만, 가장 대표적인 사례는 골프 여제 박세리를 보고 자라난 박세리 키즈가 있다. 이번 대국에서 아마도 바둑계에서는 이세돌 9단이 무난히 승리해서 국내에서 바둑 신드롬을 일으켜서 이세돌처럼 되기를 꿈꾸는 이세돌 키즈의 등장을 내심 기대했겠지만, 결과적으로 알파고의 영향을 받아서 인공지능이나 로봇공학에 관심을 가지고 연구하려는 세대가 등장할 것 같다. 이 세대의 사람들을 알파고 키즈라 부르면 될 것 같다. 이세돌 개인과 박둑계에는 안타까운 일이지만, 5년에서 10년 내로 알파고를 보고 인공지능을 만들고 싶었어요라고 말하는 연구자들이 나올라 것이고 — 인공지능이 디스토리아를 만들지 않는다면 — 인류 전체에는 분명 큰 전진을 위한 일보 후퇴였다. 당장 1~2년 안에 정부에서 인공지능 쪽으로 지원이 많이 늘어날 듯...

전략
좋은 전략이란 무엇인가?라는 질문을 던지게 된다. 듣기에 아주 그럴듯한 전략도, 과거에 성공했던 전략도, 또는 다수가 좋아하는 전략도 좋은 전략일 수가 있지만, 결국 좋은 전략은 이기는 전략이다라는 결론을 내린다. 아무리 참신한 전략이더라도 진다면 좋은 전략이 아니고, 마지막까지 승기를 잡은 전략이더라도 끝에 지면 좋은 전략이 아니다. 알파고가 어떤 전략과 전술을 사용했는지 모르겠으나 결국 이겼다. 알파고는 바둑을 둔 것이 아닐지는 몰라도, 최소한 이기는 전략을 펼쳤고, 이기기 위해서 최선을 다 했다.

춘래불사춘
인공지능에 대한 정의가 광범위하지만 적어도 인간과 같은 지능의 등장은 아직도 멀었다. 2패 직후에는 인간과 같은 지능의 등장이라는 생각에 힘이 빠졌지만 자세히 생각해보면 그 단계에 이르려면 아직 갈 길이 멀다. 특정 분야에서는 인간만이 할 수 있을 것같은 일들을 기계가 해내고 있지만 그건 그렇게 하도록 프로그래밍된 것에 불과하다. 프로그래밍됐다는 하드코딩됐다는 의미가 아니다. 알파고를 인공지능이라고 불러야할까?를 고민해봤지만, 어쩌면 아니다라고 말하는 것이 맞을 것 같다는 생각이다. 인간을 이긴 것은 맞지만 그렇다고 지능을 가졌다라고 말하는 것에는 무리가 있다는 얘기다.

딥블루가 체스 그랜드마스터를 이겼지만 그건 지능의 승리가 아니라 컴퓨팅 파워의 승리였다. 당시 최고의 슈퍼컴퓨터의 컴퓨팅 파워가 인간이 할 수 있는 것 이상을 처리해낸 것에 불과하다. 왓슨이 쿼즈 프로그램에서 이긴 것은 조금 더 발전한 건 맞다. 사회자의 목소리를 해석해서 맞는 답을 찾아냈기 때문에 그렇다. 그러나 결국 왓슨은 방대한 양의 정보의 승리에 더 가깝다. 언어 추론과 정답 매핑을 평가절하하는 것이 아니다. 만약 다른 사람들이 왓슨만큼의 정보를 가졌다면 버즈를 누르는 타이밍은 놓쳤을지라도 정답을 몰랐을 수는 없다. 만약 사람 얼굴 사진을 보여주고 누구냐?라는 퀴즈가 나왔다면 당시 왓슨은 대답하지 못했을 가능성이 있다. 그런데 지금의 알파고 (를 가능케한 ConvNet)는 가능하다. 그런 의미에선 지능이 발전했다.

알파고도 결국 컴퓨팅 파워, 즉 연산의 승리로 보인다. 알파고의 승리는 결국 (인간) 집단지성의 승리고, 그런 집단지성을 한데 모아서 패턴을 찾아낼 수 있게한지 컴퓨팅 파워와 아키텍쳐의 승리다. 결국 인간의 바둑을 모사한 것이지 엄밀히 말해서 바둑 규칙에서 전략을 스스로 만들어낸 것은 아니다. 그리고 딥블루 이후로 컴퓨팅 파워가 아주 발전했다는 것을 확인할 수가 있었고 또 분산처리 패러다임이 딥블루보다 진일보한 것이다. 결국 — 러프하게 말하면 — 알파고는 수많은 인간의 바둑 기보의 집합체에 불과하다고 볼 수도 있다. 물론 모든 기보를 가졌다고 알파고처럼 할 수 있다는 얘기는 아니다. 강화학습 — 정확히 표현하면 자기강화 self-reinforcement — 을 통해서 인간의 기보를 발전시킨 점에서 대단한 능력을 가진 것은 분명해 보인다. 추론컨대 사람의 기보 및 자기강화를 통한 학습은 대국의 극초반과 지협적인 전투만 국한해서 영향을 줬지, 중반 이후의 승기는 학습과는 좀 무관해 보인다. 경우의 수가 많을 때는 임의 시뮬레이션을 통해서 그리고 경우의 수가 충부히 줄어들었을 때는 풀스캔을 통해서 최고의 점수를 얻는 길을 그냥 선택한 것 뿐이다. (간단한 것처럼 적었지만 이게 어려우니 아직까지 등장하지 못했던 거긴 하다.)

체스나 바둑과 같은 전략 게임에서 새로운 전략을 스스로 세워서 경쟁하는 것이 아니라, 가능한 모든 시나리오 또는 (사실상 불가능하니) 임의의 시뮬레이션을 통해서 가장 좋은 수를 얻는다는 것은 스스로 생각하는 기계가 아니라 원래부터 컴퓨터가 가장 잘 하던 것 (빠른 연산)을 잘 수행한 것 그 이상이 아니다. (이걸 가능케한 연구진들에게는 박수와 찬사를 보낸다.) 봄이 왔지만 봄은 오지 않았다. 컴퓨터가 인간을 이기고 있지만 인공지능의 시대가 도래한 것은 아니다. 인공지능의 수준에 따라서 이견이 있겠으나, 적어도 기계가 인간을 지배하는 그런 류의 마치 인간처럼 또는 인간 이상으로 행동하는 그런 지능의 시대는 멀었다는 얘기다. 스카이넷은 잠시 잊어라.

사람과 컴퓨터
그동안 데이터 분석을 업으로 삼으면서 약간 모호함 (과 인간의 직관)을 중시하는 편이었다. 이전 글들에서 적었듯이 데이터와 알고리즘에서 나온 엄격함보다는 인간이 이해할 수 있는 또는 사람에게 설명할 수 있는 것을 추구하는 것이 필요했다. 경험과 감에 의해서 조절되는 것에 많은 의미를 뒀다. 그러나 이젠 사조가 바뀌어야할 것 같다. 사람이 이해를 못하더라도 모델과 데이터에서 얻은 것으로 끝까지 밀고 나가야할 것 같다. 알파고는 바둑에서 집 싸움을 하지 않았다. 그래도 이겼다. 사람을 이해시키기 위한 노력은 이젠 헛것이 된 것 같다. 몇 수 앞을 내다보는 것은 더이상 의미가 없다. 모든 수, 즉 마지막 수까지 내다보고 계산해서 현재의 가능성을 가장 높이는 것이 최적의 솔루션이 됐다. 분석 이후의 해석이 중요하다고 생각했지만, 이젠 해석이 필요없는 시대로 접어들었다. 그저 결과가 좋으면 그만이다. 더 촘촘하게 짜맞춰야 한다.

한계
이번 대국에서 놀라웠던 점이 있다. 원래 인간과 컴퓨터의 대결에서 후반부로 가면 인간이 절대 불리하다. 바둑의 경우의 수는 현재의 컴퓨터로는 아직 넘어설 수 없다. 그런데 한 수 한 수 진행되면서 종반으로 가면 컴퓨터가 감당할 수준의 경우의 수만 남는다. 바둑판이 361칸이라서 최소 200이나 250수가 넘어서면 풀스캔이 가능하다고 생각했는데, 생각보다 (사실상) 풀스캔이 이른 시점에 가능하다는 점이다. 100수 정도가 지난 중반부터는 사실상 풀스캔이 이뤄지고 그때부터는 기존에 충분한 영역을 확보해놓지 않으면 절대 컴퓨터를 이길 수 없다. 1200개의 CPU 클러스터가 생각보다 연산 능력이 뛰어났다. 그리고 경우의 수가 크다는 의미는 역설은 수가 진행될수록 경우의 수가 기하급수적으로 줄어든다는 점에 있다. 뿐만 아니라, 영역이 어느 정도 정해지면 (자신의 영역 및 남의 영역 모두) 그 부분은 고려 대상에서 제외시켜버리면 경우의 수가 매우 제한적이다. 361개의 가능한 포인트에서 이미 100수가 진행되었다면 100집 정도는 이미 안정적으로 구축돼서 파고들 여지가 없다. 그렇다면 이제 남은 150개 정도의 지점을 누가 가져가느냐의 싸움이 시작되는데, 이 수준에 이르렀을 때 사람들은 여전히 불확실하지만 컴퓨터는 그렇지 않다. 사실상 컴퓨터는 대국의 승패를 알고 있다. 이 순간부터 인간이 자칫 실수를 하면 인간의 완패다. 두번째 대국에서 이세돌 9단이 승기를 잃었던 시점도 이때부터였던 것같다. 현재까지 본 것을 결론을 지으면 극초반에 자신의 영역을 확실히 선언하고 중반으로 가면서 공통 영역인 중앙에서 밀리면 안 된다. 초반에 충분한 집을 확보해놓지 못하고 또 중반에 중앙에서 밀리면 그냥 끝이다.

(낮동안 많은 생각을 했지만 밤 늦게 글로 옮기면서 행간의 의미를 모두 끼워넣지 못한 점이 있습니다. 낮에 생각한 그대로 표현하지 못한 것도 있고…)

승패는 결국 중요하지 않다. 인간과 컴퓨터의 대결에서 승자와 패자가 아닌, 인간만이 할 수 있는 것을 묵묵히 해가고 있는 이세돌 9단을 끝까지 그리고 대국 이후에도 계속 응원합니다.

===
F: https://www.facebook.com/unexperienced

댓글을 달아 주세요

Share           Pin It
다음 검색에서 '데이터마이너'라는 검색어가 갑자기 많이 들어온 날이 있었다. 강풀 작가의 '마녀'라는 작품 속에서 PC 캡쳐 화면과 함께 주인공이 데이터마이너가 됐다라는 짧은 문구가 등장했던 때다. 해당 캡쳐 화면에는 SAS라는 데이터분석툴 아이콘도 있었고 지금은 없어진 마이피플 아이콘도 등장했다 (유료화로 화면캡쳐는 생략. 9화였음.). 강풀 작가님이 웹툰을 그리기 위해서 예전 같은 팀의 팀원에게 자문을 얻었는데, 그 분의 (의도된) PC화면으로 유추된다. 당시에 내가 서울에서 근무했다면 미팅에 함께 참석했지 않을까?라는 생각도 해본다.

빅데이터, 데이터 사이언스, 인공 지능, 딥러닝, 머신러닝 (기계학습) 등의 많은 용어/개념들이 버즈buzz되고 있지만 관련 분야의 사람들이 아니라면 여전히 데이터마이닝 또는 데이터마이너라는 용어가 생소한 것 같다. 그래서 데이터마이닝/너에 대한 지극히 개인의 의견을 적으려 한다.

데이터마이너는 무엇을 하는 사람인가? 데이터를 보는 사람이다. 왜 데이터를 보는가? 데이터에 내재한 패턴 pattern을 찾거나 규칙 rule을 만들기 위해서다. 그런 패턴이나 규칙은 왜 찾고 만드는가? 문제를 해결하기 위해서다. 그렇다. 내가 생각하는 데이터마이닝은 여러 문제와 관련된 데이터를 관찰함으로써 규칙을 찾고 적용해서 문제를 해결하는 것이다. 문제를 해결하는 접근법은 다양하겠지만 데이터에 근거를 둔다는 점에서 다른 것들과 차별점이다. 물론 데이터가 데이터마이너만의 것은 아니다.

문제를 해결하기 위해서 데이터를 본다라고 표현했지만 때로는 문제를 찾아내기 위해서 데이터를 보는 경우도 종종 있다. 즉, 주어진 문제를 해결하기 위해서 근거 데이터를 수집하고 추론하는 것도 마이너의 일이지만, 이미 가진 데이터에서 시스템에 내재된 문제점을 찾아내는 것도 마이너의 역할이다. 그래서 단순히 수학적, 공학적 기술/기법 뿐만이 아니라, 다양한 경험과 (잡) 지식이 마이너에게 요구된다. 마이너가 활용할 수 있는 데이터는 단순히 시스템 구동에 필요한 데이터 (보통 DB나 텍스트 형태)나 시스템이 찍어내는 로그에만 한정된 것이 아니다. 

머신러닝 (또는 인공지능)은 데이터마이닝과 밀접한 관계가 있지만 같다라고 말하기는 어렵다. 밴다이어그램을 그린다면 상당한 공통 영역이 존재하지만 또 다른 영역이 분명 있다. 머신러닝은 특정 미션을 완수하기 위해서 근거 데이터로 학습시켜서 모사하는 것이 목적이다. 주어진 데이터 이상의 추론이 가능하다면 인공지능이라고 불러도 좋다. (Exploitation vs Exploration) 머신러닝/인공지능은 '기계를 사람처럼'이 모토이자 목적이다. 데이터마이닝은 많은 머신러닝 기술을 활용하지만 엄격함을 요구하지는 않는다. 인간 친화적이라고 표현하면 좋을 듯하다. 머신러닝에 일부러 모호함을 추가하는 연구도 진행되고 있지만...

데이터마이닝을 잘 하기 위해서 다양한 수학, 통계 지식이 필요하고, 고도의 알고리즘들도 만들어졌다. 그러나 그런 지식이나 알고리즘은 데이터를 잘 보기 위한 보조 기능을 하는 것일 뿐이다. 많은 지식과 알고리즘을 알고 있다고 뛰어난 데이터마이너가 되지는 않는다. 데이터를 잘 보는 능력과 그걸 돕는 기술을 많이 아는 것은 분명 같지 않다. 원시적이지만 -- 한계도 분명한 -- 텍스트나 엑셀의 테이블에 펼쳐진 (적은/제한된 양의) 수치나 데이터를 눈으로 확인해서 패턴/규칙을 발견할 수 있다면 HDFS에 쌓인 수 테라바이트의 데이터를 고도의 알고리즘으로 확인하는 것보다 더 낫다. 좀 극단적으로 표현했지만, 데이터마이닝은 기계가 이해하는 규칙이 아나라 사람이 이해하고 설명가능한 규칙을 찾는 것에 더 가깝다고 생각한다. (엄격함을 덜 요구한다는 의미도 이의 연장선에서 말한 것이다.)

R이나 SAS 등의 통계분석툴이나 파이썬이나 자바같은 프로그래밍 언어, 또는 Mahout이나 Spark MLlib 같은 (오픈소스) 라이브러리에 능한 것도 데이터마이너의 필수 덕목이 됐지만, 데이터를 보는 눈이 없다면 무용지물이다. 파리를 잡기 위해서 소잡는 칼을 휘두르는 모양새다. 수학이나 알고리즘 지식, 그리고 프로그래밍 스킬보다 도메인 지식 또는 비즈니스 로직을 개인적으로 더 중요하게 생각하는 이유도 데이터가 만들어지고 활용되는 곳을 잘 알아야지 데이터를 더 잘 볼 수 있기 때문이다. 물론, 때론 도메인 지식 (또는 지식 편향)이 데이터를 객관적으로 보는 것에 장애가 된다. 수학/통계/알고리즘과 프로그래밍 스킬, 그리고 도메인 지식은 데이터마이너가 되기 위한 일종의 트리니티라서 고른 역량이 필요하지만, 그렇지 않다면 각각의 능력을 가진 사람들을 모은 그런 팀을 구성하는 것이 필요하다. (그리고 모든 개발자들이 그렇듯이 영어를 읽고 이해하는 능력인 필수다. 유학 또는 취업으로 외국에 가지 않는 이상 영어를 듣고 말하고 쓸 기회는 별로 없지만 영어 문서를 읽어야할 일은 흔하다.)

수학이나 프로그래밍보다 도메인 지식이 더 중요하다고 얘기하는 가장 큰 이유는 우리가 일상에서 만나는 마이닝 문제 또는 해결책이 그렇게 복잡하지 않다는 점이다. 아주 간단한 연산으로 해결되는 경우가 많다. 물론 음성 인식이나 이미지 처리, 기계 번역과 같이 복잡한 태스크를 해결하기 위해서 사용되는 다양한 딥러닝 및 관련 기술들을 온전히 이해하고 구현하기 위해서는 수학과 프로그래밍 스킬이 필요하다. (딥러닝이 구조적으로 복잡해 보이지만 요소요소를 보면 사실 복잡한 연산은 아니다.) 하지만 일상에서 데이터를 가지고 하는 문제들은 그저 데이터를 연결하고 순위를 매기는 것에 불과한 경우가 허다하다. 대표적으로 추천 및 개인화 시스템이라는 것도 아이템과 아이템, 사용자와 아이템, 그리고 사용자와 사용자를 잘 연결시켜서 기준에 따라서 정열해서 상위 N개를 보여주는 것에 불과하다. 특히 독립적인 데이터 샘플이 많아지는 경우라면 더더욱 그렇다. 정성적인 추천의 품질을 가르는 것은 결국 도메인 지식이다. (정량적 지수는 다를 수 있다.) 흔히 말하는 클러스터링, 클래시피케이션 및 레그레션 등의 모든 개념들도 결국 데이터를 연결하고 나열하는 것, 또는 이를 잘 하도록 돕는 것 그 이상도 이하도 아니다.

야구 투수에 비유하면, 데이터마이너의 특기는 강속구가 아니라 제구력이다 (Control Artist). 데이터마이너는 데이터를 보는 사람이고 데이터에서 규칙을 찾는 사람이라는 정의의 연장선에서 생각하면 된다. 완벽한 모델을 찾고 모든 파라메터를 자동으로 최적화하려는 것도 연구의 한 축이겠지만, 여전히 대부분의 알고리즘들이 사람의 손을 타기 마련이다 (Human Intervention). 만능의 인공지능이 등장하지 않은 이상, 어떤 모델 또는 방법론을 선택하고 필요한 다양한 파라메터를 얼마나 잘 설정하느냐가 평범한 마이너와 좋은 마이너의 차이를 가른다. 도메인 지식과 경험이 중요하다는 이유도 제어 능력의 차이를 주기 때문이다. 딥러닝과 같은 강력한 한방 (강속구)를 가졌더라도 제어 능력이 없으면 의미가 반감된다.

데이터 엔지니어도 아닌 사이언티스타라는 사람의 입에서 경험 (또는 경험에 따른 감 — 고급지게 표현해서 인사이트)이 중요하다고 말하는 것이 참 이상할 법하다. 그건 내가 사이비라서 그렇기도 하지만, 실제 그렇기 때문이다. 문제 상황에서 가설을 세우고 데이터로 검증하기 때문에 데이터 사이언스라 불린다. 문제를 인식하고 적절한 가설을 세우고 실험 계획을 통해서 필요한 데이터를 모으고 분석 및 검증으로 얻은 결과를 해석해서 액션을 취하는 일련의 과정이 필요하다. 매우 간단한 과정이지만 이를 어떻게 실행하느냐에 따라서 투입되는 비용과 시간, 반복 그리고 승패가 결정된다. 이때 필요한 것이 -- 천재가 아닌 이상 -- 경험이다. 어차피 초보 마이너나 베테랑 마이너가 가지고 있는 기본 기술셋은 비슷하다.

이전 글에도 적었지만 데이터 문제가 아주 정확한 모델과 설정값을 요구하는 것 같지만 대부분의 경우 설명하기 쉬운 단조로운 모델과 설정하기 쉬운 근사값이 필요한 경우가 많다. 그리고, 경험이 쌓인다는 것 그리고 감이 생긴다는 것은 그저 오랜 시간동안 많은 데이터를 다뤘다고 해서 얻어지는 것은 아니다. 어쩌면 내가 이 글을 적으면서 그냥 데이터마이너라고 적었지만 실제 의미는 시니어 데이터마이너를 뜻했던 것 같다. 그냥 기계적으로 데이터를 분석하는 사람이 아니라 데이터로 생각하고 데이터와 함께 숨쉬는 사람을 생각했던 것이다. 오해를 막기 위해서 경험은 깊은 수학적 지식과 다양한 프로그래밍 연습 위에 쌓인다.

훌륭한 데이터마이너는 데이터를 잘 보는 사람이다. 특별한 재능과 기술을 가진 사람이 아니라 그저 데이터 위에 노는 사람이다.

P.S., 딱 4년 전인 2012년 3월 9일에도 같은 제목의 글을 적었습니다. http://bahnsville.tistory.com/546

===
B: https://brunch.co.kr/@jejugrapher
F: https://www.facebook.com/unexperienced


댓글을 달아 주세요

Share           Pin It
인공지능 Artificial Intelligence (AI)에 대한 이슈가 뜨겁다. 불과 1~2년 전만하더라도 빅데이터가 화두였는데, 지금은 그 자리를 인공지능이 차지했다. 사실 빅데이터는 마케팅 용어가 가깝지만, 인공지능은 그렇지 않다. 인공지능이라는 타이틀이 가진 역사만 되돌아보더라도 빅데이터와는 확연히 차이가 난다. 다양한 오랜 연구의 결과가 현재의 인공지능을 만들었다. 딥러닝과 함께 인공지능은 더욱 활짝 만개했다. 하지만 인공지능 = 딥러닝 Deep Learning으로 보는 시각은 우려가 된다. 딥러닝이 인공지능을 진일보시킨 것은 맞지만, 딥러닝으로 인공지능을 대변하기에는 여전히 설명이 부족하다.

기술(의 진보)에 대한 다양한 시각이 있다. 크게는 인류를 행복의 나라로 이끌 것이라는 긍정과 인류를 파멸시킬 것이라는  부정으로 나뉜다. 정도의 차이는 있지만 대부분의 미래학자, 전문가들의 전망과 우려는 긍정과 부정 그 사이 어딘가에 놓여있다. 본인도 긍정적인 측면과 부정적인 측면을 동시에 보는 사람이지만, 당장 결론을 내라고 한다면 비겁하더라도 불가지론을 택하겠다. 기술의 진보는 확실하지만 그걸 통제할 수 있느냐는 여전히 모르겠다.

조만간 있을 이세돌 9단과 구글 딥마인드의 알파고의 대국이 기다려지는 이유도 어쩌면 나의 긍정과 부정의 시각을 조율하기 위해서인지도 모르겠다. 이세돌 9단이 이긴다면 기술의 긍정성에 더 가까워질테고, 그렇지 못하다면 기술이 가져올 암흑에 대한 우려가 더 커질 것같다. 감히 예견을 해본다면 이번 대국에서 이세돌 9단이 이긴다 하더라도 인간의 우위는 1~2년에 불과하다고 본다. 대승을 하든 겨우 이기든 그건 별로 중요하지 않다. 다만 기계는 여전히 다중 목표 성취 (범용성)에는 취약하다는 점이지만, 그것도 멀지 않아 해결될 것이라 본다.

인공지능이 우려되는 것은 오직 인간 지능을 뛰어넘지 못할 때다. 어줍짢게 인간 지능에 가까워졌을 때는 인간의 어리석음만을 학습했다고 본다. 인간 지능을 뛰어넘는 인공지능이라면 아마도 인간의 마음, 즉 지혜를 터득했을 때다. 뛰어난 인공지능이라면 스스로를 파괴할 더 똑똑한 지능이 만들어지는 것을 허락하지 않을 것이다. 그건 인간만이 가진 어리석음이다. 그래서 극단적인 암흑 세계를 전망하지 않는다. 인간 위에 군림하는 기계가 만들어지겠지만, 기계 위에 기계가 군림하는 것이 실현된다면 그건 뛰어난 인공지능이 아니다. 스스로를 파괴하는 기술을 만드는 것은 인간으로도 족하다.

대부분의 기술은 인간을 편하게 하기 위해서 만들어졌다. 그러나 현실은 그렇지 못하다. 공장의 기계화나 자동화는 인간 노동을 줄여주기 위해서 만들어졌지만, 인간에게 휴식과 여유가 아닌 더 강화된 치열함만 줬다. 기계가 결국 인간의 일자리를 빼았았고, 쫓겨난 인간들은 더 열악한 환경으로 내몰린다. 기술이 가져다준 부는 극히 일부에게만 돌아갔다. 이게 로봇이 가져온 디스토피아다. 그 디스토피아가 바로 현재다. 단순히 10년 내에 인간의 일자리 몇 개가 사라질 것인가?를 예측하는 것은 아무런 의미가 없다. 궁극에는 모든 일자리가 사라질 것이기 때문이다. 그렇다면 결국 기계를 소유한 일부를 제외하고는 살아갈 방법이 없고, 그런 (시장을 형성하는) 인구가 없어진다면 결국 그 일부의 권력자 또는 부자들도 없어질 것이 뻔하다. 미래에는 기계가 인간을 지배하는 그런 디스토피아가 아니라, 인간에 의해서 인간이 멸종하는 그런 디스토피아를 상상하는 것이 맞다고 본다.

그래서 지금 인공지능 또는 기술이 가져다준 부를 어떻게 나눌 것인가를 미리 고민해야 한다. 최근 1세기 동안 이뤄졌던 기계화와 자동화 등에 따른 부의 편중이 향후에 계속 이어지고 또는 가속된다면 인류의 미래는 없다. 아이작 아시모프가 제시한 로봇의 3원칙으로는 인류를 지킬 수 없다. 기술을 발전시킨다 그리고 기술의 열매를 나눈다라는 인류의 원칙을 만드는 것이 인공지능이 이슈가 되고 실생활로 들어오고 있는 지금 논의돼야 한다. 당장 결론이 나지 않더라도 논의는 빨리 시작돼야 한다.

인공지능, 로봇, 자동화로 인해 생긴 잉여를 사람들에게 잘 -- '골고루'는 아님 -- 나눠주지 않는다면 그것이 결국 인류를 파멸시킬 것이다. 인간을 지배하는 기계의 세상이 디스토피아가 아니라, 인간에 의해 인간이 멸종한 세상이 디스토피아다. 어쩌면 그렇게 인류가 사라진 지구에서 기계들이라도 여전히 살아남는다면 어쩌면 그게 더 좋을지도...

===
B: https://brunch.co.kr/@jejugrapher
M: https://medium.com/jeju-photography
F: https://www.facebook.com/unexperienced


댓글을 달아 주세요

Share           Pin It

사내 아지트에 적은 글입니다.

===

엄밀히 인공지능을 전공한 사람은 아니지만, 그 언저리에서 오랫동안 머물렀던 사람으로써 최근 인공지능이라는 용어가 다시 주목을 받는 것을 목격합니다. 여전히 빅데이터 분석이 큰 줄기에서 갈피를 못 잡고 있는 상황에서 인공지능으로 그걸 덮어버리고 있는 것같다는 생각마저 듭니다. 2000년대 중반부터 다시 불지펴졌던 딥러닝이 작년을 기점으로 메인스트림으로 나왔고, 이를 계기로 인공지능이 다시 각광받고 있습니다. 일부에서는 핑크빛 미래를 기대하고 다른 부류는 빅브라더와 스카이넷으로 대표되는 고담시티를 두려워하고 있습니다. 어떤 미래가 개척되든 나는 그 속에서 어떤 삶을 살 것인가를 고민하게 됩니다.

2008년도에 입사해서 가졌던 첫 개발자컨퍼런스 DDC[각주:1]에서 WHAC이라는 표현을 사용했습니다. 즉, WI = HI + AI = CI에서 공통된 I와 부호를 제외한 표현입니다. I는 지능 즉 Intelligence를 뜻하고, WHAC는 예상하듯이 Web, Human, Artificial 그리고 Collective입니다. 즉, 당시의 웹지능은 인간지능과 인공지능의 결합물이고, 이는 바로 집단지능이라는 의미였습니다. 불과 7년 전에는 적어도 사이버 세상을 지배하는 지능에서 인간의 역할이 기계의 역할보다 더 크거나 엇 비슷했다고 생각됩니다. 많은 알고리즘들이 존재했지만 가시적으로 보여지지 않았기 때문에 그렇게 느꼈는지도 모릅니다. 그 후에 시간 공간 인간이라는 컨텍스트가 더욱 부각되면서 인간의 역할과 기계의 역할 사이의 균형이 생겼고, 후로 빅데이터나 딥러닝 등이 대두되면서 이제는 어쩌면 인공지능이 인간지능보다 비가시적 세게에서 더 큰 힘을 발휘하고 있는 것은 아닌가?라는 생각을 하게 됩니다. 여전히 길은 멀지만 적어도 어제보다 하루 더 가까워졌고 작년보다 1년더 가까워졌습니다.

이런 시대에 인간이 변화된 역할에 만족하며 살 수 있을 것인가? 아니면 과거 러다이트 운동처럼 인공지능에 반기를 들어야 하는가? 등을 심각하게 고민해야 합니다. 넋 놓고 있다가 그저 누군가가 만들어놓은 세상에서 안주하며 살고 싶지는 않습니다.

===

때마침 KBS 시사기획 '창'에서 괜찮은 프로그램이 방영돼서 동영상을 공유합니다. '로봇 혁명, 미래를 바꾸다'

2008년도 발표자료 공유는 생략합니다. 회사 내부 얘기도 포함됐고 예전 거라서 좀 세련되지 않아서..ㅠㅠ

==

페이스북 페이지: https://www.facebook.com/unexperienced




  1. DDC, Daum Developer Conference [본문으로]

댓글을 달아 주세요