본문 바로가기

DM ML AD

빅데이터 분석을 위해 알아야할 것들

지난 글에서 (빅데이터) 분석 플랫폼에 대한 생각을 적었습니다. (참고. 데이터 분석 플랫폼에 대한 고민) 그냥 잊어버리려했지만 계속 머리 속에서 생각이 더 구체화되고 있습니다. '아키텍트가 필요하다' 글에서도 밝혔듯이 현실적으로 어려운 여건들이 많이 있지만, 전체 퍼즐을 완성하기 전에 부분 그림은 맞출 수 있을 것같다는 느낌이 옵니다. 데이터를 준비하는 과정은 서비스나 도메인에 따라서 최적화시켜야하는 부분이어서 지금 시점에서 구체적인 안을 제시할 수가 없고, 또 분석된 결과를 해석해서 더 가치있는 인사이트로 전개하는 것은 단기간에 해결될 수 있는 것도 아닙니다. 그리고 빅데이터를 위한 하드웨어 및 소프트웨어 인프라를 설계하고 개발하는 것도 제 영역/능력을 벗어난 일입니다. 그렇다면 현시점에서 당장 할 수 있는 것은 분석 시스템 자체의 기능을 공부하고 구현해두는 것밖에 없습니다. 그래서 현재 존재하는 다양한 빅데이터 관련 기술들을 조사해서 분석 시스템에 어떻게 활용될 것인가?를 먼저 생각해보기로 했습니다. 잘 진행이 된다면 팀 내에서 각각의 파트를 나눠서 공부해서 각 파트의 전문가를 한두명씩 양성할 수 있으면 좋겠다는 생각도 해봅니다.

하드웨어 인프라가 갖춰지면, 기본적인 소프트웨어 인프라는 설치하고 설정할 수 있어야 합니다. 모든 소프트웨어 패키지들을 설치할 필요는 없겠지만, 기본적으로 하둡 Hadoop 시스템이나 Hive와 Pig와 같은 스크립팅 시스템은 설치/설정할 수 있어야 할 것이고, 필요에 따라서 카산드라, MongoDB나 HBase와 같은 NoSQL도 설치/설정이 가능해야할 것이고, 그 외에 ZooKeeper와 같은 기반 환경 등도 최적화할 수 있어야 할 것입니다. 분석가의 입장에서는 조금 귀찮은 일이기도 하지만, 설치와 최적화라는 삽질을 통해서 더 시스템을 더 잘 이해하고 활용할 수가 있습니다. 팀에서 처음 하둡 등을 설치할 때, 저도 잘 모르지만 함께 참여해서 다양한 시도를 해봤더라면 지금 빅데이터 시스템을 더 잘 활용하고 있을텐데라는 후회가 늘 따릅니다.

이제 HW/SW 인프라라 세팅되었다면, Java나 Python과 같이 자신에게 편한 프로그래맹 랭귀지로 간단한 데이터에서 작동하는 MapReduce 알고리즘정도는 구현해볼 필요가 있습니다. 하이브나 피그와 같이 다양한 스크립팅 시스템도 개발/지원되고 있지만, 그것들은 테스트 환경이나 프로토타입을 위해서 장려될 뿐, 궁극적으로 서비스를 위해서는 좀더 네이티브한 랭귀지로 최적화, 안정화될 필요가 있습니다. 하둡이 Java로 구현되었기 때문에 자바를 통합 맵리듀스 구현이 가장 바람직하겠지만, 최근에 파이썬 등에서도 많이 최적화되었기 때문에 자신이 편한 개발환경에서 다양한 프랙티스를 해볼 것을 권합니다.

다음으로 필요한 것은 Hive나 Pig와 같은 스크립팅 랭귀지를 마스터하는 것입니다. 자바나 파이썬 등이 편한 개발자가 굳이 스크립팅 언어까지 배울 필요가 있을까?라는 생각도 듭니다. 더우기 사용성에 초점을 둔 스크립팅 언어는 컴파일이 필요한 네이티브들보다는 다양한 활용에 -- 비정형 데이터처리 등과 같은 -- 제약이 많습니다. 그러나 빠르게 구현해서 바로 실행시켜볼 수 있다는 장점이 있기 때문에, 프로토타이핑 단계에서는 스크립팅언어로 그리고 시스템화에서는 네이티브언어로 구현하는 것은 여러 모로 도움이 됩니다. 피그보다는 하이브가 더 SQL과 가깝기 때문에 팀내에서는 일단 하이브의 사용을 권장하고 있습니다. 그리고 밑에서 적겠지만 R을 이용하는 RHive를 사용할 것이라면 Hive에 익숙해질 필요가 있습니다.

그리고 데이터분석이라면 머신러닝을 빼놓을 수 없습니다. 다양한 문서들과 (검색) 로그들을 활용하기 위해서 단순 카운팅이나 몇몇 독립적으로 배포된 알고리즘들은 사용해보고 있지만, 일반적으로 머신러닝으로 알려진 ANN이나 SVM 등과 같은 것들을 비정형 빅데이터에 적용해보는 것은 아직 엄두도 못 내고 있습니다. 그러나 사람들의 생각은 모두 비슷한가 봅니다. 이미 Mahout이라는 이름으로 아파치에서 빅데이터를 위한 머신러닝 오픈프로젝트가 진행중입니다. 저도 Mahout이라는 이름만 들어봤지, 실제 어떻게 이용되고 있는지에 대한 정보는 없습니다. 대충 훑어보니 SVD, 베이지언, 클러스터링 등의 기능들이 포함되어있어서 안정화되면 분석플랫폼에서 아주 유용하게 쓸 수 있을 듯합니다. Mahout 얘기를 하다보니 학교 다닐 때 들었던 Weka라는 자바용 머신러닝 라이브러리가 얼핏 떠오릅니다. ... 아직은 초기/불안정한 단계에 있지만 Mahout도 초반부터 공부해둘 필요가 있을 듯합니다.

그리고 빅데이터가 뜨면서 함께 주목받는 통계 패키지가 있습니다. 바로 R 입니다. SAS나 매트랩 등의 고가의 소프트웨어에 비해서, R은 통계전공자들에게 늘리 이용되고 있는 오픈/프리 소프트웨어입니다. 그런데 R은 빅데이터/하둡과 연결되어 R이 가진 다양한 통계 기능/라이브러리를 빅데이터에 바로 이용할 수 있습니다. Mahout과 같은 빅데이터-네이티브가 아니라서 아직은 훨씬 더 불안정하고 제약사항이 많지만, 큰 프로그램을 구현하기에 앞서 기존의 패키지로 다양한 테스트를 해볼 수가 있기 때문에 유용합니다. 주변에서 R과 하둡을 함께 사용하는 팀이 있는데, 아직은 많이 불안정하다고 합니다. 그냥 초기에 히스토그램을 그려보거나 초기 파라메터값을 설정하는 용도정도의 제한된 사용만 하고 있다고 합니다. 레볼루션 애널리틱스의 R+Hadoop과 국내 NexR의 RHive가 현재 사용중입니다. 저도 일단은 R을 공부해보기로 했습니다. 책도 구입하고 웹의 다양한 튜토리얼도 보고 있지만, 오랜만에 새로운 랭귀지를 공부하는 거라서 쉽지가 않습니다. 매트랩에서는 행렬, SAS에서는 DataSet의 특성을 잘 파악하면 되었듯이, R에서는 벡터를 잘 이해/활용하면 R 좀 쓴다는 말을 들을 수 있을 것같습니다.

마지막으로 데이터 시각화 도구와 결과 리포팅 기능이 필요합니다. 이미 지난 글에서도 적었듯이 (참고, 데이터 시각화 도구들) 웹에서 데이터를 다양한 도표와 그림으로 시각화해주는 오픈소스들이 많이 있습니다. 물론 앞서 언급했던 R에서도 다양한 시각화가 가능합니다. 그러나 R은 여전히 불안정하고 또 웹을 통한 인터렉티브 그래프를 제공해줄 수가 없기 때문에, 자바스크립트 등을 이용한 웹 시각화 도구에 대한 공부가 필요합니다. 그리고 단순히 어떤 시각화 도구를 사용할 것인가보다는 데이터를 어떻게 표현하는 것이 가장 효과적인가에 대한 고민이 더 필요합니다. 예를들어, 같은 데이터라도 막대그래프가 적절할 때가 있고 파이그래프가 더 적절할 때가 있습니다. 그렇듯이 어떻게 보여줄 것인가? 그래서 어떤 효과를 낼 것인가?를 고민하는 것이 어떤 툴을 이용할 것인가보다 더 중요합니다.

요즘 계속 이런 저런 생각들로 머리가 복잡합니다. ... 두서없이 적었지만, 빅데이터 분석에 관심이 있는 초보자들에게는 그래도 도움이 되었으면 합니다. 앞으로는 좀 더 기술적인 것들도 능력이 되는대로 다루겠습니다.

(2013.01.18 작성 / 2013.01.23 공개)

반응형