Share           Pin It
 '검색의 미래'라는 연속 포스팅의 마지막입니다. 사실 이번 연속포스팅은 이글을 위해서 쓰여졌다고 봐도 무방할 것같습니다. 1편에서 적은 모바일의 제약사항, 즉 타이핑을 통한 키워드 입력이 어렵다는 것 때문에 모바일 기기는 다른 다양한 입력수단들을 얻게되었다고 말했습니다. 그런 입력수단을 최대한 활용한 검색방법이 이번 비접촉 Touchless 검색의 핵심입니다. 여담으로 3편의 개인화/문맥검색의 경우도, 실제 모바일이기 때문에 가능한 것이었다고 했습니다. 오늘날 핸드폰, 특히 스마트폰의 시대에 Phone = Me (Identity)라는 등식이 성립하는 것같습니다. 그리고, 모바일 기기가 수용할 수 있는 그런 개인의 문맥 Context  정보를 활용하는 것이 개인화검색이 이었습니다. 이번 포스팅에서는 말은 별로 필요가 없을 것같습니다. 그냥 아래에 나열하는 그림들을 보시면 비접촉검색의 개념 및 활용을 이해하는데 전혀 무리가 없을 것같습니다.

 1. 보이스 검색 및 음악검색
 모바일 기기의 등장과 함께 자연스럽게 채택되는 입력수단은 분명 마이크이고, 이런 마이크를 통한 음성인식기술이 검색에 활용되고 있습니다. 현재 국내외의 대부분의 검색회사들이 보이스 검색기능을 자사의 모바일 앱에 포함시켜놓았습니다. 그리고, 단순히 키워드를 인식하는 수준을 넘어서, 노래의 한소절을 듣고 해당 음악을 찾아주는 음악검색도 보이스검색의 한 영역으로 볼 수 있습니다. 아래의 사진은 (아이폰을 기준으로) 다음앱스에 포함된 다음음성검색, 구글앱스에 포함된 구글보이스검색, 그리고 네이버 앱스에 포함된 네이버 음악검색 스크린샷입니다.


 2. 객체인식검색 (사물검색) 및 OCR 검색
 피쳐폰 시절부터 핸드폰에서 마이크 다음으로 많이 이용되는 입력수단으로 (키보드제외) 카메라를 들 수 있습니다. 피쳐폰에서의 카메라는 단순히 순간의 장면을 찍어서 친구들과 공유하는 정도였지만, 인터넷이 자유로운 스마트폰에서는 이미지 객체인식기술을 활용해서 검색을 위한 입력장치로 손색이 없습니다. 길을 가다가 벽보에 붙은 모르는 용어나 전화번호를 보고, 키패드로 입력하는 것보다는 카메라를 이용해서 바로 스캔하는 것이 빠르고 손쉬운 방법입니다. 특히, 머신런닝/객체인식분야의 오랜 연구와 결합해서 사물검색은 자연스러운 다음 단계로 보입니다. 현재까지는 아래의 그림과 같이 구글앱스에 포함된 구글고글스가 거의 유일한 가용 사물검색입니다. 아래의 그림은 Slide:ology라는 책을 찍은 화면인데, 오른쪽과 같이 파란영역과 같이 책표지검색기능을 활용해서 해당 책제목을 찾아내고, 녹색영역과 같이 책표지의 이름으로 저자명을 찾아냈습니다. 그런데, 아직은 모바일 사물검색의 검색능력이 많이 떨어집니다. 그러나, 더 많은 이미지 데이터가 축적되어 트레이닝데이터셋이 증가하면 인식률은 더욱 높아질 것으로 보입니다. 녹색영역에서 보이듯이 사물에 있는 글씨를 인식하는 OCR 검색은 그 쓰임새가 더 많을 것입니다.


 다음의 사진은 유튜브에 공개된 동영상을 캡쳐한 것입니다. 화면에서 보시듯이 책에 적힌 한문을 인식해서, 화면 하단에 보듯이 뜻을 풀어서 보여주는 기능입니다. 한글이나 영문/알파벳의 경우, 그나마 키보드 입력이 쉬운데, 한자의 경우 키보드를 통해서 입력이 더 어렵기 때문에 이렇게 모바일기기의 카메라를 이용한 OCR 검색이 각광을 받을 것으로 보입니다. 그리고, 개인적으로는 전화통화기능에 이런 OCR검색기능이 빨리 접목되면 좋을 것같습니다. 길을 가다가 발견한 전화번호를 키패드입력없이 그냥 사진으로 찍어서 바로 전화할 수 있으면 편할 것같습니다.

 3. QR코드 검색
 QR코드검색도 위의 사물검색의 한 영역으로 볼 수가 있지만, 현재 많은 분야에서 활용되고 있는 것같아서 따로 문단을 만들었습니다. QR코드에 대한 부가적은 설명은 생략하겠습니다. 현재 너무 많은 QR 코드를 활용한 사례들이 있기 때문에, 아래에는 그중에 몇가지만 뽑았습니다. 1. 다음코드에서 만든 QR 코드와 다음앱스에서 스캔한 결과, 2. 제주의 KCTV라는 지역케이블 방송사 외벽에 붙은 QR코드, 3. 제주공항에 붙은 경상남도 산천을 알리는 전광판의 QR 코드, 4. 서울의 거리/주소마다 붙은 QR 코드, 5. 명함 (다음 커뮤니케이션)에 붙은 QR 코드, 6. PIFF 부산국제영화제 때 배포된 팜플릿에 붙은 QR 코드, 7. 오프라인 나이키 상점에 붙은 QR 코드 (그리고, 페이스북 Like 버튼), 8. 다음의 2010 개발자컴퍼런스 때 사용된 QR 코드 이벤트, 그리고 9. 구글의 단축URL서비스인 goo.gl과 연결된 QR 코드 생성 페이지 입니다. (그림별로 별도의 코멘트는 생략하겠습니다.)


 4. 터치검색 및 모션검색
 원래 제목은 터치리스 검색인데, 터치검색이라고 표기해서 당황스러울 수 있습니다. 그런데, 여기서 말하는 터치검색은 모바일기기의 키보드 (버츄얼키보드 포함)를 통한 검색이 아니라, 모바일 기기의 터치스크림을 활용한 검색으로 보시면 될 것같습니다. 지금 적당한 예제가 없어서 그림은 생략하겠습니다. 위에서 OCR 검색에서 한자를 카메라로 바로 인식했는데, 모바일 기기의 스크린에 손으로 한자나 문자를 그림그리듯이 입력할 수가 있습니다. 실제 카드결제시스템에서 스타일러스펜으로 사인을 입력하는 것이 터치검색의 적당한 예가 됩니다. 그리고, 자이로스코프 등의 모션센스를 활용해서도 충분히 검색이 이뤄질 수 있습니다. 물론 복잡한 검색어를 입력하는 것이 아니라, 미리 정의된 액션 action을 수행하는 형태가 될 것입니다.

 글을 마치면서, 아직은 공개되지 않았지만 몇일 내로 앱스토어에 등록될 다음앱스 차기 버전 스크린샷을 올리겠습니다. 이건 대외비일 것같은데, 금주내로 업데이트된다는 얘기가 있어서 일단 올립니다. (스크린샷 자체는 대외비지만, 이미 몇달 전부터 다음에서 2010년 하반기에 허밍검색과 사물검색을 내놓는다고 공언/기사화되었기 때문에, 조금의 책임을 회피하며..) 아래의 그림 (검색부분만 crop함)에서 보시듯이 차기 다음앱스에는 기존의 키워드검색, 보이스검색, 및 QR검색에 더해서 음악/허밍검색과 사물검색이 추가된 것을 확인할 수 있습니다.
 

---
 이상으로 4개의 연속 포스팅을 통해서 나름 검색의 미래/미래의 검색에 대해서 짧게 논의했습니다. 글을 쓰면서 너무 짧고 간단하게 다루었는데, 보충설명이 필요한 것들에 대해서는 기회가 되면 다시 글을 올리도록 하겠습니다.

댓글을 달아 주세요

Share           Pin It
 검색의 미래라는 세번째 포스팅입니다. 이번 포스팅은 제 글을 여러 차례 보신 분들이라면 전혀 새로울 것이 없는 글입니다. 이전에 올렸던 Context (문맥삼간 - 시간, 공간, 인간) 포스팅이나 Googling is Over (Off-Demand 검색으로 진화 예상), 아니면 소셜검색 등의 포스팅을 재탕/결합한 것이 이번 포스팅입니다. 그래서, 더 깊은 통찰을 보여드릴 수도 없고, 더 새롭고 자세한 설명도 불가능합니다. 이전에 적었던 포스팅들은 아래와 같습니다. 생각보다 헛소리를 많이 했었네요. 자세한 사항은 이전에 적었던 글들을 참고하시기 바랍니다.

 아래는 Flic.kr에서 mike.elliot이라는 분이 올려놓은 사진입니다. (Flic.kr URL) 이 그림 한장이 현재의 검색과 미래의 검색 (소셜검색)의 차이를 잘 보여주고 있습니다. 현재의 검색패러다임은 사용자가 적당한 키워드를 입력하면 해당 키워드를 가지고 있는 문서들을 보여주는 것입니다. 그림에서 보여주듯이 User Finds Information인 것입니다. 이전 포스팅에서 이런 검색을 On-Demand 검색이라고 명명했습니다. 즉, 사용자의 요구 On-Demand에 반응해서 결과를 제공한다는 뜻입니다. 그런데, 미래의 검색에서는 세상의 모든 정보들이 그 정보를 가장 원하고 잘 수용할 수 있는 사용자들을 자동으로 찾아서 알려주는 형태로 바뀔 거라고 예상을 합니다. 아래의 그림에서는 Information Finds User라고 표현이 되었고, 이전의 포스팅에서는 Off-Demend 검색이라고 명명했습니다. 즉, 사용자의 요구가 없더라고 그 사용자에게 필요한 정보와 환경이 자동을 갖춰진다는 개념입니다. 

by mike.elliot @ Flic.kr http://www.flickr.com/photos/mike-elliott/4647689080/


 위의 그림에서는 Social Search만을 다루고 있지만, 실제 미래의 검색은 단순히 소셜검색이라고 보기 보다는 문맥검색 (Context-Aware Search)라고 보시는 것이 더 맞을 것입니다. 물론, 소셜/인맥도 하나의 문맥이지만, 현재 널리 이용되고 있는 시간과 공간문맥까지도 포함되어야 합니다. 참고로, 엄밀히 말해서 개인화 검색과 문맥검색이 다른 용어이고 다른 기술이겠지만, 이 글에서는 큰 틀에서 같은 것으로 간주하겠습니다. 어떻게 보면 개인화 검색은 더 Pull형태의 검색 (사용자가 지정한 Preference에 반응하는 검색)이고, 문맥검색은 그런 Push/Pull의 개념보다는 Automation이나 Pervasive/Ambient/Ubiqutous의 개념에 가깝습니다. 어떻게 보면, 현재의 시간과 공간 문맥의 경우 Pervasive한 문맥정보이고, 인간/소셜 문맥은 사용자가 지정한 Preference 정보입니다. 결론적으로 미래의 검색은 사용자가 지정한 선호도에 반응하는 검색이고, 또 사용자가 미처 지정하지 않더라도 현재의 사용자 상태 및 이제까지의 사용자의 경험 (예를들어, 사용자가 자주 입력하는 검색키워드의 묶음, 작성된 글에서 사용하는 단어나 주제, 주로 읽는 뉴스/기사의 출처 및 카테고리 등)을 시스템이 알아내서 사용자의 검색행동에 함께 반응하는 그런 형태가 될 것입니다. ... 딴소리지만, 이렇게 될려면 엄청난 컴퓨팅 파워가 필요하겠죠.

 더 자세한 논의는 앞서 나열한 이전 포스팅들을 참조하세요.

댓글을 달아 주세요

Share           Pin It
 어제는 미래의 검색의 모습을 상상하면서, 검색의 중심에 놓일 모바일 기기의 다양한 입력수단/감각기관에 대해서 말씀드렸습니다. 모바일기기에서는 키보드를 통한 키워드 입력이 부자연스럽고 힘들기 때문에, 대체 입력수단인 카메라, 마이크 등으로 더 풍부한 데이터를 입력받을 수 있고, 그런 데이터를 활용해서 다양한 방식의 검색이 가능하다는 것입니다. 구체적으로 그런 입력수단을 통해서 얻은 정보를 어떻게 활용할 것인가? 즉, 미래의 검색의 모습을 상상하기에 앞서 현재까지의 검색엔진의 구조와 발전방향에 대해서 살펴보는 것도 중요할 것같아서, 제목 (검색의 미래)와는 조금 동떨어진 '검색의 과거'를 본 포스팅에서 다루려고 합니다.

 아래의 그림도 지난 발표자료에 포함되어있는 것입니다. 이 그림 한장으로 현재의 검색엔진의 구조와 현재까지 검색엔진에 대한 연구의 방향을 한눈에 확인할 수 있습니다. 어제도 짧게 언급했지만, 검색엔진이란 사용자로부터 키워드/검색어를 입력받아서 외부의 웹클라우드에서 해당 키워드를 포함하는 문서를 찾아와서 적당히 정열해서 보여주는 기능을 제공합니다. 그런데, 사용자들이 입력하는 모든 키워드에 대해서 실시간으로 웹클라우드를 뒤질 수가 없기 때문에, 대부분의 검색엔진은 크게 3부분/기능을 제공하고 있습니다. 바로, 1) 웹클라우드에 존재하는 많은/다양한 문서들을 검색엔진 데이타스토리지로 긁어오는 Crawling, 2) 크롤링된 많은 문서들에서 키워드들을 추출해서 키워드별로 문서들을 역색인하는 Indexing, 그리고 3) 사용자가 입력한 키워드에 매칭되는 문서군에서 사용자의 의도에 가장 적합한 문서를 취합하고 정열해주는 Ranking이 바로 검색엔진의 3대 기능/요소입니다. 참고로, 크롤링과 인덱싱은 보통 오프라인에서 진행되는 것이고, 랭킹은 오프라인과 온라인에서 동시에 진행될 수 있습니다. 대표적인 오프라인 랭킹알고리즘이 바로 구글에서 사용하는 PageRank입니다.



 검색엔진이 이렇게 Crawling, Indexing, Ranking으로 구성되어있기 때문에 (실제는 더 복잡한 기능과 다양한 요소들이 포함됩니다.), 현재까지의 검색엔진의 발전방향도 이들 세기능을 어떻게 고도화시킬 것인가가 주요 관건이었습니다. 크롤링의 고도화란 다름 아닌 더 많은 웹문서들을 찾는 것입니다. 외부 웹클라우드에 존재하는 웹문서들은 크롤러라는 로봇/에이전트 (다음의 경우, 다모아 DAUMOA라는 봇을 이용합니다.)를 이용해서 수집하는 경우도 존재하고, 국내의 네이버, 다음, 네이트 등의 포털에서처럼 내부의 카페, 블로그, 지식 등의 내부 DB를 통해서 웹문서들을 수집하기도 합니다. 크롤링, 즉 얼마나 많은 문서를 모으느냐? How Many?와 관련해서 재미있는 일화로는, 2008년도에 잠깐 세간에 이슈가 되었던 Cuil.com입니다.  '쿨'이 처음 런칭하면서 내세웠던 것이 바로 세계 최대의 인덱싱문서를 수집했다고 발표했습니다. 물론, 바로 몇일 뒤에 구글이 그것보다 수배, 수십배나 많은 문서 (1조 또는 10조? 정확한 수치는 기억나지 않습니다.)를 색인했다고 밝혔기 때문에 하나의 해프닝으로 끝났습니다.  이 해프닝에서 보듯이, 검색엔진의 성능을 평가하는 지표로써 색인된 문서의 수, 즉 크롤링 능력에 대한 연구가 검색엔진의 주요 축을 담당하고 있습니다. 두번째로, 앞서 설명했듯이 크롤링을 통해서 너무 많은 문서들이 데이타스토리지에 저장되어있기 때문에, 사용자가 검색어를 입력할 때마다 바로바로 관련된 문서를 찾아서 제공해주는 것에 많은 시간이 필요합니다. 그렇기 때문에, 이들 많은 문서들을 빠르게 스캔하기 위해서 개발된 기술이 바로 색인입니다. 엄밀히 말해서, 검색엔진에서 사용하는 색인방식은 '색인'이 아니라, '역색인'기술입니다. 색인은 단순히 문서별로 키워드를 뽑아내서 정열하는 것이고, 역색인은 반대로 키워드별로 해당 키워드를 포함하는 문서들을 정열시키는 것입니다. 이렇게 역색인을 해야, 사용자가 입력한 키워드에 바로 반응해서 문서들을 제공해줄 수가 있습니다. 이 색인기술은 얼마나 빨리 문서를 찾아주느냐? How Fast?를 위한 기술입니다. 문서들을 빨리 그리고 효율적으로 스캔할 수 있는 방법을 제공해주는 것이 이제까지의 검색엔진의 두번째 연구 축이었습니다. (참고로, 몇 달 전에 구글에서 카페인이라는 기술을 소개했는데, 이 카페인이 바로 빠른 색인과 조회를 위한 기술입니다.) 마지막으로, 사용자 입력 키워드를 포함하는 많은 문서들 중에서 사용자가 의도했던 검색결과를 효과적으로 보여주는 것이 바로 랭킹입니다. 랭킹은 단순히 입력 키워드의 포함여부를 시작으로 해서, 문서의 인기도 및 신뢰도 (보통 페이지랭크에서 제공하는 것)으로 발전했다가, 다음 포스팅에서 밝힐 언제 문서가 작성되었느냐? 누가 문서를 작성했느냐?  어디에서 작성했느냐? 등의 다양한 부가 정보들을 활용하도록 발전하고 있습니다. 이 랭킹은 얼마나 정확한 검색결과를 제공하느냐? How Accurate?에 대한 것을 제공합니다. 다양한 랭킹 요소들과 알고리즘이 여전히 계속 제안되고 있고, 많은 이들이 가장 관심을 가지고 연구하는 것도 랭킹일 듯합니다. 크롤링은 적당히 큰 스토리지가 존재하고, 꾸준히 문서들을 서핑하다보면 자연스럽게 채워지는 요소이고, 색인/역색인 기술은 거의 표준화되었지만, 랭킹기술만큼은 각 검색엔진들마다 각각 장단점들을 가지고 있고, 또 타 엔진들과 차별화할 수 있는 요소이기 때문에, 크롤링과 인덱싱보다는 랭킹에 대한 연구가 더 활발한 것도 그런 이유입니다.

 간단히 검색엔진의 구조/기능은 크롤링, 인덱싱, 랭킹으로 이뤄지고, 그렇기 때문에 현재까지는 얼마나 많은 문서들을 수집했는가? 얼마나 빠르게 수집된 문서를 스캔할 수 있는가? 그리고, 찾은 문서들을 얼마나 효과적으로 보여줄 것인가?가 검색엔진의 주요 연구 및 발전 방향이었습니다. 앞으로 더 개선의 여지가 많이 있긴 하지만, 이런 기본 기능에서의 비약적인 변화를 몸소 느끼기에는 어려울 것같습니다. 그렇기에, 후속 포스팅에서 다룰 개인화검색이나 비접촉검색 등의 새로운 영역 (순수 검색의 영역에서는 조금 벗어났지만)에서 큰 발전이 있으리라 봅니다. 실제, 개인화검색 (또는 문맥검색)은 실제 랭킹알고리즘의 개선으로 봐도 무방합니다. 그리고, 비접촉검색은 검색환경이 PC에서 모바일기기로 넘어가면서 자연스럽게 발생한 분야입니다.

댓글을 달아 주세요

Share           Pin It
 아침에 예고했던 제가 생각하는 검색의 미래에 대한 연재를 시작합니다. 첫번째 주제로 모바일기가가 왜 미래 검색에서 중요한가?에 대한 얘기를 해보려고 합니다. 이 포스팅에서 말하는 바는 비단 검색에 국한된 얘기는 아닙니다. 다른 모바일 기기를 활용한 새로운 서비스르를 만들기를 원하시는 분들도 생각해봐야할 주제입니다.

 간단히 말해서, 검색이란 웹브라우저를 실행해서 검색엔진 (구글, 네이버, 다음 등)에 접속해서, 찾고 싶은 문서들이 포함하고 있을만한 키워드 (또는 사용자가 찾고자 하는 단어)를 입력하면, 검색엔진이 미리 모아뒀던 문서 더미에서 입력된 키워드를 포함한 문서를 찾아서, 적당한 순서로 브라우저에 뿌려주는 것입니다. 여기서 중요한 것은 바로 '입력'입니다. 검색의 시작, 그리고 사용자가 할 수 있는 유일한 행위는 바로 적당한 키워드를 검색창에 입력하는 것입니다. 그 외의 작업들은 모두 검색엔진이나 브라우저가 알아서 처리합니다. 그런데, PC에서는 키보드를 통해서 키워드를 쉽게 입력할 수 있지만, 모바일기기에서는 이 단순한 작업이 그렇게 간단한 작업이 아닙니다. 피쳐폰에서뿐만 아니라, 아이폰과 같은 버츄얼 키보드를 활용하는 경우나, 블랙베리와 같이 qwerty 키보드를 이용하는 경우도 PC에서처럼 쉽게 원하는 검색어를 검색창에 입력하기가 쉽지가 않습니다. 바로, 이 모바일기기가 태생적으로 가지고 있는 한계에서 모바일기기의 무한한 가능성이 시작됩니다. 물론, 기존의 피쳐폰보다는 스마트폰에서 그 가능성이 폭발했습니다. 모바일기기가 가지는 입력의 어려움/한계는 키보드가 아닌 다른 입력수단으로 커버가 된다는 점입니다. 그런 다른 입력수단이라는 것이, 인간이 가지지 못한 제6의 감각을 제공해주고 있다는 것도 중요합니다.

 모바일기기가 기존의 키보드라는 표준입력기가 불편하기 때문에, 의도적으로 (또는 우연히) 가지게 된 감각/입력수단들을 살펴보면 미래의 검색, 즉 모바일이 중심이 될 검색을 이해하는데 도움이 됩니다. 뿐만 아니라, 이런 제6감각기관을 잘 활용한 서비스들이 앞으로 모바일 환경에서 성공으로 이어지리라 확신합니다. 물론 현재 성공한 많은 모바일 서비스/제품들도 잘 살펴보면 이 제6감각을 잘 활용한 것들입니다.  아래의 그림은 11월 4/5일에 울산대 및 포항공대에서 발표한 자료에 포함된 사진입니다. 이 그림에는 모바일기기가 가지고 있는 대표적인 5가지의 감각기관을 보여주고 있습니다.
  • 첫번째 감각기관은 바로 '카메라'입니다. 카메라를 통해서 스틸/정지영상이나 동영상을 받아들입니다. 모바일기기에서 손으로 입력하기 어려운 많은 것들을 카메라를 통해서 쉽게 읽을 수 있습니다. 단순히 풍경 및 인물사진을 찍는 것을 넘어서, 스캐너의 OCR기능을 활용해서 활자를 읽을 수도 있고, 바코드나 QR코드와 같은 특수한 문양들을 해독할 수가 있습니다. 객체인식기술도 날로 발전하기 때문에, 카메라만큼 유용한 입력수단도 없을 것입니다.
  • 두번째 감각기관으로 자이로스코프 Gyroscope와 같은 모션센스입니다. 현재까지는 게임 외에는 모션센스를 활용한 서비스가 거의 전무하지만, 앞으로 게임 이외의 서비스들이 등장할 것입니다. 제스쳐를 이용한 검색은 조금 상상하기는 어렵지만, 여러 모션에 미래 정의된 액션을 결합시키면 모바일 기기의 활용도를 더욱 높일 수 있습니다. 단순히 현재도 아이폰에서 쉐이크를 하면 방금 입력/삭제한 문장들을 undo할 수 있듯이, 특정 앱에서 아래위로 흔들면 특정 기능이 동작한다는 등으로 모션-액션을 정의할 수가 있을 것입니다.
  • 세번째 감각기관으로는 마이크입니다. 단순히 전화 송수신을 위해서 탑재된 기능으로 볼 수 있지만, 보이스 레코딩이나 보이스 검색 등에 활용되고 있습니다. 손으로 입력할 수는 없지만, 이제 더 편한 말로 입력이 가능합니다.
  • 네번째 감각기관으로는 (멀티) 터치기능입니다. 정교한 터치스크린으로 인해서 버츄얼키보드도 가능하지만, 한문과 같이 복잡한 글자를 일반 키보드에서 입력하는 것보다 더 쉽게 입력할 수 있습니다.
  • 다섯번째 감각기관은 GPS를 포함한 위치센서입니다. 위치센서 자체로는 입력기능이 부족할 수가 있지만, 나중에 적을 문맥검색 (개인화검색)에서 location 정보를 얻을 수 있는 가장 귀중한 수단이 된다는 점에서 중요한 역할을 담당합니다. PC에서는 특정 IP대역폭과 지역이 매핑되어서 부정확한 위치정보나 개인이 설정한 관심지역으로 한정이 되지만, 모바일 기기에서는 GPS와 3G망정보를 활용하면 수십 또는 수 m 내의 정확한 위치정보를 얻을 수 있기 때문에, Location-based Search의 첨병역할을 합니다.
  • 그 외에도 아래의 그림에는 표시되지 않았지만, 아이폰이나 기타 모바일기기에는 다양한 감각기관들이 존재합니다. 자동으로 조도를 조절하는 음영센서, 인체와의 거리를 측정하는 거리센스, 현재 시각정보를 알려주는 시계 등의 다양한 감각기관이 모바일기기들이 가지고 있습니다. 
이제껏 PC 환경에서 손 (키보드)를 통해서 모든 정보를 받아들였지만, 이상과 같이 모바일기기에서는 카메라, 모션센서, 마이크/보이스, 터치센서, GPS 등의 위치센서, 음영센서, 거리센서, 시계 등의 제2의 입력기관 또는 제6감각을 가지고 있습니다. 그래서, 모바일환경에서 이들 입력/감각기관을 통한 검색의 미래를 점쳐볼 수 있습니다. 3 & 4번째 포스팅에서 모바일검색, 즉 미래의 검색에 대해서 더 자세히 다루도록 하겠습니다.


 모바일기기는 분명 입력수단의 한계를 가지고 있지만, 더 다양한 감각기관들을 가지게 되었습니다. 마치, 맹인들이 시각을 사용할 수 없기 때문에, 청각, 후각, 촉각 등의 다른 기관들이 더 발전한 것과 같이, 모바일에서는 키보드를 통합 입력이 제한되어있지만, 이상의 다양한 센서들을 통해서 더 많은, 더 다양한 정보들을 받아들일 수 있고, 그리고 그런 정보를 활용하여 더 다양한 서비스들을 상상해볼 수 있습니다. 혹시 모바일기기를 활용한 서비스를 준비중이라면, 이런 다양한 센서들을 어떻게 활용할 것인가를 더욱 주의깊게 고민해야할 것입니다. 이상에서 소개하지는 못했지만, 더 다양한 센서들이 작은 모바일기기에 탑재될 것이고 그럴수록 우리의 상상력의 범위는 더욱 넓어질 것입니다.

 Limitation is possibility.

댓글을 달아 주세요

Share           Pin It
 루팡이 범죄를 저지르기 전에 예고 편지를 보내듯, 블로깅 전에 이런 예고장을 쓰는 건 제 스타일이 아니지만, 지난 한달동안 거의 블로깅을 못했던 것을 반성하고 앞으로 더 왕성한 활동을 하겠다는 일종의 다짐과 약속이라는 취지에서 이렇게 블로깅 예고를 합니다. 여러번 검색에 관한 포스팅들을 올렸지만, 최근 울산대/포항공대의 세미나 강연을 준비하면서 떠올랐던 생각들을 글로써 정리하는 것도 필요할 것같다는 생각을 했습니다. 단순히 검색의 과거/히스토리는 굳이 제가 적을 필요가 없을 것같습니다. 그래서, 제가 나름 생각하는 검색의 미래 (어쩌면 '현재'가 더 적합한 표현)에 대한 포스팅을 올릴려고 합니다.

 최소 4편의 포스팅을 예정하고 있습니다.
  1. 왜 모바일인가? 단순히 스마트폰의 보급으로, 컴퓨팅/인터넷 환경이 PC에서 스마트폰/모바일로 변했다는 것을 말하려는 것은 아닙니다. 물론, 그런 환경의 변화가 후속 포스팅들을 가능케하지만, 모바일기기들이 가지는 중요한 특징, 즉 PC가 가지지 못했던 특징 (역으로 모바일기기의 한계)과 인간이 태생적으로는 가질 수 없는 감각,들을 소개하려고 합니다. '왜 모바일인가?'는 검색과는 무관할 수 있지만, 후속 포스팅에서 보여줄 '검색의 현재/미래'의 모습에는 중요한 역할을 하기 때문에 별도의 포스팅을 잡았습니다.
  2. 현재까지의 검색. 검색 및 검색엔진 (그리고 여러 검색회사들)에 대한 많은 지식을 가지고 있겠지만, 현재까지 발전되어온 검색엔진의 모습과 그들이 주요 관심사를 집어보는 것도 중요할 것같아서 간단한 포스팅을 예정중입니다. 물론, 예전에 'Googling is Over'라는 포스팅에서도 밝혔던 내용일 수 있습니다. 제가 감히 'G. is Over'라고 말할 수 있었던 근거일 수도 있습니다. 검색의 끝을 선언하는 것이 아니라, 현재까지의 검색 엔진의 발전방향의 전환을 말하는 것입니다.
  3. 개인화 검색. 뭐 이건 너무 당연한 소리입니다. 그리고, G.Over 포스팅에서도 밝혔던 내용입니다.
  4. 비접촉 검색. 모바일기기의 한계 그리고 모바일기기의 가능성이라는 역설적인 환경/변화때문에 가능한 미래입니다. 자세한 내용은 후속 포스팅에서...
일단 위와 같이 4개의 포스팅을 준비중입니다. 실제, 준비랄 것도 없이, 그냥 글을 적으면 되는데, 글을 적을 시간과 의지가 생기는 순간 하나씩 실타래를 풀어갈 예정입니다. 글을 적으면서 파생되는 다양한 얘기들도 5, 6, 7... 등의 포스팅에서 더 다루도록 하겠습니다.

댓글을 달아 주세요

Share           Pin It
 미래는 항상 지적 호기심을 자극하는 주제이고, 검색일을 하다보니 검색의 미래는 어떤 모습일까를 종종 상상하게 됩니다. 지난 주 초에 우연히 '검색의 미래'에 대한 글을 적고 싶어졌습니다. 아직 어떤 구성으로, 어떤 내용을 채워넣을지에 대한 정해진 것이 없지만 지금의 의욕이 사라지기 전에 짧게라도 글을 적는 것이 좋을 것같습니다. 검색이라는 무거운 주제를, 그리고 미래라는 모호한 주제를 한편의 글로 완성시킬 능력이 없기에 일단 (1)이라는 태그를 붙였습니다. 어젠가 다른 이슈를 만나면 시리즈를 이어갈 수도 있을 것이지만, 또 그렇지 않다면 (1)로써 미완의 글이 될 수도 있습니다. 늘 그렇듯이 지금 당장 생각나는 생각을, 또 글을 적으면서 생각나는대로 글을 적어나가렵니다. 그리고, 검색을 해보면 다 나올만한 검색의 역사 등 상투적인 내용은 가급적 이 글에서 배제하겠습니다.

 처음 '검색의 미래'에 대한 글을 적고 싶은 충동을 느낌 것은 트위터 때문입니다. 트위터의 타임라인을 보다보면 간단하게 검색을 하면 자세하게 다 나올 법한 것들을 묻는 경우를 종종 봅니다. 간단하게는 '1500파운드는 얼마에요?' 등부터 '트위터와 페이스북을 비교한 논문 알려주세요.' 등과 같이 조금더 학술적인 것까지 질문이 종류가 참 다양합니다. 지금 1파운드의 환율이 얼마인지 검색을 해보면 1710원이라는 걸 바로 알 수가 있고, 여기에 1500을 곱하면 약 257만원이라는 걸 바로 알 수가 있다. 그리고, 트위터와 페이스북을 비교한 논문을 찾으려면 'comparison of twitter and facebook filetype:pdf' 등의 검색어로 구글링해보면 많은 검색결과가 나온다. 물론 이렇게 찾는 결과가 처음에 의도했던 바로 그 글이 나온다는 보장이 없다. 그래서 화면에 보이는 많은 결과들 중에서 지금 내게 필요한 정보를 2차 필터링을 해야하는 수고가 뒤 따르게 된다. 이런 트위터에서 별 생각이 없이 툭툭 던지는 질문들을 보면서 검색의 미래가 더이상 찾는 것이 아니라 묻는 것이구나라는 걸 깨닫게 된다. 검색이라는 것은 사람의 생각이 기계화된 언어로 전달될 때만 가능하다. 많은 검색엔진의 검색창에 사람이 알고 싶은 자연어를 입력하는 것이 아니라, 몇몇 핵심되는 검색어를 입력해야 한다. 어떤 검색어를 선택하느냐에 따라서 내가 의도했던 결과를 얻을 수 있는지가 결정이 난다. 이렇게 생각/질문을 1차 검색어로 변환하는 과정에서 정보의 손실이 발생한다. 그런 1차 검색어로 색인된 문서를 걸러와서 랭킹/정열하는 과정에서 2차 변환이 생긴다. 그리고, 마지막으로 화면에 노출된 결과들을 모니터링하면서 내게 필요한 것만 선별하면서 또 3차 변환이 생기게 된다. 이런 여러 차례의 변환/오류의 과정은 검색이 가져야할 정확성을 해치게 된다. 결국 현재의 검색은 시스템/아키텍쳐 그 자체로써의 내재된 오류 덩어리다라고 말해도 무관하지가 않다.

 그런데, 트위터에서의 질문은 어떨까? 아니, 더 쉽게 말해서 다음지식이나 네이버지식iN에서 던지는 질문은 어떤가? 사람의 생각이 글로 표현되면서 변환이 발생하지만, 질문이라는 자연어 문장으로 표현되는 것이 몇몇 검색어로 바뀌는 것보다는 정보 손실이 적다. 그리고, 그런 질문을 이해하는 주제도 컴퓨터/기계가 아니라 사람이기 때문에 질문자의 의도를 바로 파악을 할 수가 있다. 때로는 질문자의 컨텍스트 정보 (나이, 지리정보, 성별, 시급성, 사용언어, 답변의 요구수준 등)까지도 공유하는 경우가 많기 때문에 질문자에게 더 적합한 결과를 제공해줄 수가 있다. 더 많은 정보를 얻을 수는 없더라도 더 정확한 정보를 얻을 수는 있다. 물론, 사람이 답변을 제공을 해준다면 더 적합한 답변이 있는데도 당장 알고 있는 제한된 정보만을 제고해줄 수도 있다. 어쨌던 그런 사람으로써의 한계를 극복한다면, 제시받은 답변이 처음 질문, 아니 질문의 의도/생각에 더 적합한 것일 가능성이 높다. 그렇기에 여러차례 변환, 필터링되면서 발생했던 여러 사소한 정보손실을 막을 가능성이 높다. 검색어와 문서와의 관계로 설명되는 검색이, 앞으로 질문과 답변의 형태로 바뀔 가능성이 더 높아 보인다. 트위터에서 올라오는 수많은 사소한 질문들이 짜증이 나는 경우도 많지만, 그런 사소한 질문들이 검색이라는 큰 프레임워크를 바꾸어버릴 것같다.

 지금 검색의 재왕은 분명 구글이다. 그런데 두달 전에 구글이 Aardvark라는 소셜검색을 단돈 $50M에 인수했다. Aardvark가 제출한 WWW2010의 논문에서도 말하듯이, 구글의 검색 패러다임이 체계화된 지식의 보고인 Library라면 Aardvark의 패러다임은 오랫동안 자연스럽게 형성된 Village였다. 우리가 살고 있는 동네가 바로 Aardvark가 실현하려던 것이다. 지금은 모두 개인화되어서 이웃을 모르고 살아가는 경우가 허다하지만, 조금만 과거로 눈길을 돌려보자. 한적한 시골 동네에 갑자기 아이가 배탈이 났다면 어머니는 앰블런스를 부를까? 분명 그렇지 않았을 것이다. 이제까지 배탈이 났을 때 먹으면 좋았던 여러 민간요법을 찾아보고 아이의 배를 어루만져주었을 것이다. 그런 사소한 지식도 없다면, 할머니나 아니면 동네 어르신들께 좋은 방법이 있는지 물어봤을 것이다. 그 동네 내에서 문제가 해결되지 않는다면 또 옆동네와 연결이 있는 어떤 분을 중심으로 옆동네에서 해결책을 찾아오는 그런 흐름으로 동네에서 발생한 문제를 해결해나갔다. 도서관 Library라는 것은 이렇게 동네에서 만들어진 민간요법이나 지혜가 사라지는 것을 막기 위해서 체계적으로 정리해서 보관하고, 또 필요할 때 열람해주는 기능을 제공하는 곳이다. 이런 Library를 바탕으로 만들어진 현재의 검색엔진들은 근원적으로 지식/지혜에 접근하는데 한계가 있다. 일단 지식이 말/글로 표현되지 못한다면 Library에 저장될 수도 없고 열람될 수도 없다. 그런 표현/저장의 과정이 위에서 검색어 검색과 비슷한 일종의 정보손실이 발생한다. 그리고 열람된 정보를 다시 해독해서 실생활에 적용하는 과정에서 또 다른 정보손실이 발생할 가능성이 높다. TV 광고에서 보여줬던 '요리를 글로 배웠어요'라는 문구가 이런 두번째 정보손실을 잘 설명해주고 있다. 사람의 지혜와 경험이 글이라는 지식의 체계로 제대로 표현될 수 없듯이, 기호화된 지식도 실생활로의 적용이 용이한 것은 아니다. 그런 측면에서 Aardvark가 제시하려던 과거, 아니 근원으로의 회귀는 지식의 미래를 보여주고 있다. 구글이 급하게 Aardvark를 인수했다는 그 점만으로도 현재 검색의 한계를 여실히 볼 수가 있다.

 분명, 트위터를 통한 실시간 문답이 검색의 미래인 것같은데... 실시간의 오류도 함께 생각해야 한다. 트위터에서 올린 질문에 대해서 돌아오는 답변이 진짜 내가 찾던 그 답변일까?를 검증하지 않을 수가 없다. 내 질문에 답변을 했던 그 답변자가 진짜 내 질문에 전문성을 가진 이인가?라는 의심을 가지게 된다. 어쩌면, 진짜 내 소셜그래프 Social Graph 상에는 내 질문에 제대로 답변을 해줄 그런 전문가가 포함되어 있을 수가 있다. (그런 측면에서, 많은 팔로워를 가지는 것은 분명 긍정적인 효과가 있다. 단지 그 사람이 영향력있는 인사인 것처럼 보이는 것보다는 어쩌면 내가 필요할 때 내게 도움을 줄 수 있는 전문가가 포함되었을 가능성이 높다는 측면에서 많은 팔로워를 두는 것은 좋다.) 그런데, 제가 처음에 '실시간의 오류'라고 말을 적었습니다. 질문자는 질문을 할 때, 매번 실시간입니다. 내가 바로 트위터에 접속해 있으니 질문을 할 수가 있는 것입니다. 그런데, 내 질문에 답변을 해줄 그 '전문가'가 실시간으로 접속해 있을까?라는 생각을 해보게 됩니다. 나는 실시간인데, 상대는 비실시간이라면 실시간 질의가 무슨 소용이 있을까?라는 생각을 하게 됩니다. 그런 측면에서 전통적인 검색을 통해서 더 빠른 '실시간?'답변을 얻을 수 있습니다. 묻는 것이 검색의 미래라지만, 실시간의 오류를 극복하지 못한다면 묻는 것이 찾는 것보다 더 못한 결과를 줄 수 밖에 없습니다.

 ... 이상에서 조금 적흥적으로 글을 적었습니다.

 이전 글들에서, 현재 검색트렌드로, 소셜검색, 실시간검색, 위치기반검색이라는 말을 자주 했습니다. 그리고, 이런 소셜 + 실시간 + 위치를 종합한 것이 모바일검색이라는 말도 종종 했습니다. 그런데, 처음 검색의 미래를 생각할 때, 분명 사람들은 소셜검색이 검색의 미래다라고 말하는 이도 있을 것이고, 실시간검색이 검색의 미래다. 위치기반검색이 검색의 미래다. 아니면, 모바일검색이 검색의 미래다라고 말하는 이들도 있을 것입니다. 맞지만 틀린 말입니다. 소셜, 실시간, 위치, 모바일은 단지 현재 보이는 검색/서비스의 트렌드이지 검색 그 자체의 미래는 아닙니다. 어떠한 결과가 요약/필터링되어서 내게 전달되느냐의 관점에서 단지 검색의 한 축일 뿐입니다. 문맥검색 Contextual Search는 단지 지금의 검색엔진이 구현해야할 하나의 기능일뿐, 이 기능을 검색의 미래인양 주장하는 것은 너무 편협한 생각인 것같습니다. 

 두번째로, 현재까지의 검색은 검색어를 검색창에 타이핑해 넣으면 적당한 결과들이 화면에 노출되는 것이었습니다. 그런 측면에서 최근 여러 회사들이 선보이고 있는 말로 검색하는 보이스검색이나 사진을 찍어서 비슷한 이미지를 찾거나 해당정보를 찾아내는 이미지검색 등도 주목을 받고 있습니다. 또 다른 면에서 사용자들이 검색어를 직접 타이핑하지 않고, 주어진 검색어세트에서 셀렉트 & 드래그해서 검색어조합을 만들어가는 것도 어쩌면 모바일에서 필요한 검색기능으로 보입니다. 보이스검색, 이미지검색, 터치검색 이런 것들도 검색의 미래라고 부르기에는 문제가 있어 보입니다. 단지 검색인터페이스의 한 종류이지, 이런 기능 또는 인터페이스를 잘 만들어낸다고 해서 미래의 검색시장을 장악할 수 있을 것같지가 않습니다. 앞의 문맥검색이나 비타이핑검색이 현재 검색엔진에서 많이 부족한 측면이고 보완해나가야할 기능들임에는 틀림이 없지만, 지금 검색을 준비하는 사업자들의 입장에서 이런 기능을 추가하는 것으로 검색의 미래를 준비하는 것인양 착각하면 큰 오산입니다.

 세번째로,더 근본적인 문제를 파고들어볼까 합니다. 계속 말했지만, 이제까지의 검색초점은 얼마나 많은 문서를 찾아서 색인하고, 색인된 문서들을 얼마나 빨리 그리고 효과적으로 보여줄 것인가가 관건이었습니다. 소위 말하는 크롤링 crawling, 색인 indexing, 랭킹 ranking이 검색의 전부였습니다. 그런데, 여기에 큰 문제점이 있습니다. 제가 종종 말하지만 '(Archived) Knowledge is Dead', 즉 이미 문서화된 지식은 벌써 죽은 지식입니다. 검색이 지금 당장 또는 앞으로 필요한 정보를 제공해줘야하는데, 이미 오래 전에 박제된 정보만을 찾아서 보여준다면 검색으로써의 효용이 없습니다. (지나친 논리적 과장이 맞습니다.) 실시간검색이나 질문에 의한 답변을 얻는 것이 중요해진 것도 이런 아카이빙된 정보가 아니라, 지금 살아서 생기넘치는 정보를 얻는다는 측면에서 중요한 이슈입니다. 검색의 미래를 생각할 때, 단순히 어떤 부가정보를 더 많이 활용할 것인가 (문맥검색), 어떤 형태로 검색이 이뤄질 것인가, 또는 어떤 정보를 찾을 것인가 등은 이미 다 이뤄진 검색패러다임/아키텍쳐 내에서 정의되는 것입니다. 기구축된 패러다임에서 미래를 찾는 것 자체가 어리석은 일입니다. 검색의 미래는 분명 새로운 패러다임이 만들어지면서 정해질 것입니다. 그런 측면에서 제가 Aardvark에 큰 기대를 걸었었고, 또 구글이 바로 인수되면서 큰 실망을 했습니다. 지금 당장은 Village Model이 Library Model보다 부족한 점들이 많지만 새로운 검색패러다임을 보여줄 거라고 기대했는데, 스스로 기존 검색패러다임에 흡수되어버렸습니다.

 결론을 내리면, 검색은 더이상 '찾는 것'이 아닙니다. Searching is no more Googling. 그냥 살아있는 정보가 내 앞에 '나타나는 것'입니다. 필요해서 찾는 것이 검색이 아니라, 필요할 때 보여지는 그것이 검색입니다. 그런 검색이 가능하기 위해서 문맥검색도 더욱 보강되어야 하고 다양한 검색인터페이스도 구축되야하고 또 지식/정보의 창구도 더욱 확충되어야 합니다.

 자잘한 것에 미래를 맡기기에는 미래는 너무 불명확하고 큽니다.

댓글을 달아 주세요

  1. Favicon of https://server13.kproxy.com/servlet/redirect.srv/s/p1/ BlogIcon kusong.lee@gmail.com 2010.04.19 10:22 신고 Address Modify/Delete Reply

    좋은 의견입니다. 한가지 사견을 덧붙이자면 발전이란게 뛰어 넘을 때도 있지만, 차츰 개선되는 점도 무지 중요하다고 생각합니다. 그런 점에서 최소한의 매타정보나 아카이브도 부족한 한국에서 이상적인 환경으로 진화한다는게 항상 막히는 원인들이 있지 않나도 싶습니다.

    • Favicon of https://bahnsville.tistory.com BlogIcon Bahniesta 2010.04.19 11:25 신고 Address Modify/Delete

      네 맞습니다. Incremental 하게 조금씩 차이/개선을 보이다보면 어느 순간 엄청난 혁신수준의 개선이 온느 경우도 종종 있습니다. 보통 존속혁신 (sustaining innovation)이라고 부르곤 합니다. 역사는 마치 파괴적 혁신 disruptive innovation의 산물처럼 보이지만, 그런 파괴적 혁신보다 더 많은 존속혁신이 있었기 때문에 지금의 모습을 갖춰졌습니다. 문제는 그런 존속기술/환상에 갇혀서 더 큰 방향을 놓칠 수 있지 않을까하는 염려가 항상 따릅니다. 제가 검색을 찾는 것이 아니라 묻는 거라고 말했지만, 제가 잘못 짚었을 수도 있고... 그냥 검색이라는 행위보다 더 오래된 인간의 행위/경험이 묻고답하는 대화였던 것이 오늘날 SNS에서 다시 발견되는 것같아서 글을 적었습니다.

  2. Favicon of http://dakoo.egloos.com BlogIcon dakoo 2010.04.22 21:34 신고 Address Modify/Delete Reply

    search보다는 discovery라는 것에는 동의합니다. 단지, discovery가 정말 내가 필요한 정보가 눈앞에 나타나는 형태가 될지, 아니면 real world에서 정보를 구하는 형태를 흉내낼지는 아직 모르겠네요. 분명한 것은 패러다임이 변한다는 것이겠지요. 검색의 미래 2번째를 기대하고 있겠습니다. 글 잘 읽었습니다~.

    • Favicon of https://bahnsville.tistory.com BlogIcon Bahniesta 2010.04.23 15:59 신고 Address Modify/Delete

      아무도 미래를 모르니 먼저 선수를 쳐서 예측을 내놓았습니다. 부족한 논리의 글인데 잘 봐주셔서 감사합니다. 블로그에 접속해서 테크 기업의 수익구조에 대한 글을 트윗했는데 반응이 좋던데요. 앞으로도 자주 블로그에 접속해서 볼겠습니다.

  3. Favicon of http://mahabanya.com BlogIcon mahabanya 2010.04.24 10:13 신고 Address Modify/Delete Reply

    쓰신 글에 많은 부분 동의합니다. 저도 검색에 있어서 재미있는(?) 아이디어로 사업기획을 하고 있지만 ㅎㅎㅎ

    동업자가 꼭 읽어보라고 링크를 남겼길래 잘 읽어보았습니다.

    관점이나 논지가 좀 다르지만 검색과 관련해 쓴 글을 트랙백 놓고 갑니다^^