'filter bubble'에 해당되는 글 1건

  1. 2013.12.16 추천 시스템의 부작용 - 필터버블 (PR시리즈.10)
Share           Pin It

처음에는 계획하지 않았던 글이지만, MIT 테크리뷰에 올라온 글 (참고, How to Burst the Filter Bubble that Protects Us from Opposing Views)를 읽은 후에 추천시스템 글에 함께 제시할 필요가 있다고 생각해서 적습니다.

위의 글에서 소개되었듯이 필터버블 Filter Bubble은 2011년도에 인터넷 활동가인 Eli Pariser가 처음 사용한 용어로, 강력한 추천 시스템이 사람들을 실세계의 특정 측면을 인지하는 것을 가로막는 현상을 뜻합니다. 검색 서비스를 만들면서 종종 Java를 검색했을 때 어떤 결과를 보여주면 좋을까?라는 질문을 합니다. Java는 잘 알려졌듯이 Sun에서 만들어서 현재는 (거의, 적어도 한국에서는) 인터넷 표준이 된 프로그래밍 언어입니다. 그러나 비IT인들은 자바 커피나 인도네시아 자바섬을 떠올립니다. 그래서 IT프로그래머들에게 프로그램 관련 결과를 보여주고, 비IT인들에게는 자바 커피나 인도네시아 여행 관련 결과를 보여주면 좋을 거다라는 얘기를 합니다. 이렇듯 특정인의 배경이나 관심사에 맞게 결과를 필터링해서 보여주게 되면, 그 사람은 늘 자바에 대한 모든 것 (프로그래밍, 커피, 인도네시아)을 볼 수 있는 것이 아니라, 특정 부분만을 보게 됩니다. 즉, 다른 측면을 볼 수 없습니다. 이런 현상을 필터버블이라고 부릅니다.

추천 시스템을 만들고 알고리즘을 개발할 때, 처음에는 단순히 정확하고 성능이 좋은 걸 개발하겠다고 덤벼들지만, 더 깊숙이 파고들수록 추천에 따른 피로도 증가와 자기강화현상이라는 문제와 맞닿게 되고, 우연에 의한 발견이나 다양성에 관심을 가지게 됩니다. 추천 피로도는 비슷한 아이템들이 계속 제시됨에 따라서 새로운 것이 없다고 느끼게 되는 것이고, 자기강화는 기존에 믿고 있던 관점과 비슷한 증거들이 쌓이면서 자기 확신에 이르는 현상입니다. 특히 정치 사회적으로 대립되는 이슈에 대해서 자기강화현상이 일어나면 잘못된 생각이 확신/신념이 되거나 옳바른 상대의 생각을 무턱대고 배척하고 배제하는 현상이 벌어집니다. 외부의 바른/다른 생각이 차단됨에 따라서 사이비 종교집단에 빠지거나 일베와 같은 비사회적 집단으로 발전할 수도 있습니다.

유유상종이라는 말이 있듯이, 비슷한 생각을 가진 사람들끼리 모이고 커뮤니티를 형성하고, 또 그 속에서 비슷한 생각을 더 강화시키는 현상은 일반적입니다. 특정 관점에 따라서 특정 집단/커뮤니티에 가입하는 것뿐만 아니라, 트위터의 팔로잉의 경우에도 자신과 비슷한 입장의 사람들만 팔로잉합니다. 만약 자신의 생각과 다른 입장의 트윗이 보이면 바로 언팔로잉합니다. (저도 예외는 아닙니다.) 그런데 이것은 개인의 자발적 의사에 의해서 빠져드는 경우이기 때문에 개인의 일탈 행위로 치부할 수 있고, (사회가 어느 정도 책임은 있겠지만) 전적으로 개인의 책임으로 물을 수 있습니다.

그런데 중립적이어야할 검색엔진이나 추천시스템과 같은 기계에 의해서 자기강화현상이 발생한다면 문제는 달라집니다. 예를들어, 특정인의 과거 이력을 분석해보고 그 사람이 우파/보수적인 성향을 가졌다는 것이 파악되었다면 그 사람이 검색할 때마다 그 사람이 좋아할만한 친정부적이거나 친기업적인 보수색체의 뉴스만을 제공해주거나, 역으로 좌파/진보 인사들에게는 진보적인 견해만을 제공해줌으로써 그들의 생각을 공고히 강화시키는 현상이 발생할 수 있습니다. 애플팬들에게는 애플을 찬양하고 경쟁사인 삼성을 까는 기사만 보여주고, 반대로 삼성에 우호적인 사람들에게는 애플의 나쁜 점과 삼성에 호의적인 기사만 보여준다면 이들은 애플이나 삼성의 장단점을 객관적으로 비교할 수가 없습니다. 물론, 기본 성향에 따라서 자신이 선호하는 견해를 받아들이고 반대 견해를 배척합니다. 그러나 그것이 기계에 의해서 보이지 않는 장벽이 처지는 것과는 다릅니다.

그래서 검색엔진이나 추천시스템을 만들면서 단기적으로 사용자들의 만족도를 높이기 위해서 그들에게 우호적인 기사만을 제공해줄 것인가? 아니면 장기적인 관점에서 반대 견해도 함께 제공해줄 것인가?를 늘 고민하게 됩니다. 언론사들이 기본적으로 보수견해, 진보견해가 나눠지지만, 포털과 같이 검색 또는 메타언론사들이 어떻게 중립을 취하고 가치편향을 최소화할 것인가?에 대해서 늘 고민입니다. 중립적인 기사를 배치하거나 균형을 맞추기 위해서 다양한 기사를 배치하지만, 일부에서는 좌파/종북 다음이라는 비난을 받기도 하고 또 반대편에서는 다음도 이제 장악되었다라는 반응을 보이기도 합니다.

네.. 어쨌든 MIT테크리뷰에 소개된 논문 (참고. Data Portraits: Connecting People of Opposing Views)를 읽어보면, 사람들에게 자신의 견해와 다른 기사/데이터를 제공해주면 단기적으로는 불만을 표할지 몰라도 장기적으로는 상대의 견해를 받아들이기도 하고 자기 수정이 이뤄진다는 것이 발견되었다고 합니다. 물론 이슈의 내용이나 개인의 견해의 강도에 따라서 달라지기도 하겠지만... 가치중립적인 조직에서는 욕을 먹더라도 다양한 견해를 취합해서 편햔되지 않은 정보를 사용자들에게 제공해줄 의무가 있습니다.

추천시스템 전체 목록

  1. 추천 시스템과의 조우 (PR시리즈.1)
  2. 추천 시스템을 위한 데이터 준비 (PR시리즈.2)
  3. 추천대상에 따른 추천 시스템의 분류 (PR시리즈.3)
  4. 알고리즘에 따른 추천 시스템의 분류 (PR시리즈.4)
  5. 추천 시스템을 위한 유사도 측정 방법 (PR시리즈.5)
  6. 추천 시스템의 성능 평가방법 및 고려사항 (PR시리즈.6)
  7. 추천 시스템에서의 랭킹과 필터링 문제 (PR시리즈.7)
  8. 추천 시스템의 쇼핑하우 적용예 (PR시리즈.8)
  9. 개인화 추천 시스템에 대하여 (PR시리즈.9)
  10. 추천 시스템의 부작용 - 필터버블 (PR시리즈.10)
  11. 추천 시스템의 레퍼런스 (PR시리즈.11)
  12. 추천 시스템에 대한 잡다한 생각들 (PR시리즈.12)
  13. 추천 시스템을 위한 하둡 마훗 사용하기 (PR시리즈.13)
  14. 추천 시스템에 대해서 여전히 남은 이야기들 (PR시리즈.14)

==

페이스북 페이지: https://www.facebook.com/unexperienced

댓글을 달아 주세요