문서의 각 단락이 어느 리비전에서 마지막으로 수정되었는지 확인할 수 있습니다. 왼쪽의 정보 칩을 통해 작성자와 수정 시점을 파악하세요.

필터 버블 및 확증 편향 가속 | |
현상명 | |
분류 | |
주요 발생 영역 | |
핵심 메커니즘 | |
주요 영향 | 사회적 양극화, 가짜 뉴스 확산, 공론장 분열, 개인적 세계관 경직 |
상세 정보 | |
관련 개념 | |
주요 원인 기술 | |
대표적 플랫폼 | |
사회적 파장 | 정치적 극단주의 조장, 집단 극화, 합의 형성 어려움, 공동체 의식 약화 |
개인적 영향 | 세계관의 협소화, 새로운 관점에 대한 노출 감소, 비판적 사고력 저하 가능성 |
연구자/이론가 | 엘리 파리서 (필터 버블 개념 제시), 캐스 R. 선스타인 (정보 식별), 디지털 인문학 연구자 |
대응 방안 | |
논쟁점 | 필터 버블의 실증적 영향력 논쟁, 개인 책임 vs. 플랫폼 책임, 표현의 자유와 규제의 균형 |

필터 버블은 온라인 플랫폼의 개인화 알고리즘이 사용자의 과거 행동 데이터를 바탕으로 선호할 것으로 예상되는 정보만을 선별적으로 제공함으로써 발생하는 정보적 고립 상태를 의미한다. 이는 사용자가 자신의 기존 신념이나 관심사와 일치하는 내용에만 반복적으로 노출되도록 만든다. 확증 편향은 개인이 자신의 기존 신념, 태도 또는 가정을 지지하거나 확인해주는 정보를 선호하고, 반대되는 정보는 무시하거나 회피하는 인지적 편향이다.
두 현상은 디지털 환경에서 상호작용하며 심화되는 경향이 있다. 알고리즘은 사용자의 확증 편향에 기반한 클릭과 관심을 데이터로 수집하고, 이를 학습하여 더욱 동질적인 정보만을 제공하는 필터 버블을 강화한다. 이 순환 고리는 사용자의 시각을 점점 더 좁히고, 대안적 관점에 대한 접근을 차단한다.
이로 인해 사회 구성원 간의 공유된 경험과 사실 인식이 어려워지고, 의견의 양극화가 촉진된다. 특히 정치, 사회 이슈와 관련하여 서로 다른 정보 환경에 놓인 집단 간의 대화와 타협이 힘들어지며, 이는 궁극적으로 공론장의 침식과 민주주의의 위기로 이어질 수 있다는 비판이 제기된다. 따라서 이 현상은 단순한 기술의 문제를 넘어 현대 사회의 주요한 사회문화적 도전 과제로 인식된다.

필터 버블은 인터넷 사용자가 자신의 기존 관심사, 신념, 행동 이력과 일치하는 정보만을 접하게 되어 다른 관점이나 정보로부터 고립되는 현상을 말한다. 이 용어는 인터넷 활동가인 엘리 파리서가 2011년 그의 저서에서 대중화시켰다. 필터 버블은 사용자에게 맞춤형 경험을 제공한다는 명목 하에 작동하지만, 결과적으로는 정보 환경을 좁히고 사회적, 정치적, 문화적 관점의 다양성을 제한한다.
필터 버블의 핵심 작동 원리는 개인화 알고리즘에 있다. 검색 엔진, 소셜 미디어 플랫폼, 뉴스 추천 시스템 등은 사용자의 클릭, 검색 기록, 체류 시간, '좋아요' 반응, 위치 정보, 사회적 연결망 등을 수집하여 분석한다. 이 데이터를 바탕으로 알고리즘은 사용자가 선호할 가능성이 높은 콘텐츠를 우선적으로 노출시키는 순위를 매긴다. 예를 들어, 특정 정치적 견해를 가진 사용자에게는 그 견해를 지지하는 기사나 포스트가 더 자주 보여진다.
이러한 개인화된 필터링은 사용자에게 편리함을 제공하는 동시에 정보 환경의 고립 현상을 초래한다. 사용자는 자신의 신념을 강화하는 정보에만 반복적으로 노출되고, 반대되는 관점이나 복잡한 중립적 정보는 점차 화면에서 사라진다. 이는 마치 투명한 벽으로 둘러싸인 버블 안에 갇힌 것과 같은 심리적 상태를 만든다. 사용자는 자신이 접하는 정보가 객관적 전부라고 오인하기 쉽고, 세상이 자신이 보는 좁은 시각과 일치한다고 믿게 되는 위험에 빠진다.
개인화 알고리즘은 사용자의 과거 행동 데이터를 분석하여 관심사와 선호도를 예측하고, 그에 맞는 콘텐츠를 선별하여 제공하는 소프트웨어 논리이다. 이 알고리즘은 클릭률, 체류 시간, 좋아요, 공유, 검색 기록 등 수많은 디지털 흔적을 학습 자료로 삼는다. 주요 목표는 사용자의 참여도를 극대화하여 플랫폼 이용 시간을 늘리는 것이다. 따라서 사용자가 선호할 만하고, 공감하거나, 강한 반응을 보일 것으로 예측되는 정보가 우선적으로 노출된다.
이 과정은 사용자에게 보이지 않는 형태로 이루어진다. 예를 들어, 소셜 미디어 피드는 시간순이 아닌 '관련성' 순으로 정렬되고, 검색 결과와 동영상 추천 목록은 각 사용자에게 고유하게 구성된다. 알고리즘은 지속적으로 피드백 루프를 통해 성능을 개선하는데, 사용자가 특정 콘텐츠와 상호작용하면 이를 선호도의 증거로 해석하고 유사한 콘텐츠를 더 많이 제공한다. 이는 점차 사용자의 정보 환경을 좁히고 특정 주제나 관점에 치우치게 만드는 필터링 효과를 발생시킨다.
알고리즘 유형 | 주요 분석 데이터 | 목표 |
|---|---|---|
협업 필터링 | 유사 사용자 집단의 행동 패턴 | "당신이 좋아할 만한 다른 것" 추천 |
콘텐츠 기반 필터링 | 사용자의 개인 행동 이력(클릭, 시청) | 과거 선호와 유사한 콘텐츠 추천 |
컨텍스트 기반 필터링 | 접속 시간, 위치, 기기 등 상황 정보 | 상황에 가장 적합하다고 판단되는 콘텐츠 제공 |
결국, 개인화 알고리즘의 역할은 단순한 정보의 문지기가 아니라 적극적인 정보 큐레이터이다. 이는 사용자에게 편리함과 관련성을 제공하는 동시에, 의도치 않게 그들이 접하는 정보의 스펙트럼을 제한한다. 알고리즘이 만들어내는 이 맞춤형 정보 환경은 사용자로 하여금 자신의 기존 신념을 지지하는 정보에만 반복적으로 노출되게 하여, 필터 버블 형성의 핵심 동인이 된다.
개인화 알고리즘은 사용자가 자주 접하거나 선호하는 콘텐츠 유형을 지속적으로 우선시하여 노출시킨다. 이 과정에서 사용자는 자신의 기존 관심사와 일치하지 않는 다양한 주제나 반대되는 관점의 정보를 접할 기회를 점차 잃게 된다. 결과적으로 각 사용자의 정보 환경은 서로 다른 방향으로 특화되고 좁아지며, 이는 마치 서로 다른 필터 버블 속에 갇힌 것과 같은 상태를 만들어낸다.
이러한 고립은 단순히 취향에 맞는 정보만을 제공하는 수준을 넘어, 사용자의 세계관을 형성하는 데 영향을 미친다. 사용자는 자신의 버블 안에서만 정보를 수용하게 되고, 외부의 다른 의견이나 사실을 접촉하거나 이해할 가능성이 크게 줄어든다. 특히 정치, 사회 이슈와 관련하여 이 현상은 두드러지게 나타나, 상대방의 입장을 고려하거나 중립적인 정보를 평가하는 능력을 약화시킨다.
정보 환경의 고립 정도는 플랫폼과 사용 패턴에 따라 차이를 보인다. 다음 표는 고립 현상에 영향을 미치는 주요 요인을 정리한 것이다.
영향 요인 | 고립 현상 설명 |
|---|---|
플랫폼 의존도 | 단일 소셜 미디어나 뉴스 앱에만 의존할수록 고립이 심화된다. |
알고리즘 투명성 | 알고리즘의 작동 방식이 불투명할수록 사용자는 정보의 편향성을 인지하기 어렵다. |
사용자 적극성 | 능동적으로 다양한 출처를 탐색하는 사용자보다 수동적으로 피드만 소비하는 사용자의 고립 위험이 높다. |
사회적 연결 구조 | 생각이 비슷한 사람들로만 구성된 온라인 네트워크는 고립을 강화한다. |
이러한 고립된 정보 환경은 사회 전체적으로 볼 때, 공통의 사실 기반을 훼손하고 공론장을 분열시키는 결과를 초래한다. 각 개인과 집단은 서로 다른 정보 체계 안에 살게 되어, 동일한 사건에 대해 전혀 다른 해석과 믿음을 갖게 되는 것이다.

확증 편향은 개인이 자신의 기존 신념, 가설 또는 태도를 지지하는 정보를 탐색하고, 해석하며, 기억하는 경향을 가리키는 인지 편향이다. 이는 사람들이 새로운 정보를 처리할 때 객관적이고 합리적으로 평가하기보다는 자신의 선입견을 확인시켜 주는 방향으로 선택적 주의를 기울이는 심리적 기제를 설명한다. 확증 편향은 의사 결정, 문제 해결, 과학적 탐구를 포함한 다양한 인지 과정에서 나타난다.
이 편향은 정보의 선택과 해석 두 단계에서 작동한다. 선택 단계에서는 개인이 자신의 견해와 일치하는 정보원(예: 특정 언론사, 소셜 미디어 채널)을 선호적으로 접촉한다. 해석 단계에서는 모호하거나 중립적인 정보조차 자신의 입장을 지지하는 방식으로 받아들인다. 예를 들어, 정치적 신념이 다른 두 사람이 같은 통계 데이터를 접했을 때, 각자는 그 데이터를 자신의 입장을 뒷받침하는 증거로 해석하는 경우가 많다[1]. 이는 새로운 증거가 제시되더라도 기존 신념을 쉽게 바꾸지 않는 경직된 사고를 초래할 수 있다.
확증 편향의 근원은 복잡한 정보 환경에서 인지적 노력을 절약하려는 심리적 효율성 추구, 자신의 자아 개념과 세계관을 위협받지 않으려는 동기, 그리고 사회적 집단에 대한 동조 압력 등에서 찾을 수 있다. 이는 단순한 논리적 오류를 넘어, 개인의 정체성 유지와 사회적 관계 형성에 깊이 관여하는 심리적 현상이다.
인지적 편향은 개인이 정보를 처리하고 판단을 내리는 과정에서 체계적으로 벗어나 오류를 일으키는 심리적 경향성을 가리킨다. 이는 인간의 사고가 완전히 합리적이지 않으며, 효율성이나 심리적 안정을 위해 자동적으로 적용되는 휴리스틱에 크게 의존하기 때문에 발생한다. 인지적 편향은 의도적이지 않으며, 종종 무의식적으로 작용하여 사실에 기반한 객관적 판단보다는 개인의 기존 신념, 감정, 경험에 영향을 받은 주관적 결론을 이끌어낸다.
주요 인지적 편향의 유형은 다음과 같이 분류할 수 있다.
편향 유형 | 간략한 설명 | 예시 |
|---|---|---|
확증 편향 | 자신의 기존 신념이나 가설을 지지하는 정보를 찾고, 반대되는 정보는 무시하거나 평가절하하는 경향 | 특정 정치적 입장을 가진 사람이 자신의 견해를 뒷받침하는 뉴스만을 선택적으로 소비함 |
은유효과 | 최근에 접했거나 생생하게 각인된 정보를 과대평가하여 판단에 지나치게 반영하는 경향 | 비행기 추락 사고 보도 후 비행기보다 자동차가 통계적으로 더 위험함에도 불구하고 비행기를 더 위험하다고 느낌 |
집단주의 | 자신이 속한 집단의 규범이나 신념에 동조하려는 압력을 느끼거나, 집단 내 동질성을 과대평가하는 경향 | 회의에서 대다수의 의견에 반대 의견을 제시하기 꺼려함 |
점착성 편향 | 한 번 형성된 초기 인상이나 정보(닻)에 사고가 고정되어, 이후 정보를 조정하는 데 실패하는 경향 | 제품의 첫 번째 제시 가격(닻)이 이후 가격 협상이나 가치 판단에 지속적으로 영향을 미침 |
이러한 편향들은 정보의 부족이나 시간의 압박 상황에서 빠른 결정을 내리도록 돕는 적응적 기능을 할 수도 있지만, 동시에 오류 가능성을 높이고 비합리적 판단으로 이어질 수 있다. 디지털 환경에서는 방대한 정보 속에서 필터링과 선택이 필수적이기 때문에, 이러한 인지적 편향이 더욱 두드러지게 나타날 수 있다.
확증 편향 하에서 개인은 자신의 기존 신념이나 가설을 지지하는 정보를 적극적으로 탐색하고 선호하는 경향을 보인다. 이는 정보의 폭주 속에서 인지 부하를 줄이기 위한 효율적 전략으로 작동할 수 있지만, 동시에 편향된 정보 선택으로 이어진다. 예를 들어, 특정 정치적 입장을 가진 사람은 자신의 견해를 뒷받침하는 뉴스 매체나 소셜 미디어 계정을 주로 구독하게 된다.
선택된 정보를 해석하는 과정에서도 편향은 강화된다. 동일한 정보라 하더라도 개인은 자신의 신념 체계와 일치하는 방식으로 해석하거나, 모순되는 정보는 의심하거나 무시하는 경향을 보인다. 이는 인지 부조화를 피하고 심리적 안정을 유지하려는 동기에서 비롯된다. 결과적으로, 객관적 사실보다는 주관적 신념에 부합하는 '나의 진실'이 구성된다.
이 과정은 종종 무의식적으로 이루어지며, 그 결과 개인의 신념은 점점 더 극단화되고 경직될 수 있다. 아래 표는 확증 편향이 정보 처리 과정에 미치는 영향을 요약한다.
처리 단계 | 주요 특징 | 결과 |
|---|---|---|
정보 선택 | 기존 신념과 일치하는 출처와 내용 선호 | 편향된 정보 환경 형성 |
정보 해석 | 지지하는 정보는 수용, 반대 정보는 회의적 평가 또는 무시 | 신념의 강화 및 극단화 |
정보 기억 | 지지하는 정보는 쉽게 회상, 반대 정보는 망각 또는 왜곡 | 편향된 기억 재구성 |
이러한 선택과 해석의 편향은 단순한 심리적 현상을 넘어, 개인화 알고리즘이 적용된 디지털 환경에서 더욱 용이하게 그리고 강력하게 발현된다. 알고리즘은 사용자의 클릭과 체류 시간 같은 행동 데이터를 학습하여 유사한 정보를 지속적으로 노출시키므로, 사용자의 편향은 시스템에 의해 공고히 되는 순환 구조가 만들어진다.

필터 버블과 확증 편향은 서로를 강화하는 순환 구조를 형성하며, 현대 정보 환경에서 개인의 세계관을 빠르게 극단화시키는 주요 동력으로 작용한다. 개인화 알고리즘은 사용자의 과거 클릭, 공유, 체류 시간 등 디지털 흔적을 분석해 선호할 만한 정보를 지속적으로 노출시킨다. 이 과정에서 사용자는 자신의 기존 신념이나 관심사를 지지하는 정보에 반복적으로 노출되며, 이는 자연스럽게 확증 편향을 활성화시킨다. 즉, 알고리즘이 제공하는 편향된 정보 환경은 사용자로 하여금 자신의 의견을 확인해주는 정보를 더 쉽게 선택하고, 반대되는 견해는 무시하거나 회피하는 심리적 경향을 강화한다.
이러한 상호작용은 일종의 피드백 루프를 생성하여 두 현상을 가속화시킨다. 사용자의 확증 편향에 따른 정보 선택 행동은 다시 알고리즘에 새로운 학습 데이터로 입력되어, 다음번에는 더욱 정확하게(즉, 더욱 편향적으로) 사용자의 선호를 반영한 콘텐츠를 추천한다. 이 순환이 반복될수록 정보 환경은 점점 더 좁아지고, 신념은 점점 더 경직된다. 결과적으로 개인은 자신의 관점만을 지지하는 정보로 구성된 '메아리 방'에 갇히게 되며, 이는 타당한 비판이나 대안적 관점을 접할 기회를 근본적으로 봉쇄한다.
이 가속화 메커니즘은 온라인 공간의 사회적 양극화를 심화시키는 핵심 요인이다. 서로 다른 필터 버블에 갇힌 집단들은 완전히 별개의 정보 체계와 사실 인식을 바탕으로 소통하게 된다. 공통의 사실 기반이 사라지면, 합의나 타협보다는 적대감과 불신이 증폭된다. 특히 정치·사회적 이슈에서 이 현상은 뚜렷하게 나타나, 복잡한 문제를 이분법적으로 보게 만들고 상대 진영을 이해하려는 노력을 저해한다. 결국, 알고리즘의 효율성 추구와 인간의 인지적 편향이 결합되어, 개인과 사회 전체의 정보 식별 능력과 건강한 공론장을 위협하는 악순환 구조가 공고해진다.
개인화 알고리즘과 확증 편향은 서로를 강화하는 순환 고리를 형성한다. 사용자가 특정 관점의 콘텐츠를 선호하여 클릭하거나 공유하면, 알고리즘은 이를 학습하여 유사한 콘텐츠를 더 많이 노출시킨다. 이렇게 좁아진 정보 환경(필터 버블) 속에서 사용자는 자신의 기존 신념을 지지하는 정보에 반복적으로 노출되며, 이는 자연스럽게 확증 편향을 더욱 강화시킨다.
이 강화된 편향은 다시 사용자의 온라인 행동에 영향을 미쳐, 알고리즘에 더욱 명확한 피드백을 제공한다. 결과적으로 알고리즘은 사용자의 선호도를 점점 더 극단적으로 해석하게 되고, 정보 환경은 초기 상태보다 훨씬 더 편향되고 고립된 방향으로 진화한다. 이 과정은 사용자의 인지적 편향과 플랫폼의 기술적 메커니즘이 상호 작용하며 가속화되는 자가 강화 사이클을 만든다.
이 순환 강화 메커니즘의 결과는 사용자별로 완전히 다른 정보 현실을 경험하게 되는 것이다. 아래 표는 이 순환 과정의 단계를 보여준다.
단계 | 사용자 행동 | 알고리즘 반응 | 결과 |
|---|---|---|---|
1 | 사용자가 특정 견해의 콘텐츠에 관심을 보임(클릭, 공유, 긴 체류 시간) | 알고리즘이 해당 콘텐츠의 유형을 '선호'하는 것으로 판단하고 유사 콘텐츠 추천을 강화 | 정보 환경이 특정 방향으로 좁아지기 시작 |
2 | 좁아진 환경에서 유사한 관점의 정보에 지속적으로 노출됨 | 사용자의 반응 데이터가 계속 축적되어 추천 패턴이 고정화 | 확증 편향이 강화되고 대안적 정보 접촉 기회 감소 |
3 | 강화된 편향으로 인해 극단적이거나 선정적인 콘텐츠에도 더 쉽게 반응하게 됨 | 알고리즘이 더 극단적이고 참여를 유발하는 콘텐츠를 추천하여 사용자 참여도 극대화 시도 | 정보 환경의 고립과 양극화가 심화 |
이러한 역동성은 단순한 기술의 부작용이 아니라, 인간의 심리적 경향과 데이터 기반 의사결정 시스템이 결합되어 발생하는 복합적 현상이다.
필터 버블과 확증 편향의 상호작용은 사회 내 집단 간 대립을 심화시키고 사회적 양극화를 촉진하는 주요 메커니즘으로 작동한다. 알고리즘이 공급하는 동질적 정보 환경은 개인이 자신의 신념을 지지하는 주장과 증거에만 반복적으로 노출되도록 하여, 반대 진영의 입장을 이해하거나 공감하는 능력을 저하시킨다. 이로 인해 정치적, 사회적 이슈에 대한 논의는 점점 더 극단적인 입장으로 치우치고, 중도적 의견이 사라지는 양극화 현상이 가속화된다.
이 과정에서 상대방에 대한 인식도 왜곡된다. 다른 집단의 구성원들은 단순히 의견이 다른 존재가 아니라, 비합리적이거나 악의를 가진 적대자로 인식되기 쉽다. 이러한 적대적 귀인은 협상과 타협의 가능성을 차단하고, 사회적 갈등을 해결하기보다는 증폭시키는 결과를 낳는다. 특히 소셜 미디어에서 형성된 에코 챔버는 이러한 적대감을 강화하는 온상이 된다.
양극화 촉진 요소 | 설명 |
|---|---|
정보 환경의 분리 | 각 집단이 서로 다른 사실과 해석에 기반한 정보 환경에 갇힘 |
인식의 왜곡 | 상대 집단을 과도하게 일반화하거나 부정적으로 인식하는 경향 강화 |
대화 채널의 단절 | 서로 다른 입장을 가진 사람들 간의 직접적 소통 기회 감소 |
정체성의 정치 강화 | 의견 차이가 단순한 관점의 문제가 아니라 집단 정체성의 충돌로 비화됨 |
결과적으로 사회는 하나의 공통된 사실에 기반한 논의를 진행하기 어려워지고, 중요한 공공 정책에 대한 합의 형성은 점점 더 난관에 부딪힌다. 이는 민주적 의사 결정 과정을 마비시키고, 사회 구성원 간의 신뢰를 근본적으로 훼손하는 장기적 위험을 초래한다.

소셜 미디어 플랫폼은 필터 버블 형성의 핵심 매개체 역할을 한다. 페이스북과 인스타그램의 뉴스 피드는 사용자의 과거 상호작용(좋아요, 공유, 댓글, 체류 시간)을 분석한 개인화 알고리즘에 의해 구성된다. 이는 사용자가 자주 접하거나 선호할 것으로 예측되는 콘텐츠를 우선적으로 노출시킨다. 예를 들어, 특정 정치적 견해에 대한 게시물에 반응을 보이면 알고리즘은 유사한 입장의 콘텐츠를 더 많이 제공하며, 결과적으로 사용자는 점차 자신의 신념을 강화하는 정보 환경에 갇히게 된다.
검색 엔진 또한 사용자 맞춤형 결과를 제공하며 필터 버블을 강화한다. 구글 검색은 사용자의 위치, 검색 이력, 클릭 패턴 등을 기반으로 검색 결과의 순위를 조정한다. 이로 인해 동일한 검색어를 입력하더라도 사용자마다 상이한 결과 페이지를 접하게 된다. 유튜브의 추천 알고리즘은 시청 이력을 바탕으로 다음에 볼 동영상을 제안하는데, 이 과정에서 점점 더 극단적이거나 특정 주제에 편중된 콘텐츠로 사용자를 유도하는 경향이 관찰된다[2].
플랫폼 유형 | 대표 서비스 | 알고리즘의 주요 작동 방식 | 초점 |
|---|---|---|---|
소셜 미디어 | 페이스북, [[X (소셜 미디어) | X(트위터)]], 인스타그램 | 사용자 참여(engagement) 최적화 |
검색 엔진 | 구글, [[빙 (검색 엔진) | Bing]], 네이버 | 개인화된 검색 결과 순위 조정 |
동영상/뉴스 | 유튜브, 다양한 뉴스 앱 | 시청/열람 이력 기반 연관 콘텐츠 추천 | 주제 지속성 및 심화 |
뉴스 추천 시스템은 이러한 현상을 정보 소비의 핵심 영역으로 확대한다. 많은 디지털 뉴스 매체와 애그리게이션 서비스는 클릭률을 높이기 위해 사용자의 관심사를 충족시키는 헤드라인과 기사를 선별하여 보여준다. 이는 사용자로 하여금 다양한 시각을 가진 매체보다 자신의 기존 입장과 일치하는 소수의 매체에만 반복적으로 노출되도록 만든다. 이러한 플랫폼들의 알고리즘적 설계는 사용자 만족도와 체류 시간을 극대화하는 것을 목표로 하지만, 부수적으로 정보 환경의 고립과 확증 편향의 가속화를 초래한다.
소셜 미디어 플랫폼은 필터 버블 형성의 주요 장이다. 페이스북, 인스타그램, X(트위터), 틱톡 등의 플랫폼은 사용자의 관심사, 과거 상호작용(좋아요, 공유, 댓글, 체류 시간), 친구 및 팔로우 네트워크를 분석하는 정교한 개인화 알고리즘을 운영한다. 이 알고리즘은 사용자의 참여를 극대화하기 위해 사용자가 선호할 가능성이 높은 콘텐츠를 우선적으로 노출시킨다. 결과적으로 사용자는 자신의 기존 관점을 지지하거나 흥미를 끄는 정보에 반복적으로 노출되고, 반대되는 의견이나 새로운 관점은 점차 타임라인에서 사라진다.
주요 플랫폼별 작동 방식은 다음과 같은 차이를 보인다.
플랫폼 | 주요 알고리즘 특징 | 필터 버블 형성에 미치는 영향 |
|---|---|---|
친구 관계와 그룹 활동을 중시, '뉴스 피드' 순위 조정 | 강한 동질적 사회적 관계망으로 인해 관점이 고정됨 | |
팔로우한 계정과 실시간 트렌드, 알고리즘 타임라인 병행 | 특정 주제나 이념에 집중된 커뮤니티(에코 챔버) 형성 촉진 | |
'For You' 피드 중심, 사용자 상호작용 패턴을 즉시 학습 | 매우 빠르고 정확한 취향 파악으로 강력한 정보 환경 고립 발생 | |
시청 기록과 체류 시간 기반의 자동 재생 및 추천 | 특정 주제나 이념의 콘텐츠로 연쇄적 시청 유도, 관점 심화 |
이러한 환경은 확증 편향을 강화하는 데 기여한다. 사용자는 자신의 신념을 확인해주는 포스트나 영상에 더 쉽게 공감하고, '좋아요'나 '공유'를 통해 적극적으로 상호작용한다. 알고리즘은 이 반응을 긍정적인 신호로 받아들여 유사한 콘텐츠를 더 많이 제공하는 순환 구조가 만들어진다. 결국, 사용자는 자신의 세계관이 보편적이고 정당하다는 착각에 빠지기 쉬워지며, 다른 집단에 대한 이해나 공감 능력이 저하된다.
검색 엔진과 뉴스 추천 시스템은 사용자가 온라인에서 정보를 발견하는 주요 경로로서, 필터 버블 형성에 핵심적인 역할을 한다. 이러한 시스템은 사용자의 과거 검색 기록, 클릭 패턴, 체류 시간, 지리적 위치 등 방대한 데이터를 분석하여 개인화된 결과를 제공한다. 목표는 사용자에게 '관련성 높은' 정보를 신속하게 전달하여 만족도를 높이고 플랫폼 체류 시간을 연장하는 것이다. 그러나 이 과정에서 사용자는 자신의 기존 관심사나 신념과 일치하는 정보에 노출될 가능성이 높아지고, 반대되는 관점이나 새로운 주제는 점차 검색 결과 상위에서 사라지는 경험을 한다.
주요 검색 엔진의 알고리즘은 사용자 프로파일링을 기반으로 결과의 순위를 조정한다. 예를 들어, 정치 성향이 다른 두 사람이 동일한 키워드로 검색할 경우, 상위에 노출되는 뉴스 출처나 웹사이트의 편향성이 달라질 수 있다[3]. 뉴스 추천 시스템은 이 원리를 더욱 극대화한다. 사용자가 특정 정치적 기사나 특정 유형의 콘텐츠를 자주 클릭하면, 시스템은 유사한 성격의 기사를 더 많이, 더 눈에 띄는 위치에 추천한다. 이는 사용자의 확증 편향을 자연스럽게 만족시키는 동시에, 알고리즘이 그 편향을 학습하여 더욱 강화하는 순환 구조를 만든다.
이러한 개인화의 영향은 정보의 다양성 측면에서 명확히 드러난다. 시스템은 사용자에게 '예상되는 선호'를 충족시키는 데 최적화되어 있어, 도전적이거나 불편할 수 있는 중요한 공적 정보(예: 반대 진영의 정책 분석, 복잡한 사회 문제에 대한 균형 잡힌 보도)를 접할 기회를 줄인다. 결과적으로 사용자는 점점 더 좁고 동질적인 정보 환경에 갇히게 되며, 이는 사회 전체적으로 서로 다른 정보 체계를 가진 집단들 사이의 이해와 소통의 단절로 이어진다.
플랫폼 유형 | 작동 원리 | 필터 버블 형성에 미치는 영향 |
|---|---|---|
검색 엔진 | 검색 기록, 위치, 디바이스 정보를 활용한 결과 순위 개인화 | 동일 검색어에 대해 사용자별로 상이한 '진실'을 제공하여 정보 환경을 분열시킴 |
뉴스 포털/앱 | 클릭률, 읽은 기사 유형, 공유 이력을 기반한 헤드라인 추천 | 감정적이거나 극단적인 기사가 더 많이 노출되어 관점의 균형을 무너뜨림 |
소셜 미디어 내 뉴스 피드 | 친구 네트워크의 공유 활동과 사용자 상호작용 데이터를 결합한 추천 | 동질적인 사회적 맥락 안에서만 뉴스가 유통되어 외부 정보가 차단됨 |

공론장의 분열은 가장 직접적인 사회적 영향이다. 개인은 자신의 기존 신념과 일치하는 정보만을 지속적으로 접하게 되어, 사회 전체의 담론이 다양한 의견이 교류되는 장이 아니라 서로 격리된 에코 챔버로 분화된다. 이는 합의 형성과 타협을 어렵게 만들며, 사회적 갈등을 심화시키는 요인으로 작용한다[4].
가짜 뉴스의 확산은 이러한 환경에서 더욱 용이해진다. 알고리즘은 사실 여부보다는 사용자의 관심과 반응(클릭, 공유, 반응)을 우선시하여 콘텐츠를 배포한다. 따라서 감정을 자극하거나 기존 편향을 강화하는 선정적이고 허위적인 정보가 빠르게 유포되고 강화되는 경향이 있다. 사용자는 자신의 신념을 뒷받침하는 정보를 접하게 되면, 그 진위를 비판적으로 검증하기보다 무비판적으로 수용하는 확증 편향을 보이기 쉽다.
궁극적으로 이는 민주주의의 운영 기반을 훼손할 수 있는 위기를 초래한다. 시민들이 공유된 사실에 기반한 합리적 토론과 판단을 내리기 어려워지기 때문이다. 정보 환경의 고립과 양극화는 정치적 무관심이나 극단적 신념을 부추길 수 있으며, 민주적 의사 결정 과정을 마비시킬 위험이 있다. 이는 단순한 기술의 문제를 넘어 사회 구성원이 공동의 현실을 인식하고 미래를 설계하는 능력에 대한 근본적인 도전이다.
공론장은 사회 구성원들이 다양한 의견을 교환하고 합리적 논의를 통해 공공의 문제를 해결하는 담론의 장을 의미한다. 그러나 필터 버블과 확증 편향의 상호작용은 이러한 공론장의 기능을 심각하게 훼손시킨다.
첫째, 공통의 사실 기반이 붕괴된다. 개인마다 노출되는 정보 환경이 완전히 달라지면서, 사회적 논의의 출발점이 되는 '공유된 사실'이 존재하기 어려워진다. 예를 들어, 특정 정치적 사안에 대해 A 집단은 알고리즘을 통해 강화된 정보만 접하고, B 집단은 정반대의 정보만 접하게 되면, 서로가 근거로 삼는 사실 자체가 달라 논의의 토대가 무너진다. 이는 단순한 의견 차이가 아닌, 사실 인식 자체의 괴리로 이어진다.
둘째, 담론 공간이 분절되고 대화의 단절을 초래한다. 사람들은 자신의 기존 신념을 강화해주는 정보와 의견 속에 갇히게 되며, 반대되는 관점을 접할 기회가 급격히 줄어든다. 그 결과, 서로 다른 필터 버블에 갇힌 집단 간에는 실질적인 대화와 타협이 거의 불가능해진다. 상대방의 주장을 이해하려는 시도보다는, 자신의 버블 내에서 형성된 적대적 시각으로 상대를 낙인찍는 현상이 빈번해진다.
이러한 분열은 궁극적으로 사회적 합의 형성 능력을 마비시킨다. 공공 정책에 대한 논의는 필연적으로 다양한 이해관계와 가치관의 충돌을 수반한다. 건강한 공론장은 이러한 갈등을 조정하고 합리적인 타협점을 모색하는 기능을 한다. 그러나 사실 기반의 붕괴와 담론 공간의 분절로 인해, 사회는 점점 더 적대적인 집단으로 나뉘고, 공동체 전체의 이익을 위한 정책 결정은 극히 어려워진다. 이는 민주주의의 근간을 위협하는 중대한 결과로 이어진다[5].
가짜 뉴스는 사실과 다른 정보를 의도적으로 만들거나 왜곡하여 유포하는 콘텐츠를 말한다. 필터 버블과 확증 편향은 이러한 가짜 뉴스의 생성, 유포, 확신 과정을 크게 가속시키는 역할을 한다. 사용자는 자신의 기존 신념과 일치하는 정보 환경에 고립되어 있기 때문에, 그 신념을 강화해 주는 가짜 뉴스를 쉽게 접하고 무비판적으로 수용하게 된다.
알고리즘은 사용자의 관심사와 클릭 기록을 바탕으로 콘텐츠를 선별한다. 이 과정에서 선정적이거나 감정을 자극하는 가짜 뉴스는 높은 참여율(공유, 댓글, 반응)을 기록하며, 알고리즘에 의해 더 널리 추천되는 경향이 있다. 결과적으로 사실 검증이 미흡한 정보가 사실 기반의 보도보다 더 빠르게 확산되는 역설적 상황이 발생한다. 사용자는 반복적으로 노출된 정보를 진실로 받아들이는 경향이 있어, 가짜 뉴스에 대한 내성이 약해진다.
이 현상은 단순한 오보와는 차원이 다른 사회적 문제를 일으킨다. 특정 정치적 입장이나 이념을 지지하거나 특정 집단을 비방하기 위해 제작된 가짜 뉴스는 사회적 갈등과 불신을 심화시킨다. 공중보건 위기 시기에는 허위 치료법이나 음모론이 확산되어 집단적 대응을 방해할 수도 있다[6]. 가짜 뉴스는 종종 감정적 호소력을 바탕으로 설계되기 때문에, 이성적 논증보다 더 강력한 영향력을 발휘한다.
확산 요소 | 설명 | 가짜 뉴스에 미치는 영향 |
|---|---|---|
개인화 알고리즘 | 사용자의 기존 선호도에 기반한 콘텐츠 추천 | 사용자의 편향을 강화하는 가짜 뉴스의 표적 배포를 용이하게 함 |
확증 편향 | 자신의 신념과 일치하는 정보를 선호/수용하는 경향 | 가짜 뉴스의 주장을 비판 없이 받아들이게 하는 심리적 토대 제공 |
높은 참여율 | 충격적/선정적 가짜 뉴스가 유발하는 클릭, 공유, 반응 | 알고리즘이 해당 콘텐츠를 더 널리 퍼뜨리도록 하는 핵심 지표로 작용 |
정보 환경 고립 | 대안적 시각이나 사실 검증 정보에 노출되지 않음 | 가짜 뉴스에 대한 정정 정보가 도달하지 못하도록 차단함 |
따라서 가짜 뉴스 확산은 단순한 정보 오염 문제를 넘어, 알고리즘 플랫폼의 구조와 인간의 인지적 취약성이 결합되어 발생하는 복합적 현상이다. 이는 개인의 판단을 흐릴 뿐만 아니라 사회적 합의 형성과 공적 논의의 기반을 붕괴시키는 위험을 내포한다.
필터 버블과 확증 편향의 상호작용으로 인한 정보 환경의 극단적 분화는 민주주의의 핵심 운영 원리에 심각한 위협을 가합니다. 건강한 민주주의는 다양한 의견이 공개적으로 교류되고, 합리적 논의를 통해 공동의 결정에 도달하는 과정에 의존합니다. 그러나 개인화된 정보 환경은 시민들을 서로 다른 사실 인식과 세계관을 가진 집단으로 분리시켜, 공통의 사실 기반을 형성하기 어렵게 만듭니다.
이로 인해 정책 논의는 객관적 사실에 대한 검증보다는 정체성과 신념에 기반한 대립으로 변질될 위험이 큽니다. 시민들은 상대 진영의 주장을 이해하거나 평가하기보다는, 자신의 신념을 강화하는 정보만을 접하며 점점 더 편향된 시각을 갖게 됩니다. 이러한 상황에서 합의 도출과 타협은 극히 어려워지며, 정치 과정은 극단적인 양극화와 기능 장애에 빠질 수 있습니다[7].
영향 영역 | 구체적 위협 요소 |
|---|---|
합의 형성 | 공통의 사실 기반 상실, 타협의 정신 약화 |
정치적 대화 | 대화 채널 단절, 상대 진영에 대한 불신과 적대감 고조 |
선거 과정 | 유권자의 편향된 정보 접근, 선정적 공격 선전의 확산 |
정책 결정 | 증거 기반 정책 설계의 어려움, 극단적 정당 정치 강화 |
궁극적으로 이는 통치의 정당성을 훼손합니다. 시민들이 서로 완전히 다른 정보 환경에 살고 있다고 믿게 되면, 선거 결과나 정부의 결정을 공정한 과정의 산물로 받아들이지 않을 가능성이 높아집니다. 패배한 진영은 체제 자체를 불법적이거나 조작된 것으로 간주할 수 있으며, 이는 정치적 불안정과 제도에 대한 신뢰 상실로 이어질 수 있습니다. 따라서 필터 버블과 확증 편향의 가속화는 단순한 정보 소비의 문제를 넘어, 민주적 자율 통치의 기반을 침식하는 구조적 위기로 해석됩니다.

개인과 사회 차원에서 필터 버블과 확증 편향의 순환적 강화를 완화하기 위한 다양한 접근법이 제안되고 시도된다. 가장 기초적인 대응은 미디어 리터러시 교육을 강화하는 것이다. 이는 단순히 정보의 진위를 판별하는 능력을 넘어, 알고리즘이 어떻게 정보를 선별하고 배열하는지 이해하고, 자신의 정보 습관에 내재된 인지 편향을 성찰하도록 돕는 포괄적인 교육을 의미한다. 학교 교육과 평생 학습 프로그램을 통해 이러한 비판적 소비 능력을 함양하는 것이 장기적인 해결책의 기초가 된다.
기술적·제도적 차원에서는 알고리즘 투명성을 높이는 노력이 필수적이다. 플랫폼이 사용자에게 콘텐츠를 추천하는 기준과 원칙을 공개하고, 사용자가 알고리즘의 작동 방식을 일정 부분 제어하거나 조정할 수 있는 옵션을 제공해야 한다. 예를 들어, "개인화 추천 끄기" 기능이나 "다양한 관점 보기"와 같은 탐색 도구를 활성화하는 방안이 있다. 일부 국가에서는 디지털 서비스법과 같은 규제를 통해 플랫폼의 책임을 명시하기도 한다.
사용자 개인의 적극적인 행동 변화도 중요하다. 의도적으로 자신의 관점과 다른 신뢰할 수 있는 출처의 정보를 탐색하고, 다양한 사회적 배경을 가진 사람들과 소통하는 것이 정보 환경의 고립을 깨는 방법이다. 언론사와 콘텐츠 제작자는 팩트체크 서비스를 강화하고, 복잡한 이슈를 다각도로 조명하는 심층 보도를 통해 균형 잡힌 정보 공급에 기여할 수 있다.
대응 차원 | 주요 방안 | 예시/도구 |
|---|---|---|
개인/교육 | 미디어 리터러시 향상 | 비판적 사고 교육, 알고리즘 이해 교육 |
기술/플랫폼 | 알고리즘 투명성 및 제어권 부여 | 추천 기준 공개, 개인화 설정 옵션, 다양성 추천 도구 |
사회/제도 | 규제 및 다양성 장려 정책 | 플랫폼 책임에 관한 법제화, 공적 정보 플랫폼 지원 |
미디어/출판 | 균형 잡힌 보도와 팩트체크 | 심층 분석 보도, 팩트체크 전문 조직 운영 |
궁극적인 해결책은 단일 접근법에 있지 않다. 교육을 통한 개인의 인식 제고, 기술 플랫폼의 윤리적 설계와 투명성 확보, 사회적 논의와 제도적 보완이 상호 보완적으로 이루어질 때, 건강한 정보 생태계를 재구성하는 것이 가능해진다.
미디어 리터러시 교육은 필터 버블과 확증 편향이 초래하는 문제를 완화하기 위한 핵심적인 대응 방안 중 하나이다. 이는 단순히 미디어를 사용하는 기술을 넘어, 정보의 생산, 유통, 소비 전 과정을 비판적으로 분석하고 평가하는 능력을 함양하는 것을 목표로 한다. 교육을 통해 개인이 알고리즘의 작동 방식을 이해하고, 자신의 정보 습관에 내재된 편향을 인지하도록 돕는다.
교육 내용은 크게 세 가지 영역으로 구성된다. 첫째, 디지털 플랫폼의 작동 원리에 대한 이해이다. 개인화 알고리즘이 어떻게 개인의 데이터를 기반으로 콘텐츠를 선별하고 순위를 매기는지, 그리고 이것이 어떻게 제한된 정보 환경을 조성하는지 학습한다. 둘째, 심리적 편향에 대한 교육이다. 확증 편향을 비롯한 다양한 인지 편향이 정보 선택과 해석에 미치는 영향을 탐구하여, 자신의 사고 과정을 성찰할 수 있는 기회를 제공한다. 셋째, 정보의 비판적 평가 능력이다. 출처의 신뢰성을 판단하고, 사실 확인(fact-checking) 방법을 익히며, 다양한 관점의 정보를 능동적으로 탐색하는 실천적 기술을 훈련한다.
교육 대상 | 주요 교육 내용 | 기대 효과 |
|---|---|---|
초·중등 학생 | 기본적인 정보 검색 및 평가, 온라인 안전, 간단한 알고리즘 개념 | 디지털 시민으로서의 기초 소양 형성 |
대학생 및 일반 성인 | 고급 미디어 비평, 데이터 추적 및 프라이버시 관리, 확증 편향 극복 전략 | 주체적인 정보 소비 및 공유 행위 |
교사 및 교육 관계자 | 미디어 리터러시 교수법, 최신 플랫폼 동향 분석 | 효과적인 교육 프로그램 개발 및 보급 |
이러한 교육은 공식 교육과정 뿐 아니라 평생 학습 차원에서도 이루어져야 한다. 많은 국가에서 학교 정규 교과에 디지털 리터러시 또는 미디어 교육을 포함시키고 있으며, 도서관, 시민 단체, 온라인 플랫폼을 통한 공공 캠페인도 활발히 진행되고 있다. 궁극적으로 미디어 리터러시 교육은 수동적인 정보 수용자가 아닌, 적극적이고 비판적인 디지털 시민을 양성하여 건강한 공론장 회복에 기여한다.
알고리즘 투명성 제고는 필터 버블과 확증 편향의 악순환을 완화하기 위한 핵심적인 기술적·정책적 대응 방안이다. 이는 플랫폼이 사용자에게 콘텐츠를 선별하고 배열하는 데 사용하는 개인화 알고리즘의 작동 방식을 외부에 공개하고 이해 가능하게 만드는 것을 목표로 한다. 투명성 제고의 구체적인 방법으로는 알고리즘의 기본 원리와 주요 영향 요소를 설명하는 공개 보고서 발간, 사용자에게 '이 게시물이 왜 보이는가?'와 같은 간단한 설명 제공 기능 도입, 그리고 외부 연구자나 감독 기관에 대한 검증 가능한 데이터 접근 권한 부여 등이 포함된다.
이러한 조치는 사용자로 하여금 자신의 정보 환경이 어떻게 구성되는지 인식하게 하고, 알고리즘의 편향 가능성에 대해 비판적으로 사고할 수 있는 기반을 마련한다. 예를 들어, 사용자가 특정 정치적 견해의 콘텐츠만 지속적으로 노출된다는 사실을 알고리즘 설명을 통해 알게 되면, 의도적으로 다른 출처의 정보를 탐색하는 행동으로 이어질 수 있다. 또한, 투명성은 플랫폼의 책임성을 높여, 알고리즘이 공익에 반하거나 차별적인 결과를 초래하지 않도록 사전에 점검하고 수정하는 유인을 제공한다.
접근 방식 | 주요 내용 | 기대 효과 |
|---|---|---|
알고리즘 공개 | 추천 체계의 핵심 논리, 데이터 사용 범위, 순위 결정 요소 공개 | 사용자 이해도 제고, 플랫폼 책임성 강화 |
사용자 제어권 강화 | 추천 피드 조정 설정, 관심사 초기화, 특정 주제 차단/강조 옵션 제공 | 개인의 적극적 정보 환경 관리 가능 |
외부 감사 및 연구 지원 | 독립적인 제3자에 의한 알고리즘 영향 평가 허용 | 객관적 편향 검증, 사회적 논의 촉진 |
그러나 알고리즘 투명성 제고는 기술적 복잡성, 영업 비밀 보호 문제, 과도한 정보로 인한 사용자 부담 가중 등 여러 난관에 직면한다. 완벽한 소스 코드 공개가 현실적이지 않을 수 있으므로, 실질적인 이해와 통제를 돕는 '의미 있는 투명성'에 초점을 맞추는 접근이 필요하다. 결국, 투명성은 만병통치약이 아니라 사용자 미디어 리터러시와 결합되었을 때 비로소 정보 환경의 다양성을 회복하는 데 기여할 수 있다.
개인에게 노출되는 정보의 스펙트럼을 인위적으로 넓히는 정책과 기술적 접근이 시도되고 있다. 일부 뉴스 애그리게이터와 소셜 미디어 플랫폼은 '다양성 주입' 기능을 도입하여, 사용자의 관심사와 일치하지 않거나 상반된 관점의 콘텐츠를 의도적으로 피드에 포함시킨다. 이는 사용자가 필터 버블에 완전히 갇히는 것을 방지하고, 우연한 발견의 기회를 제공하기 위한 목적을 가진다.
공적 차원에서는 다양한 미디어 소스를 보장하는 규제 방안이 논의된다. 일부 국가에서는 공영 방송이나 독립 미디어에 대한 지원을 강화하거나, 플랫폼이 특정 정치적 견해에 치우치지 않도록 편집적 다양성 원칙을 법제화하는 방안을 검토한다. 또한 도서관, 지역 사회 미디어 센터와 같은 공공 정보 허브의 역할을 재정비하여 신뢰할 수 있는 다양한 정보원에 대한 물리적 접근성을 높이는 노력도 이루어진다.
개인적 실천으로는 의식적인 정보 소비 습관 형성이 강조된다. 이는 다음과 같은 구체적 행동을 포함한다.
실천 방안 | 설명 |
|---|---|
신뢰할 수 있는 다양한 출처 구독 | 정치적 성향이 다른 신문사, 국내외 매체, 전문 저널 등을 동시에 구독한다. |
액티브 서치 전략 사용 | 알고리즘에 의존한 수동적 피드 소비를 지양하고, 특정 주제에 대해 능동적으로 검색하여 다양한 관점의 자료를 찾는다. |
커뮤니티 탈피 | 온라인상에서 동일한 생각을 가진 사람들만 모인 공간에 머무르는 시간을 줄이고, 이질적인 의견이 교환되는 포럼에 참여한다. |
이러한 접근은 단순히 반대 의견을 접하는 것을 넘어, 복잡한 사회적 쟁점에 대한 확증 편향을 줄이고 보다 종합적인 이해를 도모하는 데 기여한다. 궁극적으로 정보 환경의 건강성을 회복하는 것은 기술적 대안과 제도적 보완, 그리고 개인의 비판적 인식이 결합될 때 가능해진다.

필터 버블과 확증 편향의 상호작용 및 그 사회적 영향에 대한 연구는 커뮤니케이션학, 심리학, 정보과학, 정치학 등 다양한 학문 분야에서 활발히 진행되었다.
주요 연구 이론으로는 엘리 파리서가 2011년 저서 《필터 버블》에서 제기한 개념이 선구적 역할을 했다. 그는 웹의 개인화가 사용자를 익숙한 정보로만 둘러싸는 '보이지 않는 편집'을 초래한다고 지적했다. 심리학 분야에서는 대니얼 카너먼과 아모스 트버스키의 휴리스틱 및 인지 편향 연구가 확증 편향을 포함한 다양한 편향의 기제를 설명하는 토대를 제공했다. 특히 선택적 노출 이론은 개인이 자신의 기존 신념과 일치하는 정보를 선호하여 찾는 행동을 설명한다.
최근 연구들은 알고리즘과 인간 심리의 상호작용에 주목한다. 2015년 《네이처》에 실린 한 연구[8]는 페이스북 사용자의 정치적 성향에 따른 정보 노출 차이를 실증적으로 보여주었다. 에코 챔버 현상과의 관계를 탐구하는 연구도 다수 존재하는데, 이는 동질적인 집단 내에서 의견이 반복 강화되는 현상을 의미한다. 양극화를 측정하고 설명하는 모델, 예를 들어 정당 정체성의 강화나 집단 극화 이론도 관련 연구 흐름에 기여한다.
연구 분야 | 주요 이론/개념 | 대표적 연구자 또는 이론가 |
|---|---|---|
미디어/정보과학 | 엘리 파리서 | |
심리학/인지과학 | 대니얼 카너먼, 리언 페스팅거 | |
정치학/사회학 | 캐스 선스타인, 위르겐 하버마스(이론적 기원) | |
컴퓨터과학 | 해당 분야의 다양한 알고리즘 연구자 |
이러한 연구들은 기술적 시스템과 인간의 인지적 취약성이 결합되어 정보 환경을 어떻게 변형시키는지, 그리고 그것이 궁극적으로 사회적 합의와 민주주의에 어떤 도전을 제기하는지 이해하는 데 중요한 이론적 틀을 제공한다.
