제목: 콘텐츠를 넘어 구조로: 온라인 플랫폼의 구조적 해악과 기여자 책임
서론
온라인 플랫폼은 오늘날 정치적 의견 형성, 경제적 거래, 친밀한 관계 맺기까지 거대한 사회적 인프라로 기능한다. 그 과정에서 혐오 발언, 허위 정보, 자해·자살 조장 콘텐츠, 특정 집단에 대한 조직적 괴롭힘 등 다양한 형태의 해악이 반복적으로 발생해 왔다.[^DPREG2023] 이때 플랫폼 기업들은 스스로를 “중립적인 기술 제공자”, 단지 이용자들이 소통할 수 있는 장을 열어주는 존재로 묘사하며, 개별 게시물이나 이용자의 행위에 대해서만 책임이 있다고 주장하곤 한다. 반면 비판자들은 플랫폼의 알고리즘·디자인·수익 모델 자체가 특정한 해악을 구조적으로 낳는다고 지적하며, 플랫폼이 보다 강한 책임을 져야 한다고 요구한다. 이처럼 플랫폼의 책임을 둘러싼 논쟁은 기술, 법, 정치뿐 아니라 도덕철학의 핵심 문제들을 건드린다.[^Young2006]
이 글의 물음은 다음과 같이 정식화할 수 있다. “온라인 플랫폼은 자신의 구조 안에서 발생하는 해악에 대해 어떤 책임을 지는가?” 더 구체적으로, (1) 플랫폼에서 발생하는 해악을 구조적 해악으로 이해할 수 있는지, (2) 구조적 해악에 대해 어떤 유형의 책임이 정당화되는지, (3) 그 책임을 적용할 때 온라인 플랫폼은 어떠한 지위를 갖는지 살펴보고자 한다.[^Young2006;Curzon2011] 여기에는 한 가지 딜레마가 있다. 한편으로 플랫폼을 단순 중개자로 이해하면, 구조적으로 반복되는 심각한 해악에 대해 책임 공백이 생긴다. 다른 한편으로 플랫폼을 개별 콘텐츠에 대한 전면적 책임자로 이해하면, 과도한 검열과 표현의 자유 위축이라는 책임 과잉의 문제가 제기된다. 전통적인 행위자-중심 책임 모델만으로는 이 딜레마를 풀기 쉽지 않다.
이 글은 이러한 난점을 피하기 위해, 온라인 플랫폼을 “구조적 기여자(structural contributor)”로 이해하는 책임 모델을 제안한다. 먼저 2장에서 구조적 해악의 개념을 정리하고, 3장에서 구조적 해악에 대한 책임을 설명하는 사회적 연결 모델과 그 이후의 논의를 검토한다. 4장에서는 온라인 플랫폼의 알고리즘, 인터페이스, 수익 모델이 어떠한 방식으로 구조적 해악을 낳는지 분석하며, 플랫폼을 구조적 기여자로 규정할 수 있는 조건을 제시한다. 5장에서는 구조적 책임 모델에 대한 대표적인 반론―책임의 과잉·공허화, 플랫폼 중립성, 국가 우선 책임론―을 소개하고 이에 대한 응답을 제시한다. 마지막으로 6장에서 논의를 정리하며, 플랫폼 책임 논쟁에 대한 이론적·실천적 함의를 간단히 제시하겠다.
본론
구조적 해악의 개념
우리가 일상적으로 사용하는 “해악”이라는 표현은 종종 특정 행위자가 특정 피해자에게 가하는 직접적인 손상을 떠올리게 한다. 전통적인 도덕철학과 형법 이론 역시 이러한 이미지에 기초해 왔다.[^Young2006] 그러나 현대 사회에서는 누구의 단일한 의도나 행위로 환원하기 어려운 해악들이 반복적으로 발생한다. 글로벌 공급망에서의 노동착취, 금융 시스템이 만들어내는 주기적인 위기, 인종·성별에 따른 공간적 분리와 기회 불평등, 기후위기 등은 모두 다수의 행위자가 복잡한 구조 속에서 각자 “정상적인” 역할을 수행하는 과정에서 발생한다.[^Young2006;Curzon2011] 이런 맥락에서 논의되는 개념이 바로 구조적 해악(structural harm)이다.
구조적 해악을 다음과 같이 정의해 볼 수 있다. 구조적 해악이란, (1) 사회 제도·규칙·관행·물질적 인프라 등으로 이루어진 구조가, (2) 다수의 행위자가 그 구조에 내재된 규칙을 따르고 자신의 역할을 수행하는 과정에서, (3) 특정한 개인이나 집단에게 체계적·예측 가능한 불이익과 손상을 반복적으로 낳는 현상이다. 이때 중요한 점은, 구조적 해악이 단순히 “개별 해악들의 합”이 아니라는 것이다. 구조가 어떤 방식으로 설계되고 작동하는지가, 누가 어떤 위험을 감수해야 하는지를 근본적으로 형성한다.[^Young2006]
또한 구조적 해악은 종종 “정상적인 것”으로 인식되며, 해당 구조의 참여자들에게는 각자의 역할 수행이 그 자체로 도덕적 문제를 내포하는 것처럼 보이지 않는다.[^Curzon2011] 예를 들어, 특정 지역의 주거 정책과 금융 관행이 오랜 시간에 걸쳐 인종적 분리를 강화하고 한 집단의 자산 형성을 구조적으로 가로막는 경우가 있다. 개별 은행 직원이나 부동산 중개인의 행위만으로는 전체 패턴을 이해하기 어렵지만, 구조 차원에서 보면 분명한 패턴의 해악이 드러난다. 이러한 특징은 온라인 플랫폼에서 발생하는 해악을 바라볼 때도 중요한 시각을 제공한다. 알고리즘, 인터페이스, 정책, 수익 모델이 결합된 플랫폼 구조가, 이용자들의 평범한 상호작용 속에서 어떤 해악을 반복적으로 만들어내는지 살펴봐야 하기 때문이다.
구조적 해악에 대한 책임: 사회적 연결과 구조적 기여
구조적 해악에 대한 책임을 묻는 일은 쉽지 않다. 전통적인 책임 모델은 특정 행위자에게 잘못을 귀속하고, 그에 상응하는 비난·제재·배상을 부과하는 방식으로 구성되어 있다. 그러나 구조적 해악의 경우, 어느 한 사람의 잘못만으로 상황을 설명하기 어렵고, 동시에 “모두가 조금씩 관여했다”고 말하는 것은 아무에게도 실질적인 책임을 요구하지 않는 결과를 낳기 쉽다. 이런 난점을 해결하기 위한 하나의 시도가 이른바 사회적 연결 모델(social connection model)이다.[^Young2006]
사회적 연결 모델에 따르면, 구조적 해악에 대한 책임은 전통적인 의미의 “과실·범의에 대한 책임”이라기보다는, 구조를 변화시키기 위한 전방향적 정치적 책임이다. 특정 행위자가 구조적 과정에 참여하고, 그로부터 혜택을 얻고, 해악에 대한 인식 가능성을 가지며, 구조를 변화시킬 수 있는 자원과 능력을 갖고 있을수록, 그에게 요구되는 책임의 강도는 커진다. 이는 “누가 가해자인가?”라는 질문에서 “누가 어떤 위치에서 구조의 변화에 기여할 수 있는가?”라는 질문으로 초점을 옮긴다.
하지만 사회적 연결 모델은 “참여하는 모든 사람에게 책임을 부과함으로써 책임을 희석한다”, “개인의 감정·동기를 경시한다”는 비판도 받는다.[^Gunnemyr2020] 이를 보완하기 위해, 최근 논의들은 구조적 해악에 대한 책임을 보다 세분화하여, 역할·권한·자원·혜택에 따라 책임의 성격과 강도를 구분하려 한다. 특히 기업이나 거대 플랫폼처럼 구조 설계와 유지에 핵심적인 영향력을 가진 행위자는, 단순한 참여자와 구별되는 강한 형태의 구조적 책임을 가진다고 보는 방향의 논의가 전개되고 있다.[^Phillips2022]
이 글에서는 이러한 논의를 바탕으로, “구조적 기여자 모델”을 제안한다. 구조적 기여자는 (1) 구조의 규칙·알고리즘·아키텍처를 설계·변경할 권한을 가지고, (2) 구조가 낳는 해악에 대해 높은 수준의 인식 가능성을 갖고 있으며, (3) 그 구조로부터 직접적인 경제적·정치적 이익을 받고, (4) 구조를 완화·수정할 실질적 능력을 가진 행위자를 의미한다.[^Phillips2022;Zheng2019] 구조적 기여자는 구조적 해악에 대한 일반적인 정치적 책임을 넘어서, 재설계·완화·투명성 확보·피해 구제 등 보다 강한 전방향적 책임을 진다. 다음 장에서는 온라인 플랫폼이 이 네 가지 조건을 어떻게 충족하는지 살펴본다.
온라인 플랫폼의 구조와 구조적 해악: 플랫폼은 구조적 기여자인가
온라인 플랫폼의 핵심 구조는 대략 다음 네 요소로 요약할 수 있다. (1) 이용자 생성 콘텐츠를 수집·정렬·노출하는 추천·랭킹 알고리즘, (2) 이용자의 주의를 붙잡기 위한 인터페이스·디자인, (3) 이를 수익으로 전환하기 위한 광고 및 데이터 기반 비즈니스 모델, (4) 규범 위반 콘텐츠를 조정하기 위한 콘텐츠 모더레이션 정책과 도구. 이러한 구조는 단지 기술적 장치의 집합이 아니라, 무엇이 “보이는” 발언이 될지, 누가 어떤 위험에 노출될지를 결정하는 사회적 장치다.[^DP-REG2023]
먼저 추천 알고리즘을 보자. 많은 플랫폼이 클릭률, 체류 시간, 공유 수 등 이용자의 “참여”를 핵심 지표로 삼는다. 이때 경험적 연구들이 반복적으로 보여주듯, 분노·공포·혐오와 같은 감정을 자극하는 극단적인 콘텐츠가 더 높은 참여를 유발하는 경향이 있다.[^DP-REG2023] 알고리즘이 이런 반응을 보상하는 구조라면, 개별 이용자가 특별히 악의를 갖지 않았더라도, 전체적인 정보 환경은 점점 더 자극적이고 과격한 방향으로 이동한다. 소수자에 대한 혐오 표현이나 폭력 찬양, 음모론적 허위 정보는 “잘 퍼지는” 콘텐츠라는 이유만으로 더 널리 노출된다. 이 패턴은 단일 이용자의 잘못으로 설명될 수 없으며, 플랫폼 구조의 산물로 보아야 한다.[^Gorwa2020]
둘째, 인터페이스와 디자인은 이용자가 어떻게 상호작용하는지를 미세하게 유도한다. 자동 재생, 끝없는 스크롤, 추천 피드의 기본 설정, 신고·차단 기능의 위치와 사용 난이도 등은 이용자가 어떤 콘텐츠를 접하게 되는지, 해악을 줄이기 위한 선택을 얼마나 쉽게 할 수 있는지를 좌우한다.[^DP-REG2023] 예를 들어, 피해자가 괴롭힘을 경험할 때 신고 절차가 지나치게 복잡하다면, 구조적으로 피해를 방치하는 효과가 발생한다. 반대로 광고 클릭이나 스트리밍 자동 재생은 매우 손쉽게 이루어지도록 설계되어 있는 경우가 많다.
셋째, 수익 모델은 이러한 구조를 뒷받침하는 동기를 제공한다. 광고 수익이 체류 시간과 조회 수에 연동되어 있다면, 이용자의 안전이나 정보의 진실성은 부차적인 요소로 밀려나기 쉽다. 플랫폼이 위험한 콘텐츠의 확산을 인지하고 있음에도, 그 제거가 수익 감소나 이용자 이탈로 이어질 것을 우려해 충분한 조치를 취하지 않는다면, 이는 구조적 해악에 대한 명백한 기여에 해당한다.
넷째, 콘텐츠 모더레이션은 구조적 해악을 완화하기 위한 마지막 방어선이다. 그러나 자동화된 필터와 신고 기반 시스템은 종종 특정 언어·집단에 편향되어 작동하며, 어떤 경우에는 해악 감소를 위한 정보(예: 약물 사용의 위험을 줄이는 안전 정보)마저 차단하는 등 역효과를 내기도 한다.[^Gorwa2020;Gomes2024] 이는 구조적 해악을 단순히 “규칙 위반 콘텐츠의 제거” 문제로 축소해서는 안 되며, 모더레이션 자체가 하나의 구조적 설계 결정이라는 점을 보여준다.
이러한 분석을 바탕으로 할 때, 온라인 플랫폼은 앞서 제시한 구조적 기여자의 네 조건을 모두 충족한다. 플랫폼 기업은 구조 설계와 알고리즘, 수익 모델, 모더레이션 정책을 정하고 변경할 권한을 독점적으로 보유한다. 다양한 내부 데이터와 외부 비판을 통해, 그 구조가 특정 집단에게 어떤 해악을 야기하는지에 대한 인식 가능성도 높다. 동시에 이 구조를 통해 막대한 경제적 이익과 정치적 영향력을 얻고 있으며, 구조를 완화하거나 재설계할 기술적·재정적 능력 역시 가지고 있다. 따라서 온라인 플랫폼은 단순한 참여자나 중립적 인프라가 아니라, 구조적 해악을 낳는 핵심 구조 설계자이자 관리자로서, 강한 형태의 구조적 책임을 지는 구조적 기여자라고 볼 수 있다.
반론과 재검토
이와 같은 구조적 기여자 모델에 대해 몇 가지 중요한 반론이 제기될 수 있다.
첫째, 구조적 책임 모델 전반에 대한 비판이다. 일부 논자는 구조적 책임 논의가 “구조에 연결된 모든 사람”에게 책임을 부과함으로써, 오히려 책임의 객체를 너무 넓게 설정하고, 개인에게 부과되는 도덕적 요구를 희석한다고 주장한다.[^Gunnemyr2020] “모두가 책임이 있다”는 말은 실제로는 “아무도 구체적으로 책임지지 않는다”는 말과 비슷한 효과를 낳을 수 있다는 것이다. 또한 구조적 책임이 비난과 죄책감, 분노와 같은 도덕적 정서를 충분히 고려하지 못하고, 지나치게 정치적 행동 의무에만 초점을 맞춘다는 지적도 존재한다.[^Zheng2019]
이에 대해 이 글에서 제시한 구조적 기여자 모델은, 모든 참여자에게 동일한 책임을 부과하는 것이 아니라, 구조 설계 권한·인식·이익·능력이라는 네 기준에 따라 책임의 범위와 강도를 명확히 구분하고자 한다. 이용자나 시민에게는 약한 형태의 정치적 책임(예: 소비 선택, 공적 논쟁 참여, 규제 요구 등)을 부과하는 한편, 플랫폼 기업과 같이 구조에 결정적 영향을 미치는 행위자에게는 훨씬 강한 책임―재설계, 위험 평가, 피해 구제, 투명성 확보 등을 포함하는―을 요구한다.[^Zheng2019] 이러한 구분은 “책임의 과잉·공허화” 비판을 일정 부분 상쇄해 준다.
둘째, 플랫폼 중립성과 표현의 자유에 관한 반론이 있다. 플랫폼에 강한 구조적 책임을 부과하면, 기업이 과도하게 예방적 검열을 수행하게 되고, 이는 이용자의 표현의 자유를 심각하게 위축시킬 수 있다는 우려다. 특히 정치적 의견이나 소수자의 발언이 규제 대상이 될 위험도 존재한다. 이러한 우려는 실제로 일부 국가의 규제 논의에서 중요한 쟁점으로 등장해 왔다.
그러나 구조적 기여자 모델이 겨냥하는 것은, 개별 게시물의 내용 자체에 대한 법적 책임이 아니라, 구조의 설계와 운영 방식에 대한 도덕적·정치적 책임이다. 표현을 허용할지 삭제할지의 문제보다는, 어떤 알고리즘이 무엇을 얼마나 노출하는지, 어떤 집단이 체계적으로 공격에 노출되거나 침묵을 강요당하는지, 피해자가 위험을 회피하고 신고할 수 있는 수단이 얼마나 제공되는지에 책임의 초점을 둔다. 이는 전통적인 “출판자 책임”과는 다른 층위의 규범적 요구이며, 표현의 자유를 전면적으로 제한하는 대신, 설계와 자원 배분을 통해 위험을 완화하는 방향을 제시한다는 점에서 구별된다.
셋째, 국가와 규제의 우선 책임을 강조하는 입장이 있다. 구조적 해악은 궁극적으로 자본주의 경제 구조나 정치적 제도에서 비롯되므로, 이를 수정할 주체는 국가와 입법·사법 기관이어야 하며, 사기업인 플랫폼에 구조적 책임을 부과하는 것은 책임의 방향을 잘못 잡은 것이라는 주장이다.[^Young2006;Curzon2011]
이에 대한 응답은 다음과 같다. 구조적 책임 모델은 애초에 단일한 책임 주체를 상정하지 않는다. 오히려 다양한 수준의 구조―국제 경제 체제, 국가 제도, 기업·플랫폼, 시민 사회―가 서로 얽혀 있다는 전제에서 출발하며, 각 수준에서 서로 다른 종류의 책임이 발생한다고 본다. 따라서 온라인 플랫폼의 구조적 책임을 논의하는 것은 국가의 규제 책임을 약화시키는 것이 아니라, 양자를 상호 보완적인 형태로 배치하는 작업이다. 국가가 플랫폼에 일정한 의무를 법적으로 부과할 수 있는 것도, 플랫폼 자체가 구조적 기여자라는 도덕적 인식에 근거할 수 있다.
결론
이 글은 “온라인 플랫폼은 자신의 구조 안에서 발생하는 해악에 대해 어떤 책임을 지는가?”라는 질문에서 출발해, 구조적 해악과 구조적 책임에 대한 철학적 논의를 플랫폼 맥락에 적용해 보았다. 먼저 구조적 해악을, 사회 구조와 일상적 관행이 다수의 행위자의 평범한 참여를 통해 특정 집단에게 체계적이고 예측 가능한 손상을 반복적으로 가하는 현상으로 규정하였다. 이어서 구조적 해악에 대한 책임을 전통적인 행위자 중심 책임 모델만으로는 포착하기 어렵다는 점을 지적하고, 사회적 연결 모델과 그 이후의 논의를 검토하면서 구조적 기여자 모델을 도출하였다.
이 모델에서 구조적 기여자는 구조 설계와 유지에 핵심적 권한과 능력을 가지며, 구조가 낳는 해악에 대한 인식 가능성이 높고, 그 구조로부터 직접적인 이익을 얻는 행위자를 의미한다. 온라인 플랫폼은 알고리즘, 인터페이스, 수익 구조, 모더레이션 정책을 통해 이용자들의 상호작용을 조직하고, 특정 유형의 콘텐츠와 집단을 구조적으로 우대하거나 불리하게 만들 수 있는 위치에 있다. 따라서 플랫폼은 단순한 중개자나 기술 제공자가 아니라, 구조적 해악을 낳는 복합적인 과정에 깊이 관여하는 구조적 기여자로 이해되어야 하며, 이에 상응하는 강한 형태의 전방향적 책임―재설계, 위험 평가, 피해 구제, 투명성, 정부 참여 확대 등을 진다.
물론 구조적 책임 모델에는 책임의 과잉·공허화, 표현의 자유 위축, 국가 책임의 우선성 등 중요한 비판이 존재한다. 이 글은 구조적 기여자 개념을 통해 책임의 강도와 범위를 세분화하고, 표현 내용이 아니라 구조 설계에 초점을 두며, 국가와 기업, 시민이 서로 다른 수준에서 구조를 변화시킬 책임을 공유한다는 점을 강조함으로써, 이러한 비판에 대한 하나의 응답을 제시했다. 다만 여기서 제시한 논의는 여전히 이론적 초안에 가깝고, 구체적인 정책·규범 설계의 차원에서 더 정교한 검토가 필요하다.
그럼에도 불구하고, 온라인 플랫폼을 둘러싼 논쟁에서 “중립성”이라는 표상이 더 이상 설득력을 갖기 어렵다는 점은 분명해 보인다. 플랫폼은 사회 구조의 일부이자 설계자이며, 그 구조가 낳는 해악에 대해 일정한 책임을 져야 한다. 구조적 기여자 모델은 이러한 직관을 철학적으로 정식화하고, 플랫폼 책임 논의가 단순한 법적 귀속을 넘어, 구조 자체를 어떻게 재구성할 것인가라는 더 넓은 정치적·윤리적 과제로 나아가도록 이끄는 하나의 출발점이 될 수 있을 것이다.
참고문헌
Curzon, Rebecca Elizabeth Mary. 2011. Expanding Individualism: Moral Responsibility for Social Structural Harms. PhD diss., University of St Andrews.
Digital Platform Regulators Forum (DP-REG). 2023. Working Paper 1: Literature Summary – Harms and Risks of Algorithms.
Gomes, André Belchior, and Aysel Sultan. 2024. “Problematizing Content Moderation by Social Media Platforms and Its Impact on Digital Harm Reduction.” Harm Reduction Journal 21(1): 1–11.
Gorwa, Robert, Reuben Binns, and Christian Katzenbach. 2020. “Algorithmic Content Moderation: Technical and Political Challenges in the Automation of Platform Governance.” Big Data & Society 7(1): 1–15.
Gunnemyr, Mattias. 2020. “Why the Social Connection Model Fails: Participation Is Neither Necessary nor Sufficient for Political Responsibility.” Hypatia 35(4): 567–586.
Phillips, Robert, and Judith Schrempf-Stirling. 2022. “Young’s Social Connection Model and Corporate Responsibility.” Philosophy of Management 21(3): 3–23.
Young, Iris Marion. 2006. “Responsibility and Global Justice: A Social Connection Model.” Social Philosophy and Policy 23(1): 102–130.
Zheng, Robin. 2019. “What Kind of Responsibility Do We Have for Fighting Injustice? A Moral-Theoretic Perspective on the Social Connections Model.” Critical Horizons 20(2): 129–152.