(최종본) 과제-09 기말과제 011-19 유영명
제목: 온라인 플랫폼 내의 혐오표현에 대한 사업자의 책임과 규제 필요성
서론
오늘날 온라인 플랫폼은 민주주의적 공론장이 이전과는 전혀 다른 방식으로 형성되는 핵심 인프라이다. 과거에는 의견 교환과 생각 공유가 물리적 공간에서 이루어졌으나, 이제는 생각과 아이디어가 알고리즘과 추천 시스템으로 전파된다. 그 안에서 특정 콘텐츠는 순식간에 수백만 명에게 전파되고, 어떤 발언은 거의 발견되지 않은 채 침묵 속에서 사라진다. 이러한 변화는 플랫폼을 단순한 정보의 통로로 이해하던 초기 인터넷 모델과는 근본적으로 다르다. 오늘날 우리가 직면한 질문은 단순하다. 온라인 플랫폼은 그저 이용자가 올린 콘텐츠를 자동으로 연결해 주는 ‘기술적 도구’인가, 아니면 발언의 흐름을 조율하고 공론장의 구조를 설계하는 행위 주체인가? 그리고 만약 플랫폼이 후자라면, 혐오 표현이라는 위험한 발언이 확산될 때 그 책임은 어디까지 귀속되는가?
혐오표현은 단순히 한 개인의 감정을 상하게 하는 수준을 넘어 사회적 약자 집단의 존엄과 안전, 그리고 공론장 참여를 구조적으로 제한할 수 있으며 사회에 큰 해악을 끼칠 수 있다. 혐오는 단순한 모욕이나 비속어가 아니라, 특정 집단을 인간 이하로 폄하하고 배제와 공격의 정당성을 부여하는 상징으로 기능한다. 플랫폼과 같이 혐오가 재생산되는 환경에서는 다수의 목소리는 더욱 커지고, 소수는 침묵을 강요당한다. 즉, ‘표현의 자유’가 모두에게 동일하게 열려 있는 것처럼 보이지만 실제로는 누구의 발언이 더 멀리 도달하고, 누구의 발언이 침묵되는지를 결정하는 비가시적 구조 권력이 내재적으로 존재한다.
이 문제를 둘러싼 선행연구는 플랫폼을 단순한 기술적 매개가 아니라 공론장 질서를 형성하는 주체로 파악한다. Gillespie는 플랫폼의 콘텐츠 조정이 “숨은 결정(hidden decisions)”으로 이루어지며, 중립적 전달자라는 자기 표상과 달리 실제로는 가시성과 유통 구조를 관리한다고 지적한다(Gillespie 2018, p. 1–5). Klonick은 주요 플랫폼이 온라인 발화의 규칙을 만들고 집행하는 사적 거버넌스 체계를 구축해 ‘새로운 통치자(new governors)’로 기능한다고 분석한다(Klonick 2018, p. 1603–1608). Howard는 콘텐츠 조정이 비용이나 선택의 문제가 아니라, 존엄과 안전, 참여 조건을 보장하기 위한 도덕적 의무라고 주장한다(Howard 2024, p. 1–3). 다만 이 논의들은 플랫폼의 구조적 영향력을 책임 귀속으로 연결하는 행위성의 기준이 충분히 명료화되지 않거나, 규제가 표현의 자유를 침해한다는 반론에 대해 ‘책임 있는 자유’로 수렴하는 추론 구조를 더 선명히 제시할 필요가 있다. 따라서 이 글은 플랫폼의 가시성 관리와 사적 거버넌스라는 작동방식을 토대로 행위성을 정교화하고, 콘텐츠 조정의 규범적 정당성을 전제–반론–재반론의 구조로 제시함으로써 책임 귀속 쟁점을 분명히 하고자 한다.
이 글의 핵심 목표는 온라인 플랫폼에서 확산되는 혐오 콘텐츠에 대해 플랫폼 사업자가 책임을 져야 하며, 그에 대한 규제 체계가 필요하다는 점을 논증하는 것이다. 온라인 플랫폼 사업자는 혐오 표현의 확산을 가능하게 하는 가시성, 추천, 랭킹 구조를 설계하고 운영하는 주체로서 구조적, 도덕적 책임을 지며, 이러한 책임을 이행하기 위한 규제(플랫폼의 1차 집행)는 정당하고 필요하다. 여기서 ‘온라인 플랫폼’은 이용자가 생성한 콘텐츠가 추천 및 랭킹 알고리즘을 통해 확산되는 주요 소셜 미디어 및 영상 플랫폼을 의미한다. 또한 ‘혐오 콘텐츠’는 보호 특성에 근거하여 특정 집단을 비인간화하거나 폭력과 차별을 선동하는 표현을 중심으로 한정하며, 단순 욕설이나 정당한 정치적 비판은 포함하지 않는다. 아울러, 이 글에서 말하는 ‘규제’는 국가의 직접적인 사전 검열을 의미하는 것이 아니라, 플랫폼의 1차적인 집행(모니터링, 신고 처리, 추천 조정)을 포괄하는 책임 체계를 의미한다.
이 결론을 뒷받침하기 위해 이 글은 다음의 논증 전략을 취한다. 먼저, 혐오표현 방임이 공론장의 참여 조건을 훼손하여 실질적 표현의 자유를 약화시키는바, 규제는 자유의 침해가 아니라 자유의 조건을 보존하는 조치임을 논증한다. 둘째, 실증 연구와 구체적 사례를 통해 플랫폼의 비개입이 단순한 위험이 아니라 현실적 피해로 이어진다는 점을 제시하여 귀납적으로 논증을 보강한다. 셋째, 플랫폼이 단순한 전달자가 아니라 노출, 추천, 랭킹 구조를 설계하고 조정하는 주체라는 점에서 행위자로서 책임 귀속이 가능함을 정립한다. 마지막으로, 이러한 논증에 대해 제기될 수 있는 ‘중개자’ 반론을 검토하고 재반박함으로써 결론을 확정한다.
본론
온라인 플랫폼 사업자는 단순한 콘텐츠 중개자가 아니라, 혐오표현 확산 구조에 실질적으로 개입할 수 있는 행위 주체(agent)이며, 따라서 이에 관한 책임을 져야 한다는 본 글의 핵심 주장은 다음 세 단계의 논증으로 정교화된다. 인터넷 플랫폼에서의 혐오표현의 방임은 자유를 확대하는 것이 아니라 오히려 침묵과 배제를 통해 자유의 토대를 붕괴시킨다는 점을 논증한다. 이후, 실제 사례와 경험적 연구는 플랫폼의 비개입이 단지 온라인적 문제에 그치지 않고 물리적 폭력과 사회적 피해로 전이됨을 귀납적으로 논증하여 사업자의 개입 필요성을 강조한다. 마지막으로, 플랫폼 사업자는 더 이상 ‘수동적 전달자’가 아니라 알고리즘, 그리고 추천과 노출 메커니즘을 통해 공론장을 설계하는 규범적 행위자이라는 점으로 사업자의 책임을 연역적으로 논증하고자 한다. 이 논증은 이후 제기될 수 있는 가장 강력한 반론으로, 플랫폼은 행위자가 아니기에 책임은 과도하다는 주장을 분석하고 다시 해체함으로써 더욱 강화된다.
혐오표현의 방임은 자유의 확장이 아닌 자유의 붕괴
플랫폼 책임 논의에서 가장 강력하게 제기되는 근거 중 하나는 “규제는 검열이며 표현의 자유 침해”라는 주장이다. 이 반론은 겉으로는 자유를 방어하는 것처럼 보이지만, 실질적으로는 자유 개념을 협소하게 이해하는 데서 비롯한 오류를 내포하고 있다. 자유란 단순히 말할 수 있는 권리의 존재를 의미하지 않는다. 이는 말할 수 있는 조건, 그리고 발언의 가능성 자체가 안전하게 보장되는 환경을 포함한다(Feinberg 1984, p. 24). 혐오표현이 아무런 통제 없이 반복적으로 발생하는 환경에서 소수자와 취약 집단은 발언을 포기하거나 참여 공간에서 이탈하게 되며, 이는 곧 자유의 총량 감소로 이어진다. 다시 말해 규제가 없는 자유는 가장 강한 목소리만을 남기고 약자의 침묵을 확대하며, 결과적으로 자유를 파괴하는 역설적 메커니즘을 생성한다.
Howard는 이러한 현상을 ‘무책임한 자유주의(Unbounded Liberalism)’라 명명하며, 규제 없는 표현의 장은 공론장을 확장하는 것이 아니라 오히려 사회의 담론 구조를 왜곡하고 소수자의 정치적 존재를 말소한다고 분석한다(Howard 2024, p. 37–39). 혐오표현은 단순한 공격적 언행이 아니라 집단 대상의 비인간화와 이들에 대한 배제와 폭력 행사 정당화의 기능을 수행하며, 반복 노출은 피해 계층의 자존감과 공적인 참여 의지를 구조적으로 붕괴시킨다. 결과적으로, 플랫폼 공간이 안전하게 발언 가능한 장소가 아니라 공격과 조롱의 위험이 상존하는 공간으로 인식될 경우, 공론장에는 참여의 비대칭성이 발생한다는 것이다. 일부 집단은 끊임없이 말하고 다른 집단은 말하지 못하게 되는 순간 표현의 자유는 더 이상 모두의 것이 아니라 독점적 자원이 된다.
이에 따라, 이 문제를 단순히 자유와 규제의 대립이라는 이분법으로 이해하는 것은 부정확하다. 플랫폼 사업자의 혐오표현 방임은 구조적인 억제와 침묵을 낳으며, 편향된 공론장을 형성하여 자유의 붕괴를 초래한다. 반대로, 적극적인 개입과 중재는 혐오표현으로 인한 피해를 억제하여, 공론장에서의 발언 가능성 회복하고 자유를 존속할 수 있는 결과로 이어질 수 있다. 즉, 혐오표현 규제는 자유를 박탈하는 행위가 아니라 오히려 자유가 성립하기 위한 토대를 복원하는 행위다. 이에 따라, 규제는 검열이 아니라 자유 보존 장치(freedom-preserving intervention)로 볼 수 있다. 이는 단지 규범적 이상에 머물지 않는다. 플랫폼의 경제 구조는 분노와 대립, 혐오 콘텐츠를 더 멀리 퍼뜨리는 방향으로 설계된다 Berger & Milkman의 바이럴 연구는 사용자의 정서적 각성(arousal)을 유발하는 콘텐츠일수록 확산 속도가 빠르며, 부정적 감정은 정보 확산에 특히 강하게 작용한다고 밝혔다(Berger & Milkman 2012, p. 194). 다시 말해, 혐오표현 방임은 그저 사용자들의 자유로운 행위에 의한 자연적 상태가 아니라 알고리즘에 의해 구조적으로 증폭되는 상태이다. 이를 통제하지 않는다면 플랫폼은 설계된 구조에 따라 자유의 장이 아니라 혐오의 네트워크 인프라가 될 것이다. 결국, 혐오표현 규제는 자유와 충돌하는 것이 아니라 자유를 유지하기 위한 필수 전제인 것이다. 플랫폼 책임은 윤리적 요청이 아니라 자유를 보존하기 위한 구조적 조건이며, 사업자의 개입과 규제는 선택이 아닌 공론장을 유지하기 위한 필연적 행위이다.
실증 사례 : 혐오표현 방임은 단순 위험이 아닌 현실적 피해를 초래
플랫폼 사업자의 혐오표현 방임은 표현의 자유를 확장하지 않고 오히려 구조적 침묵을 낳아 자유를 붕괴시킨다. 그러나 이 전제와 이론적 분석만으로는 여전히 반론 여지가 남아 있다. 위에서 이를 논리로 풀어낸 것은 결국 이론적 논의일 뿐이며, 실제로는 그 해악이 그렇게까지 심각하지 않을 수 있다는 식의 의문이 남을 수 있다. 따라서 사업자 개입의 필요성을 강화하기 위해 혐오표현 방임의 현실 사례와 실증적 연구가 이론적 논증을 어떻게 뒷받침하는지를 보여줌으로써 논리를 완결하고자 한다. 다시 말해, 플랫폼 비개입의 결과가 실제 사회적 피해로 이어졌다는 증거가 존재하는가라는 질문을 다룰 것이다. 이 장에서는 실증적 사례와 연구를 통해 귀납적으로 이를 증명하고자 한다.
디지털 혐오의 확산과 현실 폭력의 증폭의 연구
Müller & Schwarz(2021)는 독일 내 페이스북 활동량, 지역별 난민 혐오게시물 비율, 그리고 난민 대상 물리적 폭력 사건 데이터를 결합해 정량분석을 수행했다. 연구 결과에서는 특정 지역에서 온라인 혐오가 증가할수록 오프라인 폭력 범죄 발생률도 상승했다(Müller & Schwarz 2021, p. 1038). 더욱 주목해야 하는 지점은 플랫폼 장애(접속불능)와 폭력 감소 사이의 상관성이다. 연구에 따르면 페이스북 접속 장애가 발생한 날, 난민 대상 폭력은 통계적으로 유의미하게 감소했다(Müller & Schwarz 2021, p. 1042). 이 데이터는 단일 사건이 아니라 대규모 사회현상에 대한 정량적 검증이라는 점에서 중요하다. 즉, 혐오표현 확산은 단순한 온라인 욕설의 범주에 머물지 않으며, 인간 행동을 자극하고 현실 폭력의 발화 조건을 촉진한다는 점을 실증적으로 밝혀낸 것이다.
이 결과는 “플랫폼은 공론장을 설계하는 행위자”라는 명제가 실증하며 혐오가 확산될 수 있는 구조를 제공하느냐, 아니면 억제하느냐에 따라 현실의 피해 발생 수준이 바뀐다는 것은 플랫폼 구조가 폭력의 조건을 설계한다는 직접 증거이기도 하다. 이는 방임이 ‘중립’이 아닌 행위임을 명확히 보여주며 이에 대한 개입의 필요성을 강화한다. 혐오표현의 실제 피해 증가는 우연한 결과가 아니다. 플랫폼 구조는 감정적 각성 콘텐츠를 선호하며, 그중에서도 분노, 공포, 혐오 기반 콘텐츠는 확산성이 강하다(Berger & Milkman 2012, p. 193). 알고리즘은 이용자의 주의를 오래 붙잡을 수 있는 콘텐츠를 우선 추천하고, 혐오는 그 역할을 효율적으로 수행한다. 문제는 플랫폼의 이익 구조와 혐오 확산이 일치한다는 점이다. 플랫폼은 사용자의 체류 시간을 수익으로 전환하고, 체류는 자극적 콘텐츠에서 가장 효과적으로 발생한다. 즉, 플랫폼 사업자의 ‘무개입’은 사실상 수익을 극대화하는 방향으로 최적화된 설계의 유지이며, 이는 침묵이 아니라 의도된 방향성으로 유지된 ‘방임적 개입’이다. 다시 말해, 무개입은 중립이 아니라, 결과적으로는 이윤을 따르는 설계의 지속이라는 행위이기도 한 것이다. 이는 이전에 다룬 “규제는 자유를 억압하지 않는다, 오히려 자유의 조건을 보존한다”는 주장을 경험적으로 뒷받침한다.
한국 2024 유튜브 살해 생중계와 뒤늦은 대응 사례
플랫폼 내 혐오표현 방임의 피해는 그저 학술적 데이터에만 존재하지 않는다. 2024년 한국에서 발생한 유튜브 스트리밍 살해 사건은 플랫폼의 무대응과 지연 대응이 현실 폭력의 소비와 유포를 촉진한 사례이다. 온라인 영상 플랫폼에서 자극적인 소재로 조회수와 수익을 끌어들이기 위해 범죄와 혐오로 가득한 콘텐츠들이 생산되고 있다. 특히, 유튜브 영상을 통해 서로 비방하던 경쟁 관계의 유튜버를 생방송 라이브에서 살해한 사건은 큰 영향을 끼쳤다. 해당 영상은 한국 방심위의 요청이 이뤄진 후에야 사업자의 느린 대응 하에서 영상이 업로드된지 10시간이 지난 후에야 삭제 조치가 이뤄졌다. 플랫폼 사업자의 적극적인 개입이 없던 10시간동안 폭력적이고 불쾌감을 자아낸 영상은 모든 대중들에게 아무런 조치 없이 그대로 공개되고 있었던 것이다. 가해자와 피해자 간의 비방과 조롱 영상, 혐오표현 내용의 영상은 조회수 증가와 후원 수익으로 연결되며 알고리즘이 이를 더욱 추천했다(Lee 2024). 살인이 실시간으로 송출되는 동안 플랫폼은 10시간 동안 삭제 조치를 취하지 않았다. 그 10시간 동안 수십만 명이 실시간 폭력을 시청했고, 영상은 기록, 복제, 재업로드되어 통제 불가능한 2차 확산을 초래하기도 했다. 이는 방임이 단순히 ‘허용’이 아니라 폭력 소비 시장의 시간을 연장한 구조적 방조로 기능함을 실증적 사례로서 보여준다.
혐오표현 억제와 개입에 대한 정당성과 필요성 강화
이처럼 실증적 사례들이 공통적으로 보여주는 핵심 결론은 분명하다. 플랫폼의 비개입은 결코 중립적 상태가 아니며, 오히려 폭력과 혐오를 확대하는 실질적 행위라는 점이다. 혐오표현은 플랫폼이 설계한 확산 구조 안에서 더욱 빠르고 넓게 퍼지며, 이 확산은 단지 상징적 차원의 모욕이나 감정적 상처로 끝나지 않고, 사회적 약자에 대한 물리적 공격과 집단적 증오 행동으로 연결될 수 있음을 정량적 연구(Müller & Schwarz 2021)와 구체적 사건(Lee 2024)이 모두 입증한다. 다시 말해, 개입하지 않는다는 선택 자체가 이미 폭력의 조건을 유지하고 강화하는 방향으로 작동한다는 것이다. 플랫폼을 총한 사회적 피해의 발생이 단순히 우발적이거나 예외적 사건은 아니다. 혐오 콘텐츠는 플랫폼 경제모델이 선호하는 ‘고각성(arousal)’ 정서에 부합하고, 알고리즘은 자연적 흐름이 아니라 자극적인 정보를 우선적으로 증폭시키는 방향으로 최적화되어 있으며(Berger & Milkman 2012, p. 193), 이러한 구조는 플랫폼이 조정하지 않는 이상 자동적으로 혐오 확산을 가속할 수밖에 없다. 따라서, “무개입”은 사실상 알고리즘에 의해 설계된 기본값 상태를 지속하는 것이며, 이는 중립이 아니라 폭력의 위험을 구조적으로 고착화시키는 결정적 개입이다.
이러한 점에서 플랫폼 개입은 선택적 조치가 아니라 구조적 위험을 완화하기 위해 요구되는 필연적 책임으로 이해되어야 한다. 개입이 없다면 플랫폼은 공론장의 중립적 장이 아니라, 혐오와 폭력의 발화 조건을 제공하는 환경적 가속기로 기능하게 된다. 반대로, 적절한 개입으로 신속한 삭제, 추천 차단, 경고 라벨링, 순위 조정 등을 선택할 경우, 단순한 규제가 아니라 폭력의 발생 가능성을 실질적으로 감소시키는 예방적 개입이 될 것이다. 결국, 이는 플랫폼이 이미 갖고 있는 구조 설계 능력과 통제 가능성을 직접적 이야기한다. 위에서 제시된 실증 사례들은, 플랫폼이 혐오표현을 방임할 때 발생하는 피해가 추상적 우려가 아니라 이미 관측 가능한 현실적 결과라는 점을 일관되게 보여주며, 이 사실은 플랫폼 개입이 공론장 보호를 위해 필수적이라는 본 논문의 논증을 귀납적으로 강화한다.
플랫폼 사업자는 더 이상 ‘통로’가 아니라, 공론장을 설계하는 행위자이다
플랫폼을 단순한 정보 전달자나 기술적 호스트로 규정하는 관점은 이제 현실과 거리가 멀다. 오늘날의 플랫폼은 정보를 ‘흘려보내는 관로(pipe)’가 아니라 흐름을 설계하고 조율하는 시스템적 행위자이며, 이들은 발언의 노출 강도, 우선순위, 삭제 여부 등을 직접적으로 설계하며 결정한다. 다시 말해, 플랫폼 사업자는 콘텐츠의 통행을 허용하거나 제한하는 입구와 출구, 속도와 방향, 도달범위를 통제하는 규범적 구조자인 것이다. 콘텐츠가 어떤 경로로 확산되고 어떤 게시물이 대중의 인식 전면부에 떠오르는지는 이용자가 아니라 플랫폼 사업자가 설정한 알고리즘과 정책에 의해 재구성된다. 이 지점에서 우리는 플랫폼 사업자를 ‘공간 제공자’에서 ‘공론장의 운행자’로 재정의해야 한다.
Gillespie(2018)는 플랫폼이 스스로를 기술적으로 중립적인 매개체로 묘사하며 책임을 회피하는 전략을 ‘neutrality myth’라고 지적한다(Gillespie 2018, p. 47). 그는 플랫폼이 단순히 콘텐츠를 실어 나르는 존재가 아니라 어떤 콘텐츠를 보이게 할지, 무엇을 감추거나 기저로 밀어낼지를 결정하는 메커니즘을 내장하고 있다는 사실에 주목한다. 이러한 ‘노출의 통제’는 우연적 결과가 아니라 설계된 작동방식인 것이다. 다시 말해, 정보의 경로는 자연적이지 않으며 항상 선택(selection)의 결과이며, 선택은 곧 행위(action)이다.
Klonick(2017) 또한 유사한 결론에 도달한다. 플랫폼이 이용자 게시물에 대한 규칙을 만들고, 위반 여부를 판단하고, 처벌을 집행한다는 의미에서 “The New Governors”, 즉 새로운 표현의 통치자라고 규정한다(Klonick 2017, p. 1634). 예로, 유튜브의 ‘노란 딱지’ 정책, 트위터의 계정 정지, 인스타그램의 그림자 밴(shadow ban)은 모두 일종의 사적 입법, 사적 집행, 사적 사법 절차이다. 이는 플랫폼이 단순 컨테이너(host)가 아닌 의사결정 권능(discretionary power)을 가진 행위자임을 보여주며 단순히 게시물의 존재를 허용하는 것이 아니라, 노출의 크기·속도·위치를 ‘설정’하는 것 자체가 규범적 개입이라고 이야기한다.
여기서 핵심은 조정능력이 책임 가능성이라는 법적, 윤리적 원칙으로 수렴한다는 것이다. 행위자성(agency)은 ‘무엇을 했는가’보다 ‘무엇을 할 수 있었는가’를 기준으로 성립한다. 플랫폼은 혐오표현 확산을 제어할 수 있는 능력을 갖고 있으며, 알고리즘을 조정하고 자동삭제필터와 노출 제한 등의 시스템을 적용할 현실적 가능성도 충분하다. 따라서 플랫폼 사업자가 직접적으로 개입하지 않았다는 사실은 ‘개입 불가의 상태’가 아니라 ‘개입 가능성을 두고도 개입하지 않은 적극적 선택’으로 평가할 수 있다. 즉, 사업자의 부작위는 행위이며, 침묵은 결정이다.
경제적 동기 역시 플랫폼을 행위자로 규정하는 핵심 근거다. 혐오표현와 자극적인 콘텐츠는 높은 체류시간과 클릭률을 생성한다. 이는 곧 사업자 플랫폼의 광고노출, 수익화, 데이터 수집 증가로 이어진다. 플랫폼은 혐오가 퍼질수록 더 큰 경제적 이익을 취하는 것이다(Cohen 2019, p. 78). 여기서 이를 알고도 방임했다면, 플랫폼의 행위자성은 단지 기술적 가능성을 넘어 동기화된 전략적 행위로 이해할 수 있다. 더 많은 분노, 더 높은 노출, 더 긴 시청—이 경제구조는 혐오표현의 확산을 단순 허용이 아니라 촉진된 환경(created environment)으로 만든다. 그러므로 플랫폼은 혐오발언의 통로가 아니라 증폭기(amplifier)으로 기능하게 된다.
예상 반론 : 사업자의 플랫폼 구조 설계는 행위가 아닌 환경 제공
물론 플랫폼 사업자를 행위 주체로 규정하는 주장에 대해 반론도 존재한다. 가장 먼저 제기될 수 있는 비판은 플랫폼은 콘텐츠를 직접 생성하지 않기 때문에 행위자로 보기 어렵다는 주장이다. 이러한 관점은 발언 행위의 책임은 작성자에게 있으며, 플랫폼은 전기 회선이나 도로망처럼 단지 이동 경로를 제공하는 도구적 매개일 뿐이라는 기존 인터미디어리 모델에 의존한다. Laidlaw & Young은 인터넷 명예훼손 판례들을 검토하면서, 책임 귀속은 원칙적으로 표현의 내용에 대한 결정권과 통제력을 가진 주체, 즉 발언 생산자 또는 출판자에게 집중되어야 한다고 논증한다(Laidlaw & Young 2017, pp. 116–119). 그 논리에 따르면, ‘출판자’ 책임이 성립하려면 콘텐츠의 선별, 편집, 승인과 같은 적극적 관여가 존재해야 하는데, 단순히 통신 경로를 제공하거나 자동화된 방식으로 정보를 전달하는 중개자는 이러한 편집적 통제를 행사하지 않으므로 출판자와 동일한 책임을 부담할 수 없다(Laidlaw & Young 2017, p. 118). 더 나아가 중개자에게 광범위한 책임을 부과할 경우, 책임 위험을 회피하기 위해 플랫폼은 예방적 삭제와 과잉차단을 선택하게 되고, 이는 표현의 자유에 위축효과(chilling effect)를 낳을 수 있다는 점도 강조된다(Laidlaw & Young 2017, p. 120). 따라서 플랫폼이 ‘수동적 도구(passive instrument)’에 가까운 한, 책임은 생산자 혹은 출판자에게 한정되어야 하며, 플랫폼 책임론은 과도한 확장이라는 결론이 도출된다.
재반박 : 사업자의 플랫폼 구조 설계 행위성
그러나 이 논증은 플랫폼이 실제로는 노출, 추천, 확산을 통해 편집적 통제와 유사한 영향력을 행사한다는 점, 즉 ‘수동적 도구’라는 전제가 오늘날에도 유지될 수 있는지를 충분히 검토하지 못한다. 무엇보다 “직접 콘텐츠를 생산하지 않는다”는 사실이 곧 행위성의 부정으로 이어진다는 논리 자체가 이미 현대 사회이론의 주요 논의들과 상충한다. Anthony Giddens가 구조화 이론(structuration theory)에서 제시하듯, 구조(structure)는 단순한 배경이나 중립적 환경이 아니라, 행위가 발생하는 조건을 조직하고 특정 형태의 행동을 촉발하고 제약하는 규칙과 자원의 체계이다(Giddens 1984, p. 25–28). 즉, 구조는 그 자체로 사회적 결과를 만들어내는 작동력을 지니며, 이를 설계하고 유지하며 재배치하는 주체는 구조가 낳는 결과에 대한 책임에서 자유로울 수 없다. 이 관점에서 보면 플랫폼의 알고리즘과 추천 시스템은 더 이상 “수동적 환경”이 아니다. 그것들은 어떤 콘텐츠가 보이고 사라지는지를 결정하고, 특정 발언이 확산될 확률을 조정하며, 사용자 행동의 패턴을 예측하고 그 흐름을 설계하는 구조적 개입의 기술적 표현이다. 다시 말해, 플랫폼 사업자가 콘텐츠를 통해 직접 발언하지 않더라도, 어떤 발언이 ‘도달할 기회를 갖는가’를 결정하는 권력적 위치를 점하고 있으며, 이는 Emirbayer & Mische가 정의한 “행위란 결과에 영향을 미치기 위한 구성적 개입(capacity to shape outcomes)”이라는 넓은 의미의 행위성 개념에 정확히 부합한다(Emirbayer & Mische 1998, p. 973).
따라서 “사업자의 구조 설계는 비의도적 조건일 뿐 행위가 아니다”라는 반론은, 구조가 실제 사회적 결과에 미치는 영향력을 축소하는 오래된 발화자 중심 모델에 머무른다. 플랫폼의 구조는 결과를 양산하는 과정에 중개되지 않은 영향이 아니라, 직접적인 효과를 낳는 작동적 기제이다. 특히, 최근의 알고리즘은 단순히 정보를 정렬하는 기능을 넘어, 이용자의 클릭과 시청, 그리고 반응을 기반으로 특정 발언을 증폭하는 ‘행위적 조정 능력’을 갖기도 한다. 다시 말해, 플랫폼 사업자의 개입 여부는 ‘무엇을 확산할 것인가’에 대한 선택의 행위이며, 이는 발언의 흐름을 실질적으로 형성하기 때문에 행위로 간주될 수밖에 없다.
결국 구조는 단순 조건이 아니라 결과를 만들어내는 방식으로 작동하며, 이를 설계하는 플랫폼은 그 구조적 영향력 덕분에 행위자로서의 성격을 갖는다. 이러한 점에서 플랫폼 사업자를 행위자로 인정하는 것은 과도한 확장이 아니라 동시대의 기술적 작동방식에 부합하는 책임 기준의 재정립이라 볼 수 있다. 플랫폼 구조는 발언의 흐름을 결정하고, 발언의 흐름은 사회적 현실을 형성한다. 그렇다면 그 구조를 설계하는 플랫폼 역시 행위적 주체로서 규범적 책임을 져야 한다는 결론이 도출된다.
결론
혐오표현을 규제 없이 방임하는 것은 자유의 확장으로 이어지지 않는다. 오히려 소수자와 취약집단을 침묵시키고 발언 가능성을 파괴함으로써 자유의 기반 자체를 무너뜨린다는 점을 논증하였다. 즉, 규제는 자유를 억압하는 것이 아니라 실질적 표현의 자유를 유지하기 위해 필요한 제도적 조건이라는 결론에 도달한다. 독일의 난민 공격 데이터 분석이나 2024년 한국 유튜브 살해 생중계 사건처럼, 사업자의 비개입이 현실 피해로 이어진 실증적 사례는 이 논지를 단순한 이론이 아닌 귀납적이고 경험적인 결론으로 확정시켰다. 온라인 플랫폼 사업자는 그저 플랫폼을 통한 중립적 콘텐츠 전달자가 아니다. 플랫폼 사업자는 게시물을 단순히 ‘통과시키는 관로’가 아니라 추천과 노출 설계를 통해 공론장의 정보를 선별하고 조정하는 행위 주체이며, 따라서 책임 귀속이 가능한 행위자임을 확인했다. 정리하면, 플랫폼 사업자의 혐오표현 개입은 선택이 아니라 공론장을 지탱하기 위해 요구되는 규범적 의무인 것이다.
이 글의 기여는 플랫폼 규제를 찬반의 단순 이항적 대립으로 다루는 기존 논의를 넘어서, 책임 귀속의 기준을 ‘표현 생산 여부’가 아니라 ‘확산을 조정할 능력과 가능성’으로 재구조화했다는 데 있다. 즉, 플랫폼 책임의 핵심 축을 행위자성과 구조설계의 인과로 이동시킴으로써 규제 논쟁의 철학적 관점을 확장하였다. 더 나아가 혐오표현 규제는 자유의 적이 아니라 조건이라는 역설적 결론을 통해, 자유 담론을 대립의 언어가 아닌 공존적 원리의 언어로 전환할 수 있음을 제안하였다. 물론 이 글이 다루지 못한 영역도 존재한다. 알고리즘 투명성 확보 방법, 플랫폼 간 책임 분배 구조, 규제의 실효성 평가체계, 플랫폼 알고리즘의 실질적 구동 방식에서의 권력 등은 추가 연구가 요구되는 과제이며, 본 글이 이를 다루었다고 주장하지 않는다. 그럼에도 불구하고, 글이 제시한 핵심 메시지로 행위자인 플랫폼 사업자의 혐오표현 억제와 개입 책임과 필요성은 분명하게 남는다. 플랫폼 사업자는 플랫폼이라는 거대한 공론장의 설계자이며, 설계자는 그애 대한 부수적인 책임 또한 갖는다. 결국, 온라인 혐오표현 문제의 해결은 규제 여부의 선택이 아니라 공론장에 누가 참여할 수 있는가를 보장하는 정의의 문제이며 정의는 혐오를 허용하지 않음으로써 지켜지기도 한다.
참고문헌
국내문헌
이정현. (2024년5월16일). 구글, 방심위에 “유튜브 불법 콘텐츠 최대한 신속히 삭제” 약속. 연합뉴스. https://www.yna.co.kr/view/AKR20240516088200017.
외국 문헌
Berger, J., & Milkman, K. L. (2012). What makes online content viral?. Journal of marketing research, 49(2), 192-205.
Cohen, J. E. (2019). Between truth and power : the legal constructions of informational capitalism (1st ed.). Oxford University Press.
Emirbayer, M., & Mische, A. (1998). What is agency?. American journal of sociology, 103(4), 962-1023.
Feinberg, J. (1987). Harm to others (Vol. 1). Oxford University Press.
Giddens, A. (1984). The constitution of society: Outline of the theory of structuration. Polity.
Gillespie, T. (2018). Custodians of the internet : platforms, content moderation, and the hidden decisions that shape social media / Tarleton Gillespie. Yale University Press.
Howard, J. (2024). The Ethics of Social Media: Why Content Moderation is a Moral Duty. Journal of Practical Ethics, 11(2).
Klonick, K. (2018). The new governors: The people, rules, and processes governing online speech. Harvard Law Review, 131(6), 1599–1670.
Laidlaw, E. B., & Young, H. (2018). Internet intermediary liability in defamation. Osgoode Hall Law Journal (1960), 56(1), 112–161.
Müller, K., & Schwarz, C. (2021). Fanning the Flames of Hate: Social Media and Hate Crime. Journal of the European Economic Association, 19(4), 2131–2167.