주제에 대한 설명(1문장): 뉴스 및 소셜미디어 등 사용자 콘텐츠 문제에 대하여 해당 콘텐츠를 유통하는 플랫폼이 문제의 책임에서 자유로울 수 있는가에 대해 다루고자 합니다.
본인이 해당 문헌을 담당하게 된 배경에 대한 간략한 설명(문헌별 1문장):
문헌1: 트위터는 개인의 표현 공간인 동시에 사회적 규범을 설계하는 기술적 구조를 지닌다는 점에서, ‘표현의 자유’보다 근본적인 책임의 위치와 구조적 행위성의 문제를 탐구하기에 적합하다고 생각하여 이 문헌을 선택하였다.
1. 『Toxic Twitter – A Toxic Place for Women』 – Amnesty International (2018)
서지정보: Amnesty International. (2018). Toxic Twitter: A Toxic Place for Women. Amnesty International Ltd.
쟁점: 트위터는 이용자가 게시한 콘텐츠에 대한 책임에서 자유로운 단순 중개자인가, 아니면 혐오발언, 젠더갈등, 허위정보의 확산을 구조적으로 방조함으로써 사회적 해악에 대한 예견 가능성과 관리 책임을 져야 하는 공적 행위자인가?
딜레마: 플랫폼은 표현의 자유를 보장하기 위해 개입을 최소화해야 하는가, 아니면 자신이 설계한 구조를 통해 이미 사회적 규범을 생산하고 있다면 ‘비개입’ 자체가 하나의 통제 행위로 간주되어야 하는가?
주장: 트위터가 단순한 기술적 중개자가 아니라 사회적 상호작용의 조건을 설계하는 규범적 행위자임을 주장한다.
논증 방식: Amnesty는 8개국 여성 이용자 6,500명을 대상으로 한 실증 조사 및 인터뷰를 통해, 트위터의 구조적 책임을 경험적, 정책적, 윤리적 차원에서 제시한다. Amnesty는 8개국의 여성 이용자 6,500명을 대상으로 한 실증 조사와 심층 인터뷰를 통해, 트위터의 구조적 책임 문제를 경험적·정책적·윤리적 차원에서 분석한다. 먼저 경험적 차원에서, 응답자의 23%가 실제적인 위협이나 괴롭힘을 경험했으며, 78%는 신고 이후에도 트위터로부터 적절한 조치를 받지 못했다고 응답했다(pp. 12–14). 이는 플랫폼이 단순한 정보 중개자가 아니라, 이용자의 안전을 보장할 관리 책임을 지닌 행위자임을 보여준다. 정책적 차원에서는 트위터가 신고·제재 절차를 일관되게 운영하지 못하고, 이용자의 피해를 방관하거나 사후적으로만 대응함으로써 ‘무책임의 구조’를 고착화했다고 지적한다(pp. 18–22). 즉, 문제의 핵심은 기술적 알고리즘 그 자체가 아니라, 플랫폼이 문제를 인식하고도 제도적 개선을 소홀히 한 관리 부재에 있다. 마지막으로 윤리적 차원에서 Amnesty는 국제인권규범(예: UN Guiding Principles on Business and Human Rights)을 근거로, 플랫폼이 ‘표현의 자유를 보장할 의무’뿐 아니라 ‘타인의 권리를 침해하지 않을 책임’ 역시 함께 지닌다고 주장한다(pp. 27–30). 이러한 분석을 통해 Amnesty는 트위터의 문제를 개별 이용자의 일탈로 환원하지 않고, 플랫폼이 스스로 설정한 관리 구조와 대응 체계 속에서 발생한 책임의 실패로 설명한다.