(초고) 과제-08 기말과제 초고 작성하기 011-10 조민재
제목: E2EE 플랫폼 환경에서의 플랫폼이 가지는 책임
서론
SNS 플랫폼이 사회적 의사소통의 핵심 인프라로 자리잡고 있는데, 유해 콘텐츠의 확산으로 인한 피해도 SNS 플랫폼 시장이 성장하는 만큼 심각한 사회 문제로 부상하고 있다. 이와 관련해 기존 SNS 플랫폼은 주로 운영자가 콘텐츠를 사전에 검토하고 관리하여 이에 편집의무와 절차책임을 부과하였다. 그러나 잦은 해킹으로 인해 정보가 유출되고 검열, 감시에 의한 두려움이 커지면서 시그널(Signal)이나 텔레그램(Telegram)과 같은 종단간 암호화(E2EE, End-to-End Encryption) 기술을 채택한 플랫폼이 확산되고 있다. 이러한 최근 경향에 기존 플랫폼이 지녀왔던 책임 구조가 E2EE 플랫폼 환경에서도 동일하게 적용될 수 있는지에 대해 의문점이 제기되고 있다. 왜냐하면 E2EE 플랫폼에서는 기술적 설계로 인해 운영측에서 메세지 자체 내용을 전혀 열람할 수 없어 이를 사전적으로 알아채 통제하거나 검열하여 삭제하는 등의 방식을 취할 수 없기 때문이다.
본 글은 이러한 상황을 바탕으로, 책임을 먼저 1차 책임, 2차 책임으로 구분하여 설명한 뒤 플랫폼은 2차 책임을 진다는 점을 논증한다. 이어 플랫폼이 지는 책임은 편집의무와 절차책임이 있다고 설명하고 그 중에서도 편집의무는 사전적 통제가능성을 필요조건으로 한다는 점을 제시한다. 이를 통해 E2EE 플랫폼 환경에서는 기술적인 이유로 인해 사전적 통제가능성이 성립되지 않으며 이에 따라 E2EE 플랫폼의 경우 부담할 수 있는 책임은 편집의무를 제외한 절차책임에 한정됨을 논증한다. 또한 메타데이터를 기반으로 한 위험 탐지 가능성을 확장 적용하여 E2EE 환경에서도 가능할 것이라는 반론을 검토한 뒤 이러한 주장을 재반박함으로써 최종적으로 E2EE 플랫폼 환경에서는 편집의무에 대한 책임을 부과할 수 없다는 결론을 제시한다.
본론
플랫폼은 유해 콘텐츠 확산에 대해 2차적인 책임이 있고, 그 책임은 편집의무와 절차책임으로 구분된다.
유해콘텐츠 확산에 대한 플랫폼의 2차 책임
- 유포자는 1차 책임을 진다
유해 콘텐츠는 사전적으로 음란물, 폭력물등의 불건전한 내용을 담고 있거나 허위정보, 범죄행위 등을 조장하여 사람들에게 정신적, 신체적 피해를 줄 수 있는 콘텐츠를 의미한다. 이러한 콘텐츠들이 알고리즘에 선택되는 경우, 무분별하게 다수의 사람들에게 노출되고 폐해가 생기게 된다. 이러한 문제점은 SNS 시장이 발달할수록 더욱 커지게 된다. 이러한 콘텐츠가 유포되는 데에는 피해자가 존재하고 누군가는 책임을 져야 한다. 이러한 책임을 부과할 수 있을 만한 가장 최초의 사람은 콘텐츠를 만들어 유포한 사람이다. 일반적으로, 그러한 SNS상에 공유되는 콘텐츠들은 제작자와 최초 유포자가 동일하나 예외적으로 다른 사람인 경우가 있다. A라는 사람이 만들고 B라는 사람이 유포하는 경우로 이해할 수 있는데 이 경우 Gillespie(2018. Custodians of the internet)에 따르면 “책임의 핵심은 콘텐츠가 유통되느냐에 달려 있다.”라고 강조하였는데 이는 책임이란 콘텐츠 제작자보다 최초 유포자에게 부과되는 것이 옳다는 것으로 이해할 수 있다. 따라서 유해콘텐츠에 대한 피해로 인한 책임은 1차적으로 최초 콘텐츠 유포자에게 부과된다.
- 2차적 책임
1차적인 책임이 최초 콘텐츠 유통자에게 부과되었다면 그 이후 콘텐츠 확산에 기여한 매개체에는 2차적인 책임을 부과할 수 있다. 2차적인 책임이란 유해 콘텐츠를 직접적으로 생산하거나 최초 유포에는 관여하지 않았으나 해당 콘텐츠를 확산하는데 구조적, 기능적으로 기여한 행위자에게 부담되는 간접적인 책임이다. 이러한 책임이 부과되는 것은 행위자가 직접적으로 피해자에게 직접적으로 해악을 끼친 것은 아니지만 그러한 해악을 가능하게 하는 매개적인 역할을 수행했기 때문이라고 볼 수 있다.
- 플랫폼의 구조적 매개자 역할
플랫폼은 여러 구성원들이 서로 상호작용하며 가치를 만들어내는 기반 환경을 의미한다. 이러한 플랫폼은 구성원들의 상호작용에 초점을 맞추는데 이것을 도와주는 시스템으로 주로 알고리즘 방식이 사용된다. 대표적으로 유튜브 알고리즘의 경우, 각 시청자의 행동 데이터를 분석하여 개인 맞춤형 콘텐츠를 제공하는 시스템이다. 유튜브는 클릭률, 시청 시간, 좋아요, 시청 중단 등을 종합적으로 분석하여 사용자가 좋아할만한 영상을 최적화하여 제공한다. 이러한 방식은 사용자가 좋아하지 않는 콘텐츠는 점점 더 접하지 못하게 만들어 확증편향을 가지게 된다는 단점이 있으나 사용자의 만족도는 최적화되기 때문에 널리 쓰인다. 인스타그램의 경우에도 알고리즘을 사용하여 사용자에게 최적화된 콘텐츠를 제공한다. 인스타그램은 유튜브와 다르게 친족이나 지인 등 많은 사람이 서로 엮여있는 SNS이기 때문에 단순히 사용자의 만족도만을 기준으로 하여 콘텐츠를 노출시킨다기 보다는 자신 주변의 팔로워가 좋아하는 콘텐츠라던지 등 관계에 기반한 콘텐츠가 보다 우선된다. 이처럼 소셜 미디어 플랫폼들은 각 플랫폼의 성격을 고려하여 서로 다르게 알고리즘을 적용하여 콘텐츠를 사용자들에게 최적화하여 노출시킨다. 이러한 알고리즘 방식은 유포된 유해 콘텐츠에 대해 호의적으로 작용할 수도 있는데 이 경우 유해 콘텐츠가 SNS상에서 광범위하게 확산되어 불특정 다수의 사용자들에게 심각한 해악을 끼치게 된다. 정리하면, 플랫폼은 최초 유포된 콘텐츠를 알고리즘 등의 방식으로 불특정 다수의 사람들에게 전달하는 구조적 매개자 역할을 한다.
- 플랫폼이 완전히 무책임할 수 없는 이유
유해 콘텐츠는 플랫폼을 통해 불특정 다수의 사람들에게 광범위하게 전파되고 많은 해악을 끼친다. 이 경우 피해자는 SNS 이용자들이고 가해자는 1차적으로 최초 유포자라고 할 수 있는데 플랫폼도 이러한 콘텐츠를 확산시키는 데에 결정적으로 기여하였기 때문에 2차 책임이 있다고 볼 수 있다. 물론, 알고리즘이 중립적이고 이러한 알고리즘이 작용하는 결과에 플랫폼은 처음 입력해놓은 프롬프트대로 알고리즘이 작동했을 뿐 그 결과에 대해서는 우리가 알 수 없기 때문에 책임질 수 없다고 주장할 수 있으나, 그러한 알고리즘 자체를 설계한 것이 플랫폼이기 때문에 간접적 가해자로 볼 수 있다. 뿐 아니라 플랫폼은 공적 공간이고 이러한 공간은 사회에 많은 영향력을 끼칠 수 있다. 그러한 영향력에는 책임은 또한 부과되어야 한다. 정리하면, 플랫폼은 콘텐츠 확산에 영향을 끼치는 알고리즘을 직접 설계하고, 공적 담론에 있어 많은 영향력을 행사한다는 점에 있어 유해 콘텐츠 방치, 확산 문제에 대하여 완전히 무책임하다고 주장할 수는 없다.
편집의무와 절차책임
- 편집의무 정의
편집의무(editorial obligation)는 언론 매체나 SNS 등의 플랫폼을 마치 출판사처럼 다루어 유해콘텐츠의 위험성에 대한 책임을 부과하는 것을 말한다. 이러한 의무는 콘텐츠의 내용을 기준으로 적법한지, 타당한지, 위해한지 등을 사전에 검토하고 이에 위반되는 콘텐츠를 말그대로 편집하여 제한하거나 삭제하는 등의 조치를 동반한다. 또 Bunting(2018)의 연구에 따르면 그는 플랫폼 규제에 대한 논의에서 편집의무를 “content liability and editorial obligations”이라고 병렬적으로 제시하였는데 이는 내용 책임과, 편집 의무가 동일한 책임 범주에 속함을 암시한다(Bunting, 2018, p. 176). 또 편집의무란 rules-based accountability(RBA)의 한 형태라고 하는데 원문 그대로 규칙에 기반하여 책임을 부과하는 즉, 개별 콘텐츠의 내용을 보고 규칙위반여부에 따라 자동적으로 제한이나 삭제를 결정한다는 것이다(Bunting, 2018, p. 176).
- 절차책임 정의
절차책임은 편집의무(내용책임)과는 별개의 책임으로서 기능한다. 편집의무의 경우 콘텐츠의 내용 자체에 집중하여 유포자가 1차적인 책임 그리고 2차적으로 플랫폼이 책임을 지게 된다. 반면, 절차책임은 특정 콘텐츠로 인한 결과에 집중하기보다는 결과에 이른 과정 자체가 적법한지, 투명하고 공정한지에 집중한다. 예시로 유해 콘텐츠가 SNS상에서 유포가 되고 광범위하게 확산될 때, 플랫폼 내부의 정책이 이에 유의미하게 기여한 경우를 절차책임을 다하지 못한 사례라 볼 수 있다. 이러한 문제를 해결하기 위해서 플랫폼에서는 사용자의견 수렴이나 신고기반 알고리즘등을 운영하는 방식을 도입하는데 이는 절차책임을 다하기 위해서이다.
- 책임 유형
플랫폼은 콘텐츠의 생산자가 아니기 때문에 콘텐츠가 생성되고 유포되어 타 사용자들에게 전달되는 과정에서 개입할 수 있는 부분은 결과와 과정에서만 가능하다. 먼저, 결과에 개입하는 것은 콘텐츠 그 자체를 판단하는 행위이고 이는 삭제, 제한 등의 방식으로 콘텐츠의 내용을 직접 열람하고 판단하는 것이다. 두 번째로 과정에 개입하는 것은 콘텐츠가 흘러가는 구조나 절차를 설계하는 행위이다. 이는 알고리즘, 추천 시스템 등 콘텐츠 내용을 직접 보지 않고, 특정 기준에 따라 확산되는 방향을 조정하는 것이다. 마찬가지로 플랫폼이 부담해야 하는 책임은 결과에 개입하는 행위에 대한 책임 그리고 과정에 개입하는 행위에 대한 책임이 될 것이다. 이를 다른 언어로 표현하게되면 결과에 개입하는 행위를 편집의무(내용책임)라 하고, 과정에 개입하는 행위를 절차책임이라 할 수 있다. 즉, 플랫폼이 지닐 수 있는 콘텐츠에 대한 2차적인 책임은 편집의무(내용책임)와 절차책임 두 가지가 유일하다. 하지만, 제 3의 개입방식이 존재한다고 해보자. 이 경우 이러한 개입방식은 앞선 두 가지의 개입방식과 독립적으로 작용해야 한다. 그러면 플랫폼이 과정에도 결과에도 개입하지 않는 방식인 것인데, 둘 다 아니라면 콘텐츠가 만들어 유포된 최초시점밖에 개입할 수 없게되는데 이는 1차적인 책임으로 해당 최초 유포자에게 책임이 귀속된다. 따라서 제 3의 개입방식은 존재할 수 없다.
편집의무의 필요조건은 사전적 통제가능성이다.
플랫폼 맥락에서의 통제가능성
플랫폼에서의 통제가능성이란 운영측에서 유포된 콘텐츠에 내해 내용 자체를 인지하고 위험, 적법 여부에 대해 판단할 수 있으며 그 결과에 따라 제한이나 삭제등의 개입을 수행할 수 있는 능력을 의미한다. 쉽게 말하면, A라는 콘텐츠가 플랫폼내에서 유포되었을 때 이러한 개별 콘텐츠에 실질적으로 접근하여 콘텐츠를 다각적으로 분석하여 공개 범위등을 수정하고, 유해콘텐츠 유포자에게 제재를 부여할 수 있는 능력이다.
플랫폼에서 사전적 통제는 왜 핵심 요소인가
플랫폼에서 콘텐츠가 유통되는 경로는 다음과 같다. 1차적으로 콘텐츠 제작자가 제작을 하고, 유포를 하고 이를 플랫폼을 통해 광범위하게 퍼져나가 다수의 사용자에게 확산된다. 이 때, 플랫폼이 사후적 통제 정책을 적용하는 것은 시기적으로도 적절하지 않다. 플랫폼이 아닌 경우에서의 사후적 통제는 비교적으로 유효할 수 있다. 예를들어, 출판 또는 방송 매체의 경우 유해한 원고나 영상이 사전에 검열이나 심사되는 구조를 지니기 때문에 사후적 통제만으로도 일정 부분 피해 확산을 억제할 수 있다. 즉, 콘텐츠가 유통되기 전에 개입할 수 있으므로 유해 콘텐츠가 대중에게 도달하기 전 단계에서 위험을 차단할 수 있다. 하지만 플랫폼 환경은 이와 본질적으로 다르다. 플랫폼에서의 확산은 단일 방향이 아닌 다수의 네트워크 환경과 상호작용하고 순간적이고 기하급수적으로 증가하는 특성을 가진다. 따라서 콘텐츠가 업로드되고 최초로 유포되는 순간, 플랫폼은 더 이상 그 확산의 초기 단계가 아닌 확산이 시작된 이후의 사후적 지점에 위치하게 된다. 이러한 구조적 특성 때문에 플랫폼에서의 사후적 통제란 근본적으로 시차의 문제를 가지게 된다. 플랫폼이 유해 콘텐츠를 발견하고 이를 제한하거나 삭제하는 과정까지의 시간 동안 해당 콘텐츠는 이미 다수의 사용자들에게 공유되었으며 그로 인한 피해는 되돌릴 수 없다. 이러한 상황에서의 사후적 통제란, 확산이 발생한 결과를 단순히 수정하는데에 그치며, 이미 발생한 피해를 차단하거나 앞으로 발생할 위험도 예방하지 못한다. 이러한 맥락에서 플랫폼이 실질적으로 책임을 수행한다는 것은 특정 콘텐츠가 확산되어 사용자들에게 도달하기 전에 사전적으로 내용을 확인하고 개입할 수 있는 통제가능성이 필수적이다. 요약하면, 플랫폼의 책임 중 편집의무는 사전적 통제를 핵심 전제로 한다.
E2EE 플랫폼은 사전적 통제가능성을 갖지 않는다.
E2EE(종단간 암호화 방식) 플랫폼
- 정의
E2EE(End-to-End Encryption)는 송, 수신자만 메세지 내용을 해독할 수 있도록 설계된 암호화 통신 방식이다. 이 방식에서 메세지를 복호화하기 위한 비밀키는 서버가 아닌 사용자 단말기에 저장되며, 서버는 복호화 키를 보유하지 않는다. 전체 과정은 3가지의 단계로 나누어진다. 첫째, 송신자가 메시지를 입력하였을 때, 송신자의 기기는 수신자의 공개키를 이용하여 메시지를 암호화하여 서버로 메시지를 전달한다. 둘째, 서버는 도착한 암호화된 메시지를 그대로 수신자에게 전달하는 역할만 한다. 서버는 공개키도 비밀키도 보유하고 있지 않기 때문에 플랫폼은 원천적으로 전달되는 메세지의 내용을 알 수 없다. 셋째, 수신자에게 메세지가 도달하면 수신자의 기기는 비밀키(private key)를 이용해 메세지를 복호화하여 화면에서 읽을 수 있게 한다. 그래서 수신자에게 발송되는 과정에서 제3자에 의해 읽히거나 조작될 수 없으며, 서버는 키를 가지고 있지 않으므로 암호화된 메세지만을 취급하게 된다.
- 운영자의 내용접근 불가성
E2EE 환경에서는 플랫폼 운영측이 개별 콘텐츠의 내용을 가시화하거나 분석하는 것이 기술적으로 불가능하다. 이는 종단간 암호화 기술 자체가 운영자의 정보 접근을 구조적으로 배제하고 있기 때문이다. 따라서 서버는 메세지의 내용을 확인하여 그 위험성을 평가하거나 규칙 위반 여부를 알 수 없다. 또, 비밀키는 사용자의 단말기에만 존재하는데 만약 새로운 기기를 등록하는 경우에도 키의 교환 과정은 암호화된 사용자간 채널을 통해 이루어진다. 따라서 운영측은 어떤 방식으로도 전달되는 메세지의 내용을 열람하거나 사전적으로 통제할 수 없다.
- 프라이버시 목적
E2EE는 사용자가 통신을 하는 과정에서 프라이버시를 보호하기 위해 설계된 규범적 구조의 일환이다. 종단간 암호화 기술의 목표는 제3자, 예를들어 정부나 기업, 플랫폼 운영자 등이 통신내용을 열람하거나 감청하는 것을 근본적으로 차단하는 것이다. 만약 E2EE 플랫폼에서 발생하는 유해 콘텐츠 방치 문제를 해결하기 위해서 운영측에서 백도어를 설치하여 메세지 내용을 열람할 수 있도록 한다던지, 아니면 특정한 경우에만 예외적으로 복호화가 가능하도록 하는 장치를 도입하는 경우는 다음 두 가지 이유에서 정당화될 수 없다. 첫째, 백도어는 통신 보안 전체를 약화시키고, 악용될 가능성이 필연적으로 증가하게 된다. 이는 E2EE 기술의 근본적인 목표를 침해하게 될 뿐 아니라 오히려 전체 시스템의 위험을 더 증폭시킨다. 왜냐하면 백도어가 존재한다는 것 자체로 공격자에게 가장 먼저 노려지는 구조적인 취약점이 되기 때문이다. 둘째, 예외적인 복호화를 허용하는 경우는 그 자체로 감시나 검열의 위험을 증가시켜 사용자가 플랫폼을 이용할 동기 자체가 크게 감소하고 이는 사용자의 신뢰와 표현의 자유를 침해하는 것과 같다. 따라서, E2EE 플랫폼에서 운영자의 내용 접근을 허용하게 하는 어떠한 조치도 사용자 권리의 침해를 의미한다.
그러나 다음과 같은 반론도 제기될 수 있다. 운영자가 메세지의 내용을 직접 열람하지 못하더라도, 메세지의 전송패턴이나 사용자 간의 상호작용 빈도, 메타데이터1 등의 비내용적 정보를 분석함으로써 유해 콘텐츠의 확산을 간접적으로 감지할 수 있다는 주장이 있다. Sharma & Kejriwal(2024)에 따르면 종단간 암호화 환경에서도 사용자 행동 패턴과 메타데이터만을 활용하여 사이버 불링 징후를 탐지하는 모델의 가능성이 존재한다고 한다. 그들의 주장에 따르면 Federated Learning tools2 을 이용하면 암호화된 메세지 내용을 직접 보지 않고도 사용자 행동 패턴이나 데이터만으로도 사이버불링 가능성을 탐지할 수 있다고 한다. 본 연구에서는 실제 E2EE 데이터를 사용할 수 없기 때문에, 비암호화된 공개 데이터를 가지고 내용을 제거한 뒤 이를 이용해 Federated Learning 모델을 학습시켜 실제 데이터와 비교하는 방식으로 메타데이터 기반 예측이 일정 부분 사이버불링을 예측하는 것이 가능함을 보여주었다.
이러한 결과는 비록 유해행위를 탐지하는 것에 한정된 것이지만, 이러한 기술적 접근 방식은 곧 유해콘텐츠의 사전적 위험을 평가하는 것으로도 확장될 수 있는 가능성을 시사한다고 본다. 즉, 특정 콘텐츠가 플랫폼 내에서 확산되기 전에, 메타데이터 패턴을 분석하는 것 만으로도 특정 콘텐츠의 유해 가능성을 사전에 판단할 수 있다면 이는 E2EE 환경에서도 사전적 개입이 가능하다는 주장으로 이어진다. 따라서, 콘텐츠의 직접적 열람 없이 메타데이터 만으로도 위험 판단이 가능할 수 있다는 점을 근거로 편집의무 역시 E2EE 플랫폼에서 완전히 배제될 필요는 없다고 본다.
그러나 이러한 주장은 두 가지 측면에서 E2EE 환경에서의 편집의무 가능성을 뒷받침하는 근거로 볼 수 없다. 먼저, Sharma & Kejriwal(2024)의 연구는 실제 E2EE 환경에서 생성된 메타데이터를 분석한 것이 아니라, 비암호화된 공개 데이터를 가지고 내용을 제거하여 인위적으로 구성한 메타데이터를 이용한 실험에 불과하다. E2EE 플랫폼 환경에서는 핵심적인 사용자행동 데이터가 주요 사용자들, 프라이버시 보호 수준의 차이로 인해 전혀 다른 형태로 나타날 뿐 아니라 이러한 정보들은 운영측에서 알 수 없다. 따라서 비암호화 환경에서 학습한 패턴으로 E2EE 플랫폼 환경에 확장하여 적용하는 것은 데이터 패턴 구조 방식이 동일하게 작동할 것이라는 전제를 암묵적으로 가정하는 것이며, 실제로 그러할 것이라 보기 어렵다. 둘 째, 해당 Sharma의 연구에서 예측하려고 한 사이버불링 징후는 대칭적 상호작용이나, 집단성, 반복성 등 특정한 전제들에 의존하는데 전제부터가 성립한다고 확증할 수 없다. 즉, 해당 연구는 특정 유형의 행동 패턴이 존재한다는 가정하에서만 성립할 뿐, 콘텐츠의 유해성 자체를 측정하는 일반적인 기준을 제시하지는 못한다. 이러한 한계들로 인해 메타데이터를 기반으로 유해 콘텐츠를 탐지하여 사전적으로 차단하는 것은 현실적으로 부족하다.
결론
따라서 E2EE 플랫폼은 편집의무를 부담할 수 없고, 절차책임만 남는다.
본 글은 플랫폼이 가지는 2차적인 책임을 편집의무와 절차책임으로 구분하고, 편집의무의 필요조건으로 사전적 통제가능성을 제시하였다. 그러나 E2EE(종단간 암호화 기술) 기술을 채택한 플랫폼 예를들어 시그널이나 텔레그램의 경우 기술적 설계상 사용자들이 서로 전달하는 메세지 내용을 운영측에서 사전적으로 열람할 수 없다. 하지만 이 경우 유해콘텐츠가 유포되는 문제가 발생하게 되는데 이를 해결하기 위하여 백도어를 심거나 예외적 복호화가 가능하도록 장치를 도입하는 경우는 보안성과 프라이버시를 크게 침해한다는 점에서 정당화되기 어렵다. 따라서 E2EE 플랫폼 환경에서는 일반적인 플랫폼과는 다르게 2차책임중 절차책임만 부담한다.
물론, 메타데이터를 Federated Learning로 분석하여 위험 징후를 감지할 수 있다는 Sharma의 연구를 통해 반론이 제기될 수 있으나 이러한 연구는 비암호화된 데이터 기반의 제한적 실험일 뿐 실제 E2EE 플랫폼 환경에서도 적용된다 보기 어렵다. 왜냐하면 일반적인 플랫폼과 E2EE 플랫폼의 메타데이터는 주요 사용자들이나 프라이버시 보호 수준의 차이로 전혀 다른 형태로 나타나기 때문이다. 또 연구에서 제안한 접근법은 행위를 분석할 때 특정한 전제들에 의존하는데 그러한 전제부터 E2EE에서도 적용가능한지 검증할 수 없다. 따라서, 이러한 반론은 E2EE 플랫폼에서의 편집의무에 준하는 사전적 통제가 가능하다는 주장을 뒷받침할 수 없다.
결국 E2EE 플랫폼 환경에서는 구조적이고 기술적인 제약으로 인해 콘텐츠를 내용에 근거하여 통제할 수 없다. 따라서, E2EE 플랫폼이 부담할 수 있는 책임은 신고에 의존하는 대응 체계등의 단순 절차책임에 한정된다.
참고문헌
Bunting, M. (2018). From editorial obligation to procedural accountability: New policy approaches to online content in the era of information intermediaries. Journal of Cyber Policy, 3(2), 165–186.
Sharma, A., & Kumar, R. (2024). AI-Enhanced Cyberbullying Detection in Encrypted Social Media. International Journal for Science and Advance Technology, 4(11), 11–15.
Gillespie, T. (2018). Custodians of the Internet: Platforms, content moderation, and the hidden decisions that shape social media. Yale University Press.