(최종본) 과제-09 기말과제 011-10 조민재
제목: E2EE 플랫폼 환경에서의 플랫폼이 가지는 책임
서론
SNS 플랫폼이 사회적 의사소통의 핵심 인프라로 자리잡고 있는데, 유해 콘텐츠의 확산으로 인한 피해도 SNS 플랫폼 시장이 성장하는 만큼 심각한 사회 문제로 부상하고 있다. 이와 관련해 기존 SNS 플랫폼은 주로 운영자가 콘텐츠를 사전에 검토하고 관리하여 이에 편집의무와 절차책임을 부과하였다. 그러나 잦은 해킹으로 인해 정보가 유출되고 검열, 감시에 의한 두려움이 커지면서 시그널(Signal)이나 텔레그램(Telegram)과 같은 종단간 암호화(E2EE, End-to-End Encryption) 기술을 채택한 플랫폼이 확산되고 있다. 이러한 최근 경향에 기존 플랫폼이 지녀왔던 책임 구조가 E2EE 플랫폼 환경에서도 동일하게 적용될 수 있는지에 대해 의문점이 제기되고 있다. 왜냐하면 E2EE 플랫폼에서는 기술적 설계로 인해 운영측에서 메세지 자체 내용을 전혀 열람할 수 없어 이를 사전적으로 알아채 통제하거나 검열하여 삭제하는 등의 방식을 취할 수 없기 때문이다.
본 글은 이러한 상황을 바탕으로, 책임을 먼저 1차 책임, 2차 책임으로 구분하여 설명한 뒤 플랫폼은 2차 책임을 진다는 점을 논증한다. 이어 플랫폼이 지는 책임은 편집의무와 절차책임이 있다고 설명하고 그 중에서도 플랫폼에서의 편집의무는 사전적 통제에 한정한다는 것을 논증한다. 이후, E2EE 플랫폼 환경에서는 기술적인 이유로 인해 사전적 통제가능성이 성립되지 않으며 이에 따라 E2EE 플랫폼의 경우 부담할 수 있는 책임은 편집의무를 제외한 절차책임에 한정됨을 보여준다. 그리고 이러한 조건하에서 E2EE 플랫폼의 경우 기존의 편집의무, 절차책임을 가졌던 비 암호화 플랫폼과 다른 책임 구조를 적용해야 한다는 점을 논증한다.
이후 본 글은 E2EE 플랫폼 환경에서 플랫폼 책임은 콘텐츠의 내용에 대해 사전적 개입이 불가능하므로 절차책임을 중심으로 재구성될 필요가 있음을 보여주고 이에 대해 신고가 핵심적인 축으로 기능함을 제시한다. 이후 메타데이터 기반 위험 탐지 가능성으로 E2EE 환경에서의 편집의무 가능성을 주장하는 기존 연구를 검토하고, 그 한계를 분석한 뒤 E2EE 책임 구조의 방향을 제시한다.
본론
플랫폼은 유해 콘텐츠 확산에 대해 2차적인 책임이 있고, 그 책임은 편집의무와 절차책임으로 구분된다.
유해콘텐츠 확산에 대한 플랫폼의 2차 책임
- 유포자는 1차 책임을 진다
유해 콘텐츠는 사전적으로 음란물, 폭력물등의 불건전한 내용을 담고 있거나 허위정보, 범죄행위 등을 조장하여 사람들에게 정신적, 신체적 피해를 줄 수 있는 콘텐츠를 의미한다. 이러한 콘텐츠들이 알고리즘에 선택되는 경우, 무분별하게 다수의 사람들에게 노출되고 폐해가 생기게 된다. 이러한 문제점은 SNS 시장이 발달할수록 더욱 커지게 된다. 이러한 콘텐츠가 유포되는 데에는 피해자가 존재하고 누군가는 책임을 져야 한다. 이러한 책임을 부과할 수 있을 만한 가장 최초의 사람은 콘텐츠를 만들어 유포한 사람이다. 일반적으로, 그러한 SNS상에 공유되는 콘텐츠들은 제작자와 최초 유포자가 동일하나 예외적으로 다른 사람인 경우가 있다. A라는 사람이 만들고 B라는 사람이 유포하는 경우로 이해할 수 있는데 이 경우 Gillespie(2018. Custodians of the internet)에 따르면 “책임의 핵심은 콘텐츠가 유통되느냐에 달려 있다.”라고 강조하였는데 이는 책임이란 콘텐츠 제작자보다 최초 유포자에게 부과되는 것이 옳다는 것으로 이해할 수 있다. 따라서 유해콘텐츠에 대한 피해로 인한 책임은 1차적으로 최초 콘텐츠 유포자에게 부과된다.
- 2차적 책임
1차적인 책임이 최초 콘텐츠 유통자에게 부과되었다면 이후 콘텐츠 확산에 기여한 매개체에는 2차적인 책임을 부과할 수 있다. 2차적인 책임이란 유해 콘텐츠를 직접적으로 생산하거나 최초 유포에는 관여하지 않았으나 해당 콘텐츠를 확산하는데 구조적, 기능적으로 기여한 행위자에게 부담되는 간접적인 책임이다. 이러한 책임이 부과되는 것은 행위자가 직접적으로 피해자에게 직접적으로 해악을 끼친 것은 아니지만 그러한 해악을 가능하게 하는 매개적인 역할을 수행했기 때문이라고 볼 수 있다.
- 플랫폼의 구조적 매개자 역할
플랫폼은 다수의 이용자들이 상호작용할 수 있는 환경을 제공하는 동시에, 콘텐츠가 어떠한 경로와 범위로 확산되는지에 직접적으로 개입한다. 그러한 개입은 주로 알고리즘 방식을 통해 이루어지며, 알고리즘은 개별 콘텐츠의 노출 정도, 도달하는 범위, 확산 속도 등을 분석하여 개별 사용자에게 콘텐츠를 추천하게 된다. 즉, 플랫폼은 콘텐츠를 직접적으로 생산하지는 않지만 어떤 콘텐츠가 플랫폼 공간에서 더 우선시 되고, 자주노출되는지를 결정하여 사용자들에게 최종적으로 제공하는 핵심적 역할을 한다. 특히 알고리즘 방식은 이용자의 선택과 무관하게 특정 콘텐츠를 우선적으로 노출하고 확산시킬 수 있으며, 그러한 방식에 의해 유해 콘텐츠가 선정된다면 이 또한 광범위하게 전파되는 해악을 낳는다. 1차적으로 유해콘텐츠의 생성자 및 최초유포자가 책임을 지지만, 결과적으로 그러한 콘텐츠가 유포되고 확산되어 불특정 다수의 사람들에게 해악을 끼친건 플랫폼의 영향이 더욱 크다 할 수 있다. 따라서 플랫폼은 단순히 중립적인 매개자로 이해될 수 없고, 콘텐츠 유통과 확산을 근본적으로 제어하는 구조적 매개자로 이해될 수 있다.
- 플랫폼의 2차적 책임
유해 콘텐츠는 플랫폼을 매개로 하여 불특정 다수의 이용자에게 확산될 수 있고 그러한 과정에서 사회적 해악을 끼칠 수 있다. 이때 플랫폼은 해당 콘텐츠를 직접 생산하거나 최초로 유포한 1차적인 책임 주체는 아니지만, 알고리즘 등의 방식을 통해 콘텐츠의 노출과 확산 경로에 직접적으로 개입하는 매개적 역할을 수행한다. 이러한 점들을 고려할 때, 플랫폼이 유해 콘텐츠 확산 과정에서 완전히 무관하거나 책임 논의의 대상이 아니라고 보기는 어렵다. 물론 플랫폼은 개별 콘텐츠의 생성이나 유포를 직접 통제하지 않는다는 점에서, 그 책임은 콘텐츠 제작자나 최초 유포자와 동일한 수준으로 평가될 수는 없다. 그러나 플랫폼은 알고리즘 설계, 노출 정책, 운영 규칙 등을 통해 콘텐츠가 어떤 조건에서 확산되는지를 형성하며, 이로 인해 유해 콘텐츠의 확산 가능성에 일정 부분 영향을 미친다. 따라서 플랫폼은 유해 콘텐츠 문제에 대해 직접적 가해자가 아닌 구조적 기여자로서, 제한적이지만 일정한 범위의 2차적 책임 논의의 대상이 된다.
편집의무와 절차책임
- 편집의무 정의
편집의무(editorial obligation)는 언론 매체나 SNS 등의 플랫폼을 마치 출판사처럼 다루어 유해콘텐츠의 위험성에 대한 책임을 부과하는 것을 말한다. 이러한 의무는 콘텐츠의 내용을 기준으로 적법한지, 타당한지, 위해한지 등을 사전에 검토하고 이에 위반되는 콘텐츠를 말그대로 편집하여 제한하거나 삭제하는 등의 조치를 동반한다. 또 Bunting(2018)의 연구에 따르면 그는 플랫폼 규제에 대한 논의에서 편집의무를 “content liability and editorial obligations”이라고 병렬적으로 제시하였는데 이는 내용 책임과, 편집 의무가 동일한 책임 범주에 속함을 암시한다(Bunting, 2018, p. 176). 또 편집의무란 rules-based accountability(RBA)의 한 형태라고 하는데 원문 그대로 규칙에 기반하여 책임을 부과하는 즉, 개별 콘텐츠의 내용을 보고 규칙위반여부에 따라 자동적으로 제한이나 삭제를 결정한다는 것이다(Bunting, 2018, p. 176). 이러한 점에서 편집의무는 단순한 관리 책임이 아닌, 콘텐츠의 의미를 인식하고 그 유통 여부를 판단하는 권한과 책임을 전제로 한다.
- 절차책임 정의
절차책임은 편집의무(내용책임)과는 별개의 책임으로서 기능한다. 편집의무의 경우 콘텐츠의 내용 자체에 집중하여 유포자가 1차적인 책임 그리고 2차적으로 플랫폼이 책임을 지게 된다. 반면, 절차책임은 특정 콘텐츠로 인한 결과에 집중하기보다는 결과에 이른 과정 자체가 적법한지, 투명하고 공정한지에 집중한다. 예시로 유해 콘텐츠가 SNS상에서 유포가 되고 광범위하게 확산될 때, 플랫폼 내부의 정책이 이에 유의미하게 기여한 경우를 절차책임을 다하지 못한 사례라 볼 수 있다. 이러한 문제를 해결하기 위해서 플랫폼에서는 사용자의견 수렴이나 신고기반 알고리즘등을 운영하는 방식을 도입하는데 이는 절차책임을 다하기 위해서이다.
- 책임 유형
플랫폼은 콘텐츠의 생산자가 아니기 때문에 콘텐츠가 생성되고 유포되어 타 사용자들에게 전달되는 과정에서 개입할 수 있는 부분은 결과와 과정에서만 가능하다. 먼저, 결과에 개입하는 것은 콘텐츠 그 자체를 판단하는 행위이고 이는 삭제, 제한 등의 방식으로 콘텐츠의 내용을 직접 열람하고 판단하는 것이다. 두 번째로 과정에 개입하는 것은 콘텐츠가 흘러가는 구조나 절차를 설계하는 행위이다. 이는 알고리즘, 추천 시스템 등 콘텐츠 내용을 직접 보지 않고, 특정 기준에 따라 확산되는 방향을 조정하는 것이다. 마찬가지로 플랫폼이 부담해야 하는 책임은 결과에 개입하는 행위에 대한 책임 그리고 과정에 개입하는 행위에 대한 책임이 될 것이다. 이를 다른 언어로 표현하게되면 결과에 개입하는 행위를 편집의무(내용책임)라 하고, 과정에 개입하는 행위를 절차책임이라 할 수 있다. 만약 이와 구별되는 제3의 개입방식을 상정한다면, 그것은 결과에도 과정에도 해당하지 않는 방식이어야 한다. 그러나 그러한 방식은 플랫폼이 콘텐츠의 생성이나 최초 유포 단계에 개입하는 경우를 제외하고는 상정하기 어렵고, 이는 플랫폼의 2차적 책임이 아니라 최초 유포자에게 귀속되는 1차적 책임의 문제로 이해된다. 따라서 본 논의에서는 플랫폼의 2차적 책임을 편집의무와 절차책임이라는 두 유형을 중심으로 검토한다.
플랫폼에서 편집의무와 통제가능성의 관계
플랫폼 맥락에서의 통제가능성
플랫폼 맥락에서의 통제가능성이란, 일반적인 통제가능성과는 달리 구체화하여 적용된다. 일반적인 통제가능성은 어떤 대상에 영향을 미칠 수 있는 능력 정도로 이해될 수 있는데 플랫폼에서의 통제가능성은 먼저 운영측을 전제로 하고, 이러한 운영측이 개별 콘텐츠에 대해 내용을 확인하여 위법적이거나 유해한 콘텐츠에 대해 제재를 가할 수 있는 능력을 의미한다. 다시 말해, A라는 콘텐츠가 플랫폼 내에서 유포되었을 때 이러한 개별 콘텐츠에 실질적으로 접근하여 콘텐츠를 여러 방면으로 분석하여 공개 범위 등을 수정하고, 유해콘텐츠 유포자에게 제재를 부여할 수 있는 능력이다.
플랫폼 환경에서 편집의무의 적용범위
플랫폼에서 콘텐츠가 유통되는 경로는 다음과 같다. 콘텐츠는 먼저 제작자에 의해 생성되고, 최초 유포자가 유포한 이후 플랫폼을 매개로하여 불특정 다수의 이용자에게 확산된다. 이 과정에서 플랫폼은 콘텐츠의 생산 주체는 아니지만, 어떤 콘텐츠를 노출시킬지 노출시키지 않을지를 결정한다는 점에서 콘텐츠의 확산 과정에 직접적으로 관여한다고 볼 수 있다. 이러한 구조에서 플랫폼이 사후적 통제 정책을 적용하여 확산된 이후의 시점에서 유해 콘텐츠에 대해 제재를 가한다면 이미 발생한 해악을 막을 수 없고 이러한 해악들은 제거될 수 없다. 신문이나 방송과 같은 매체들은 콘텐츠가 대중에게 전달되기 전, 사전적으로 검열하거나 심사가 이루어진다. 따라서 사후적 조치가 유효하게 작용하여 해악이 발생하기 전 통제할 수 있고, 확산또한 미리 방지할 수 있다. 그러나 플랫폼 환경에서는 이러한 방식으로 통제할 수 없다. 왜냐하면 플랫폼에서의 콘텐츠 확산은 다수의 이용자들에게 한꺼번에 기하급수적으로 확산되기 때문에 유해콘텐츠가 확산된 경우 사후적 통제를 한다는 것은 이미 거대한 해악이 발생한 이후일 것이다. 그러한 유해 콘텐츠가 이후에 삭제되더라도 이미 다수의 이용자들이 피해를 보았고 이는 없었던 일로 할 수 없다. 따라서, 플랫폼 환경에서 현재의 사후적 조치는 확산이 발생한 이후의 결과를 관리하거나 수정하는 것에 그치며, 이는 플랫폼 환경에서의 편집의무와는 구별된다. 따라서 플랫폼 환경에서의 편집의무는 콘텐츠가 확산되기 이전 내용을 인지하고 분석하여 확산을 조절하는 사전적 통제에 한정된다고 볼 수 있다.
E2EE 플랫폼은 사전적 통제가능성을 갖지 않는다.
E2EE(종단간 암호화 방식) 플랫폼
- 정의
E2EE(End-to-End Encryption)는 송, 수신자만 메세지 내용을 해독할 수 있도록 설계된 암호화 통신 방식이다. 이 방식에서 메세지를 복호화하기 위한 비밀키는 서버가 아닌 사용자 단말기에 저장되며, 서버는 복호화 키를 보유하지 않는다. 전체 과정은 3가지의 단계로 나누어진다. 첫째, 송신자가 메시지를 입력하였을 때, 송신자의 기기는 수신자의 공개키를 이용하여 메시지를 암호화하여 서버로 메시지를 전달한다. 둘째, 서버는 도착한 암호화된 메시지를 그대로 수신자에게 전달하는 역할만 한다. 서버는 공개키도 비밀키도 보유하고 있지 않기 때문에 플랫폼은 원천적으로 전달되는 메세지의 내용을 알 수 없다. 셋째, 수신자에게 메세지가 도달하면 수신자의 기기는 비밀키(private key)를 이용해 메세지를 복호화하여 화면에서 읽을 수 있게 한다. 그래서 수신자에게 발송되는 과정에서 제3자에 의해 읽히거나 조작될 수 없으며, 서버는 키를 가지고 있지 않으므로 암호화된 메세지만을 취급하게 된다.
- 운영자의 내용접근 불가성
E2EE 환경에서는 플랫폼 운영측이 개별 콘텐츠의 내용을 가시화하거나 분석하는 것이 기술적으로 불가능하다. 이는 종단간 암호화 기술 자체가 운영자의 정보 접근을 구조적으로 배제하고 있기 때문이다. 따라서 서버는 메세지의 내용을 확인하여 그 위험성을 평가하거나 규칙 위반 여부를 알 수 없다. 또, 비밀키는 사용자의 단말기에만 존재하는데 만약 새로운 기기를 등록하는 경우에도 키의 교환 과정은 암호화된 사용자간 채널을 통해 이루어진다. 따라서 운영측은 어떤 방식으로도 전달되는 메세지의 내용을 열람하거나 사전적으로 통제할 수 없다.
- 프라이버시 목적
E2EE는 사용자가 통신을 하는 과정에서 프라이버시를 보호하기 위해 설계된 규범적 구조의 일환이다. 종단간 암호화 기술의 목표는 제3자, 예를들어 정부나 기업, 플랫폼 운영자 등이 통신내용을 열람하거나 감청하는 것을 근본적으로 차단하는 것이다. 만약 E2EE 플랫폼에서 발생하는 유해 콘텐츠 방치 문제를 해결하기 위해서 운영측에서 백도어를 설치하여 메세지 내용을 열람할 수 있도록 한다던지, 아니면 특정한 경우에만 예외적으로 복호화가 가능하도록 하는 장치를 도입하는 경우는 다음 두 가지 이유에서 정당화될 수 없다. 첫째, 백도어는 통신 보안 전체를 약화시키고, 악용될 가능성이 필연적으로 증가하게 된다. 이는 E2EE 기술의 근본적인 목표를 침해하게 될 뿐 아니라 오히려 전체 시스템의 위험을 더 증폭시킨다. 왜냐하면 백도어가 존재한다는 것 자체로 공격자에게 가장 먼저 노려지는 구조적인 취약점이 되기 때문이다. 둘째, 예외적인 복호화를 허용하는 경우는 그 자체로 감시나 검열의 위험을 증가시켜 사용자가 플랫폼을 이용할 동기 자체가 크게 감소하고 이는 사용자의 신뢰와 표현의 자유를 침해하는 것과 같다. 따라서, E2EE 플랫폼에서 운영자의 내용 접근을 허용하게 하는 어떠한 조치도 사용자 권리의 침해를 의미한다.
E2EE 플랫폼에서의 절차책임
비E2EE 플랫폼 환경에서는 플랫폼이 콘텐츠의 내용을 알고 이에 대한 유통 범위를 운영측에서 조절할 수 있다는 점에서 편집의무가 발생하고, 2차적으로 콘텐츠가 확산되는 방식에 구조적 매개자 역할을 하므로 절차책임또한 존재한다. 그러나, 이러한 경우에 절차책임은 먼저 편집의무를 거친 콘텐츠가 유해 콘텐츠인 경우에 한정되므로 편집의무와 비교하여 역할이 매우적고 이는 편집의무를 보조하는 역할로 해석될 수 있다. 대표적인 역할로 최초 유포 당시의 신고로인한 제재에 대한 공정성 의문 제기등의 부수적인 역할을 수행이 있다. 반면 그러한 책임구조는 E2EE 플랫폼에서는 콘텐츠의 내용에 대한 사전적 통제가 기술적, 규범적으로 불가능하다는 점에서, 동일한 책임 구조를 전제할 수 없다. 따라서 E2EE 플랫폼에서는 편집의무가 적용되지 않는 만큼, 절차책임이 플랫폼 책임의 중심이 되어야 한다. 즉 E2EE 플랫폼에서는 절차책임이 편집의무에 부수적인 형태로 기능하는 것이 아니라, 콘텐츠에 대해 사전적 개입이 없이 유해 콘텐츠 방치 문제로 인한 사회적 해악을 관리하기 위한 책임 형태가 된다. 이러한 의미에서 E2EE 플랫폼에서의 절차책임의 역할은 비 E2EE 플랫폼과 달리 중심적인 역할로 전환된다.
E2EE 플랫폼에서의 신고 기반 절차책임
E2EE 플랫폼 환경에서의 절차책임은 플랫폼이 콘텐츠의 내용을 직접 인지하여 위험성이나 적법성을 판단하는 방식이 아니라, 이용자의 문제 제기를 기점으로 작동하는 신고 기반 절차가 중심이 되어 작동한다. 즉 E2EE 플랫폼은 유해 콘텐츠의 존재를 사전적으로 감시하는 것이 아니라, 이용자가 스스로 문제를 인식하고 신고했을 때 대응하는 방식을 최적화해야 한다는 책임을 진다. 이러한 구조에서 신고는 E2EE 플랫폼상에서 유해 콘텐츠 방치 문제를 해결하는 핵심 계기로 기능한다. E2EE 플랫폼 상에서는 유해 메세지나 콘텐츠에 대해 직접적으로 내용을 알 수 없으므로 신고 기능을 더 구체화해야 한다. 이러한 문제를 해결하기 위해 이용자가 해당 메세지의 내용을 자발적으로 제시하는 방식을 고려할 수 있는데 이러한 방식은 플랫폼이 콘텐츠를 열람하거나 감시하지 못하더라도, 특정 사안에 한정하여 사실관계를 검토할 수 있다는 점에서 종단감 암호화의 기술적 배경 하에서도 작동할 수 있다. 또 이러한 방식은 절차의 우선 처리나, 피해자 보호 조치와 같은 인센티브 구조로도 연결될 수 있다. 이러한 방식은 물론 절차의 실효성을 제고하기 위한 운영상의 장치이다. 따라서 E2EE 환경에서는 신고 기능을 활용하여 플랫폼의 절차책임을 설계할 수 있다.
반론
그러나 다음과 같은 반론도 제기될 수 있다. 운영자가 메세지의 내용을 직접 열람하지 못하더라도, 메세지의 전송패턴이나 사용자 간의 상호작용 빈도, 메타데이터1 등의 비내용적 정보를 분석함으로써 유해 콘텐츠의 확산을 간접적으로 감지할 수 있다는 주장이 있다. Sharma & Kejriwal(2024)에 따르면 종단간 암호화 환경에서도 사용자 행동 패턴과 메타데이터만을 활용하여 사이버 불링 징후를 탐지하는 모델의 가능성이 존재한다고 한다. 그들의 주장에 따르면 Federated Learning tools2 을 이용하면 암호화된 메세지 내용을 직접 보지 않고도 사용자 행동 패턴이나 데이터만으로도 사이버불링 가능성을 탐지할 수 있다고 한다. 본 연구에서는 실제 E2EE 데이터를 사용할 수 없기 때문에, 비암호화된 공개 데이터를 가지고 내용을 제거한 뒤 이를 이용해 Federated Learning 모델을 학습시켜 실제 데이터와 비교하는 방식으로 메타데이터 기반 예측이 일정 부분 사이버불링을 예측하는 것이 가능함을 보여주었다.
이러한 결과는 비록 유해행위를 탐지하는 것에 한정된 것이지만, 이러한 기술적 접근 방식은 곧 유해콘텐츠의 사전적 위험을 평가하는 것으로도 확장될 수 있는 가능성을 시사한다고 본다. 즉, 특정 콘텐츠가 플랫폼 내에서 확산되기 전에, 메타데이터 패턴을 분석하는 것 만으로도 특정 콘텐츠의 유해 가능성을 사전에 판단할 수 있다면 이는 E2EE 환경에서도 사전적 개입이 가능하다는 주장으로 이어진다. 따라서, 콘텐츠의 직접적 열람 없이 메타데이터 만으로도 위험 판단이 가능할 수 있다는 점을 근거로 편집의무 역시 E2EE 플랫폼에서 완전히 배제될 필요는 없다고 본다.
그러나 이러한 주장은 두 가지 측면에서 E2EE 환경에서의 편집의무 가능성을 뒷받침하는 근거로 볼 수 없다. 먼저, Sharma & Kejriwal(2024)의 연구는 실제 E2EE 환경에서 생성된 메타데이터를 분석한 것이 아니라, 비암호화된 공개 데이터를 가지고 내용을 제거하여 인위적으로 구성한 메타데이터를 이용한 실험에 불과하다. E2EE 플랫폼 환경에서는 핵심적인 사용자행동 데이터가 주요 사용자들, 프라이버시 보호 수준의 차이로 인해 전혀 다른 형태로 나타날 뿐 아니라 이러한 정보들은 운영측에서 인지할 수 있는 대상이 아니다. 따라서 비암호화 환경에서 학습한 패턴으로 E2EE 플랫폼 환경에 확장하여 적용하는 것은 데이터 패턴 구조 방식이 동일하게 작동할 것이라는 전제를 암묵적으로 가정하는 것이며, 실제로 그러할 것이라 보기 어렵다. 둘 째, 해당 Sharma의 연구에서 예측하려고 한 사이버불링 징후는 대칭적 상호작용이나, 집단성, 반복성 등 특정한 전제들에 의존하는데 , 이러한 전제들이 E2EE 환경 전반에서 일반적으로 성립한다고 확증하기는 어렵다. 즉, 해당 연구는 특정 유형의 행동 패턴이 존재한다는 가정하에서만 성립할 뿐, 콘텐츠의 유해성 자체를 측정하는 일반적인 기준을 제시하지는 못한다. 이러한 한계들을 고려할 때, 메타데이터 기반 접근은 E2EE 환경에서 편집의무를 정당화하는 근거로 사용된다기보다는, 콘텐츠의 의미 판단을 대체하지 않는 범위 내에서 절차책임을 보완하는 보조적 수단으로 위치하는 것이 타당하다. 즉, 메타데이터 기반 기술은 신고 여부를 대체하거나 콘텐츠의 유해성을 판단하는 기준이 아니라, 이미 개시된 신고 기반 절차의 우선순위 설정과 반복 행위자 관리 등을 보다 일관되게 운영하기 위한 참고 정보로 기능할 수 있을 뿐이다.
결론
따라서 E2EE 플랫폼에서의 콘텐츠 책임은 절차책임이 중심이 된다.
본 글은 플랫폼이 유해콘텐츠 확산에 대해 부담할 수 있는 2차 책임으로 편집의무와 절차책임으로 구분하였다. 그 중 편집의무는 플랫폼 환경에서 콘텐츠의 의미를 사전에 인식하고 유통 여부를 한단 할 수 있는 경우에 한정된 것으로 논증하였다. 이러한 맥락에서 종단간 암호화 기술(E2EE)을 적용한 플랫폼, 예를 들어 시그널이나 왓츠앱 텔레그램 등은 기술적으로 사용자 간에 교환되는 콘텐츠의 내용을 열람하고 분석할 수 없다. 따라서 비암호화 플랫폼에서 적용되는 편집의무는 E2EE 플랫폼에서는 구조적으로 성립하기 어렵다. 플랫폼 환경에서의 편집의무는 콘텐츠의 내용을 사전에 알 수 있어야 하는데 이러한 정의는 E2EE 환경에서는 가능하지 않기 때문이다. 그래서 E2EE 플랫폼 환경에서 발생하는 유해 콘텐츠 방치 문제에 대해 이를 해결하기 위한 방안으로 백도어나, 예외적 복호화 등의 해결책이 제시될 수 있다.하지만, 이러한 조치들은 사용자 개개인의 프라이버시를 과도하게 침해할 뿐 아니라, E2EE 플랫폼 자체의 취지와도 맞지 않는다. 따라서, E2EE 플랫폼 환경에서는 사전적 통제를 전제로 하는 편집의무를 지지않으므로 다른 형태의 책임 구조를 모색할 필요가 있다. 일반적인 플랫폼은 편집의무와 절차책임을 지니는데, E2EE 플랫폼의 경우 편집의무를 부과할 수 없으므로 이는 절차책임을 중심으로 책임구조를 개편해야 한다. 이러한 결과에 대해, 메타데이터 분석을 통한 Federated Learning 방식으로 위험 징후를 사전에 감시할 수 있다는 Sharma의 연구 결과로 E2EE 환경에서도 사전적 개입이 가능할 수 있다는 반론이 제기될 수 있다. 사전적 개입이 가능하므로 E2EE 환경에서도 편집의무를 수행할 수 있지 않는가라는 주장이다. 그러나 해당 연구는 비암호화된 플랫폼에서 생성된 공개 데이터를 인위적으로 가공한 실험이고, 이러한 데이터가 실제 E2EE 환경에서 동일한 패턴으로 발생할 것이라 보기 어렵다. 또, 이러한 접근 방식은 특정 행위 패턴과 상호작용 구조가 존재한다는 가정에 의존하는데, 이러한 가정 자체가 E2EE 환경에서 일반적으로 성립하는지 검증되지 않았다. 따라서 메타데이터 기반 기술을 통한 분석은 E2EE 플랫폼에서 편집의무를 다할 수 있다는 주장을 뒷받침한다기 보다는, 절차책임에서의 신고 기능 등에 보조적으로 도움을 줄 수 있는 수단으로 이해하는 것이 타당하다. 결론적으로 E2EE 플랫폼 환경에서는 기술적 제약으로 인해 유해 콘텐츠에 대한 사전적 통제는 불가능하며, 이로 인해 E2EE 플랫폼 책임의 중심은 절차책임에 한정된다. 이러한 결론이 플랫폼 책임의 축소나 면책을 의미하는 것은 아니다. 오히려 내용 접근이 불가능한 조건하에서는 플랫폼의 책임의 형태가 절차책임에 한정하여 집중된다는 것을 의미하며 이러한 절차책임이 E2EE 플랫폼의 책임을 평가하는 기준이 된다. 본 논의의 의의는 E2EE 플랫폼이 유해 콘텐츠의 내용을 기술적으로 확인할 수 없어 유해 콘텐츠 방치 문제에 대해 책임을 묻거나 해결하기 어렵던 상황에서 이를 절차책임 중심으로 책임구조를 재개편하여야 한다는 것을 이론적으로 제시하였다는 데에 있다.
참고문헌
Bunting, M. (2018). From editorial obligation to procedural accountability: New policy approaches to online content in the era of information intermediaries. Journal of Cyber Policy, 3(2), 165–186.
Sharma, A., & Kumar, R. (2024). AI-Enhanced Cyberbullying Detection in Encrypted Social Media. International Journal for Science and Advance Technology, 4(11), 11–15.
Gillespie, T. (2018). Custodians of the Internet: Platforms, content moderation, and the hidden decisions that shape social media. Yale University Press.