(개선) 과제-07 개인별 논증 구조 작성하기 011-12 양지안
개선 사항 메모
- 전제 1에서 편집 행위자 개념에 대한 명확한 정의 제공
- 전제 2에서 플랫폼의 구조적 문제에 대한 설명 보충과 정부 차원에서의 규제가 필요한 까닭에 대한 논증 추가
- 전제 3에서 ‘표현의 자유’와 ‘공공 복지’의 딜레마를 해소하는 방식에 대한 구체화
- 재반박에서 결과 책임의 조건에 대한 설명 보충
제목: 기후 변화 대응을 위한 정부의 강력한 규제의 필요성
1. 쟁점과 딜레마
| 구분 | 내용 |
|---|---|
| 주제(Topic) | 소셜미디어 플랫폼은 사용자 콘텐츠에 대한 책임을 지니는가? |
| 도전하려는 쟁점 | 소셜미디어 플랫폼은 단지 사용자가 올린 콘텐츠를 중개하는 중립적 공간 제공자인가, 아니면 알고리즘을 통해 유해한 콘텐츠를 선별, 증폭함으로써 발생한 사회적 피해에 대해 책임을 져야 하는 ‘편집적 행위자’인가? |
| 딜레마/난제 | 플랫폼을 중립적 장으로 보고 규제하지 않는다면 사회적 해악을 초래, 플랫폼을 편집적 행위자로 보고 규제한다면 표현의 자유에 대한 침해 발생 |
| 딜레마/난제 해소/해결 방법 | 플랫폼은 편집적 행위자이므로 규제가 필요하다는 논증 |
① 주제(Topic): 소셜미디어 플랫폼에 대한 규제의 필요성
② 도전하는 학술적 쟁점:플랫폼은 기술적 중립성 뒤에 숨어 사용자 콘텐츠의 사회적 해악에 대한 법적 책임을 회피할 수 있는가?
- 플랫폼이 알고리즘을 통해 콘텐츠를 선별하고 증폭하는 ‘편집적 행위자’라면, 그 행위가 초래한 사회적 피해(예: 청소년 정신 건강 악화)에 대해 책임을 져야 하는가?
- 표현의 자유 보장이라는 가치와 공공의 안전 및 복지 보호라는 가치 중 무엇이 플랫폼 규제 논의에서 우선시되어야 하는가?
③ 유발되는 딜레마 또는 난제
- 딜레마 구조
- (A) 플랫폼의 알고리즘적 편집 행위가 청소년 정신 건강 악화, 허위정보 확산, 정치적 양극화 등 심각한 사회적 해악을 초래한다면, 이를 방지하기 위한 규제와 책임 부과가 필수적이다.
- (B) 플랫폼에 책임을 부과하고 규제하는 것은 플랫폼의 자기 검열을 유도하여, 사용자의 표현의 자유와 공론의 장(Public Sphere)으로서의 기능을 위축시키고, 결국 민주주의에 악영향을 미칠 수 있다.
④ 딜레마 해소 (또는 난제 해결) 전략
- 플랫폼은 기존의 전통적인 매체와 달리, 알고리즘적 선택(Algorithmic Selection)을 통해 콘텐츠의 노출과 확산을 조정하는 적극적인 편집 행위자(Editorial Actor)에 해당한다.
- 플랫폼의 편집 행위는 청소년 자살 및 정신 건강 악화와 같은 측정 가능하고 심각한 해악을 직접적으로 유발했다 (메타 소송 사례).
- 따라서 해악을 유발하는 플랫폼의 편집 행위에 대한 책임 부과는 표현의 자유 보호라는 가치보다 공공의 복지 및 안전 보호라는 규범적 가치에 의해 정당화되며, 특히 청소년 보호 영역에서는 더욱 우선시되어야 한다.
2. 논증구조
기본구조
- 논제: 소셜미디어 플랫폼(Meta)의 알고리즘적 편집 행위로 인해 발생하는 사회적 해악을 막기 위해 규제가 필요하다.
- 전제1: 플랫폼은 중립적 중개자가 아닌 ‘편집적 행위자’이다. (Saurwein & Spencer-Smith, 2021, p.225-227)
- 플랫폼의 알고리즘은 사용자의 참여 극대화를 목표로 설계되어, 감정적으로 자극적이거나 극단적인 콘텐츠(예: 섭식 장애, 자해 관련 콘텐츠)를 사용자에게 선별적으로 추천하고 증폭시키는 ‘편집적 개입’을 수행한다.
- ‘편집 행위자’란 콘텐츠의 노출과 확산을 규범적 혹은 경제적 의사에 따라 능동적으로 선택(selection), 순서화(ordering), 증폭(amplification)하는 주체를 말한다. 따라서 메타는 단순한 기술적 중개자가 아니라, 참여 극대화를 위한 경제적 판단에 근거해 콘텐츠의 가시성을 조정하는 ‘편집적 행위자’로 기능한다.
- 메타 소송 사례: 메타는 자사의 내부 연구를 통해 청소년, 특히 십대 소녀에게 인스타그램이 정신 건강에 해롭다는 사실을 알고 있었음에도, 참여를 극대화하는 알고리즘 설계를 고수하여 해당 콘텐츠를 계속 노출했다. 이는 단순한 중개 행위가 아닌, 해악을 인지하고도 이익을 위해 콘텐츠 흐름에 개입한 적극적인 편집적 결정으로 간주될 수 있다. (Complaint for Injunctive and Other Relief, 2023, p.23–24)
- 전제2: 플랫폼의 편집적 개입은 구체적이고 구조적인 사회적 해악을 초래했으며, 이는 정부 규제의 필요성을 입증한다. (Complaint for Injunctive and Other Relief, 2023, p.20–21)
- 메타 소송 사례: 미국 교육구 집단 소송은 메타의 플랫폼 이용이 청소년의 우울증, 불안, 섭식 장애, 심지어 자살 시도 증가로 이어졌다는 인과적 관계를 주장한다. 이는 플랫폼의 편집 행위가 구체적인 피해자와 측정 가능한 공중 보건 문제를 발생시켰음을 보여주는 실증적 증거이다.
- 알고리즘이 사용자 참여 극대화 목표에 따라 감정적으로 자극적이고 극단적인 콘텐츠를 우선 노출하는 구조는 청소년 피해뿐 아니라 혐오 발언, 허위 정보, 사회적 양극화를 시스템적으로 증폭시키는 결과를 낳는다. 이는 특정 플랫폼이나 우연한 사건이 아닌, 알고리즘 기반 비즈니스 모델의 구조적 문제임을 입증한다.
- 이러한 해악은 플랫폼 책임 면제 조항(미국 통신품위법 제230조)이 전제하는 ‘단순히 제3자의 발언을 전달하는 행위’의 범위를 명백히 넘어선다. 플랫폼의 편집 행위로 인해 책임(Liability)이 인정되는 순간, 이는 단순한 개별적 손해 배상 청구를 넘어선다. 플랫폼이 알고리즘적 행위로 시스템적 해악을 유발한다는 사실은 곧 시장 실패가 발생했음을 입증하며, 이는 유사 해악의 재발을 방지할 공적 개입, 즉 규제의 필요성으로 이어진다. 따라서 플랫폼의 책임 유무(Liability)는 규제의 필요성(Necessity of Regulation)을 입증하는 논리적 근거가 된다.
- 알고리즘은 지적 재산권(Trade Secret)으로 보호되어 외부 감사자 접근이 어려운 ‘블랙박스’ 형태로 운영되므로, 불투명성 때문에 플랫폼 스스로 해악 증폭 구조를 개선하고 있는지 외부에서 검증하는 것이 불가능하다. 또한, 알고리즘은 본질적으로 이윤 극대화를 목표로 설계되어 공중 복지와 구조적으로 충돌한다. 이처럼 플랫폼 알고리즘의 구조적 불투명성과 경제적 동기의 충돌이라는 한계는 자체 규제를 불가능하게 만들며, 입법기관에 의한 알고리즘 투명성 의무 및 시스템적 리스크 관리 의무를 법적으로 강제하는 외부적 규제 틀의 도입을 당위적으로 만든다. (Sun, 2023, pp. 370-372)
- 전제3: 공공의 안전 및 복지 보호는 표현의 자유보다 우선하는 규범적 가치이다. (Frosio, G., & Geiger, C., 2023, p.23-26)
- 자유는 책임의 틀 안에서 보장되는 것으로, 타인의 생명권, 건강권 등 핵심 기본권에 심각하고 돌이킬 수 없는 해악을 가할 권리까지 포함하지 않는다. 청소년 보호와 공중 보건은 모든 사회의 최소한의 규범적 명령(normative imperative)이므로, 이 가치는 제한 가능한 표현의 자유보다 우선시된다.
- 규제의 목표는 ‘해악 증폭’이라는 구조적 결과를 막는 것이지 콘텐츠 자체의 검열이 아니다. Frosio & Geiger (2023)가 제시하듯, 규제는 비례성 원칙에 기반하여 해악을 유발하는 알고리즘 설계를 규제하는 최소한의 조치이므로, 표현의 자유 침해를 최소화하면서 공공 복지 목표를 달성할 수 있다.
- 전제1: 플랫폼은 중립적 중개자가 아닌 ‘편집적 행위자’이다. (Saurwein & Spencer-Smith, 2021, p.225-227)
- 결론: 따라서 소셜미디어 플랫폼은 알고리즘적 편집 행위로 인한 사회적 해악에 대한 책임을 져야 하며, 해악 증폭 방지 및 공공 복지 보호를 위해 규제가 필수적이다.
예상반론과 재반박
- 예상반론(연역적 논증의 타당성 공격): 전제1의 ‘알고리즘적 편집 행위자’ 개념은 논리적으로 불완전하다. 전통적 의미의 ‘편집자(editor)’는 규범적 판단과 책임 의식을 가지고 콘텐츠의 사회적 영향을 고려하지만, 플랫폼의 알고리즘은 단지 데이터 기반의 예측을 수행하여 참여 극대화라는 경제적 목표를 달성할 뿐이다. 따라서 이는 ‘편집 행위’가 아니라 ‘자동화된 예측 행위(automated predictive action)’로 보는 것이 타당하다.
- 논리적 취약점 지적: 전제 1이 플랫폼의 알고리즘적 개입을 규범적 행위로 간주할 정당성을 충분히 제시하지 못한다. 편집자라면 단순한 정보 선별을 넘어 사회적 가치 판단과 책임 주체성을 가져야 한다는 점에서, 플랫폼 알고리즘의 자동화된 예측을 편집으로 등치시키는 것은 과잉 일반화다.
-
재반박: 플랫폼을 편집적 행위자로 보는 판단 기준은 행위자의 내면적 의도가 아니라 그 행위가 사회적으로 초래한 결과에 두어야 한다. 현대의 알고리즘 시스템은 인간 편집자의 주관적 판단 대신, 설계자가 설정한 운영 목표에 따라 정보의 가시성과 흐름을 결정한다. 이러한 알고리즘의 구조적 개입은 결과적으로 사회적 해악을 예견 가능하게 만들며 그에 따른 책임을 요구한다.
그러나 이때의 결과 책임은 무제한적인 책임 확장을 의미하지 않으며, 알고리즘적 편집 행위에 대한 책임은 다음 세 가지 요건을 모두 충족할 때만 합리적으로 성립한다. 첫째, 예견 가능성(Foreseeability), 즉 알고리즘 작동 결과로 특정한 사회적 해악이 합리적으로 예측 가능했음이 내부 자료나 설계 과정에서 드러날 것. 둘째, 통제 가능성(Controllability), 즉 해당 결과가 플랫폼의 알고리즘 설계 및 운영 과정에서 인적·기술적으로 통제 가능한 영역에 속할 것. 셋째, 이익 귀속성(Benefit Attribution), 즉 그 결과(해악 증폭)로 플랫폼이 경제적 이익(광고 수익, 체류 시간 증가 등)을 취했을 것이다.
이 세 조건을 만족하는 경우에 한해 플랫폼은 ‘편집적 행위자’로서 책임을 지며, 단순히 결과가 좋지 않았다는 이유만으로 모든 기술 제공자에게 책임을 묻는 식의 과잉 확장은 발생하지 않는다. 따라서 규제는 행위자의 내면적 의도를 심사하는 것이 아니라, 공공 복지에 중대한 피해를 초래한 예견 가능하고 통제 가능한 결과의 구조적 원인에 대한 책임을 묻는 것이다. 이는 의도 중심 책임론을 부정하면서도 책임의 범위를 합리적으로 한정한 결과 중심 책임론에 기반한 최소한의 규범적 명령으로서 정당성을 가진다.
참고문헌
- Frosio, G., & Geiger, C., 2023. Taking fundamental rights seriously in the Digital Services Act’s platform liability regime. European Law Journal, pp. 23–77.
- Saurwein, F. & Spencer-Smith, C., 2021. Automated Trouble: The Role of Algorithmic Selection in Harms on Social Media Platforms. Media \& Communication, Vol 9, Issue 4, pp. 222-233.
- Sun, H. 2023. Regulating Algorithmic Disinformation. Columbia Journal of Law & the Arts, 46(3), pp. 367–418.
- State Attorneys General, 2023. Complaint for injunctive and other relief, Case 4:23-cv-05448 (N.D. Cal.) California Department of Justice, pp. 13-21.