과제-07 개인별 논증 구조 작성하기 011-12 양지안
제목: 소셜미디어 플랫폼의 알고리즘적 편집 행위로 인한 사회적 해악을 막기 위한 규제의 필요성
1. 쟁점과 딜레마
| 구분 | 내용 |
|---|---|
| 주제(Topic) | 소셜미디어 플랫폼은 사용자 콘텐츠에 대한 책임을 지니는가? |
| 도전하려는 쟁점 | 소셜미디어 플랫폼은 단지 사용자가 올린 콘텐츠를 중개하는 중립적 공간 제공자인가, 아니면 알고리즘을 통해 유해한 콘텐츠를 선별, 증폭함으로써 발생한 사회적 피해에 대해 책임을 져야 하는 ‘편집적 행위자’인가? |
| 딜레마/난제 | 플랫폼을 중립적 장으로 보고 규제하지 않는다면 사회적 해악을 초래, 플랫폼을 편집적 행위자로 보고 규제한다면 표현의 자유에 대한 침해 발생 |
| 딜레마/난제 해소/해결 방법 | 플랫폼은 편집적 행위자이므로 규제가 필요하다는 논증 |
① 주제(Topic): 소셜미디어 플랫폼에 대한 규제의 필요성
② 도전하는 학술적 쟁점: 플랫폼은 기술적 중립성 뒤에 숨어 사용자 콘텐츠의 사회적 해악에 대한 법적 책임을 회피할 수 있는가?
- 플랫폼이 알고리즘을 통해 콘텐츠를 선별하고 증폭하는 ‘편집적 행위자’라면, 그 행위가 초래한 사회적 피해(예: 청소년 정신 건강 악화)에 대해 책임을 져야 하는가?
- 표현의 자유 보장이라는 가치와 공공의 안전 및 복지 보호라는 가치 중 무엇이 플랫폼 규제 논의에서 우선시되어야 하는가?
③ 유발되는 딜레마 또는 난제
- 딜레마 구조
- (A) 플랫폼의 알고리즘적 편집 행위가 청소년 정신 건강 악화, 허위정보 확산 등 심각한 사회적 해악을 초래한다면, 이 해악을 막기 위해 플랫폼에 대한 규제 및 책임 부과가 필수적이다.
- (B) 플랫폼에 책임을 부과하고 규제하는 것은 플랫폼의 자기 검열을 유도하여, 사용자의 표현의 자유와 공론의 장(Public Sphere)으로서의 기능을 위축시키고, 결국 민주주의에 악영향을 미칠 수 있다.
④ 딜레마 해소 (또는 난제 해결) 전략
- 플랫폼은 기존의 전통적인 매체와 달리, 알고리즘적 선택(Algorithmic Selection)을 통해 콘텐츠의 노출과 확산을 조정하는 적극적인 편집 행위자(Editorial Actor)에 해당한다.
- 플랫폼의 편집 행위는 청소년 자살 및 정신 건강 악화와 같은 측정 가능하고 심각한 해악을 직접적으로 유발했다 (메타 소송 사례).
- 따라서 해악을 유발하는 플랫폼의 편집 행위에 대한 책임 부과는 표현의 자유 보호라는 가치보다 공공의 복지 및 안전 보호라는 규범적 가치에 의해 정당화되며, 특히 청소년 보호 영역에서는 더욱 우선시되어야 한다.
2. 논증구조
기본구조
- 논제: 소셜미디어 플랫폼(Meta)의 알고리즘적 편집 행위로 인해 발생하는 사회적 해악을 막기 위해 규제가 필요하다.
- 전제1: 플랫폼은 중립적 중개자가 아닌 ‘편집적 행위자’이다. (Saurwein & Spencer-Smith, 2021, p.225-227)
- 플랫폼의 알고리즘은 사용자의 참여 극대화를 목표로 설계되어, 감정적으로 자극적이거나 극단적인 콘텐츠(예: 섭식 장애, 자해 관련 콘텐츠)를 사용자에게 선별적으로 추천하고 증폭시키는 ‘편집적 개입’을 수행한다.
- 메타 소송 사례: 메타는 자사의 내부 연구를 통해 청소년, 특히 십대 소녀에게 인스타그램이 정신 건강에 해롭다는 사실을 알고 있었음에도, 참여를 극대화하는 알고리즘 설계를 고수하여 해당 콘텐츠를 계속 노출했다. 이는 단순한 중개 행위가 아닌, 해악을 인지하고도 이익을 위해 콘텐츠 흐름에 개입한 적극적인 편집적 결정으로 간주될 수 있다. (Complaint for Injunctive and Other Relief, 2023, p.23–24)
- 전제2: 플랫폼의 편집적 개입은 구체적이고 심각한 사회적 해악을 초래했다. (Complaint for Injunctive and Other Relief, 2023, p.20–21)
- 메타 소송 사례: 미국 교육구 집단 소송은 메타의 플랫폼 이용이 청소년의 우울증, 불안, 섭식 장애, 심지어 자살 시도 증가로 이어졌다는 인과적 관계를 주장한다. 이는 플랫폼의 편집 행위가 구체적인 피해자와 측정 가능한 공중 보건 문제를 발생시켰음을 보여주는 실증적 증거이다.
- 이러한 해악은 플랫폼 책임 면제 조항(미국 통신품위법 제230조)이 전제하는 ‘단순히 제3자의 발언을 전달하는 행위’의 범위를 넘어선다.
- 전제3: 공공의 안전 및 복지 보호는 표현의 자유보다 우선하는 규범적 가치이다. (Frosio, G., & Geiger, C., 2023, p.23-26)
- 어떠한 자유도 타인에게 심각하고 돌이킬 수 없는 해악을 가할 권리를 포함하지 않는다. 청소년의 생명과 정신 건강 보호는 모든 사회에서 가장 기본적인 공공 복지의 영역에 속한다.
- 또한 플랫폼 규제는 일반적인 콘텐츠의 표현의 자유를 검열하는 것이 아니라, 해악을 증폭시키는 알고리즘적 설계라는 행위를 규제하는 것이므로, 표현의 자유에 대한 침해는 최소화된다.
- 전제1: 플랫폼은 중립적 중개자가 아닌 ‘편집적 행위자’이다. (Saurwein & Spencer-Smith, 2021, p.225-227)
- 결론: 따라서 소셜미디어 플랫폼은 알고리즘적 편집 행위로 인한 사회적 해악에 대한 책임을 져야 하며, 해악 증폭 방지 및 공공 복지 보호를 위해 규제가 필수적이다.
예상반론과 재반박
- 예상반론(연역적 논증의 전제 공격): 전제1의 ‘알고리즘적 편집 행위자’ 개념은 논리적으로 불완전하다. 전통적 의미의 ‘편집자(editor)’는 규범적 판단과 책임 의식을 가지고 콘텐츠의 사회적 영향을 고려하지만, 플랫폼의 알고리즘은 단지 데이터 기반의 예측을 수행하여 참여 극대화라는 경제적 목표를 달성할 뿐이다. 따라서 이는 ‘편집 행위’가 아니라 ‘자동화된 예측 행위(automated predictive action)’로 보는 것이 타당하다.
- 논리적 취약점 지적: 전제 1이 플랫폼의 알고리즘적 개입을 규범적 행위로 간주할 정당성을 충분히 제시하지 못한다. 편집자라면 단순한 정보 선별을 넘어 사회적 가치 판단과 책임 주체성을 가져야 한다는 점에서, 플랫폼 알고리즘의 자동화된 예측을 편집으로 등치시키는 것은 과잉 일반화다.
- 재반박: ‘편집적 행위자’의 정의는 행위의 의도가 아니라 결과를 기준으로 확장되어야 한다. 전통적 편집자 역시 주관적 판단의 결과로 사회적 해악을 초래하면 책임을 진다. 마찬가지로, 플랫폼이 알고리즘을 통해 콘텐츠를 선별 및 증폭시키는 구조를 설계하고 그 결과로 청소년의 정신적 피해를 유발하며 이윤을 취했다면, 이는 ‘결과 책임’의 관점에서 편집적 행위로 간주할 수 있다. 따라서 규제는 행위자의 내면적 의도를 심사하는 것이 아니라 공공 복지에 중대한 피해를 초래한 결과의 구조적 원인에 대한 책임을 묻는 것이다. 이는 표현의 자유에 대한 부당한 제한이 아닌 결과 책임에 기반한 최소한의 규범적 명령으로서 정당성을 가진다.
참고문헌
- Frosio, G., & Geiger, C., 2023. Taking fundamental rights seriously in the Digital Services Act’s platform liability regime. European Law Journal, pp. 23–77.
- Saurwein, F. & Spencer-Smith, C., 2021. Automated Trouble: The Role of Algorithmic Selection in Harms on Social Media Platforms. Media \& Communication, Vol 9, Issue 4, pp. 222-233.
- State Attorneys General, 2023. Complaint for injunctive and other relief, Case 4:23-cv-05448 (N.D. Cal.) California Department of Justice, pp. 13-21.