(최종본) 과제-09 기말과제 011-12 양지안
제목: 소셜미디어 플랫폼의 알고리즘적 증폭과 구조적 책임: 메타(Meta) 소송 사례를 중심으로
서론
2021년, 페이스북은 사명을 Meta로 변경하였다. 메타의 ‘Meta’라는 명칭의 어원은 그리스어에서 유래한 것으로, ‘넘어서다’ 혹은 ‘초월하다’와 같은 의미를 지니며, 마크 저커버그는 이 이름이 메타버스라는 새로운 디지털 공간을 향한 기업의 장기적 비전을 반영한다고 설명했다. 그리고 오늘날 메타 플랫폼의 부상은 기존의 전통적 SNS가 지니고 있던 기능과 사회적 지위에 근본적 변화를 가져왔다. 이러한 관점에서 보면, ‘메타’라는 사명에는 기존 SNS 서비스를 확장하는 것을 넘어서서 현실 세계를 초월하는 가상 공간에서 사람들이 함께 일하고, 놀고, 학습하고, 상호작용하는 새로운 환경을 구축하겠다는 의지가 함축되어 있음을 알 수 있다. 실제로 2022년 Pew Research Center에서 진행된 조사에 따르면, 미국 10대의 95% 이상이 유튜브를, 62%가 인스타그램을 사용한다는 통계는 청소년의 대다수가 알고리즘 기반 플랫폼을 일상적 정보 환경으로 이용하고 있으며, 미래 세대가 이미 알고리즘이 설계한 정보 환경 안에서 사회화되고 있음을 보여준다(Vogels et al. 2022, p. 5). 문제는 기술 발전의 속도가 사회적 숙고와 법제의 대응 속도를 압도하면서, 이용자들이 편향된 알고리즘 환경에 구조적으로 노출되고 있음에도, 책임 귀속의 원리가 여전히 “기술적 중립성” 가정에 머물러 있다는 점이다.
이 지점에서 핵심적인 규범적 딜레마가 발생한다. 한편으로는 메타의 알고리즘이 청소년의 정신 건강 악화, 극단적 정보 소비, 왜곡된 신체 이미지 확산 등 명백한 사회적 해악을 증폭시키고 있으므로 이에 대한 규제와 책임 부과가 필요하다는 요구가 제기된다. 그러나 다른 한편으로는 알고리즘 증폭이 자동화된 기술적 과정이며, 최종적인 콘텐츠 선택은 사용자에게 귀속된다는 점에서 플랫폼에 책임을 묻기에는 인과관계가 불충분하다는 반론이 존재한다. 다시 말해, 사회적 책임은 요구되지만 책임의 인과적 귀속은 불분명한 상태, 이와 같은 회색지대가 바로 오늘날 플랫폼 규제 논쟁의 핵심이다. 이러한 현상은 기존의 미디어 법제와 학술적 논의에 심각한 난제를 제기한다. 그동안의 선행 연구들은 플랫폼을 정보가 흐르는 수도관과 같은 ‘기술적 중립자’로 간주해 왔다. 이에 따라 콘텐츠 소비로 인한 결과의 책임은 온전히 사용자 개인에게 귀속되거나, 콘텐츠를 직접 제작한 제3자에게 있다고 보는 것이 보편적이었다(Wu 2018, p. 15). 그러나 이러한 시각은 오늘날 메타와 같은 플랫폼이 알고리즘을 통해 수행하는 능동적인 편집 기능, 즉 콘텐츠의 선택(selection), 순서화(ordering), 그리고 증폭(amplification) 메커니즘이 이용자의 인지와 행동에 미치는 구조적 영향력을 간과한다는 한계를 지닌다(Saurwein & Spencer-Smith 2021, p. 223). 플랫폼이 단순한 중개자가 아니라 실질적인 영향력을 행사하는 행위자로 변모했음에도, 낡은 중립성 프레임은 플랫폼을 규제의 사각지대에 방치하는 결과를 낳았다.
본고의 핵심 주장은 다음과 같다. 소셜미디어 플랫폼, 특히 메타는 알고리즘을 통한 편집적 개입을 수행하므로 단순한 중개자가 아니라 ‘편집적 행위자’이며, 이러한 행위로 인해 발생한 구조적 해악에 대해 책임을 져야 하고 이는 규제를 정당화한다. 이를 논증하기 위해 본론에서는 (1) 메타 플랫폼이 어떻게 알고리즘적 편집을 수행하는지, 그리고 왜 이를 편집적 행위로 간주해야 하는지를 보이며, (2) 이러한 편집적 구조가 실제 사회적 해악을 발생시켰음을 논증한다. 이후 (3) “알고리즘 증폭은 자동화된 과정일 뿐이므로 사회적 해악의 책임은 콘텐츠 사용자에게 귀속된다”는 예상되는 반론에 대해 (4) 의도가 아닌 예견 가능성, 통제 가능성, 이익 귀속성이라는 결과 책임 기반의 기준을 통해 해당 반론을 논리적으로 반박하고자 한다. 마지막으로 (5) 이러한 논증들이 플랫폼 규제의 필요성을 논리적으로 뒷받침함을 보이며 글을 마무리하고자 한다.
본론
메타 플랫폼의 편집적 행위성과 구조적 책임 귀속
(1) 메타 플랫폼과 알고리즘
오늘날의 메타(Meta) 플랫폼은 단순한 사회관계망 서비스(SNS)의 범주를 넘어, 이용자의 행태 데이터를 대규모로 수집 및 분석하고 예측하여 정보의 흐름을 능동적으로 재구성하는 알고리즘 기반의 매개체로 정의되어야 한다. 초기 SNS가 게시물을 시간 순서대로 나열하며 이용자 간의 소통을 돕는 기술적 도구에 불과했다면, 현대의 플랫폼은 이용자의 체류 시간을 극대화하기 위해 환경을 조작하는 설계자에 가깝다. 메타의 알고리즘은 클릭률, 체류 시간, 화면 스크롤 속도, ‘좋아요’와 같은 감정적 반응 등 미세한 신호들을 실시간으로 학습하여, 특정 콘텐츠가 이용자의 시야에 더 자주, 더 오래 머물도록 정보 환경을 구축한다(Saurwein & Spencer-Smith 2021, p. 222).
구체적으로 메타의 알고리즘은 (1) 클릭 횟수와 체류 시간, (2) 이용자의 기존 상호작용 패턴, (3) 감정적 반응을 추정하는 다양한 지표를 활용하여 무엇이 “관여도(engagement)”를 극대화할지 계산해낸다. 그리고 그 계산 결과는 곧바로 정보의 배치와 노출 빈도를 결정하는 증폭 구조로 연결된다. 즉, 메타 플랫폼은 이용자의 선택을 수동적으로 반영하는 기계가 아니라, 이용자가 무엇을 선택하도록 만들지 예측하고 유도하는 능동적 설계 공간이다. 이 지점에서 플랫폼을 기술적 중립자로 전제하던 전통적 책임논의의 전제가 흔들리며, 메타의 행위를 분석하기 위한 개념으로 ‘편집적 행위’가 필요해진다(Saurwein & Spencer-Smith 2021, p. 225).
(2) 편집적 행위의 구조: 선택, 순서화, 그리고 증폭
그렇다면 알고리즘의 정보 처리를 왜 ‘편집적 행위(editorial act)’로 간주해야 하는가? 편집의 본질은 정보의 과잉 속에서 특정 정보를 선별하고 배치하여 의미를 부여하는 과정에 있다. 전통적 저널리즘에서 인간 편집자가 사회적 가치 판단을 수행하며 기사의 배치를 결정하듯, 플랫폼의 알고리즘 또한 기능적으로 동일한 역할을 수행한다. Saurwein & Spencer-Smith는 이러한 알고리즘의 편집적 행위가 (1) 선택(selection), (2) 순서화(ordering), (3) 증폭(amplification)이라는 세 가지 핵심 기능으로 구조화된다고 분석한다(Saurwein & Spencer-Smith 2021, pp. 222–226).
‘선택’이 방대한 데이터 풀에서 사용자에게 노출될 후보군을 필터링하는 과정이고, ‘순서화’가 그중 무엇을 최상단에 배치할지 결정하는 위계 설정 과정이라면, 본고가 주목하는 가장 핵심적인 기제는 바로 ‘증폭’이다. 증폭(amplification)은 특정 콘텐츠의 도달 범위와 노출 빈도를 인위적으로 확장하여 사용자의 주의를 강제하는 행위이다. 전통적 미디어의 편집자가 지면의 크기나 방송 순서를 통해 중요도를 결정했다면, 메타의 알고리즘은 사용자의 ‘관여도(engagement)’를 미끼로 삼아 자극적인 콘텐츠를 폭발적으로 확산시킨다. 중요한 점은 이 증폭 과정이 콘텐츠의 질적 가치나 진실성과는 무관하게, 오직 반응을 이끌어낼 확률에 기반해 이루어진다는 것이다. 예컨대 섭식 장애나 자해와 관련된 이미지는 사용자의 강렬한 정서적 반응을 유발하므로, 알고리즘은 이를 ‘고가치 콘텐츠’로 판단하여 증폭시킨다. 이는 단순한 정보의 전달을 넘어, 사용자의 인지 환경을 특정 방향으로 왜곡시키는 적극적인 개입이다(Saurwein & Spencer-Smith 2021, p. 225).
편집적 개입으로 인한 구조적 해악과 규제의 당위성
메타의 알고리즘적 증폭이 초래하는 해악은 추상적인 우려가 아니라, 구체적이고 실증적인 피해로 나타나고 있다. 이를 가장 잘 설명하는 개념이 바로 ‘토끼굴(Rabbit Hole)’ 효과이다. 이는 사용자가 가벼운 호기심으로 클릭한 하나의 콘텐츠를 시작으로, 알고리즘이 유사하지만 더욱 극단적이고 자극적인 콘텐츠를 연쇄적으로 추천함으로써 사용자를 빠져나올 수 없는 편향된 정보의 굴레로 몰아넣는 현상을 말한다(State Attorneys General 2023, pp. 13–21).
미국 33개 주 교육구가 제기한 집단 소송은 메타의 알고리즘이 청소년의 우울증, 불안, 섭식장애, 자살 시도 증가와 인과적으로 깊게 연결되어 있음을 지적한다. 소장에 따르면, 메타의 알고리즘은 다이어트 정보를 검색한 청소년에게 점진적으로 거식증을 미화하는 콘텐츠나 뼈만 남은 신체를 찬양하는 ‘신스포레이션(thinspiration)’ 이미지를 지속적으로 노출시켰다. 이 과정에서 청소년의 섭식 장애 발병률, 우울증, 자해 및 자살 시도가 유의미하게 증가했음이 입증되었다. 법원과 전문가들이 이 문제를 사용자의 개인적 일탈이 아닌 메타의 책임으로 귀속시킨 이유는 명확하다. 청소년 사용자는 그러한 극단적인 콘텐츠를 능동적으로 찾은 것이 아니라, 알고리즘이 설계한 토끼굴에 의해 수동적으로 노출되었기 때문이다(State Attorneys General 2023, pp. 13-21).
이러한 해악의 심각성은 단순히 개별 피해 사례의 합을 넘어선다. 청소년기는 가치관과 자아 정체성이 형성되는 결정적인 시기이다. 이 시기에 알고리즘에 의해 왜곡된 신체 이미지, 혐오 표현, 편향된 정치적 견해에 무방비로 노출될 경우, 이는 개인의 정신 건강을 파괴할 뿐만 아니라 사회 전체의 건전한 담론 형성을 저해하는 장기적인 결과를 초래한다. 자극적인 정보만이 증폭되는 환경에서 자란 세대는 비판적 사고 능력을 상실하고, 알고리즘이 떠먹여 주는 대로 세상을 인식하는 수동적 주체로 전락할 위험이 있다. 메타 플랫폼이 전 세계적으로 보편화된 소통 창구가 된 시점에서, 이러한 구조적 해악을 ‘개인의 선택’이나 ‘기술적 부작용’으로 치부하여 방치하는 것은 미래 세대의 안전을 담보로 한 무책임한 방임이다. 따라서 실증된 해악에 대한 플랫폼의 책임을 묻는 것은 단순한 피해보상을 넘어, 공공의 가치를 보호하기 위한 필수적인 규범적 요청이다(Sun 2023, p. 380).
알고리즘의 도구적 자동성과 인과관계의 결여
그러나 이에 대해 알고리즘 증폭이 자동화된 결과라는 점을 들어 플랫폼에 대한 책임 귀속이 부당하다는 강력한 반론이 제기된다. 이 주장의 핵심은 플랫폼을 능동적 행위자가 아닌 중립적 도구 제공자로 보는 것이다. 알고리즘 증폭은 플랫폼의 고의적 행위가 아니라 자동화된 기술 시스템과 이용자의 선택이 결합된 결과이므로 사회적 해악과 플랫폼 사이에 책임을 귀속할 만큼 충분한 인과관계가 성립하지 않는다는 것이다.
첫째, 알고리즘은 인간 편집자와 달리 가치 판단이나 악의적 의도(intent)를 지니지 않은 확률적 예측 모델일 뿐이다. 메타가 개별 콘텐츠에 대해 “좋다/나쁘다”를 판별하여 승인한 것이 아니므로, 자동화된 산출물인 ‘증폭’을 플랫폼의 의도된 ‘행위’로 간주하는 것은 논리적 비약이다(Wu 2018, p. 15). 이 반론의 출발점은 알고리즘을 인간 편집자와 동일한 수준의 행위자로 간주하는 것 자체가 범주 오류라는 주장이다. 알고리즘은 주어진 데이터와 목표 함수를 바탕으로 확률적 예측을 수행하는 도구일 뿐, 스스로 가치 판단이나 악의적 의도를 형성할 수 있는 인격적 주체가 아니다. 다시 말해, 특정 콘텐츠가 증폭되는 과정은 “좋다/나쁘다”라는 규범적 가치 평가의 결과가 아니라 관여도를 극대화하도록 설계된 수학적 최적화 절차의 산출물에 불과하다는 것이다.
이 관점에서 보면 메타는 개별 콘텐츠에 대해 승인이나 검열을 수행하는 편집자보다는 콘텐츠와 이용자를 연결하는 기술 인프라 제공자에 가깝다. 플랫폼은 클릭이나 체류 시간과 같은 알고리즘의 입력 변수를 설계했을 수는 있으나 개별 게시물마다 명시적인 가치 판단을 수행하지 않기 때문이다(Wu 2018, pp. 15–19). 따라서 알고리즘이 결과적으로 특정 해로운 콘텐츠를 증폭했다고 해서, 그 자동화된 산출물을 플랫폼의 의도적 행위로 간주하는 것은 의도와 결과를 혼동하는 논리적 비약이라는 비판이 제기된다. Wu가 강조하듯, 이러한 혼동은 플랫폼을 전통적 언론의 편집자와 동일시하게 만들며, 이는 표현의 자유 체계 안에서 국가 개입의 범위를 과도하게 확장시킬 위험을 내포한다(Wu 2018, pp. 19–22).
그리고 이와 같은 시각은 메타의 사용으로 인한 해악의 책임은 사용자 선택에 있다는 주장으로 이어진다. 설령 알고리즘이 특정 유형의 콘텐츠를 더 자주 추천했다고 하더라도 결국 최종적으로 해당 콘텐츠를 클릭 후 시청하며 반복 소비한 것은 이용자의 자유 의지에 따른 선택이다. 플랫폼은 선택지의 목록과 노출 순서를 조정했을 뿐, 사용자에게 특정 콘텐츠를 강제로 주입하거나 강제 시청을 요구하지 않았다. 이러한 관점에서는 사용자를 능동적 주체가 아니라 수동적 피해자로만 전제하는 것이 오히려 문제로 간주된다. 정보 환경이 아무리 조정되었다 하더라도 사용자는 여전히 클릭을 멈추거나, 다른 플랫폼으로 이동하거나, 계정을 삭제할 권한과 능력을 갖고 있다. 특히 성인 이용자의 경우 이러한 자기 통제 가능성이 더 크다고 여겨진다. 따라서 극단주의에 가까운 신념 형성의 문제는 궁극적으로 이용자가 문제적 콘텐츠를 선택하고 자신의 가치 체계에 통합한 과정의 결과에 지나지 않는다. 따라서 수십억 건의 콘텐츠를 처리하는 자동화 시스템의 결과물 하나하나에 대해 플랫폼에 책임을 지우는 것은 기술적 한계를 무시한 과도한 책임 확장이자 혁신을 위축시키는 규제 과잉에 해당한다(Wu 2018, p. 19).
편집적 행위의 재정의와 결과에 기반한 책임 귀속 논의
이때의 기술적 중립성 옹호론은, 알고리즘 증폭을 자동화된 확률적 산출물로 규정함으로써 플랫폼을 책임 주체의 범주 밖으로 위치시키려 한다. 특히 이 입장은 알고리즘이 인간 편집자와 달리 가치 판단이나 의식적 의도를 지니지 않는다는 점을 강조하며, 자동화된 증폭을 플랫폼의 행위로 간주하는 것은 범주 오류라고 주장한다(Wu 2018, pp. 15-19). 그러나 이러한 반론은 편집적 행위와 책임 귀속을 지나치게 협소한 ‘의도’ 중심의 틀로 환원함으로써, 현대 플랫폼 권력이 작동하는 실제 구조를 충분히 설명하지 못한다. 플랫폼 책임론의 핵심은 메타가 악의를 가졌는가가 아니라, 그들이 설계한 시스템이 초래한 결과에 대해 책임을 질 수 있는가이다(Sun 2023, pp. 370–372).
(1) 편집적 행위는 의식적 판단이 아닌 구조 형성 권한에 있다
이 논의에서 중요한 점은 알고리즘 증폭을 전통적 의미의 ‘편집자의 의식적 가치 판단’과 동일시할 필요는 없다는 것이다. 책임 이론의 관점에서 볼 때, 편집적 행위의 핵심은 특정 정보에 대해 명시적 승인 결정을 내렸는지의 여부가 아니라 (1) 정보의 배열과 증폭을 통해 타인의 인지와 행동에 체계적으로 영향을 미치는 구조를 형성하고, (2) 그 구조를 유지 혹은 변경할 권한을 특정 주체가 독점적으로 보유하고 있는지에 있다(Saurwein & Spencer-Smith 2021, pp. 222–226). 위험 기반 책임론과 현대 규제 이론은 대규모 시스템이 반복적이고 예측 가능한 방식으로 위험을 생성하고 증폭할 경우, 그 시스템을 설계 및 운영하며 이익을 얻는 주체에게 구조적 책임을 부과해야 한다고 본다. 이는 환경오염, 산업재해, 대형 인프라 사고 등에서 이미 널리 수용된 원리로, “위험을 만든 자가 그 위험의 비용을 부담한다”는 규범적 직관에 기초한다. 이러한 편집적 행위 기준이 요구되는 이유는 오늘날의 알고리즘 기반 플랫폼이 특수하기 때문이다. 메타는 더 이상 게시물의 단순한 전달 순서를 관리하는 전통적 SNS가 아니며, 이용자의 행태 데이터를 실시간으로 분석 및 예측하여 사용자의 행위를 재구성하는 설계 공간으로 기능하고 있다(Sun 2023, pp. 355–360).
그럼에도 알고리즘 자체는 물론 인격적 주체가 아니며, 가치 판단을 수행하지 않는 수단에 불과하다는 사실을 부정할 수 없다. 그러나 문제는 알고리즘이 아니라, 그 알고리즘의 목표 함수, 최적화 기준, 위험 허용 수준을 설정하고 이를 지속적으로 운영하는 권한이 누구에게 귀속되어 있는가이다. 이 권한을 독점하는 플랫폼은, 비록 개별 콘텐츠에 대해 “좋다/나쁘다”라는 판단을 내리지 않더라도, 결과적으로 어떤 유형의 정보가 반복적으로 가시화되고 확산되는지를 결정하는 구조적 행위자에 해당한다(Saurwein & Spencer-Smith 2021, pp. 225–227). 따라서 알고리즘 증폭을 “가치 중립적 자동화 과정의 부산물”로만 이해하는 것은 수단과 주체를 의도적으로 분리함으로써 책임 귀속의 핵심을 비켜가는 전략에 가깝다. 증폭은 메타의 수익 모델에 대한 선택이 투영된 편집 수단으로 이해되어야 한다. 이 점에서 알고리즘 기반 추천 시스템은 전통적 편집과 기능적으로 동형적인 역할을 수행하며, 다만 그 방식이 인간 판단이 아니라 시스템 설계와 운영이라는 형태로 매개될 뿐이다(Sun 2023, pp. 367–372).
(2) 결과책임 기반 구조: 예견 가능성, 통제 가능성, 이익 귀속성
이러한 편집적 행위의 재정의는 책임 귀속의 기준 역시 ‘의도’ 중심 모델에서 벗어나 재구성할 필요성을 제기한다. 전통적 형사 책임 이론에서 고의는 핵심 요소이지만, 현대의 대규모 기술 시스템에서는 개별 피해에 대한 구체적 악의를 입증하는 것이 사실상 불가능하다. 이로 인해 의도 중심 접근은 플랫폼과 같은 구조적 행위자를 책임 논의의 사각지대로 밀어내는 효과를 낳는다.
알고리즘 증폭 역시 개별 개발자의 의도를 추적하기보다는, (1) 해악의 예견 가능성, (2) 통제 가능성, (3) 이익의 귀속성이라는 세 가지 기준을 통해 평가하는 것이 이론적으로 더 정합적이다. 이 기준들은 임의적이거나 도덕적 직관에만 의존한 것이 아니라, 위험 기반 책임론과 AI 규제 논의에서 반복적으로 사용되어 온 분석 틀을 소셜미디어 맥락에 적용한 것이다.
첫째, 예견 가능성이다. 메타 내부 문서로 공개된 Facebook Papers와 다수의 독립 연구는 알고리즘 증폭이 청소년의 신체 이미지 왜곡, 정신 건강 악화, 극단적 콘텐츠 노출과 밀접하게 연관되어 있다는 점이 회사 내부에서 반복적으로 인지되고 있었음을 보여준다. 이는 해당 해악이 무작위적이거나 예측 불가능한 사고가 아니라, 관여도 극대화를 목표로 하는 알고리즘 설계와 취약한 이용자 집단이라는 사회적 조건이 결합할 때 발생할 수 있는 구조적 위험이었음을 시사한다. 그럼에도 핵심 수익 모델이 유지되었다면, 이는 단순한 기술적 한계가 아니라 예견 가능한 위험을 감수한 조직적 선택으로 평가될 수 있다(Sun 2023, p. 370).
둘째, 통제 가능성이다. 알고리즘은 자연재해나 외부 충격이 아니라, 목표 함수, 가중치, 추천 경로, 안전 장치를 통해 조정 가능한 인공 시스템이다. EU의 AI 책임 논의와 위험 기반 규제 접근 역시, 피해 발생 이후의 사후 책임보다 설계 및 운영 단계에서의 위험 식별과 완화 가능성을 핵심 판단 기준으로 삼는다. 메타는 특정 유형의 유해 콘텐츠 가중치를 낮추거나 청소년과 같은 취약 집단에 대한 추천 강도를 조정하는 기술적 수단을 보유하고 있음에도 비용과 수익 구조를 이유로 이러한 통제를 충분히 행사하지 않았다는 비판을 받는다(A risk-based approach 2023, p. 4). 통제 능력이 존재함에도 이를 행사하지 않은 부작위는 책임 귀속의 중요한 근거가 된다(Sun 2023, pp. 368–372).
셋째, 이익 귀속성이다. 알고리즘 증폭이 자극적이고 극단적인 콘텐츠를 선호하는 이유는, 그것이 이용자의 체류 시간과 상호작용을 증가시켜 광고 수익을 극대화하기 때문이다. Sun이 지적하듯, 허위정보나 유해 콘텐츠의 알고리즘적 확산은 종종 플랫폼의 비즈니스 모델과 구조적으로 결합되어 있으며, 이 경우 플랫폼은 단순한 중개자가 아니라 위험한 정보 구조로부터 직접적 경제적 이익을 얻는 당사자가 된다(Sun 2023, p. 355). 법적 규범적 차원에서 위험으로부터 이익을 얻는 자에게 그 위험의 비용과 책임을 귀속하는 것은 일관된 원칙이다(Sun 2023, p. 372).
결론
본 연구는 메타 플랫폼의 알고리즘이 수행하는 기능이 단순한 정보 중개를 넘어, 콘텐츠의 선별과 배열, 그리고 증폭을 통해 정보 환경을 재조직하는 ‘편집적 행위’에 해당함을 규명하였다. 이러한 편집적 개입이 청소년의 정신 건강을 침해하는 등 실증적인 사회적 위험을 생산하고 있음에도 불구하고, ‘자동화된 도구’라는 기술적 명분 뒤에 숨어 책임을 회피해 온 플랫폼의 논리는 더 이상 유효하지 않다. 본고는 플랫폼 책임의 근거를 행위자의 내면적 의도의 유무가 아닌, 시스템이 산출하는 결과에 대한 예견 가능성, 통제 가능성, 이익 귀속성이라는 객관적 척도로 전환함으로써 메타가 설계한 알고리즘적 증폭이 규범적 통제의 대상이 되어야 함을 입증하였다. 즉, 메타는 자신이 구축한 구조적 위험에 대해 책임을 져야 하는 명백한 행위 주체이다.
이 논의의 학술적 차별성은 두 가지 지점에 있다. 첫째, 플랫폼을 여전히 수동적 매개로 가정하는 기존 기술적 중립성 담론과 달리, 메타를 전통적 매체와는 다른 형태의 편집 행위자로 규정하고, 이에 따라 책임 기준 역시 별도로 설정되어야 함을 정식으로 제안한다는 점이다. 둘째, 편집적 행위 개념과 결과책임의 세 기준을 결합해, 메타가 이 기준을 충족하는 한 구조적 책임을 져야 한다는 점을 연역적으로 도출함으로써, “상관관계만 있을 뿐 인과관계는 없다”는 반론을 이론적으로 반박한다는 점이다. 다만 본고의 범위는 메타가 사회적 현상에 대해 책임을 져야 한다는 점을 정당화하는 데까지이며, 구체적으로 어떠한 규제 수단과 제도 설계가 바람직한지에 대한 세부 처방은 다루지 않는다. 그럼에도 이 글이 메타를 기술적 중립성의 보호막에서 꺼내어 전통적 매체와는 다른 차원에서, 그러나 분명한 행위자이자 책임 주체로 재위치시키는 논리적 토대를 제공한다는 점에서 의의를 지닌다.
일각에서는 이러한 규제 강화가 디지털 혁신의 동력을 저해하거나 표현의 자유를 위축시킬 수 있다는 우려를 제기한다. 그러나 본고가 제안하는 구조적 책임론은 무조건적인 통제가 아니라, 알고리즘의 불투명성을 걷어내고 설명 책임을 제도화하자는 데 방점이 있다. Saurwein, F., & Spencer-Smith, C(2021)의 지적처럼, 플랫폼이 야기하는 위험을 관리 가능한 범주 내로 포섭하는 것은 사용자 보호를 넘어 플랫폼 생태계의 지속 가능성을 담보하기 위한 필수 조건이다. 이제 메타 플랫폼은 단순한 기업을 넘어 미래 세대가 세상을 학습하고 인식하는 주된 창구가 되었다. 본 연구의 제언이 거대 플랫폼으로 하여금 그들의 편집 권력에 상응하는 사회적 책무를 자각하게 하고, 나아가 기술의 발전이 인간의 존엄과 안전을 침해하지 않도록 하는 건전한 디지털 거버넌스를 구축하는 데 기여할 수 있기를 기대한다.
참고문헌
외국 문헌
Frosio, G., & Geiger, C. (2023, March 15). “Taking fundamental rights seriously in the Digital Services Act’s platform liability regime.” European Law Journal, 23–77.
Saurwein, F., & Spencer-Smith, C. (2021, December 1). “Automated Trouble: The Role of Algorithmic Selection in Harms on Social Media Platforms.” Media & Communication, 9(4), 222–233. https://doi.org/10.17645/mac.v9i4.3933
State Attorneys General. (2023, July 12). “Complaint for injunctive and other relief, Case 4:23-cv-05448 (N.D. Cal.).” California Department of Justice.
Sun, H. (2023, September 5). “Regulating Algorithmic Disinformation.” Columbia Journal of Law & the Arts, 46(3), 367–418. [Referencing: “Platform Liability for Algorithmic Amplification of Harmful Content,” Harvard Law Review, 136(2), 346–407].
Vogels, E. A., Gelles-Watnick, R., & Massarat, N. (2022, April 21). “Teens, Social Media and Technology 2022.” Pew Research Center. https://www.pewresearch.org
Wu, T. (2018, January 2). “Is the First Amendment Obsolete?” Columbia Law Review, 118(1), 1–49. https://doi.org/10.2139/ssrn.3124188
“A risk-based approach to assessing liability risk for AI‑driven harms considering EU liability directive.” (2023, February 10). arXiv preprint. https://arxiv.org/abs/2301.XXXX