(초고) 과제-08 기말과제 초고 작성하기 011-12 양지안
제목: 소셜미디어 플랫폼의 알고리즘적 증폭과 구조적 책임
서론
메타(Meta) 플랫폼의 부상은 전통적 의미의 SNS가 지니던 기능적, 사회적 지위에 근본적 변화를 가져왔다. 메타의 ‘Meta’라는 명칭의 어원은 그리스어에서 유래한 ‘넘어서다, 초월하다’라는 의미를 가진다. 이는 단지 상징적 표현이 아니라, 페이스북이 2021년 사명을 Meta로 변경하며 표방한 방향성, 즉 인간의 일상적 경험을 초월하는 새로운 디지털 공간, 메타버스(Metaverse)를 구축하겠다는 의지를 함축한다. 이러한 변화는 소셜 네트워크 서비스가 인간의 관계를 온라인에서 매개하는 단순한 “Social Networking Service”의 단계에서 벗어나, 인간의 문화적 취향부터 감각, 가치관, 행동 양식 전반을 재구성하는 구조적 세력으로 확장되었음을 의미한다. 실제로 2022년 Pew Research Center의 조사 결과에 따르면 미국 10대의 95% 이상이 유튜브를, 62%가 인스타그램을 사용한다는 통계는 미래 세대가 이미 알고리즘이 설계한 정보 환경 안에서 사회화되고 있음을 보여준다(Vogels et al. 2022). 문제는 기술의 발전 속도가 사회적 숙고와 정책적 대응을 앞질러 가면서, 이용자들이 알고리즘이 제시하는 편향된 환경에 무비판적으로 노출되는 구조적 지체 현상이 발생하고 있다는 점이다.
이러한 현상은 기존의 미디어 법제와 학술적 논의에 심각한 난제를 제기한다. 그동안의 선행 연구들은 플랫폼을 정보가 흐르는 수도관과 같은 ‘기술적 중립자’로 간주해 왔다. 이에 따라 콘텐츠 소비로 인한 결과의 책임은 온전히 사용자 개인에게 귀속되거나, 콘텐츠를 직접 제작한 제3자에게 있다고 보는 것이 보편적이었다(Wu 2018, p. 15). 그러나 이러한 시각은 오늘날 메타와 같은 플랫폼이 알고리즘을 통해 수행하는 능동적인 편집 기능, 즉 콘텐츠의 선택(selection), 순서화(ordering), 그리고 증폭(amplification) 메커니즘이 이용자의 인지와 행동에 미치는 구조적 영향력을 간과한다는 한계를 지닌다(Saurwein & Spencer-Smith 2021, p. 223). 플랫폼이 단순한 중개자가 아니라 실질적인 영향력을 행사하는 행위자로 변모했음에도, 낡은 중립성 프레임은 플랫폼을 규제의 사각지대에 방치하는 결과를 낳았다.
따라서 우리는 현재 심각한 규범적 딜레마에 직면해 있다. 한편으로는 플랫폼의 알고리즘이 청소년의 정신 건강 악화와 같은 명백한 사회적 해악을 증폭시키고 있으므로 이에 대한 규제와 책임 부과가 시급하다는 요청이 존재한다. 그러나 다른 한편으로는 자동화된 기술을 사용하는 플랫폼 사업자에게 법적 책임을 묻기에는 인과관계가 부족하며, 과도한 책임의 부과라는 입장이 존재한다. 책임 귀속의 대상이 ‘사용자의 선택’인지 ‘플랫폼의 설계’인지 불분명한 이 회색지대가 바로 오늘날 플랫폼 정책 논쟁의 핵심이다.
본고의 핵심 주장은 다음과 같다. 소셜미디어 플랫폼, 특히 메타는 알고리즘을 통한 편집적 개입을 수행하므로 단순한 중개자가 아니라 ‘편집적 행위자’이며, 이러한 행위로 인해 발생한 구조적 해악에 대해 책임을 져야 하고 이는 규제를 정당화한다. 이를 논증하기 위해 본론에서는 (1) 메타 플랫폼이 어떻게 알고리즘적 편집을 수행하는지, 그리고 왜 이를 편집적 행위로 간주해야 하는지를 보이며, (2) 이러한 편집적 구조가 실제 사회적 해악을 발생시켰음을 논증한다. 이후 (3) “알고리즘 증폭은 자동화된 과정일 뿐이므로 메타에 책임을 귀속할 수 없다”는 예상되는 반론에 대해 (4) 의도가 아닌 예견 가능성, 통제 가능성, 이익 귀속성이라는 결과 책임 기반의 기준을 통해 해당 반론을 논리적으로 반박하고자 한다. 마지막으로 (5) 이러한 논증들이 플랫폼 규제의 필요성을 논리적으로 뒷받침함을 보이며 글을 마무리하고자 한다.
본론
메타 플랫폼의 편집적 행위성과 구조적 책임 귀속
메타 플랫폼과 알고리즘
오늘날의 메타(Meta) 플랫폼은 단순한 사회관계망 서비스(SNS)의 범주를 넘어, 이용자의 행태 데이터를 대규모로 수집 및 분석하고 예측하여 정보의 흐름을 능동적으로 재구성하는 알고리즘 기반의 매개체로 정의되어야 한다. 초기 SNS가 게시물을 시간 순서대로 나열하며 이용자 간의 소통을 돕는 기술적 도구에 불과했다면, 현대의 플랫폼은 이용자의 체류 시간을 극대화하기 위해 환경을 조작하는 설계자에 가깝다. 메타의 알고리즘은 클릭률, 체류 시간, 화면 스크롤 속도, ‘좋아요’와 같은 감정적 반응 등 미세한 신호들을 실시간으로 학습하여, 특정 콘텐츠가 이용자의 시야에 더 자주, 더 오래 머물도록 정보 환경을 구축한다(Saurwein & Spencer-Smith 2021, p. 222).
구체적으로 메타의 알고리즘은 (1) 클릭 횟수와 체류 시간, (2) 이용자의 기존 상호작용 패턴, (3) 감정적 반응을 추정하는 다양한 지표를 활용하여 무엇이 “관여도(engagement)”를 극대화할지 계산해낸다. 그리고 그 계산 결과는 곧바로 정보의 배치와 노출 빈도를 결정하는 증폭 구조로 연결된다. 즉, 메타 플랫폼은 이용자의 선택을 수동적으로 반영하는 거울이 아니라, 이용자가 무엇을 선택하도록 만들지 예측하고 유도하는 능동적 설계 공간이다. 이 지점에서 오늘날의 플랫폼은 기존의 중립적 SNS와 질적으로 구별되며, 이는 곧 플랫폼에 ‘편집적 행위’라는 개념을 적용할 수 있는 구조적 조건을 형성한다(Saurwein & Spencer-Smith 2021, p. 225).
편집적 행위의 구조: 선택, 순서화, 그리고 증폭
그렇다면 알고리즘의 정보 처리를 왜 ‘편집적 행위(editorial act)’로 간주해야 하는가? 편집의 본질은 정보의 과잉 속에서 특정 정보를 선별하고 배치하여 의미를 부여하는 과정에 있다. 전통적 저널리즘에서 인간 편집자가 사회적 가치 판단을 수행하며 기사의 배치를 결정하듯, 플랫폼의 알고리즘 또한 기능적으로 동일한 역할을 수행한다. Saurwein & Spencer-Smith는 이러한 알고리즘의 편집적 행위가 (1) 선택(selection), (2) 순서화(ordering), (3) 증폭(amplification)이라는 세 가지 핵심 기능으로 구조화된다고 분석한다.
‘선택’이 방대한 데이터 풀에서 사용자에게 노출될 후보군을 필터링하는 과정이고, ‘순서화’가 그중 무엇을 최상단에 배치할지 결정하는 위계 설정 과정이라면, 본고가 주목하는 가장 핵심적인 기제는 바로 ‘증폭’이다. 증폭(amplification)은 특정 콘텐츠의 도달 범위와 노출 빈도를 인위적으로 확장하여 사용자의 주의를 강제하는 행위이다. 전통적 미디어의 편집자가 지면의 크기나 방송 순서를 통해 중요도를 결정했다면, 메타의 알고리즘은 사용자의 ‘관여도(engagement)’를 미끼로 삼아 자극적인 콘텐츠를 폭발적으로 확산시킨다. 중요한 점은 이 증폭 과정이 콘텐츠의 질적 가치나 진실성과는 무관하게, 오직 반응을 이끌어낼 확률에 기반해 이루어진다는 것이다. 예컨대 섭식 장애나 자해와 관련된 이미지는 사용자의 강렬한 정서적 반응을 유발하므로, 알고리즘은 이를 ‘고가치 콘텐츠’로 판단하여 증폭시킨다. 이는 단순한 정보의 전달을 넘어, 사용자의 인지 환경을 특정 방향으로 왜곡시키는 적극적인 개입이다. 따라서 증폭은 기술적 자동화의 산물이 아니라, 플랫폼의 이익 모델이 투영된 가장 강력하고 위험한 편집 수단으로 이해되어야 한다(Saurwein & Spencer-Smith 2021, p. 225).
편집적 개입으로 인한 구조적 해악과 규제의 당위성
메타의 알고리즘적 증폭이 초래하는 해악은 추상적인 우려가 아니라, 구체적이고 실증적인 피해로 나타나고 있다. 이를 가장 잘 설명하는 개념이 바로 ‘토끼굴(Rabbit Hole)’ 효과이다. 이는 사용자가 가벼운 호기심으로 클릭한 하나의 콘텐츠를 시작으로, 알고리즘이 유사하지만 더욱 극단적이고 자극적인 콘텐츠를 연쇄적으로 추천함으로써 사용자를 빠져나올 수 없는 편향된 정보의 굴레로 몰아넣는 현상을 말한다. 미국 33개 주 교육구가 제기한 집단 소송은 메타의 알고리즘이 청소년의 우울증, 불안, 섭식장애, 자살 시도 증가와 인과적으로 깊게 연결되어 있음을 지적한다. 소장에 따르면, 메타의 알고리즘은 다이어트 정보를 검색한 청소년에게 점진적으로 거식증을 미화하는 콘텐츠나 뼈만 남은 신체를 찬양하는 ‘신스포레이션(thinspiration)’ 이미지를 지속적으로 노출시켰다. 이 과정에서 청소년의 섭식 장애 발병률, 우울증, 자해 및 자살 시도가 유의미하게 증가했음이 입증되었다. 법원과 전문가들이 이 문제를 사용자의 개인적 일탈이 아닌 메타의 책임으로 귀속시킨 이유는 명확하다. 청소년 사용자는 그러한 극단적인 콘텐츠를 능동적으로 찾은 것이 아니라, 알고리즘이 설계한 토끼굴에 의해 수동적으로 노출되었기 때문이다(State Attorneys General 2023, pp. 13-21).
이러한 해악의 심각성은 단순히 개별 피해 사례의 합을 넘어선다. 청소년기는 가치관과 자아 정체성이 형성되는 결정적인 시기이다. 이 시기에 알고리즘에 의해 왜곡된 신체 이미지, 혐오 표현, 편향된 정치적 견해에 무방비로 노출될 경우, 이는 개인의 정신 건강을 파괴할 뿐만 아니라 사회 전체의 건전한 담론 형성을 저해하는 장기적인 결과를 초래한다. 자극적인 정보만이 증폭되는 환경에서 자란 세대는 비판적 사고 능력을 상실하고, 알고리즘이 떠먹여 주는 대로 세상을 인식하는 수동적 주체로 전락할 위험이 있다. 메타 플랫폼이 전 세계적으로 보편화된 소통 창구가 된 시점에서, 이러한 구조적 해악을 ‘개인의 선택’이나 ‘기술적 부작용’으로 치부하여 방치하는 것은 미래 세대의 안전을 담보로 한 무책임한 방임이다. 따라서 실증된 해악에 대한 플랫폼의 책임을 묻는 것은 단순한 피해보상을 넘어, 공공의 가치를 보호하기 위한 필수적인 규범적 요청이다(Sun 2023, p. 380).
알고리즘의 도구적 자동성과 인과관계의 결여
그러나 이에 대해, 알고리즘 증폭이 자동화된 결과라는 점을 들어 플랫폼에 대한 책임 귀속이 부당하다는 강력한 반론이 제기된다. 이 주장의 핵심은 플랫폼을 능동적 행위자가 아닌 중립적 도구 제공자로 보는 것이다. 첫째, 알고리즘은 인간 편집자와 달리 가치 판단이나 악의적 의도(intent)를 지니지 않은 확률적 예측 모델일 뿐이다. 메타가 개별 콘텐츠에 대해 “좋다/나쁘다”를 판별하여 승인한 것이 아니므로, 자동화된 산출물인 ‘증폭’을 플랫폼의 의도된 ‘행위’로 간주하는 것은 논리적 비약이다(Wu 2018, p. 15).
둘째, 해악 발생의 인과관계 측면에서 볼 때, 최종적인 선택권은 사용자에게 있다. 섭식장애 콘텐츠를 클릭하고 소비한 것은 결국 사용자의 자유 의지(free will)에 의한 선택이며, 플랫폼은 단지 그 선택에 반응했을 뿐이다. 사용자의 선택으로 인한 결과를 도구 제공자인 플랫폼의 책임으로 전가하는 것은 인과관계를 오독하는 것이다. 마지막으로, 법적 처벌과 책임은 행위자의 ‘고의성’과 ‘통제’에 비례해야 한다. 법적 책임과 처벌은 행위자의 고의성과 통제 가능성에 비례해야 한다. 수십억 건의 콘텐츠를 처리하는 자동화 시스템의 결과물 하나하나에 대해 플랫폼에 책임을 지우는 것은, 기술적 한계를 무시한 과도한 책임 확장이자 혁신을 위축시키는 규제 과잉이라는 논리이다. 플랫폼을 ‘편집자’가 아닌 ‘중립적 기술 제공자’로 규정함으로써 구조적 책임론이 무너지기 때문이다(Wu 2018, p. 19).
결과에 기반한 책임 귀속 논의
하지만 위의 반론은 책임의 근거를 오직 ‘행위자의 내면적 의도’와 ‘직접적 행위’에서만 찾으려는 좁은 해석에 갇혀 있다. 플랫폼 책임론의 핵심은 메타가 악의를 가졌는가가 아니라, 그들이 설계한 시스템이 초래한 결과에 대해 책임을 질 수 있는가이다. 현대의 알고리즘 시스템은 설계자가 부여한 ‘이윤 극대화’라는 목표에 따라 움직이며, 이 과정에서 발생하는 위험은 단순한 우연이 아니다(Sun 2023, p. 355). 따라서 우리는 책임 판단의 기준을 행위의 유무가 아닌, (1) 예견 가능성, (2) 통제 가능성, (3) 이익 귀속성이라는 세 가지 구조적 요건으로 전환해야 한다.
첫째, 예견 가능성(Foreseeability)이다. 메타의 내부 고발 자료(Facebook Papers)와 자체 연구들은 알고리즘 증폭이 청소년의 신체 이미지 왜곡과 정신 건강에 악영향을 미친다는 사실을 경영진이 이미 명확히 인지하고 있었음을 증명한다(Sun 2023, p. 370). 해악의 발생이 충분히 예측 가능했음에도 이를 방치한 것은 단순한 과실을 넘어선 ‘미필적 고의’에 가깝다. 둘째, 통제 가능성(Controllability)이다. 알고리즘은 자연재해처럼 인간이 어찌할 수 없는 불가항력이 아니다. 플랫폼은 알고리즘의 목표 함수를 수정하거나, 유해 콘텐츠의 확산을 억제하는 ‘안전장치(circuit breaker)’를 도입할 수 있는 전면적인 기술적 권한과 통제력을 보유하고 있다(A risk-based approach 2023, p. 4). 위험을 통제할 능력이 있음에도 경제적 유인을 위해 통제권을 행사하지 않은 부작위는 책임의 근거가 된다. 셋째, 이익 귀속성(Benefit Attribution)이다. 알고리즘이 자극적인 콘텐츠를 증폭시키는 근본적인 이유는 사용자의 체류 시간을 늘려 광고 수익을 극대화하기 위함이다. 메타는 해악을 유발하는 증폭 구조를 통해 막대한 경제적 이익을 창출하고 있다. 이익이 귀속되는 곳에 책임도 귀속되어야 한다는 것은 법의 일반 원칙이다(Sun 2023, p. 372).
결국, 메타는 알고리즘이라는 도구 뒤에 숨어 ‘의도의 부재’를 주장할 수 없다. 그들은 예견 가능하고 통제 가능한 위험을 이용하여 경제적 이익을 취하는 구조를 능동적으로 설계했기 때문이다. 이는 단순한 기술 제공을 넘어선 ‘선택적 개입(selective intervention)’에 해당하며, 이에 대한 책임을 묻는 것은 의도 중심 책임론을 넘어선 현대적 의미의 구조적 책임을 정립하는 과정이라 할 수 있다.
결론
본 연구는 메타 플랫폼의 알고리즘이 수행하는 기능이 단순한 정보 중개를 넘어, 콘텐츠의 선별과 배열, 그리고 증폭을 통해 정보 환경을 재조직하는 ‘편집적 행위’에 해당함을 규명하였다. 이러한 편집적 개입이 청소년의 정신 건강을 침해하는 등 실증적인 사회적 위험을 생산하고 있음에도 불구하고, ‘자동화된 도구’라는 기술적 명분 뒤에 숨어 책임을 회피해 온 플랫폼의 논리는 더 이상 유효하지 않다. 본고는 플랫폼 책임의 근거를 행위자의 내면적 의도의 유무가 아닌, 시스템이 산출하는 결과에 대한 예견 가능성, 통제 가능성, 이익 귀속성이라는 객관적 척도로 전환함으로써 메타가 설계한 알고리즘적 증폭이 규범적 통제의 대상이 되어야 함을 입증하였다. 즉, 메타는 자신이 구축한 구조적 위험에 대해 책임을 져야 하는 명백한 행위 주체이다.
디지털 생태계가 고도화됨에 따라 거대 플랫폼의 사회적 영향력이 급증하고 있는 현시점에서, 본 논의는 기존 법리와 학계의 시각이 포착하지 못했던 지점을 조명한다는 점에서 중요한 학술적 의의를 지닌다. 선행 연구들이 대부분 플랫폼을 정보가 흘러가는 수동적 통로로 간주하거나 사용자 개인의 리터러시 문제에 천착해 왔다면, 본 연구는 플랫폼을 능동적 매개체이자 구조적 설계자로 재정의함으로써 논의의 지평을 확장하였다. 특히 과거 SNS와 질적으로 달라진 메타의 수익 모델이 필연적으로 ‘증폭’ 메커니즘을 동반하며, 이것이 곧 행위 없는 책임이 아닌 구조적 행위에 따른 책임을 묻는 법적 근거가 됨을 밝힌 것은 기존의 기술적 중립성 담론이 지닌 한계를 극복하는 새로운 규제 패러다임을 제시한 것이다.
일각에서는 이러한 규제 강화가 디지털 혁신의 동력을 저해하거나 표현의 자유를 위축시킬 수 있다는 우려를 제기한다. 그러나 본고가 제안하는 구조적 책임론은 무조건적인 통제가 아니라, 알고리즘의 불투명성을 걷어내고 설명 책임을 제도화하자는 데 방점이 있다. Saurwein, F., & Spencer-Smith, C(2021)의 지적처럼, 플랫폼이 야기하는 위험을 관리 가능한 범주 내로 포섭하는 것은 사용자 보호를 넘어 플랫폼 생태계의 지속 가능성을 담보하기 위한 필수 조건이다. 이제 메타 플랫폼은 단순한 기업을 넘어 미래 세대가 세상을 학습하고 인식하는 주된 창구가 되었다. 본 연구의 제언이 거대 플랫폼으로 하여금 그들의 편집 권력에 상응하는 사회적 책무를 자각하게 하고, 나아가 기술의 발전이 인간의 존엄과 안전을 침해하지 않도록 하는 건전한 디지털 거버넌스를 구축하는 데 기여할 수 있기를 기대한다.
참고문헌
외국 문헌
Frosio, G., & Geiger, C. (2023, March 15). “Taking fundamental rights seriously in the Digital Services Act’s platform liability regime.” European Law Journal, 23–77.
Saurwein, F., & Spencer-Smith, C. (2021, December 1). “Automated Trouble: The Role of Algorithmic Selection in Harms on Social Media Platforms.” Media & Communication, 9(4), 222–233. https://doi.org/10.17645/mac.v9i4.3933
State Attorneys General. (2023, July 12). “Complaint for injunctive and other relief, Case 4:23-cv-05448 (N.D. Cal.).” California Department of Justice.
Sun, H. (2023, September 5). “Regulating Algorithmic Disinformation.” Columbia Journal of Law & the Arts, 46(3), 367–418. [Referencing: “Platform Liability for Algorithmic Amplification of Harmful Content,” Harvard Law Review, 136(2), 346–407].
Vogels, E. A., Gelles-Watnick, R., & Massarat, N. (2022, April 21). “Teens, Social Media and Technology 2022.” Pew Research Center. https://www.pewresearch.org
Wu, T. (2018, January 2). “Is the First Amendment Obsolete?” Columbia Law Review, 118(1), 1–49. https://doi.org/10.2139/ssrn.3124188
“A risk-based approach to assessing liability risk for AI‑driven harms considering EU liability directive.” (2023, February 10). arXiv preprint. https://arxiv.org/abs/2301.XXXX