과제-05 개조식 요약문 작성 007-13 김강현

📘 1. 『The Ethics of Accident-Algorithms for Self-Driving Cars: An Applied Trolley Problem?』 요약 – Sven Nyholm & Jilles Smids (2016)

A. 서지 정보

  • 저자: Sven Nyholm & Jilles Smids
  • 제목: The Ethics of Accident-Algorithms for Self-Driving Cars: An Applied Trolley Problem?
  • 출판사: Ethical Theory and Moral Practice, Vol. 19, pp. 1275–1289
  • 출판년도: 2016
  • 주제 분야: 자율주행차 윤리, 트롤리 문제, 도덕적 책임, 위험 관리

B. 쟁점 (Issue)

자율주행차가 불가피한 사고 상황에서 어떤 윤리적 기준에 따라 행동해야 하는가? → 이는 트롤리 딜레마처럼 “소수를 희생해 다수를 구할 것인가”라는 문제로 보이지만, 저자들은 이 두 사안을 단순히 동일시할 수 없다고 비판한다.

C. 딜레마 (Dilemma)

양립 불가능한 두 설명 사이에서 발생하는 이론적 긴장:

선택지 이론적 문제
자율주행차의 사고 알고리즘은 트롤리 문제와 같다 인간의 순간적 도덕 판단을 기계가 재현할 수 있다는 가정을 전제함 → 실제로는 집단적·사전적 의사결정이라는 점을 무시함
자율주행차의 사고 알고리즘은 트롤리 문제와 다르다 윤리적 판단의 철학적 기준(도덕원리 적용)을 완전히 폐기할 위험이 있음 → 규범적 방향성을 상실함

→ 이 딜레마는 철학적 모델의 단순 적용과 현실적 윤리의 복잡성 인정 사이에서의 문제를 제기한다.

D. 옹호하려는 논제 (Thesis)

자율주행차의 윤리 문제는 트롤리 문제와 유사하지만, 결정적 차이를 가진다. 도덕적 프로그래밍은 개인의 직관적 판단이 아니라 집단적·사전적·책임지향적 윤리 설계 과정이다. 따라서 자율주행차 윤리는 단순한 사고 도덕이 아니라 제도적 책임 분배와 위험 관리의 윤리로 이해되어야 한다.

E. 논증 전략 (Argument Strategy)

  • 추론 유형: 사례 비교, 개념 대비, 윤리적 행위의 제도적 수행 분석
  • 논증의 구조: 기본구조
    • 자율주행차의 윤리 문제는 단순한 ‘트롤리 상황’이 아니라 복합적 의사결정 체계로 이해되어야 한다.
      • 트롤리 문제는 한 개인이 순간적으로 내리는 직관적 판단을 전제한다.
      • 반면 자율주행차의 사고 알고리즘은 집단적, 사전적 계획(prospective planning)으로 구성된다.
    • 윤리적 의사결정의 차이는 시간적 구조(즉각적 vs 사전적)와 책임의 귀속 방식(개인적 vs 제도적)에 따라 구분된다.
    • 따라서 두 문제의 형식적 유사성은 도덕적 상황의 본질적 차이를 가린다.

    • 저자들은 이를 보여주기 위해 세 가지 핵심 비교 축을 제시한다
        1. 의사결정 주체: 트롤리 문제는 한 개인이 결정을 내리지만, 자율주행차는 다수 이해관계자(엔지니어, 정책가, 시민)가 관여함.
        1. 책임의 구조: 트롤리 문제는 책임을 배제하지만, 자율주행차는 법적, 도덕적 책임이 핵심 논점이 됨.
        1. 인식의 조건: 트롤리 문제는 결과를 확정된 사실로 가정하지만, 자율주행차는 확률, 위험, 불확실성 속에서 작동함.
    • 이를 통해 저자들은 트롤리 문제는 도덕 직관의 실험이지만, 자율주행차 윤리는 책임 분배의 실천적 문제임을 밝힌다.
    • 결국, 윤리의 초점은 “무엇이 옳은가?”가 아니라 “누가 책임을 질 수 있는가?”로 이동한다.
    • 이러한 차이는 도덕철학의 추상적 모델을 현대 기술 윤리의 제도적 수행으로 재구성할 필요성을 제기한다.

F. 인용 가능한 핵심 구절

“The morally relevant decisions are prospective decisions, or contingency-planning, on the part of human beings.” (p. 1280) “We cannot stipulate away all considerations having to do with moral and legal responsibility.” (p. 1283) “Uncertainty about the consequences of one’s actions is a major complicating factor in most real-life dilemmas.” (p. 1284)

G. 활용

  • 전통적 행위자 중심 윤리에서 시스템 중심 윤리(systemic ethics)로의 전환을 설명
  • 자율주행차뿐 아니라 의료, 금융 AI 등 결정 알고리즘의 윤리화 논의에 적용 가능

📘 2. 『The Social Dilemma of Autonomous Vehicles』 – Jean-François Bonnefon, Azim Shariff, & Iyad Rahwan (2016)

  • 서지정보: Bonnefon, J.-F., Shariff, A., & Rahwan, I. (2016). The social dilemma of autonomous vehicles. Science, 352(6293), 1573–1576.
  • 쟁점: 공리주의적 판단(다수를 구하기 위해 승객을 희생)과 자기보호적 판단(승객의 안전을 최우선) 중 어떤 윤리 원칙이 자율주행차 알고리즘의 기반이 되어야 하는가?
  • 딜레마: 사람들이 도덕적으로는 다수의 생명을 구하는 공리주의적 AV를 지지하지만, 개인적으로는 자신과 가족의 안전을 지켜주는 자기보호형 AV를 선호한다. 따라서 사회 전체의 안전을 높이려는 규제가 오히려 소비자 구매 의욕을 떨어뜨려, 기술 확산을 늦추고 결과적으로 더 많은 희생을 초래할 수 있다는 딜레마가 발생한다.
  • 주장: 규제의 필요성을 인정하지만, 공리주의 알고리즘의 강제적 도입이 도리어 기술 채택을 지연시켜 사망자 수를 증가시킬 수 있다.
  • 논증 방식: Bonnefon 등은 6개의 온라인 실험을 통해 사람들의 도덕 판단과 실제 구매 의향 간의 괴리를 실증적으로 제시하였다. 유비적 실험 설계를 통해, 전형적인 트롤리 딜레마를 자율주행차 상황에 적용하였다. 다수의 생명을 구하는 경우에는 승객 희생을 더 도덕적으로 평가하였으나, 실제 구매 의향은 그 반대로 나타났다. 이 결과를 “사회적 딜레마의 전형적 패턴”으로 해석하며, “도덕적 규범 준수”와 “개인적 이익 추구”의 구조적 불일치를 실험적 근거로 논증한다.