(개선) 과제-07 개인별 논증 구조 작성하기 013-13 윤현철
개선 사항 메모
- “이해할 수 없는 지식은 과학적 지식이 아니다”라는 논리적 전제를 드러내 전제 간 연결을 명확히 함.
- 헴펠의 설명-예측 대칭성과 포퍼의 반증 가능성 개념을 인용해 재반박의 설득력을 높임.
- ‘과학’과 ‘지식’의 정의를 명시하여 논증의 철학적 초점을 명확히 함.
제목: AI가 만들어낸 결과를 과학적인 지식이라 할 수 없다.
1. 쟁점과 딜레마
| 구분 | 내용 |
|---|---|
| 다루는 토픽 | AI가 발견하는 결과, 혹은 자연법칙들에 대한 과학 지식 |
| 도전하는 쟁점 | AI가 발견해내는 결과가 인간이 이해할 수 있는 선을 넘어갈때, 과학적 지식으로 이것을 정의할 수 있는가 |
| 유발 딜레마 | 인류가 받아들이거나 이해하기 어려운 AI가 찾아내는 발견의 자동화를 통해 나오게되는 지식들을 과학으로 정의할 수 있는가 |
| 딜레마 해소 방법 | AI는 그저 과학적 지식에 대한 의미를 부여하는 인류가 사용하는 tool일 뿐이며 탐색을 하는 machine이라는 측면에서 접근하는 것이 바람직하다. |
① 주제(Topic): AI가 만들어내는 결과가 과학적인 지식으로 정의, 혹은 포함될 수 있는가에 대한 problem
② 도전하는 학술적 쟁점:
- 과학적인 발견을 하는 주어(주체)는 인간 뿐만 아니라 AI도 가능한 것인가.
- ‘현상에 대한 설명과 인류의 이해’에 과학은 집중을 하는데, 과연 ‘인류의 이해’측면에서 볼때, 인류가 이해하지 못하는 AI의 산출된 결과는 과학적인 발견으로 볼 수 있는가.
- 귀납적인 방법으로 AI가 새로운 과학적인 발견을 했을때, 그 과정을 과학의 합리성 측면에서 인정할 수 있는 부분인가.
③ 유발되는 딜레마 또는 난제
- 딜레마 구조
- (A) 인간보다 AI가 데이터 정보 처리 속도가 빠르고, 방대한 양의 데이터를 기반으로 자연에 존재하는 법칙을 더 정확하고 빠르게 찾아낸다.
- (B) 그러나 AI는 발견을 하는것이지, 그 발견된 자연 현상에 대한 자신의 의견을 부여하거나 인류에게 설명을 하는것은, 만일 인간에게 결과에 대해, 법칙에 대해 해석이 불가능하게 설명한다면, 그것은 과학적 지식으로 과연 볼 수 있는가.
④ 딜레마 해소 (또는 난제 해결) 전략
- AI가 만들어내는 결과물은 ‘발견을 하기 위한 데이터의 분석’으로 보는 것이 맞고, ‘어떠한 형태의 지식’으로 보는 것은 옳지 않다.
- ‘과학’이라는 학문은 일반적으로 데이터들을 모아, 그 사이의 관계를 단순하게 파악하여 나열하는 것이 아닌, 인간이 합리적으로 이해를 할 수 있고, 의미를 줄 수 있는 해석하는 과정이다.
- 과학은 단순한 데이터의 패턴 발견이 아니라, 인간이 이해 가능한 이유를 제시하는 설명 체계이다.
- 즉, 결론적으로 AI는 과학인들의 머리속에서 돌아가는 전체적인 사고를 대체해버리는 것이 아닌, 그저 확장의 수단일 뿐이며, 그 해석을 인간은 본인들의 지식 세계 안에서 병합하는 것이다.
2. 논증구조
기본구조
- 논제: AI가 만들어내는 결과물이 인간이 해석할 수 있는 선을 넘어간다해도, 그것을 과학적인 지식의 일부로 받아들일 수는 없다.
- 전제1: AI는 수많은 데이터를 통해 자연에 존재하는 법칙들을 귀납적으로 찾아낼 수 있다.
- 위 연구는 AI가 인간이 어떤 이론이나 분석 결과를 제공하기 않아도, 직접 수많은 데이터의 분석을 통해 자연에 존재하는 물리법칙을 자체적으로 발견할 수 있음을 보여준다.(Schmidt & Lipson, 2006, p.1-3)
- 즉, AI는 기존의 인간의 선행 연구 없이도 과학적 자연법칙의 발견을 자동적으로 진행할 수 있음을 증명한다.(Schmidt & Lipson, 2006, p.1-3)
- 전제2: 그러나 AI가 만들어내는 이러한 블랙박스적 결과들은 인간이 이해하거나 해석하지 못하는 결과일 가능성이 존재한다.
- AI가 발견하는 과학법칙들에 대한 pattern을 인류가 해석하거나 인식하지 목한다면 과학법칙과 AI를 모두 사용하는 인간의 입장에서는 의미가 없다.
- ‘인간에게 설명가능한 지식’이 바로 과학의 중추가 되는 것이며, 인류가 이해하지 못하는 지식은 지식으로 보기가 어렵다. (Schmidt & Lipson, 2006, p.1-3)
- 전제3: 즉, 결론적으로 AI의 자동적인 데이터 분석을 통한 결과의 산출이 과학의 합리성이 아니라, 창출된 결과를 이론적인 흐름에 맞제 배치하며 해석하는 인간의 생각들이 과학의 합리성이다. (Schmidt & Lipson, 2006, p.1-3)
- AI가 과학적 발견의 효율성과 속도를 증진시키며 과학자들의 시야를 넓혀주지만, 결과와 지식에 대한 의미를 주는 것은 인간이 한다.
- 즉, 과학적 발견을 AI를 통해 자동화할 수는 있어도 과학적인 이해의 자동화는 AI를 통해 하는 것이 불가능함을 보여준다.
- 전제1: AI는 수많은 데이터를 통해 자연에 존재하는 법칙들을 귀납적으로 찾아낼 수 있다.
- 결론: 따라서, AI는 과학자들이 연구하는데 있어서 속도를 증진시키거나 시야를 넓혀주기도 하지만, 인간이 해석하지 못하는 결과 같은 경우에는 지식으로 보기 어렵기 때문에 AI는 과학에 대한 대체자가 아닌, 조력자라고 할 수 있다.
예상반론과 재반박
- 예상반론(연역적 논증의 타당성 공격): 전제3에서 AI가 발견한 자연 법칙이 자연현상에 대한 예측을 정확히 잡는다면 그것은 AI가 발견한 지식이 과학적인 지식으로서 기능성을 갖게 된다.
- 인간이 이해를 했는가에 대한 이야기가 아닌, 과학의 본질은 예측 가능성이다. 라는 내용의 반론이 예상된다.
- 재반박:: ‘지식’이라는 것은 예측 가능성보다는 과학적인 이해라는 측면에서 더 합당하다. 다시 말해, 예측 가능성만 사용하여 과학에 대한 이해라는 과정을 대체하는 것은 불가능하고 의미 없다.
- 위의 논문에서도 AI가 만들어내는 물리 법칙이 왜 성립하는지는 AI가 설명하지 못하며, 이는 인간이 진행하게 된다. 즉, 과학이라는 학문의 목적성은 우리 주변을 둘러싼 세상이 어떻게 작동하는지 인류에게 설명하고 해석하는 것이라고 생각한다. (Schmidt & Lipson, 2006, p.1-3)
- 예측은 과학의 조건이지만 충분조건은 아니다. 헴펠의 “설명–예측 대칭성(Hempel, 1965)”에 따르면, 과학은 단순한 예측이 아니라 그 예측의 이유를 설명할 수 있을 때 성립한다.
- 포퍼(Popper, 1959)의 반증주의에 따르면, 과학적 지식은 검증 가능할 뿐 아니라 반증 가능해야 한다. AI의 블랙박스는 이 반증 과정을 인간이 수행할 수 없게 만들기 때문에 과학의 규범적 토대에 어긋난다.
- 따라서 AI의 예측이 정확하더라도, 인간이 이해하고 반증 가능한 방식으로 정당화되지 않는다면 그것은 과학이 아니라 기술적 예측에 불과하다.
참고문헌
- Schmidt, Michael & Lipson, Hod. (2009). Distilling Free-Form Natural Laws from Experimental Data. Science, 324(5923), 81–85.
- Boge, F. (2022). “Why Machine Learning Does Not Render Scientific Understanding Obsolete.” Synthese, 200(2), 1–23.
- Humphreys, P. (2019). The Philosophical Novelty of Computer Simulation Methods. Synthese.
- Lipton, Z. C. (2018). “The Mythos of Model Interpretability.” Communications of the ACM, 61(10), 36–43.