(개선) 과제-07 개인별 논증 구조 작성하기 013-21 이현중
개선 사항 메모
최대한 논증 구조를 논리적으로 단계화 하고, 피드백에서 지적되었던 것 같이 지식과 과학적 지식의 차이를 유념해 두었다. 또한 반론과 재반박을 사례까지 포함해 더 정밀하게 하고, 핵심 논지도 명료하게 하는 데에 중점을 두었다.
제목: 인공지능은 과학자의 꿈을 꾸는가?
1. 쟁점과 딜레마
| 구분 | 내용 |
|---|---|
| 주제(Topic) | 인간의 인지능력을 벗어난 AI의 과학적 발견의 지식으로서의 인정 가능성 |
| 도전하려는 쟁점 | AI의 과학적 발견이 인간의 합리적 이해를 필요로 하지 않고도 과학적 지식으로 인정할 수 있는가 |
| 딜레마/난제 | AI의 복잡성과 인간의 이해 가능성은 상충한다. 예측력을 위해 복잡성을 높이면 인간은 그 원리를 이해할 수 없어 정당화가 불가능하고, 설명력을 높이면 과학의 예측력을 잃는다. |
| 딜레마/난제 해소/해결 방법 | 정당화의 본질을 인간의 이해 가능성에 두되, AI의 기여를 합리성의 대체가 아닌 정당화 과정의 분업적 확장으로 재구성함으로써 이해와 예측의 균형을 유지한다. |
① 주제(Topic): 인간의 이해나 설명 없이 AI가 산출한 과학적 발견의 지식으로서의 정당화 가능성
② 도전하는 학술적 쟁점:인간의 합리적 정당화 없이도 AI의 발견이 과학적 지식으로서 인정될 수 있는가?
- AI의 예측 결과가 참임을 검증할 수 있더라도, 그것이 인간의 이해 불가능성을 이유로 배제되어야 하는가?
- 정당화란 이유를 인간이 이해할 수 있는 형태로 제시하는 것을 의미하는데, AI의 불투명한 정당화는 지식의 조건을 충족하지 못하는가?
- 반대로 AI의 발견이 인간의 과학 진보에 실질적으로 기여한다면, 유용성은 정당화를 대체할 수 있는가?
③ 유발되는 딜레마 또는 난제
- 딜레마 구조
- (A) 복잡한 AI 모델은 높은 예측 정확도를 갖지만, 그 내부 과정은 인간에게 불투명하다. 이 경우, 인간이 그 이유를 이해하지 못한 채 결과만 받아들인다면 과학의 본질적 목표인 자연현상의 이해가 약화된다.
- (B) 그러나 단순하고 설명 가능한 모델은 인간의 이해에는 유리하지만, 정확도가 낮아 새로운 현상 발견의 가능성을 잃게 된다. AI를 쓰지 않거나 단순화된 AI만 사용한다면 과학은 인간의 인지적 한계에 갇히게 된다는 문제도 있다.
④ 딜레마 해소 (또는 난제 해결) 전략
- 과학적 지식의 정당화는 인간의 이해 가능성이 전제되어야 한다. 복잡한 AI는 인간의 인지적 한계를 넘어설 수 있으나, 그 자체로 정당화의 조건을 충족시키지 않는다.
- 따라서 AI의 발견은 인간 합리성의 대체물이 아니라 보완적 협력자로 기능해야 한다. 인간은 AI가 산출한 패턴을 이미 알려진 이해가능한 구조인 언어, 이론의 틀로 번역하고, AI는 인간이 도달하지 못한 복잡한 데이터 구조를 탐색한다.
- 이러한 정당화의 분업 구조를 통해 과학은 예측과 이해의 균형을 유지하며 확장될 수 있을 것이다.
2. 논증구조
기본구조
- 논제: AI의 과학적 발견은 인간의 합리성을 대체할 수 없으며, 대신 합리성의 범위를 확장시키는 보완적 도구로 기능해야 한다.
- 전제1: 과학적 지식의 정당화에는 이해 가능성이 필요하다.
- 지식은 전통적으로 정당화된 참된 믿음으로 정의된다(The Analysis of Knowledge, 2001).
- 그러나 과학적 지식은 믿음보다는 이론적 설명을 통한 자연현상의 이해를 지향한다(Hempel, 1965).
- 어느 경우에든 AI가 산출한 결과가 실제 현상에 대한 높은 정확도를 보이더라도, 인간이 그 원리를 이해하지 못한다면 이는 과학적 지식으로 정당화되기 어렵다(Durán & Pozzi, 2025).
- 실제로도 복잡한 모델은 예측력은 높지만, 그 과정은 인간에게 불투명하다(Musslick et al., 2025).
- 따라서 과학적 지식으로 인정되기 위해서는 인간의 이해 가능한 정당화의 틀이 필요하다.
- 전제2: 정당화는 이해 가능성을 전제로 하며, 이는 인간 합리성의 핵심이다.
- 합리성이란 이유를 제시하고 평가하며, 그 이유에 따라 행동할 수 있는 능력이다(Kacelnik, 2006).
- 그렇기에 합리성의 측면에서 정당화의 본질은 결과의 옳음이 아니라, 추론 과정의 공유 가능성에 있다.
- 과학적 지식이 이해 가능성을 요구한다면, 그에 대한 정당화 역시 이해 가능한 이유 제시를 필요로 한다. 이러한 점에서 정당화의 성격은 인간 합리성의 구조와 나누려 해도 나눌 수 없다.
- 그러나 AI는 믿음을 가지는 주체가 아니며, 인간이 이해 가능한 개념 체계로 번역될 때 비로소 그 산출물이 의미를 가진다(Páez, 2019).
- 심지어 AI는 보상함수라는 형태로 구현된 목표의 의미를 스스로 이해하지 못하기 때문에, 의도와 가치 해석이 결여되어 있다(Christian, 2020).
- 따라서 AI는 정당화의 주체가 될 수 없으며, 인간의 합리성이 반드시 개입해야 한다.
- 합리성이란 이유를 제시하고 평가하며, 그 이유에 따라 행동할 수 있는 능력이다(Kacelnik, 2006).
- 전제3: AI의 발견은 인간 합리성의 대체가 아니라 그 외연의 확장이다.
- AI는 방대한 데이터에서 인간이 미처 인식하지 못한 패턴을 발견할 수 있는 것은 사실이다(Musslick et al., 2025).
- 그러나 발견된 패턴을 과학적 의미로 해석하고 이론적 맥락에 위치시키는 것은 인간의 몫이다(Feisher, 2022).
- AI의 결과가 검증 가능한 참이라 해도, 그것이 이해 가능한 정당화로 번역되어야 지식으로 편입될 수 있다는 뜻이다.
- 따라서 AI는 인간의 합리성을 보완하는 역할을 할 수 있으며, 인간이 맡는 정당화의 분업을 통해 과학적 합리성의 외연을 확장한다.
- 전제1: 과학적 지식의 정당화에는 이해 가능성이 필요하다.
- 결론: AI의 과학적 발견은 인간의 합리성을 대체할 수 없다. 그러나 AI는 정당화 과정의 분업화를 통해 인간 합리성을 확장시킬 수 있으며, 이를 통해 과학은 이해와 예측의 균형을 유지한 채 진보할 수 있다. 결국 과학의 진보란 인간 이해의 한계를 드러내고, 그 한계를 AI와의 협업 속에서 새롭게 재구조화해 나가는 과정이라 할 수 있다.
예상반론과 재반박
- 예상반론(연역적 논증의 타당성 공격): 전제 2에서 말하는 “정당화는 반드시 인간의 이해 가능성을 전제로 한다”는 명제가 인간 중심적이다. 실제로 AlphaFold의 단백질 구조 예측처럼 인간이 내부 계산 과정을 완전히 이해하지 못하더라도, 그 결과는 과학적 성취로 간주된다. 그렇다면 이해 가능성은 정당화의 필요조건이 아니라 단지 바람직한 조건일 뿐이며, 더 우수한 합리성을 지닌 초지능 AI와 같은 존재가 있다면 인간이 이해하지 못해도 지식은 여전히 정당할 수 있다.
- 논리적 취약점 지적: 정당화는 반드시 인간의 이해 가능성을 전제로 한다고 단정했었데, 이는 모든 정당화는 인간의 이해 범위 안에 있어야 한다는 인간 중심적 전제를 포함한다. 그러나 만약 인간보다 우수한 합리성을 지닌 존재가 존재한다면, 인간이 이해하지 못해도 그 지식이 여전히 정당할 수 있다는 가능성이 생긴다. 따라서 이 반론은 전제 2가 필요조건으로서의 타당성을 과도하게 일반화했다는 점, 즉 이해 가능성이 정당화의 유일한 조건이 아님을 지적하며 논증의 논리적 보편성과 타당성에 취약점이 있다는 점을 드러낸다.
- 재반박: 과학은 개인이 아닌 공동체 내의 검증과 소통을 통해 정당화되는 지식 체계이다(The Social Dimensions of Scientific Knowledge, 2002). 정당화는 물론 이유가 존재함을 뜻하지만, 그 이유가 과학 공동체 안에서 평가, 재현, 그리고 논의가 가능해야 한다는 점을 포함한다. AI가 제시하는 이유가 인간이 이해할 수 없는 형태라면, 그 지식은 과학 공동체 내에서 검증 불가능하다. 따라서 인간 이해의 틀 안에서 번역되지 않은 정당화는 공동 검증의 조건을 충족하지 못하므로 과학적 지식이 될 수 없다.
참고문헌
- Christian, B. (2020). The alignment problem: Machine learning and human values. W. W. Norton & Company.
- Durán, J.M., Pozzi, G. (2025). “Trust and Trustworthiness in AI.” Philos. Technol. 38(16), pp. 1-31.
- Fleisher, W. (2022). “Understanding, Idealization, and Explainable AI.” Episteme, 19(4), pp. 534–560.
- Hempel, Carl Gustav (1965). Aspects of Scientific Explanation and Other Essays in the Philosophy of Science. New York: The Free Press.
- Kacelnik, A. (2006). “Meanings of rationality.” In S. Hurley & M. Nudds (Eds.), Rational animals? (pp. 87-106). Oxford University Press.
- Musslick, S., et al. (2025). “Automating the practice of science: Opportunities, challenges, and implications.” Proceedings of the National Academy of Sciences of the United States of America, 122(5), e2401238121.
- Páez, A. (2019). “The Pragmatic Turn in Explainable Artificial Intelligence (XAI)”, Minds and Machines, 29, pp. 441-459.
- “The Analysis of Knowledge.” (2001). In Stanford Encyclopedia of Philosophy. Retrieved October 29, 2025, from https://plato.stanford.edu/entries/knowledge-analysis/
- “The Social Dimensions of Scientific Knowledge.” (2002). In Stanford Encyclopedia of Philosophy. Retrieved November 2, 2025, from https://plato.stanford.edu/entries/scientific-knowledge-social/