과제-07 개인별 논증 구조 작성하기 013-22 장종윤

제목: AI의 설명 불가능성과 과학적 합리성: 기능적 대체 가능성 논증

1. 쟁점과 딜레마

구분 내용
주제(Topic) 인간이 작동 원리를 충분히 이해하지 못하는 상황에서 AI가 생성한 과학적 발견을 어떤 기준으로 수용해야 하는가
도전하는 쟁점 작동 원리의 불투명성에도 불구하고 AI가 생성한 지식을 과학적 합리성의 산물로 승인할 수 있는가
딜레마/난제 설명적 합리성을 우선하면 탐색과 발견의 기회를 상실할 수 있으며, 기능적 합리성을 우선하면 설명성과 책임성이 약화될 위험이 커진다.
딜레마/난제 해소/해결 방법 암묵지 유추를 통해 AI가 인간 과학자를 기능적으로 대체가능하다.

① 주제(Topic): AI가 생성하는 새로운 지식의 본질을 이해하고, 인간 과학자의 합리성을 대체할 수 있는지에 대한 논의

② 도전하는 학술적 쟁점: 블랙박스로 작동하는 인공지능 시스템이 도출하는, 경험적으로 검증 가능한 결과를 인간이 과학적 합리성의 산물로 수용하는 것이 정당화될 수 있는가?

  • AI의 작동 원리나 지식 생성 과정을 설명하고 이해할 수 없는 상황에서 결과의 유용성만을 근거로 AI의 합리성을 인정해야 하는지에 대한 질문이 있다.

③ 유발되는 딜레마 또는 난제

  • 딜레마 구조 (설명적 합리성 vs. 기능적 합리성의 충돌)
    • (A) 설명적 합리성의 요구: AI의 작동 원리를 이해하지 못하는 상황에서 AI의 결과물을 수용하는 것은 맹목적인 신뢰이며, 오류 발생 시 책임의 주체를 명확히 할 수 없어 과학적 합리성의 원칙에 위배될 위험이 있다.
    • (B) 기능적 합리성의 요구: AI가 인간이 발견하지 못한 새로운 지식을 효율적으로 생성해낸다면, 그 원리를 이해할 수 없다는 이유만으로 해당 지식의 수용과 그에 따른 과학 발전의 기회를 포기하는 것은 비합리적이다.

④ 딜레마 해소 (또는 난제 해결) 전략

  • 지식 수용의 과정은 지식의 생산과 검증으로 분리된다.
  • AI는 지식 생산 과정에서 인간 과학자와 기능적으로 동일한 합리성을 갖는다.
    • 암묵지(Tacit Knowledge)는 명시적 지식으로 명제화될 수 없는, 숙련된 과학자의 육체적 체화와 반복된 학습을 전달되는 지식이다.
    • 설명적 합리성은 명시적 지식의 수용에 대해서는 효과적이지만 암묵지와 같은 불명확한 지식에 대해서는 제약이 있다.
    • 따라서 암묵지와 같은 특수한 지식에 대해서는 기능적 합리성이 기준이 된다.
    • AI의 설명 불가능한 내부 논리 체계는 암묵지와 비슷한 기능적 성질을 가지며, AI가 비록 이해는 불가능해도 숙련된 과학자와 같은 기능적 합리성을 갖추고 있다.
  • 결론: AI는 암묵지 유추를 통해 과학자의 지식의 발견과 생성 기능을 상당 부분 대체 가능하며, 따라서 AI가 도출한 유용한 지식은 제한적이지만 합리적으로 수용되어야 한다.

2. 논증구조

기본구조

  • 논제: AI는 기능적 합리성을 통해 인간 과학자의 지식 생성의 핵심 기능을 상당 부분 대체 가능하다.

  • 전제0: 논의의 대상은 블랙박스로 인해 핵심 원리가 불투명한 AI이며 지식 생산을 독립적으로 수행하거나 핵심 공정에 실질 기여할 수 있고, 설명 불가능성은 단기간 내 완전 해소되기 어렵다.

  • 전제1: 과학적 지식의 인정 기준은 경험적 기초주의에 기반하며, 이해불능이지만 경험적으로 검증되는 산출물에 대해서도 기능적 수용이 정당화된다.
    • 소전제1: 지식은 진리값, 정당화 가능성, 기존 이론과의 정합성을 기준으로 분류 된다.
      • K1: 참이며 경험적으로 정당화 가능하고 기존 이론과 정합적인 지식.
      • K2: 참이며 경험적으로 정당화 가능하나 기존 이론과의 정합성이 불명하며 이해가 불가능한 지식.
        • K2a: K2 중 자체적인 이론적 확장이 가능한 명제 집합.
        • K2b: K2 중 더 이상의 확장이 불가능하고 고립된 경험적 명제 집합.
      • K3: 진리값과 정당화 가능성이 불명인 명제.
        • K3a: 경험적 검증이 불가능한 형이상학적 명제 집합.
        • K3b: AI 시스템의 내부 논리 체계 내에서 일관성을 갖는 명제 집합.
      • K4: 경험적으로 반증된 거짓 명제.
    • 소전제2: 과학의 우선 목표는 탐색과 발견을 통한 지식 확장이므로 경험적 기초주의의 합리성이 우선되어야 하며, 과학적 설명의 가치는 그 설명이 궁극적으로 가져오는 기능적 통제력에 종속된다.
      • 검증주의는 이론이 관찰적 명제로 이해되는지, 다시 이론적으로 환원되는지를 기준으로 둔다. 이에 따르면 경험적으로 검증가능한 K1, K2는 일차적으로 수용되고 K3, K4는 거부된다. 다만, 이론적 환원가능성에서 K2는 부분적으로만 수용한다. (Hannson, 2025)
      • 포퍼는 반증 가능성과 반증을 위한 독립적이고 가혹한 테스트에 대한 수용적 태도를 기준으로 둔다. 이에 따르면 K1, K2는 수용되고 K3, K4는 거부된다. 더욱이 K2가 테스트를 수용하여 가차없이 반박되거나 버티면 충분히 수용한다. (Hannson, 2025)
    • 소결론: 경험적 기초주의에 따르면 이해는 지식의 필수 조건이 아니며, AI가 경험적으로 검증가능한 지식을 생성할 수 있다면 이는 합리적인 지식 생산 기능을 수행하는 것으로 인정된다.
  • 전제2: AI가 검증가능한 지식을 생성하는 원리는 인간 과학자의 암묵지와 기능적으로 대응하며, 기능적 합리성에 따라 수용해야 한다.
    • 소전제1: AI의 K1/K2 생성 능력의 근거는 K3b이다.
      • K3b는 AI의 블랙박스적 설명 불가능성에서 비롯되며, 자체적인 내부 논리 체계를 통해 형성되므로 참거짓 여부가 불명이거나 판단이 곤란한, 일관성 중심의 형식 체계로 존재한다.
    • 소전제2: K3b는 명시적으로 설명되지 않으나, 유효한 행위를 가능하게 하는 과학자의 암묵지와 기능적으로 동일하다. (Lu, 2025)
      • 1) 두 체계 모두 명제적 설명 대신 수행 규칙과 절차를 중심으로 작동한다.
      • 2) 두 체계 모두 연습과 데이터 축적에 의해 성능이 향상되는 학습 의존적 성격을 지닌다.
      • 3) 두 체계 모두 성능 지표를 통해 검증되고 유지된다.
      • 4) 두 체계 모두 안전 규범과 탐색 제약 같은 명시적 규칙을 부여할 때 오작동을 줄이고 품질을 높인다.
      • 5) 두 체계 모두 프로토콜과 로그로 절차를 외부화할 때 전이 가능성과 재현성이 향상된다.
      • 6) 두 체계 모두 가설 생성과 실험 설계 지원 같은 지식 생성의 전단 기능을 제공한다.
    • 소전제3: 암묵지는 설명적 합리성보다는 기능적 합리성에 의해 수용되고 평가 받는다. (Malik, 2023)
      • 정상과학 시기의 과학자들은 패러다임 내의 다양한 암묵지를 학습하고 퍼즐풀이를 통해 평가한다.
    • 소결론: K3b는 지식 산출이라는 숙련된 기능의 근거이며 과학자와 기능적으로 동일하기 때문에 기능적 합리성으로 평가받고 수용되어야 한다.
  • 전제3: AI의 핵심 원리에 명시적 규칙이 결합하면 실질적인 지식 생성 능력이 강화된다.
    • 소전제1: 암묵지는 부분적으로 외부에 드러나고 명시화 될 수 있으며, 이는 과학자의 지식 생산 능력을 강화한다.

    • 소전제2: 인간의 기존 명시적 지식이 K2b과 결합될 때 그 지식의 유효성이 유지되며, AI의 오류 발생 위험을 통제하는 데 기여한다.
      • A-Lab(Autonomous Laboratory)은 열역학 법칙 등 명시적 과학 지식을 능동 학습 알고리즘에 통합하여 합성 경로를 최적화했다. (Szymanski, 2023)
      • 이 통합 과정은 암묵지를 명시화하여 숙련도를 높이는 인간 과학자의 방식과 기능적으로 동일하며, 탐색 공간 축소 및 수율 향상이라는 구체적 성과로 이어졌다.
    • 소결론: AI의 핵심 기능 원리에 대해서도 암묵지가 외부화된 규칙이 결합되면 지식 생산 능력이 강화된다.
  • 결론: 따라서, AI의 핵심 동작 원리는 기능적 합리성을 기반으로 지식 생성이라는 과학자의 핵심적인 지식 생성 기능을 상당 부분 대체할 수 있다.

예상반론과 재반박

  • 예상반론(연역적 논증의 타당성 공격): AI의 동작 원리는 인간의 심층적 이해나 윤리적 판단이 결여된 단순한 계산 규칙에 불과하며, 암묵지와 달리 신체화되지 않았으므로 진정한 합리성이 아니다. (Thompson, 2025)
    • 논리적 취약점 지적: 이해할 수 없는 지식에 대한 맹목적 수용은 오류 발생 시 책임성의 부재로 이어져 과학 공동체의 합리적 행위를 저해한다.
  • 재반박: AI의 동작 원리는 단순한 규칙이 아닌, 반복적 경험과 성공을 통해 시스템에 ‘기능적으로 체화’된 원리이며, 유연한 문제 해결 능력을 갖는다.
    • 맹목적 수용으로 인한 책임 문제는 일차적으로 회의적 검증주의를 지키지 않은 과학자들에게 책임을 한정할 수 있다. 이 과정은 머튼 규범의 제도화와 같이 규범적으로 보완되어야 한다.
    • AI의 목표는 심층적 이해가 아닌 유효한 결과를 산출하는 것이다. 경험적 참을 보장하는 지식 생산이라는 유용한 결과가 지속된다면, 비이해성이라는 위험에도 불구하고 과학 발전이라는 더 큰 목표를 위해 수용하는 것이 합리적 선택이다.

참고문헌

  • Hansson, S. O. (2025). Science and pseudo-science. In E. N. Zalta & U. Nodelman (Eds.), The Stanford Encyclopedia of Philosophy (Summer 2025 ed.). Metaphysics Research Lab, Stanford University. https://plato.stanford.edu/archives/sum2025/entries/pseudo-science/
  • Szymanski, N. J., et al. 2023. An autonomous laboratory for the accelerated synthesis of novel materials. Nature 624, 86–91.
  • Malik, A. (2023). Tacit knowing: What it is and why it matters. Episteme, 20(2), 349–366. https://doi.org/10.1017/epi.2021.41
  • Lu, J. (2025). Tacit knowledge in large language models (GMU Working Paper in Economics No. 25-25). SSRN. https://doi.org/10.2139/ssrn.5320627
  • Thompson, A. D. (n.d.). LifeArchitect.ai. Retrieved October 28, 2025, from https://lifearchitect.ai/
  • Merton, R. K. (1973). The normative structure of science. In N. W. Storer (Ed.), The sociology of science: Theoretical and empirical investigations (pp. 267–278). University of Chicago Press.

Table of contents