과제-04 5-6단락 논증에세이 013-22 장종윤


제목: 미래 세대의 참여권 보장을 위한 AI의 초기 제도적 설계가 필요하다.


I. 서론

AI의 급격한 성장에 따라 AI가 인간 사회와 어떤 관계를 맺는지 분명히 짚을 필요가 생겼다. 이에 대해 기술결정론과 기술의 사회적 구성(SCOT)의 오랜 논쟁이 시사하는 바가 크다. 기술결정론은 기술이 자율성을 지니고 스스로 발전하며, 사회에 일방적인 인과 효과를 낳는다고 본다. 반면, SCOT는 기술이 사회적 맥락 속에서 형성되고 제약된다고 본다. Bijker, Pinch(1987)는 기술 혁신을 우월성에 따른 선형 경로가 아니라 관련 사회 집단의 해석이 경쟁하는 다방향 경로로 설명했고, 이 과정에서 초기의 해석적 유연성과 기술과 사회의 공동 구성이 핵심이라고 주장했다. 다만 확산과 안정화가 진행되면 해석적 유연성은 줄어들고 기술 시스템의 관성이 커진다. Hughes(1987)의 기술 시스템 이론은 이 국면에서 모멘텀이 형성되어 연성 기술결정론적 제약이 강화될 수 있음을 보여준다. AI는 이 시간 구조를 빠르게 압축한다는 점에서 특이하다. 낮은 복제 비용, 소프트웨어적 성격, 클라우드 중심 배포가 결합하고 데이터 축적과 보완 생태계가 전환 비용을 키우면서 해석적 유연성이 초기 단계부터 급속히 좁아질 수 있다. Héder(2021)는 AI가 상당한 락인 잠재력을 지니며 비인간 행위자로서의 상대적 자율성이 강화될 수 있다고 지적했다. 즉, AI는 초기 단계에서 비정상적으로 빠른 속도로 대규모 채택 단계로 진입할 수 있으며, 일단 안정화되면 재설계 비용이 급등하여 사실상 수정이 어렵다. 본 논문은 다음의 주장을 옹호한다. 해석적 유연성이 조기에 축소되는 AI의 특성상 통제의 창은 길지 않으며, 따라서 미래 세대의 참여권 보장을 위해서는 초기의 설계 단계에서 위험을 완화하고 선택지를 보존하는 규칙을 신속히 제도화해야 한다. 이 규칙은 강하되 가역적이어야 하며 개방성과 상호운용성, 데이터 이동성을 중심에 두어야 한다. 이를 보이기 위해 본론에서는 첫째, AI에서 해석적 유연성이 왜 조기에 축소되는지 성능과 호환성, 규제의 수렴 메커니즘으로 설명한다. 둘째, 대규모 채택 단계에 들어선 이후에는 경제적 임계값과 제도적 임계값이 높아져, 미래 세대의 대안 담론 형성이 방해받음을 보인다. 셋째, 초기 강규제가 오히려 제도적 폐쇄를 앞당긴다는 우려를 검토하고 권리 보호와 가역성 설계를 통해 해석적 유연성의 수명을 연장할 수 있음을 논증한다.


II. 본론

1. AI의 해석적 유연성의 조기 축소

AI에서는 해석적 유연성이 성능과 호환성, 규정 준수의 세 축이 동시에 수렴하면서 이른 시기에 급격히 줄어든다. Bijker, Pinch에 따르면에 따르면, 서로 다른 사회 집단은 기술에 각각의 의미를 부여하는 해석적 유연성을 가진다. 기술의 초기 발전에는 해석적 유연성에 의해 사용자와 비사용자 간의 문제 제기와 담론 형성, 해결을 반복하며 다방향으로 뻗어 나간다. 해석적 유연성은 시간이 지남에 따라 기술 표준이 정립되고 확산하며 자연스럽게 축소되고 종결된다. 현재의 AI 담론도 마찬가지로 수많은 사회 집단들이 참여하며 해석적 유연성이 발휘된다. 그러나 AI는 소프트웨어 특성, 클라우드 기반 서비스 특성에 의해 담론의 형성과 해소가 급격히 가속화되며, 그 과정에서 기술의 공통분모가 돌출되어 기술 표준의 윤곽이 점차 정립되고 있다. 이 과정이 반복되면 다수 집단의 민주적 절차에도 불구하고 해석적 유연성이 조기에 축소된다. AI는 이미 기술 평가 기준, 호환성 기준, 제도적 기준의 차원에서 표준이 정립도어 가고 있다. 먼저 기술 평가 기준의 경우, 공개 벤치마크와 리더보드는 서로 다른 집단의 비교 언어를 통일해 성능 담론을 수렴시킨다. GLUE와 SuperGLUE, MMLU 같은 지표가 대표적이며 실제로 연구, 산업, 조달 커뮤니티가 이 지표를 공통 준거로 삼는다. (Wang et al., 2018; Wang et al., 2019; Hendrycks et al., 2021)) 다음으로 호환성의 수렴도 가속된다. 대규모 배포를 원하는 기관과 기업은 응용 프로그램 인터페이스(API), 데이터 포맷과 도구 체인의 일치를 요구한다. 스마트폰 운영체제 생태계에서 앱과 계정과 구독이 촘촘히 엮이며 규격 준수가 사실상의 전제가 된 사례나, 클라우드 생산성 도구에서 문서 포맷이 사실상 표준처럼 쓰여 대체 제품이라도 그 포맷을 그대로 쓰지 못하면 시장 진입이 어려운 사례를 떠올릴 수 있다. AI에서도 데이터 전처리 파이프라인과 추론 서버 구성, 소프트웨어 개발 키트가 묶음으로 굳어지면 다른 해석의 설계를 유지하는 데 드는 호환성 비용이 커지고 보완재가 많이 붙을수록 이 비용은 더 증가한다. 마지막으로 책임과 안전 기준이 문서화와 감사 가능성을 요구하면 승인 가능한 설계가 사실상 필터처럼 작동한다. NIST AI RMF(2023)는 맥락 분석과 기록, 테스트와 평가, 검증의 체계를 권고한다. 데이터와 파이프라인, 플러그인과 고객 관계 관리 시스템 같은 보완재는 한 경로로 쌓일수록 전환 비용과 학습 비용과 재인증 비용이 커지고, 플랫폼 운영사는 개발자 프로그램과 심사 가이드와 보안 기준으로 참여자를 자기 설계에 정렬시켜 의무적 통과 지점을 만든다. 그 결과 표준 경쟁의 초기 창은 짧아지고, 초기 단계에서 해석적 유연성은 눈에 띄게 축소되며, 대안적 해석은 남더라도 점점 모듈 내부의 미세한 차이로 흡수된다.


2. 대규모 채택 이후 미래 세대의 참여권과 전환 임계값

앞서 본 해석적 유연성의 조기 축소는 대규모 채택 단계로의 이행을 가속하고, 이 과정에서 경제적 비용과 조직적 비용, 제도적 비용이 함께 불어나 미래 세대의 대안 담론 형성 임계값이 높아진다. Hughes에 따르면 기술은 초기의 해석 경쟁을 지나 확산과 안정화를 거치며 모멘텀을 획득한다. 이 시기에는 사회적 이견이 존재하더라도 높은 전환 비용이 표준의 유지 방향으로 작동해 연성 기술결정론적 제약이 강화된다. 특히, AI의 상당한 락인 효과가 결합하면 데이터 규모의 경제와 네트워크 효과, 보완재 결속은 관성을 더욱 키운다. 데이터와 사용자가 모일수록 효용이 빠르게 상승하고, 그만큼 배제와 교체에는 더 큰 비용과 시간이 요구된다. 이 때문에 당대의 합의는 다음 세대의 선택 공간을 쉽게 잠글 수 있다. 이 점은 라카토시의 연구 프로그램 논의와도 유사한 결을 보인다. 기술 표준을 하나의 연구 프로그램에 비유하면, 핵심 설계 원리와 인터페이스는 하드 코어처럼 가운데 자리를 지키고, 현장에서 발견되는 문제와 반례는 보조 가설과 운영 지침, 평가 절차 같은 주변 요소를 손보는 방식으로 흡수된다. 기술 담론은 더 이상 중심부 자체의 수정을 요구하기 어렵고, 오히려 중심부에 정합되도록 주변부를 고치라는 요구로 전환된다. 결과적으로 모멘텀을 얻은 기술 시스템은 제도와 조직과 인식의 층위에서 되돌리기 어려운 흐름을 형성하고, 당대의 민주적 절차를 따른 합의가 미래 세대의 발언 기회와 전환 가능성을 과도하게 제한할 위험이 생긴다. 따라서 지금의 합의는 미래의 선택권을 남기는 방향으로 조정되어야 한다. 구체적으로는 상호운용성과 데이터 이동성, 전환권을 권리 수준으로 배치해 가역성을 높이고, 규정 준수의 방법을 소수가 독점하지 못하도록 공개 참조 구현과 공정한 시험 도구를 마련해야 한다. 이렇게 하면 전환 비용 급등이 참여권을 약화하는 경향을 가지더라도 제도 설계가 그 경향을 상쇄하여 다음 세대가 논의에 실제로 진입할 통로를 남길 수 있다.


3. 반론: 초기 규제의 민주적 절차 훼손 우려에 대한 대응

초기 강한 규칙은 숙의와 참여를 약화하고 혁신을 위축시키며 특정 이해관계에 의해 포획되어 해석적 유연성을 스스로 줄인다는 우려가 있다. 즉, 초기 규칙 설계가 본론 1에서 제시한 제도적 폐쇄로 작용해 의도된 방향으로 해석적 유연성을 축소시킨다고 주장할 수 있다. 예컨대, 높은 수준의 사전 인증과 문서화 요구가 고정비를 키워 후발 기업과 소규모 개발자를 시장 밖으로 밀어낸다면 결과적으로 대기업 위주의 제도적 폐쇄가 앞당겨질 위험이 있다. 실제 현장에서는 인증 준비 비용과 반복 평가 비용이 최소 진입 비용처럼 작동해 대안적 설계의 실험을 어렵게 만드는 경우가 반복되었다. 그러나 여기서 말하는 초기 규칙의 목표는 기술을 특정 해석으로 밀어붙이는 것이 아니라 권리와 안전의 최저선을 세우고 선택지 폐쇄 행동을 억제하는 데 있다. 이는 기술이 경로 의존에 의해 비가역적인 변화를 겪는 것을 최대한 방지하고, 적은 전환 비용으로도 대안 선택지를 취하는 방법을 제공할 최소한의 울타리이다. 기술의 핵심 설계 원리에 대한 직접적 제재는 제도적 폐쇄의 위험을 높일 수 있지만, 기술 주변부에 대한 가역적 제재는 핵심 기술과 사회 및 그 접합부의 과도한 공진화 가속을 완화해 해석적 유연성의 조기 축소를 늦춘다. 구체적으로는 상호운용성 의무, 데이터 이동성과 서비스 전환권 보장이 가능하다. 상호운용성 의무는 폐쇄적인 연결 규격을 통한 암묵적 종속을 약화하고 보완재 사업자가 한 공급자에만 매이지 않도록 만든다. 데이터 이동성과 서비스 전환권을 보장하면 사용자는 다른 공급자를 실제로 시험할 수 있고 공급자는 전환 비용을 낮추는 설계를 우선시하게 된다. 공공 조달에서 설명 가능성, 기록, 독립 평가를 요구하면 불투명한 설계가 표준으로 굳는 속도가 늦춰진다. 제도적 폐쇄 위험을 줄이기 위해 규모별 차등 적용과 결과 중심 요건을 채택하고, 누구나 활용할 수 있는 참조 구현과 공개 시험 도구를 제공해 규정 준수의 방법이 소수에게 독점되지 않도록 해야 한다. 유럽연합의 AI 법 2024는 위험 기반 접근에 따라 평가와 문서화를 제도화해 조달과 인증의 언어를 정렬하려는 시도로 볼 수 있다. 따라서 본문에서 제시하는 초기의 강하지만 가역적인 설계는 제도적 폐쇄를 앞당기는 모순이 아니라 조기 축소의 속도를 늦추고, 이후 단계에서 대안이 다시 떠오를 수 있는 임계값을 낮춘다. 권리 보호의 최저선과 상호운용성과 전환권은 단기적으로는 질서를 만들고 장기적으로는 선택지를 남겨 두며 이 점에서 초기 개입의 정당성이 확립된다.


III. 결론

이 글은 SCOT가 제시한 초기의 해석적 유연성과 Hughes가 강조한 모멘텀의 시간 구조를 AI에 맞추어 재구성했다. AI에서는 성능 지표의 빠른 수렴, API와 포맷, 도구 체인의 호환성 요구, 책임과 안전 기준의 정착이 동시에 진행되며 해석적 유연성이 초기 단계에서 조기에 축소된다. 그 뒤에는 데이터와 파이프라인과 보완재가 누적되어 전환 비용이 기술, 조직, 제도 전 영역에서 급격히 높아진다. 문제 제기가 있어도 대안이 임계값을 넘기기 어렵고 사후 개입은 비용이 많이 들고 유연성이 낮다. 반대로 통제의 창이 열려 있을 때 설계 단계에서 개입하면 적은 비용으로 선택지를 보존할 수 있다. 따라서 AI 거버넌스는 미래 세대의 참여권 보장을 위해 초기부터 개방성, 상호운용성, 데이터 이동성을 기본 원칙으로 삼아야 한다. 전환권과 접근권을 명시해 사용자가 공급자를 바꿀 수 있는 실제 수단을 보장하고 로그, 설명, 독립 평가를 통해 책임의 최저선을 세워야 한다. 이 설계는 특정 해석을 강제하는 장치가 아니라 다양한 해석이 더 오래 경쟁할 수 있도록 시간을 벌어 주는 장치다. 제도적 폐쇄에 대한 민주적 절차 훼손 우려는 타당하다. 그러나 기술의 핵심 설계 원리에 대한 직접적 제재와 주변부에 대한 가역적 제재는 성격이 다르다. 규모별 차등 적용과 결과 중심 요건으로 위험은 완화하고 규제 포획 위험은 공공 조달의 공개성 강화와 참조 구현 제공으로 줄일 수 있다. 민주적 절차는 현재 세대만이 아니라 미래 세대의 참여까지 포함해야 한다. 이 관점에서 보면 초기 제약의 부재야말로 그 참여를 봉쇄하는 민주적 절차의 훼손이다. 이 논의의 범위는 상업적 배포가 이루어지는 일반 목적 AI 서비스에 주로 해당하며 특수 목적 환경에서는 속도와 임계값이 다르게 나타날 수 있다. 그럼에도 해석적 유연성의 조기 축소와 모멘텀 이후 전환 비용 급등이라는 기본 구조는 넓은 영역에서 정합적이다. 남은 과제는 조기 축소의 속도를 계량할 수 있는 지표를 정립하고 상호운용성 의무와 데이터 이동성 권리가 실제로 임계값을 얼마나 낮추는지 비교 평가하는 일이다. 강하지만 가역적인 초기 설계는 장기적으로 자유와 후생을 지키는 비용 대비 효과가 높은 선택이며 AI와 사회의 공동 구성을 더 잘 작동하게 만드는 현실적인 해법이다.


참고문헌 (APA 7판 스타일)

  • Pinch, T. J., & Bijker, W. E. (1987). The social construction of facts and artifacts: Or how the sociology of science and the sociology of technology might benefit each other. In W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social Construction of Technological Systems (pp. 17–50). MIT Press.
  • Hughes, T. P. (1987). The evolution of large technological systems. In W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social Construction of Technological Systems (pp. 51–82). MIT Press.
  • Héder, M. (2021). AI and the resurrection of technological determinism. Információs Társadalom, 21(2), 119–130. DOI: 10.22503/inftars.XXI.2021.2.8.
  • Farrell, J., & Klemperer, P. (2007). Coordination and lock-in: Competition with switching costs and network effects. In M. Armstrong & R. Porter (Eds.), Handbook of Industrial Organization (Vol. 3, pp. 1967–2072). Elsevier. DOI: 10.1016/S1573-448X(06)03031-7.
  • Wang, A., Singh, A., Michael, J., Hill, F., Levy, O., & Bowman, S. R. (2018). GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop: BlackboxNLP (pp. 353–355). Association for Computational Linguistics.
  • Wang, A., Pruksachatkun, Y., Nangia, N., Singh, A., Michael, J., Hill, F., Levy, O., & Bowman, S. R. (2019). SuperGLUE: A stickier benchmark for general-purpose language understanding systems. In Advances in Neural Information Processing Systems, 32. DOI: 10.5555/3454287.3454581.
  • National Institute of Standards and Technology. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0) (NIST AI 100-1). U.S. Department of Commerce.
  • European Parliament and Council. (2024). Artificial Intelligence Act. Official Journal of the European Union.
  • Hendrycks, D., et al. (2021). Measuring Massive Multitask Language Understanding. ICLR.


Table of contents