(개선) 과제-04 5-6단락 논증에세이 013-22 장종윤
제목: 해석적 유연성의 조기 축소와 AI 거버넌스의 시간 문제
I. 서론
AI의 급격한 성장에 따라 AI가 인간 사회와 어떤 관계를 맺는지 분명히 짚을 필요가 생겼다. 이에 대해 기술결정론과 기술의 사회적 구성(SCOT)의 오랜 논쟁이 시사하는 바가 크다. 기술결정론은 기술이 자율성을 지니고 스스로 발전하며 사회에 일방적인 인과 효과를 낳는다고 본다. 반면, SCOT는 기술이 사회적 맥락 속에서 형성되고 제약된다고 본다. Bijker, Pinch(1987)는 기술 혁신을 우월성에 따른 선형 경로가 아니라 관련 사회 집단의 해석이 경쟁하는 다방향 경로로 설명했고, 이 과정에서 초기의 해석적 유연성과 기술과 사회의 공동 구성이 핵심이라고 주장했다. 다만, 확산과 안정화가 진행되면 해석적 유연성은 줄어들고 기술 시스템의 관성이 커진다. Hughes(1987)의 기술 시스템 이론은 이 국면에서 모멘텀이 형성되어 연성 기술결정론적 제약이 강화될 수 있음을 보여준다. 한편, Héder(2021)는 AI가 상당한 락인 잠재력을 지니며 비인간 행위자로서의 상대적 자율성이 강화될 수 있다고 지적했다. 요컨대, AI는 초기 단계부터 빠르게 대규모 채택 국면에 진입하고, 일단 안정화된 이후에는 재설계 비용이 급등하는 경향이 있다는 것이다. 이러한 맥락에서 본 논문이 답하고자 하는 논쟁은 다음과 같다. AI 규제에서 민주적 절차의 합리성과, 시급성의 트레이드오프를 어떻게 우선순위화할 것인가. 이는 일반적으로는 다양한 사회 집단이 참여하는 민주적 절차가 당연한 전제가 되어야 하지만, 충분한 타협은 시급성을 만족하지 못하기에 트레이드 오프 관계가 된다. 본 논문은 다음의 논제를 옹호한다. AI는 해석적 유연성이 초기에 빠르게 축소되고 이후 재설계 비용이 민주적 시간과 자원 제약 하에서 비현실적으로 높아지기 때문에, 지금 개입하되 상호운용성, 데이터 이동성, 전환권 같은 가역적 장치에 초점을 둔 초기 설계를 채택해야 한다. 이를 보이기 위해 본론에서는 첫째, AI에서 해석적 유연성이 왜 조기에 축소되는지 성능, 호환, 규제의 수렴 메커니즘으로 설명한다. 둘째, 해석적 유연성이 축소된 뒤에는 사회적 재설계 비용이 경제적, 조직적, 규범적 층위에서 급격히 높아짐을 보인다. 셋째, 초기 강한 규제가 오히려 제도적 폐쇄를 앞당긴다는 우려를 검토하고, 권리 보호와 가역성 설계를 통해 해석적 유연성의 수명을 연장할 수 있음을 논증한다.
II. 본론
1. AI 해석적 유연성의 조기 축소
AI에는 담론의 급격한 제기와 해소로 인해 해석적 유연성이 조기에 축소되는 경향이 있다. 여기서 해석적 유연성이란 주어진 시점에 사회적으로 실행 가능하고 정당화 가능한 의미 설계들의 집합을 의미한다. 기술의 초기에는 관련 사회 집단들이 서로 다른 문제 정의와 해결책을 제시하며 다방향으로 분기한다. 시간이 지나 표준이 정립되고 확산되면 실질적으로 시도 가능한 해석들의 집합은 줄어들어 해석적 유연성이 축소된다. AI에서도 이 일반적 과정이 관찰되는데, AI는 소프트웨어와 클라우드 기반 서비스라는 특성 때문에 담론의 제기와 해소가 비정상적으로 빠르다는 점에서 차별화된다. 온라인 환경은 대규모의 논의와 실험을 동시다발적으로 수용하고, 배포와 업데이트 주기는 짧아졌으며, 그 결과 공통 분모가 빠르게 도출되고 표준의 윤곽이 일찍 형성되는 경향이 있다. 그리고 이 과정이 반복되면, 새로운 담론이 제기되더라도 이미 해결된 담론의 틀에 맞추어 해체되고 재조립되어 해결된다. 이로써 가능한 의미 집합은 한정되며, 담론의 해결에 따라 집합이 축소되고, 경쟁에 의해 집합 간 병합이 이루어지며, 따라서 해석적 유연성은 조기에 축소된다. 이때 성능, 호환, 제도라는 세 축이 허용된 설계 공간을 함께 절단한다. 성능 축에서는 공개 벤치마크와 리더보드가 비교 언어를 통일해 성능 담론을 수렴시킨다. 예를 들어 GLUE, SuperGLUE, MMLU와 같은 지표가 대표적으로 논의되며, 이를 따르지 않는 설계는 자연스럽게 주변으로 밀려난다. 호환 축에서는 데이터 전처리 파이프라인, 모델 배포와 추론 서버 구성, 소프트웨어 개발 키트 등 보완재와 툴체인이 빠르게 수렴하면서 생태계 접속 규칙을 사실상 형성한다. 제도 축에서는 책임과 안전 기준이 기본선으로 정착하며 가능한 설계의 범위를 한정한다. NIST AI RMF가 권고하는 맥락 분석, 기록, 테스트와 평가, 검증 체계는 그 한 예다. 이 세 축의 교집합이 곧 실질적인 선택지이며, 교집합 바깥은 자원과 시간, 규범 비용이 급상승해 현실적으로 시도되기 어렵다. 따라서 AI의 의미 있게 경쟁 가능한 해석들의 집합은 조기에 축소되고, 대규모 채택 국면으로 이행된다.
2. 해석적 유연성 축소 이후 재설계 비용의 급등
해석적 유연성이 축소된 이후에는 사회적 재설계 비용이 급격히 상승한다. Hughes에 따르면 기술은 확산과 안정화를 거치며 모멘텀을 획득하는데, 이 국면에서는 높은 전환 비용이 표준을 유지하는 장벽으로 작동한다. AI는 여기에 데이터 규모의 경제, 네트워크 효과, 보완재 결속이라는 요인이 겹친다. 사용자가 늘고 데이터가 축적될수록 효용은 높아지고 평균 비용은 낮아진다. 동시에 생태계가 엮어 놓은 파이프라인과 도구, 조직의 절차와 규범이 중층적으로 결합해 교체 비용을 끌어올린다. 그 결과 표준을 바꾸거나 설계 원리를 재구성하려면 경제적 비용과 조직적 조정 비용, 규범적 정당화 비용이 함께 상승한다. 이에 더해 담론의 측면에서도 전환 비용은 커진다. 기술 표준을 라카토시의 연구 프로그램에 비유하면 핵심 설계 원리와 인터페이스는 하드 코어처럼 중심을 지키고, 현장에서 발견되는 문제와 반례는 보조 가설, 운영 지침, 평가 절차 같은 주변 요소를 손보는 방식으로 흡수된다. 즉, 담론은 중심부 자체의 수정보다 주변을 중심에 정합되도록 고치는 방향으로 유도되며, 중심을 다시 열어젖힐 임계값은 높아진다. 즉, 모멘텀 이후의 표준은 핵심을 바꾸기보다 주변을 고치라는 압력을 제도화하고, 전환 비용은 경제적, 조직적, 규범적 층위에서 동시 상승한다. 마지막으로 이러한 경제적, 사회적 전환 비용들은 민주적 시간과 비용 제약 아래에서 현실적으로 전환 불가능한 정도까지 상승한다. 결국 AI에 대한 규제는 충분한 논의를 전제로 하는 민주적 합리성보다는 시간 제약을 전제로 한 초기 개입이 요구된다.
3. 가역적 규제의 정당성
초기 강한 규제는 숙의와 참여를 약화하고 혁신을 위축시키며 특정 이해관계에 의해 포획되어 해석적 유연성을 스스로 줄인다는 우려가 있다. 이는 AI의 해석적 유연성의 조기 축소에서 제시된 제도적 축과 같은 맥락으로 상황을 악화시킨다. 이러한 시나리오에서는 시급성을 우선순위로 한 규제가 민주적 절차의 합리성을 전혀 지키지 못하며 발생한다. 그러므로 이번에는 보장해야 하는 민주적 절차의 합리성의 최소 수준을 확인해야 할 필요가 있다. 이에 대해, 기술의 주변부에 대한 가역적인 규제는 수정 가능성을 보장하며 미래 담론 제기의 임계값을 낮추고, 해석적 유연성의 축소를 완화하는 중요한 필요 조건임을 밝힌다. 이러한 규제가 가능한 이유는 기술의 핵심 설계 원리에 대한 직접적 규제와 기술 주변부에 대한 가역적 규제는 다르게 작동하기 때문이다. 기술의 핵심 설계 원리에 대한 규제는 겉으로는 가능한 기술 형태에 제약을 주어 의미 집단 축소를 억제하는 것처럼 보인다. 그러나 이러한 핵심 원리에 대한 규제는 기술과 사회의 연결을 긴밀하게 만들어서 특정 방향으로의 급격한 공진화를 방지하지 못한다. 이는 기술 주변부에 대한 가역적 규제가 기술의 핵심 설계 원리와 사회 그리고 그 접목부의 급격한 공진화를 억제하여 해석적 유연성의 조기 축소를 완화한다는 점과 대비된다. 구체적으로 상호운용성 의무는 폐쇄적 연결 규격을 통한 종속을 약화하고, 보완재 사업자가 특정 공급자에만 매이지 않도록 만든다. 데이터 이동성과 전환권을 보장하면 사용자는 다른 공급자를 실제로 시험할 수 있고, 공급자는 전환 비용을 낮추는 설계를 우선시하게 된다. 공공 조달에서 설명 가능성과 기록, 독립 평가를 요구하면 불투명한 설계가 표준으로 굳는 속도를 늦출 수 있다. 제도적 축소의 위험은 규모별 차등 적용과 결과 중심 요건으로 줄이고, 누구나 활용할 수 있는 참조 구현과 공개 시험 도구를 제공해 규정 준수의 방법이 소수에게 독점되지 않게 할 수 있다. 그리고 이러한 장치는 단기적으로 질서를 만들고, 장기적으로 해석 간 경쟁의 시간을 벌어 민주적 재심을 가능하게 만들기에 필수적이다. 수정 가능한 설계로 미래 담론의 합리성을 인정하는 것이 민주적 정당성을 포함하기 때문이다. 민주적 정당성은 현재 합의뿐 아니라 재심 가능성이라는 선택 가치를 포함할 때 완성되며, 가역적 설계는 바로 그 가치를 제도화한다. 따라서 본문에서 제시하는 초기의 강하지만 가역적인 설계는 제도적 폐쇄를 앞당기는 모순이 아니라 조기 축소의 속도를 늦추고, 이후 단계에서 대안이 다시 떠오를 수 있는 임계값을 낮추는 정당한 개입이다.
III. 결론
이 글은 SCOT가 제시한 초기의 해석적 유연성과 Hughes가 강조한 모멘텀의 시간 구조를 AI에 맞추어 재구성했다. AI에서는 성능, 호환, 제도 세 축에서 수렴이 동시에 진행되며 해석적 유연성이 초기 단계에서 빠르게 축소되는 경향이 있다. 그 뒤에는 데이터와 파이프라인, 보완재가 누적되어 전환 비용이 경제적, 조직적, 규범적 측면에서 급격히 높아진다. 이때 사후 개입은 비용이 크고 유연성이 낮다. 반대로 통제의 창이 열려 있을 때 설계 단계에서 개입하면 적은 비용으로 선택지를 보존할 수 있다. 따라서 AI 거버넌스는 초기부터 개방성, 상호운용성, 데이터 이동성, 전환권을 기본 원칙으로 삼는 가역적 설계를 채택해야 한다. 이는 특정 해석을 강제하는 장치가 아니라 다양한 해석이 더 오래 경쟁할 수 있도록 시간을 벌어 주는 장치다. 초기 규제에 대한 민주적 절차에 대한 우려는 중요하지만, 기술의 핵심 설계 원리에 대한 직접 제재와 운용 계층에 대한 가역적 제재는 성격이 다르다. 전자는 제도적 폐쇄를 초래하기 쉽지만, 후자는 전환과 비교의 비용을 낮추어 해석적 유연성의 수명을 연장한다. 민주적 정당성은 현재의 참여뿐 아니라 재심과 수정의 가능성을 제도적으로 보장할 때 충족된다. 이 관점에서 보면 초기 제약의 부재야말로 미래의 참여를 봉쇄하는 민주적 절차의 훼손이 될 수 있다. 본 논의는 주로 상업적 배포가 이루어지는 일반 목적 AI 서비스에 해당하며 특수 목적 환경에서는 속도와 임계값이 다르게 나타날 수 있다. 그럼에도 해석적 유연성의 조기 축소와 모멘텀 이후 전환 비용 급등이라는 기본 구조는 넓은 영역에서 정합적으로 관찰된다. 이에 따른 결론은 간단하다. 지금 개입하되, 잠그지 말고 열어두는 방식으로 개입하라. 앞으로의 AI 발전에 있어 본 논문이 하나의 나침반 역할이 될 것이라 기대한다.
참고문헌 (APA 7판 스타일)
- Pinch, T. J., & Bijker, W. E. (1987). The social construction of facts and artifacts: Or how the sociology of science and the sociology of technology might benefit each other. In W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social Construction of Technological Systems (pp. 17–50). MIT Press.
- Hughes, T. P. (1987). The evolution of large technological systems. In W. E. Bijker, T. P. Hughes, & T. J. Pinch (Eds.), The Social Construction of Technological Systems (pp. 51–82). MIT Press.
- Héder, M. (2021). AI and the resurrection of technological determinism. Információs Társadalom, 21(2), 119–130. DOI: 10.22503/inftars.XXI.2021.2.8.
- Farrell, J., & Klemperer, P. (2007). Coordination and lock-in: Competition with switching costs and network effects. In M. Armstrong & R. Porter (Eds.), Handbook of Industrial Organization (Vol. 3, pp. 1967–2072). Elsevier. DOI: 10.1016/S1573-448X(06)03031-7.
- National Institute of Standards and Technology. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0) (NIST AI 100-1). U.S. Department of Commerce.