AI 기업과 정부 협력, 명확한 프레임워크 없어 국가안보 거버넌스 공백 우려
OpenAI와 앤트로픽을 비롯한 주요 AI 기업들이 소비자 대상 스타트업에서 국가 안보 인프라의 핵심 요소로 빠르게 전환되고 있지만, 이러한 역할 변화에 대한 준비는 전혀 이루어지지 않은 것으로 나타났다. 특히 민간 AI 기업과 미국 정부 간의 협력 방식을 규율할 일관된 프레임워크가 존재하지 않아, 양측 모두 불확실성에 직면하고 있다는 우려가 제기되고 있다.
현재 가장 큰 문제는 국방부의 계약 요구사항과 AI 기업들의 상업적 비즈니스 모델 간의 충돌이다. 국방 계약은 엄격한 보안 요구사항, 정부의 통제권, 그리고 명확한 책임 소재를 전제로 하지만, OpenAI 같은 기업들은 빠른 혁신, 상업적 유연성, 그리고 운영 독립성을 기반으로 성장해왔다. 이 두 가지 접근 방식 사이의 간극을 메울 정책적 가이드라인이 부재한 상황이다.
헤그세스 국방장관의 관여가 시사하듯, 군사 및 안보 분야에서 AI 역량에 대한 관심은 급증하고 있다. 그러나 AI 기업들이 정부 기관과 협력할 때 운영상 독립성을 어느 정도까지 유지할 수 있는지, 정부가 어느 수준까지 통제권을 행사할 수 있는지에 대한 명확한 기준이 없어 혼란이 가중되고 있다. 이는 단순히 계약 조건의 문제를 넘어서 국가 안보 기술 개발의 방향성과 투명성에 관한 근본적인 질문을 제기한다.
이러한 정책 공백은 산업계와 정책 입안자 모두에게 불확실성을 초래하고 있다. AI 기업들은 정부 계약이 장기적으로 자사의 상업적 경쟁력과 기술 개발 자율성에 어떤 영향을 미칠지 예측하기 어려우며, 정부 기관들은 민간 기업에 대한 의존도가 높아지면서도 이들을 효과적으로 관리할 수단이 부족한 상황이다. 특히 AI 모델의 성능과 안전성이 국가 안보에 직접적인 영향을 미칠 수 있다는 점에서, 이러한 거버넌스 공백은 심각한 리스크 요인으로 작용할 수 있다.
AI가 점점 더 중요한 국가 기반시설로 자리잡아가는 상황에서, 정부 기관과 AI 기업 간의 관계를 규율할 명확한 프로토콜의 부재는 국가 안보 기술 개발에 있어 중대한 거버넌스 격차를 남기고 있다. 단순히 계약 조건을 넘어서, 기술적 투명성, 안전성 검증, 데이터 거버넌스, 그리고 윤리적 사용 기준에 대한 포괄적인 프레임워크가 시급히 마련되어야 한다는 목소리가 높아지고 있다.
전문가들은 이 문제가 미국만의 이슈가 아니라 전 세계적으로 AI 기술이 국가 안보와 결합되면서 나타나는 보편적 과제라고 지적한다. 민간 혁신의 역동성을 유지하면서도 국가 안보의 요구사항을 충족시킬 수 있는 새로운 협력 모델의 개발이 필요하며, 이는 기술 정책, 국방 전략, 그리고 산업 규제를 아우르는 다층적 접근을 요구한다. AI 기업과 정부 간의 관계 설정은 향후 수십 년간 기술 패권 경쟁의 핵심 변수가 될 것으로 전망된다.