트럼프 행정부, Anthropic 'Claude Mythos' 출시 보류 발표 후 입장 선회… Google DeepMind·Microsoft·xAI와 정부 안전 점검 자발 합의, CAISI 출범 후 약 40건 평가·세이프가드 축소·제거 모델 접근
이번 주 Trump 행정부가 입장을 뒤집어 Google DeepMind, Microsoft, xAI 세 곳과 합의를 체결하고, 이들 기업의 frontier AI 모델에 대한 정부 안전 점검을 출시 전후로 실시하기로 했다. 합의는 Anthropic이 자사의 최신 Claude Mythos 모델 출시를 보류하겠다고 발표한 직후 이뤄졌다.
이전까지 도널드 트럼프는 Biden 시대 정책을 단호히 외면하며 자발적 안전 점검의 필요성을 '고삐 풀린 혁신을 가로막는 과잉 규제'로 일축해 왔다. 취임 직후에는 미국 AI Safety Institute를 Center for AI Standards and Innovation(CAISI)으로 리브랜딩하면서 명칭에서 'safety'를 빼는 등 조 바이든을 겨냥한 노골적인 견제 조치도 취했다.
분위기를 바꾼 결정적 계기는 Anthropic의 'Claude Mythos' 출시 보류 결정이었다. Anthropic은 악의적 행위자가 모델의 고도화된 사이버보안 능력을 악용할 가능성을 우려해 출시가 너무 위험하다고 판단했다. 이 발표 직후 트럼프 대통령이 갑자기 AI 안전성에 관심을 갖게 됐다고 Fortune은 전했다.
백악관 국가경제위원회(NEC) 디렉터 Kevin Hassett에 따르면, 트럼프는 곧 첨단 AI 시스템에 대해 출시 전 정부 테스트를 의무화하는 행정명령을 발동할 가능성이 있다. 이번 주 체결된 자발 합의는 향후 행정명령으로 이어질 가능성이 있는 정책 전환의 신호로 읽힌다.
CAISI는 보도자료에서 Google·Microsoft·xAI가 서명한 자발 합의가 Biden 정책 위에 'build on'한 것임을 인정했다. CAISI 디렉터 Chris Fall은 새 파트너십을 환영하면서도 Mythos를 직접 언급하지는 않았으며, '확대된 산업 협력'이 CAISI가 '결정적 시점에 공익을 위한' 업무를 확장하는 데 도움이 될 것이라고 약속했다. Fall은 또 '독립적이고 엄밀한 측정 과학은 frontier AI와 그 국가안보적 함의를 이해하는 데 필수적'이라고 말했다.
현재까지 CAISI는 아직 공식 출시되지 않은 frontier 모델을 포함해 약 40건의 평가를 완료했다고 밝혔다. 테스트 과정에서 CAISI는 빈번히 'reduced or removed safeguards' 상태의 모델에 접근하고 있으며, 이를 통해 국가안보 관련 능력과 위험을 보다 철저하게 평가할 수 있다고 설명했다.
CAISI는 평가를 통해 정부 또한 모델 능력을 더 잘 이해하게 될 것이라고 주장했다. 평가자가 정부 차원에서 부상하는 최상위 국가안보 우려를 이해할 수 있도록, AI 국가안보 우려에 초점을 맞춘 'group of interagency experts' 태스크포스도 구성됐다고 CAISI는 덧붙였다.