캘리포니아 상원의원 스콧 위너, AI 안전성 공개 의무화 법안 재추진
캘리포니아 상원의원 스콧 위너가 빅테크 기업들에게 AI 시스템의 위험성을 공개하도록 강제하는 새로운 법안을 추진하고 있다. 이번이 두 번째 시도다. 2024년 그가 발의한 AI 안전 법안 SB 1047은 실리콘밸리의 강력한 반대에 부딪혀 개빈 뉴섬 주지사의 거부권으로 무산된 바 있다. 당시 업계는 이 법안이 미국의 AI 혁신을 저해할 것이라며 격렬히 반발했고, AI 해커하우스에서는 "거부권 축하 파티"까지 열렸다.
하지만 이번에 제출된 SB 53 법안은 상황이 다르다. 실리콘밸리가 전면전을 벌이는 대신 상당수 기업들이 우호적인 반응을 보이고 있다. AI 안전 연구로 유명한 앤스로픽은 이달 초 법안을 공식 지지했으며, 메타도 "혁신과 안전장치의 균형을 맞춘 규제를 지지한다"며 SB 53이 올바른 방향이라고 밝혔다. 전 백악관 AI 정책 자문관 딘 볼은 이 법안이 "합리적인 목소리의 승리"라며 뉴섬 주지사가 서명할 가능성이 높다고 전망했다.
SB 53은 OpenAI, 앤스로픽, xAI, 구글 같은 대형 AI 기업들에게 미국 최초로 안전성 보고 의무를 부과한다. 현재 이들 기업은 자사 AI 시스템을 어떻게 테스트하는지 공개할 법적 의무가 전혀 없다. 일부 AI 연구소들이 자발적으로 생화학 무기 제작 가능성 같은 위험에 대한 안전 보고서를 발표하기는 하지만, 이는 순전히 자율적이며 일관성도 없다. 법안은 연간 매출 5억 달러 이상의 AI 기업에 한해 자사의 가장 강력한 AI 모델에 대한 안전 보고서 공개를 의무화한다.
법안의 초점은 AI가 야기할 수 있는 최악의 위험들, 즉 인명 피해, 사이버 공격, 화학무기 개발 기여 가능성 등에 맞춰져 있다. SB 1047이 AI 시스템이 초래한 피해에 대해 기업에 법적 책임을 물었던 것과 달리, SB 53은 자체 보고와 투명성 확보에 중점을 둔다. 또한 스타트업이 아닌 세계 최대 규모 기술 기업들에게만 적용된다는 점에서 범위가 좁다. 이런 온건한 접근이 업계의 반발을 줄인 것으로 보인다.
법안은 안전성 보고 외에도 AI 연구소 직원들이 안전 우려사항을 정부 관계자에게 보고할 수 있는 보호 채널을 마련하고, 빅테크를 넘어선 AI 연구 자원을 제공하기 위한 주정부 운영 클라우드 컴퓨팅 클러스터 CalCompute 설치를 포함한다. 뉴섬 주지사는 현재 AI 컴패니언의 참여 최적화 기법 같은 다른 유형의 AI 위험을 다루는 여러 법안들도 함께 검토 중이다.
그러나 여전히 반대 목소리도 존재한다. OpenAI는 최근 뉴섬 주지사에게 보낸 서한에서 AI 연구소들은 연방 기준만 준수하면 된다고 주장했다. 벤처캐피탈 회사 앤드리슨 호로위츠는 블로그 글을 통해 캘리포니아의 일부 법안들이 주간 상거래를 부당하게 제한하는 것을 금지하는 헌법의 휴면 통상 조항을 위반할 수 있다고 넌지시 경고했다. 기술 업계 일각에서는 여전히 AI 규제는 주정부가 아닌 연방정부가 담당해야 한다고 믿고 있다. SB 53의 최종 운명은 앞으로 몇 주 내에 주지사의 서명 또는 거부권으로 결정될 전망이다.