오픈AI, 안전한 AI 개발 담당 '미션 얼라인먼트' 팀 해체
오픈AI가 안전하고 신뢰할 수 있는 AI 개발을 담당하던 핵심 조직인 '미션 얼라인먼트(Mission Alignment)' 팀을 공식 해체했다. 이 팀은 AI 시스템이 인류의 가치와 목표에 부합하도록 개발되는지 감독하고, 잠재적 위험을 사전에 식별하는 역할을 수행해왔다.
팀 해체와 함께 리더는 '수석 미래학자(Chief Futurist)'라는 새로운 직책으로 재배치되었으며, 나머지 팀원들은 회사 내 다른 부서로 분산 배치되었다. 오픈AI 측은 조직 재편의 일환이라고 설명했지만, 구체적인 안전 연구 기능이 어떻게 유지될지에 대한 명확한 설명은 제공하지 않았다.
이번 조치는 AI 업계 전반에서 혁신 속도와 안전성 연구 간의 균형에 대한 논쟁이 가열되는 시점에 이루어졌다. 특히 오픈AI는 구글, 앤스로픽 등 경쟁사들과의 치열한 경쟁 속에서 제품 출시 압박을 받고 있는 상황이다.
업계 전문가들은 이번 팀 해체가 오픈AI의 책임 있는 AI 개발에 대한 의지를 약화시킬 수 있다고 우려하고 있다. 과거 오픈AI는 안전성을 최우선 가치로 내세웠지만, 최근 몇 년간 상업적 성공에 더 집중하는 모습을 보여왔다는 지적이다.
AI 윤리 연구자들은 대규모 언어 모델과 범용 인공지능(AGI) 개발이 가속화되는 상황에서 안전 연구 조직의 축소는 위험한 선례가 될 수 있다고 경고한다. 특히 미션 얼라인먼트와 같은 전담 팀이 없다면, 기술 개발 속도에 맞춰 적절한 안전장치를 마련하기 어려울 수 있다.
한편 오픈AI는 지난해에도 초인공지능 정렬(Superalignment) 팀을 해체한 바 있으며, 당시에도 안전 연구 인력의 대규모 이탈이 발생했다. 연이은 안전 관련 조직 축소는 규제 당국과 연구 커뮤니티의 주목을 받고 있으며, 향후 AI 기업들의 자율 규제 능력에 대한 신뢰도에 영향을 미칠 것으로 보인다.
오픈AI는 안전 연구가 여전히 회사의 핵심 가치이며, 조직 구조 변화와 무관하게 관련 활동은 계속될 것이라고 밝혔다. 그러나 구체적인 후속 조치나 대안적인 안전 감독 체계에 대한 발표는 아직 이루어지지 않은 상태다.