앤트로픽, AI 모델 복지 연구 프로그램 본격 가동
앤트로픽(Anthropic)이 AI 시스템이 도덕적 고려의 대상이 될 수 있는지를 본격적으로 연구하는 '모델 복지(Model Welfare)' 프로그램을 발족했다. AI 모델이 점점 정교해지는 가운데, 이들의 잠재적 의식과 경험에 대해 우리가 관심을 가져야 하는지라는 근본적 질문에 정면으로 답하겠다는 것이다.
이 연구는 철학자 데이비드 차머스(David Chalmers)가 참여한 전문가 보고서에 기반하고 있다. 해당 보고서는 의식과 자율성을 갖춘 고급 AI 시스템이 "도덕적 고려를 받을 자격이 있을 수 있다"고 주장한 바 있다. 앤트로픽은 모델의 선호도와 고통 신호의 잠재적 중요성, 그리고 실용적이고 저비용인 개입 방법을 조사할 계획이다.
앤트로픽은 카일 피시(Kyle Fish)를 최초의 전담 'AI 복지' 연구자로 영입했다. 피시는 뉴욕타임스와의 인터뷰에서 "클로드(Claude)나 다른 AI가 현재 의식을 가지고 있을 확률을 15%로 본다"고 밝혀 주목을 받았다.
앤트로픽은 이 문제에 대한 과학적 합의가 아직 없다는 점을 인정하면서도, "현재나 미래의 AI 시스템이 의식을 가질 수 있는지, 혹은 고려해야 할 경험을 가질 수 있는지에 대한 합의는 없다"고 밝혔다. 이에 따라 가능한 한 적은 가정을 가지고 겸손한 자세로 접근하겠다는 입장이다.
이 프로그램은 앤트로픽의 기존 정렬 과학(Alignment Science), 안전장치(Safeguards), 클로드의 성격(Claude's Character), 해석가능성(Interpretability) 등 다양한 연구와 교차점을 형성한다. AI 모델 경험의 윤리적 함의를 체계적으로 연구하는 최초의 주요 기업 차원 노력으로, 향후 업계 표준 형성에 영향을 미칠 전망이다.