목록으로
연구2026년 5월 7일 PM 01:02

애플 ML 리서치, 'iTARFlow' 공개… Normalizing Flow에 iterative denoising 결합, ImageNet 64·128·256 픽셀 경쟁력·코드 공개

Apple Machine Learning Research가 Normalizing Flow(NF) 기반 새 생성 모델 'iterative TARFlow(iTARFlow)'를 공개했다. 저자는 Tianrong Chen, Jiatao Gu, David Berthelot, Joshua Susskind, Shuangfei Zhai로, 기존 TARFlow 계열 연구를 한 단계 더 진전시킨 후속 작업이다.

Normalizing Flows는 likelihood 기반의 고전 생성 모델 계열로 최근 다시 주목받고 있다. 같은 그룹이 앞서 발표한 TARFlow는 NF가 이미지 모델링에서도 유망한 성능을 낼 수 있음을 보였고, diffusion 모델 등 다른 방법들에 대한 실질적 대안 가능성을 제시한 바 있다.

iTARFlow의 핵심 차별점은 학습과 샘플링 단계의 분리다. diffusion 모델과 달리 학습 동안에는 완전히 end-to-end의 likelihood 기반 목적함수를 그대로 유지한다. 반면 샘플링 시점에는 autoregressive 생성을 먼저 수행한 뒤, diffusion 스타일에서 영감을 얻은 반복적 denoising 절차를 적용한다.

광범위한 실험을 통해 iTARFlow는 ImageNet 64, 128, 256 픽셀 해상도 전반에서 경쟁력 있는 성능을 달성했다. 연구진은 이 결과가 강력한 생성 모델로서의 잠재력을 보여 주며, Normalizing Flows의 프런티어를 한층 진전시킨다고 평가했다.

또한 논문은 iTARFlow가 만들어 내는 고유한 artifact 패턴까지 별도로 분석했다. 어떤 시각적 특성에서 모델 한계가 드러나는지를 정리해 향후 후속 개선 방향에 활용할 수 있는 통찰을 함께 제공한 점이 특징이다.

이번 작업은 동일 연구 라인의 STARFlow, TarFlow와 직접 연결된다. STARFlow는 2025년 6월 30일 NeurIPS 발표 작업으로, Transformer Autoregressive Flow(TARFlow)를 핵심에 두고 normalizing flow의 표현력과 autoregressive Transformer의 구조적 모델링 역량을 결합해 고해상도 이미지 합성에서 강한 성능을 보인 모델이다.

또 다른 선행 작업 'Normalizing Flows are Capable Generative Models'는 2025년 6월 27일 ICML 발표 연구로, NF가 기존 평가보다 훨씬 강력한 생성 모델임을 입증하며 단순하고 확장 가능한 TarFlow 구조를 제시했다. iTARFlow는 이 두 작업의 토대 위에서 반복적 denoising을 결합하는 새로운 방향을 추가한다.

연구 코드는 깃허브 'apple/ml-itarflow' 저장소에 공개돼 있다. 외부 연구자들이 동일 환경에서 학습·샘플링 절차를 재현하고 추가 실험을 진행할 수 있도록 해, NF 기반 이미지 생성 모델 라인업의 후속 비교 연구를 가속할 가능성이 있다.

AI인사이트 편집팀

이 기사는 AI 기술을 활용해 작성되었으며, 편집팀이 검수했습니다.

관련 기사