AWS, EU AI Act 대응 'Fine-Tuning FLOPs Meter' 오픈소스 공개
AWS가 EU AI Act의 미세조정 FLOPs 추적 요구를 다루는 오픈소스 툴킷 'Fine-Tuning FLOPs Meter'를 자사 머신러닝 블로그에서 공개했다. Amazon SageMaker AI 학습 작업과 Hugging Face 학습 워크플로에 통합되며, Amazon SageMaker Generative AI 레시피 저장소에서 제공된다.
EU AI Act는 2025년 8월 2일 범용 AI(GPAI) 모델 관련 새 의무를 도입했다. LLM을 미세조정하는 조직은 자신이 다운스트림 사용자에 머무는지, 모델 컴플라이언스를 책임지는 GPAI 모델 제공자로 재분류되는지 판단해야 하는데, 그 분기는 미세조정에 투입된 컴퓨트(FLOPs)에 달려 있다.
핵심 기준은 '3분의 1 규칙'이다. 사전 학습 컴퓨트의 30% 이상을 쓰면 모델의 행동이 크게 바뀌어 새 모델을 만든 것과 같다는 규제 판단에서 출발한다. 적용은 세 시나리오로 갈린다. 사전 학습 컴퓨트가 알려져 있고 10²³ FLOPs 이상이면 그 30%를, 알려져 있지 않거나 10²³ FLOPs 미만이면 기본 임계치 3.3×10²² FLOPs를, 시스템 위험 모델(사전 학습 10²⁵ FLOPs 이상)이면 3.3×10²⁴ FLOPs를 임계치로 쓴다.
예시로 사전 학습 컴퓨트가 최소 1.5×10²⁴ FLOPs로 추정되는 Llama-3-70B를 미세조정하면 임계치는 4.5×10²³ FLOPs가 된다. 임계치를 넘기면 상세 아키텍처와 학습 절차 공개, 사용 데이터 소스 공개 목록 게시, EU 저작권법 준수 입증 등 GPAI 모델 제공자의 전체 의무를 떠안게 된다. 위반 시 최대 1,500만 유로 또는 글로벌 연 매출의 3% 중 더 큰 금액의 과징금에 직면할 수 있다.
AWS는 수동 FLOPs 추적의 어려움으로 세 가지를 든다. 풀 파인튜닝과 LoRA(Low-Rank Adaptation) 같은 파라미터 효율 학습 방식에 따라 FLOPs 공식이 달라지고, 적용 임계치 판단에 필요한 사전 학습 컴퓨트 수치가 공개되는 경우가 드물며, 여러 학습 잡의 컴플라이언스 지표를 감사 추적용 영구 기록으로 유지해야 한다는 점이다.
Fine-Tuning FLOPs Meter는 미세조정 라이프사이클을 세 단계로 다룬다. 1단계 사전 추정 유틸리티는 LoRA·Spectrum·Full 등 학습 방식별 예상 FLOPs를 잡 실행 전에 비교하게 해 준다. 2단계 런타임 추적은 Hugging Face TrainerCallback을 이용해 학습 중 아키텍처 기반 분석과 NVIDIA Management Library(NVML) 기반 GPU 모니터링으로 실시간 FLOPs를 산출한다.
3단계 사후 감사 추적은 컴플라이언스 지표 전체를 JSON 형식으로 자동 보관한다. 결과는 Amazon S3 또는 Amazon DynamoDB로 유지할 수 있고, 사용자는 설정 파일에 compute_flops: true 한 줄을 추가해 기능을 켤 수 있다. 풀·LoRA·Spectrum 미세조정에 맞춰 보정한 향상된 공식을 사용하며, EU AI Act 보고에 필요한 항목을 갖춘 감사용 문서를 생성하고 잡이 임계치를 넘었는지 자동 비교해 표시한다.
실습에는 SageMaker AI G5 인스턴스(ml.g5.4xlarge, NVIDIA A10G GPU 1개) 학습 잡 사용 쿼터 최소 1대, AmazonSageMakerFullAccess와 AmazonS3FullAccess 관리형 정책이 부여된 IAM 역할, sagemaker.amazonaws.com을 신뢰 관계로 가진 정책이 필요하다. AWS는 이러한 권한이 광범위해 운영 환경에는 권장되지 않는다고 명시한다.