목록으로
제품2026년 4월 30일 AM 02:06

허깅페이스 Hub, DeepInfra Inference Provider 신규 지원… 100+ 모델·DeepSeek V4·Kimi-K2.6·GLM-5.1 즉시 호출

허깅페이스가 DeepInfra를 자사 Hub의 Inference Provider로 신규 지원한다고 발표했다. DeepInfra는 100개 이상의 모델을 보유한 서버리스 AI 추론 플랫폼으로, Hub의 모델 페이지에서 제공되는 서버리스 추론의 폭과 기능을 한층 넓힌다.

DeepInfra는 LLM부터 text-to-image, text-to-video, 임베딩까지 폭넓은 모델 유형을 지원한다. 이번 초기 통합에서는 대화형·텍스트 생성 작업을 우선 제공하며, DeepSeek V4·Kimi-K2.6·GLM-5.1 등 인기 오픈웨이트 LLM을 곧바로 호출할 수 있다. text-to-image·text-to-video·임베딩 등 추가 작업은 추후 순차적으로 적용될 예정이다.

Inference Providers는 허깅페이스의 클라이언트 SDK에도 매끄럽게 통합돼 있다. 파이썬은 huggingface_hub(>= 1.11.2), 자바스크립트는 @huggingface/inference 패키지를 통해 호출한다. 사용자가 Hugging Face 토큰만 제시하면 요청은 자동으로 DeepInfra로 라우팅된다.

사용자 계정 설정에서는 두 가지 호출 모드 중 선택할 수 있다. 가입한 공급자의 자체 API 키를 등록해 호출 요금을 해당 공급자 계정으로 부과하는 방식과, 별도 키 없이 HF를 통해 라우팅하는 방식이다. 또한 모델 페이지의 위젯과 코드 스니펫에 적용되는 공급자 우선순위도 사용자가 직접 정렬할 수 있다.

모델 페이지에는 현재 모델과 호환되는 서드파티 추론 공급자가 사용자 선호도 순서대로 노출된다. 이를 통해 개발자는 동일 모델을 두고 가용 공급자를 비교하면서 즉시 전환할 수 있다.

에이전트 하네스 측면에서도 Hugging Face Inference Providers는 Pi, OpenCode, Hermes Agents, OpenClaw 등 주요 도구에 이미 통합돼 있다. 추가 글루 코드 없이 DeepInfra 호스팅 모델을 자신의 워크플로에 곧바로 연결할 수 있다는 점이 특징이다.

과금은 호출 모드에 따라 달라진다. 공급자 키로 직접 호출하면 해당 공급자(예: DeepInfra) 계정으로 청구되고, HF를 통해 라우팅된 호출은 공급자 표준 API 단가가 그대로 적용된다. 허깅페이스는 추가 마진 없이 비용을 그대로 전달한다고 명시했다.

Hugging Face PRO 가입자에게는 매월 2달러 상당의 Inference 크레딧이 제공된다. 크레딧은 여러 공급자에 걸쳐 사용할 수 있고, PRO 가입 시 ZeroGPU, Spaces Dev Mode와 20배 상향된 한도 등의 혜택도 함께 이용할 수 있다. 로그인한 무료 사용자에게도 소량의 무료 추론 쿼터가 제공된다.

AI인사이트 편집팀

이 기사는 AI 기술을 활용해 작성되었으며, 편집팀이 검수했습니다.

관련 기사