jcode 'AI 코딩 에이전트 하니스' 깃허브 트렌딩… 자체 벤치마크서 첫 프레임 14.0ms·Claude Code 대비 245.5배 우위 주장, 누적 1,020스타·당일 +386
AI 코딩 에이전트 하니스 'jcode'(저장소 1jehuang/jcode)가 깃허브 트렌딩에 진입했다. 수집 시점 누적 스타는 1,020개, 당일 추가 스타는 386개다.
프로젝트는 스스로를 '스킬 천장을 끌어올리기 위한 차세대 코딩 에이전트 하니스(The next generation coding agent harness to raise the skill ceiling)'로 소개하며, 멀티 세션 워크플로·무한 커스터마이징·성능을 설계 목표로 내세운다.
저장소는 자체 측정 기준으로 'time to first frame'(타이핑한 프로브 텍스트가 화면에 그려지기까지의 시간) 벤치마크를 공개했다. jcode 14.0ms(범위 10.1–19.3ms)를 기준선으로, pi 590.7ms(42.2배 느림), Codex CLI 882.8ms(63.1배), OpenCode 1035.9ms(74.0배), GitHub Copilot CLI 1518.6ms(108.5배), Cursor Agent 1949.7ms(139.3배), Claude Code 3436.9ms(245.5배)로 비교했다. 측정은 동일 리눅스 머신에서 인터랙티브 PTY 10회 실행으로 이뤄졌다고 명시했다.
'time to first input' 지표에서는 jcode 48.7ms(범위 30.3–62.7ms)가 기준선이며, pi 596.4ms(12.2배), Codex CLI 905.8ms(18.6배), OpenCode 1047.9ms(21.5배), GitHub Copilot CLI 1583.4ms(32.5배), Cursor Agent 1978.7ms(40.6배), Claude Code 3512.8ms(72.2배) 순으로 제시됐다.
세션 추가 시 PSS(Proportional Set Size) 증가량 비교에서는 jcode(로컬 임베딩 비활성) 약 9.9MB가 기준선이고, jcode(기본) 약 10.4MB(1.1배), Codex CLI 약 21.6MB(2.2배), pi 약 76.5MB(7.7배), Cursor Agent 약 157.5MB(15.9배), GitHub Copilot CLI 약 158.1MB(16.0배), Claude Code 약 212.7MB(21.5배), OpenCode 약 318.4MB(32.2배)로 집계됐다. 비교 대상 버전은 jcode v0.9.1888-dev, pi 0.62.0, codex-cli 0.120.0, opencode 1.0.203, GitHub Copilot CLI 1.0.24(1세션 재실행)/1.0.27(10세션 재실행), Cursor Agent 2026.04.08-a41fba1, Claude Code 2.1.86로 표기됐다.
메모리 시스템은 매 턴/응답을 의미 벡터로 임베딩한 뒤, 코사인 유사도 검사로 메모리 그래프에서 관련 항목을 조회해 대화에 주입하는 방식이다. 옵션으로 '메모리 사이드에이전트'가 관련성 검증 및 추가 정보 검색을 수행한다. 메모리 추출은 의미적 드리프트, K턴 경과, 세션 종료 등 트리거에서 별도 사이드에이전트가 그래프에 적재하며, 'ambient mode'에서 주기적으로 정합성·신선도 검사를 통한 통합 작업이 이뤄진다. 명시적 메모리 도구와 과거 세션에 대한 RAG 기반 세션 검색도 함께 제공된다.
UI 측면에서는 보조 정보용 사이드 패널이 채팅과 함께 mermaid 다이어그램을 인라인 렌더링한다. 이를 위해 별도 라이브러리 'mermaid-rs-renderer'를 만들어 브라우저·타입스크립트 의존성 없이 1,800배 빠른 렌더링을 달성했다고 주장한다. 응답 영역을 잠식하지 않고 여백만 사용하는 'info widgets', 1,000fps 이상의 렌더링, 부드러운 부분 라인 스크롤을 위해 자체 개발한 터미널 'Handterm'도 함께 공개됐다. 정렬은 좌측이 기본이며 'Alt+C' 단축키, '/alignment' 명령 또는 설정으로 가운데 정렬로 전환할 수 있다.
동일 레포에 두 개 이상의 에이전트를 띄우면 서버가 자동 관리한다. A 에이전트가 B가 읽은 파일을 수정하면 서버가 B에게 알려 무시·diff 확인 등을 선택할 수 있고, 단일 DM·전체 브로드캐스트·레포 단위 메시지가 가능하다. 에이전트는 'swarm 도구'로 워커 에이전트를 자율 스폰해 메인 에이전트가 코디네이터가 되는 구조를 헤드리스 또는 헤디드로 운용할 수 있다.
프로바이더는 OAuth 및 API 통합 형태로 11종이 명시됐다. Claude(`jcode login --provider claude`), OpenAI/ChatGPT/Codex(openai), Google Gemini(gemini), GitHub Copilot(copilot), Azure OpenAI(azure), Alibaba Cloud Coding Plan(alibaba-coding-plan), Fireworks(fireworks), MiniMax(minimax), LM Studio(lmstudio), Ollama(ollama), 그리고 사용자 지정 OpenAI-호환 엔드포인트(openai-compatible)가 포함된다. 커스텀 엔드포인트는 'JCODE_OPENAI_COMPAT_API_BASE', 'JCODE_OPENAI_COMPAT_DEFAULT_MODEL' 등 환경변수 또는 '~/.config/jcode/openai-compatible.env' 파일로 설정하며, localhost와 사설 LAN IP에 한해 'http://' 평문 접속을 허용한다.
관련 기사
Vanguard, AWS 기반 사내 분석가용 'Virtual Analyst' 대화형 AI 구축기 공개… 'AI-ready 데이터' 8대 원칙·Bedrock·Redshift·Glue 등 풀스택 활용
AWS, Amazon Bedrock AgentCore Runtime용 '서버리스 커스텀 MCP 프록시' 배포 가이드 공개… FastMCP 기반·AgentCore Gateway 업스트림 연동·계층별 독립 인가
uBlock Origin 깃허브 트렌딩 급상승… Chromium·Firefox용 광역 차단기, EasyList 등 기본 5종 필터·Chrome 139 지원 종료 예고, 누적 63,876 스타·당일 +569