
이 글은 LLM 기반 코딩 도구를 사용할 때 발생하는 과도한 토큰 사용 문제를 해결하기 위한 CLI 도구 RTK에 대해 정리한 글입니다.
RTK가 왜 등장했는지, 어떤 방식으로 토큰을 줄이는지, 실제로 얼마나 효과가 있는지, 그리고 어떻게 설치하고 사용하는지까지 전반적인 내용을 한눈에 이해할 수 있도록 정리했습니다.
AI 코딩 도구를 자주 쓰고 있고, 응답이 길어지거나 토큰 비용이 부담되는 상황이라면 이 글이 도움이 될 것입니다.
LLM 사용 시 토큰이 문제가 되는 이유
Claude Code, Copilot, Gemini CLI 같은 AI 코딩 도구는 내부적으로 터미널 명령 결과를 그대로 LLM 컨텍스트에 전달합니다.
문제는 이 출력이 생각보다 너무 크다는 점입니다.
예를 들어 다음과 같은 상황을 떠올려보면 됩니다.
- git diff 결과가 수천 줄로 출력됨
- 테스트 실패 시 수백 줄의 로그가 한 번에 전달됨
- ls -la, docker ps, cargo test 같은 명령이 반복적으로 호출됨
이 모든 출력이 그대로 LLM에 전달되면
- 토큰 사용량이 급증하고
- 응답 속도가 느려지며
- 컨텍스트 낭비로 인해 중요한 정보가 묻히게 됩니다
RTK는 바로 이 지점을 해결하기 위해 만들어진 도구입니다.
RTK란 무엇인가
RTK는 LLM 앞단에서 동작하는 고성능 CLI 프록시입니다.
터미널 명령의 출력을 그대로 LLM에 전달하지 않고, 의미 있는 정보만 남기고 압축·정리한 결과를 전달합니다.
핵심 개념은 단순합니다.
- 명령은 그대로 실행
- 출력만 LLM 친화적으로 재구성
- 개발자는 기존 워크플로를 바꿀 필요 없음
기술적으로는 다음과 같은 특징을 가집니다.
- 단일 Rust 바이너리
- 100개 이상의 CLI 명령 지원
- 명령당 오버헤드 10ms 미만
- Bash 명령을 자동으로 가로채 재작성
실제 토큰 절감 효과
RTK의 가장 큰 장점은 수치로 증명되는 토큰 절감 효과입니다.
중간 규모 TypeScript / Rust 프로젝트 기준,
30분 Claude Code 세션에서의 비교 결과는 다음과 같습니다.
- 전체 토큰 사용량
- 기존: 약 118,000 토큰
- RTK 사용 시: 약 23,900 토큰
- 평균 절감률: 약 80%
특히 효과가 큰 영역은 다음과 같습니다.
- 테스트 실행 결과: 90% 절감
- 빌드 및 린트 로그: 80~90% 절감
- Git 관련 명령: 최대 92% 절감
즉, LLM이 꼭 알아야 할 정보만 남기고 나머지는 제거하는 방식이 제대로 작동하고 있다는 의미입니다.
RTK가 출력을 줄이는 4가지 핵심 전략
RTK는 단순히 줄이는 것이 아니라, 의미를 보존한 채 압축합니다.
- 스마트 필터링
불필요한 공백, 주석, 반복 설명, 보일러플레이트 제거 - 그룹화
파일은 디렉터리 기준으로, 에러는 유형 기준으로 묶어서 전달 - 트렁케이션
중요한 앞부분은 남기고 반복적인 뒷부분은 제거 - 중복 제거
동일한 로그 라인은 하나로 묶고 발생 횟수만 표시
이 조합 덕분에 토큰은 줄지만, 맥락은 유지됩니다.
자동 재작성(Hook) 방식의 동작 구조
RTK의 가장 강력한 기능은 자동 재작성 Hook입니다.
- 사용자는 git status를 입력
- 실제 실행 전, Bash Hook이 이를 rtk git status로 변환
- LLM은 이 사실을 전혀 인지하지 못함
- 결과는 압축된 출력만 전달됨
이 방식의 장점은 명확합니다.
- 기존 명령 그대로 사용 가능
- 모든 대화, 모든 서브 에이전트에 일관되게 적용
- 토큰 절감 자체에 추가 토큰 비용이 없음
단, Bash 기반 명령에만 적용되며
Claude Code의 내장 도구(Read, Grep 등)는 직접 rtk read, rtk grep 형태로 호출해야 동일한 효과를 얻을 수 있습니다.
설치 방법 정리
Homebrew (권장)
brew install rtk
빠른 설치 (Linux / macOS)
curl -fsSL https://raw.githubusercontent.com/rtk-ai/rtk/refs/heads/master/install.sh | sh
Cargo 설치
cargo install --git https://github.com/rtk-ai/rtk
설치 후 다음 명령으로 정상 여부를 확인할 수 있습니다.
rtk --version
rtk gain
기본 사용 흐름 예제
1. AI 도구에 Hook 설치
rtk init -g
2. AI 도구 재시작
3. 기존 명령 그대로 사용
git status
cargo test
docker ps
이제 모든 출력은 자동으로 RTK를 거쳐 LLM에 전달됩니다.
자주 쓰이는 RTK 명령 예시
- 파일 및 검색
- rtk ls, rtk read, rtk grep, rtk diff
- Git
- rtk git status, rtk git diff, rtk git push
- 테스트
- rtk test cargo test, rtk pytest, rtk go test
- 빌드 및 린트
- rtk cargo build, rtk ruff check, rtk tsc
- 컨테이너 및 클라우드
- rtk docker ps, rtk kubectl pods, rtk aws ec2 describe-instances
- 분석
- rtk gain, rtk gain --graph, rtk discover
토큰 절감 데이터 분석 기능
RTK는 단순히 줄이는 데서 끝나지 않고, 절감 효과를 시각적으로 확인할 수 있습니다.
- 누적 절감량
- 일별 사용량
- 최근 세션 기준 통계
- JSON 포맷 내보내기
이를 통해
“RTK를 도입해서 실제로 얼마나 효율이 개선됐는지”를 객관적으로 확인할 수 있습니다.
보안과 텔레메트리 정책
RTK는 기본적으로 익명 집계 텔레메트리만 수집합니다.
수집하지 않는 것:
- 소스 코드
- 파일 경로
- 명령 인자
- 환경 변수
- 개인 식별 정보
필요하다면 환경 변수 또는 설정 파일로 완전히 비활성화할 수 있습니다.
RTK는 단순한 CLI 도구가 아니라,
LLM 기반 개발 워크플로의 병목을 정확히 짚어 해결하는 도구입니다.
- 토큰 사용량 60~90% 절감
- 기존 명령과 습관을 바꿀 필요 없음
- 자동 Hook 기반으로 적용 범위가 넓음
- 테스트, 빌드, Git, 클라우드까지 폭넓은 지원
앞으로 AI 코딩 도구를 더 깊이, 더 오래 사용하게 될수록
토큰 효율은 곧 생산성과 비용의 문제가 됩니다.
RTK는 이 문제를 가장 현실적이고 실용적인 방식으로 해결하는 솔루션이라고 볼 수 있습니다.
GitHub - rtk-ai/rtk: CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero dep
CLI proxy that reduces LLM token consumption by 60-90% on common dev commands. Single Rust binary, zero dependencies - rtk-ai/rtk
github.com

'인공지능' 카테고리의 다른 글
| GLM-5.1 장기 에이전트 코딩을 위한 차세대 대형 언어 모델 정리 (0) | 2026.04.08 |
|---|---|
| LM Studio Headless CLI와 Claude Code로 로컬에서 Google Gemma 4 실행하는 방법과 의미 (0) | 2026.04.08 |
| Gemma 4 Fine-tuning 가이드: Unsloth로 빠르고 효율적인 학습 환경 구축하기 (0) | 2026.04.08 |
| QMD(Query Markup Documents): 로컬 환경에서 구현하는 하이브리드 문서 검색 엔진 (0) | 2026.04.08 |
| AI 코딩 에이전트 시대, CI/CD 파이프라인이 무너지는 이유와 해결 방법 (0) | 2026.04.06 |