Gemini CLI, 제대로 쓰고 계신가요?
많은 개발자들이 Gemini CLI를 활용해 구글의 강력한 생성형 AI 기능을 직접 터미널에서 다루고 있습니다. 하지만 대부분은 기본값으로 실행하거나 단순한 프롬프트 입력 정도로만 사용하는 데 그치곤 하죠.
이번 블로그에서는 Gemini CLI를 보다 깊이 있게 활용할 수 있는 커맨드라인 실행 옵션들에 대해 자세히 다룹니다. 어떤 모델을 사용할지 설정하는 방법부터, 명령어 실행 전 확인 절차를 생략하는 YOLO 모드, 디버깅을 위한 로그 출력까지 모두 포함됩니다.
이 글을 통해 여러분은 다음과 같은 것들을 배우게 됩니다:
- 터미널에서 Gemini 모델을 명시적으로 선택하는 방법
- 단일 프롬프트 모드로 빠르게 AI 결과를 얻는 방법
- 내부 동작 과정을 디버깅 모드로 확인하는 방법
- 자동 실행 모드를 활용해 반복 작업을 간소화하는 방법
1. 기본 옵션 훑어보기: --help로 시작하기
Gemini CLI는 다양한 명령줄 옵션을 제공합니다. 이를 확인하려면 터미널에서 간단히 다음 명령어를 실행하면 됩니다.
gemini --help
이 명령어를 입력하면 다음과 같은 옵션들을 확인할 수 있습니다:
- -m, --model: 사용할 Gemini 모델을 지정합니다. (기본값: gemini-2.5-pro)
- -p, --prompt: 단일 프롬프트로 실행합니다.
- -d, --debug: 디버그 로그를 출력합니다.
- -y, --yolo: 모든 액션을 사용자 확인 없이 자동으로 실행합니다.
- --sandbox: 격리된 샌드박스 환경에서 실행합니다.
- --show_memory_usage: CLI 실행 중 메모리 사용량을 표시합니다.
- --telemetry: CLI 사용 통계를 Google에 전송합니다.
이 옵션들을 잘 이해해두면 터미널 환경에서 Gemini CLI의 기능을 세밀하게 제어할 수 있습니다.
2. -m (--model) 옵션: 원하는 모델로 바로 실행
Gemini CLI는 기본적으로 gemini-2.5-pro 모델을 사용하지만, 상황에 따라 더 빠른 응답이 필요한 경우 경량화된 gemini-1.5-flash 모델을 사용할 수 있습니다.
gemini -m "gemini-1.5-flash"
이렇게 모델을 명시적으로 지정하면 작업의 성격에 따라 더 적절한 모델을 활용할 수 있습니다. 단, 무료 계정을 사용하는 경우 모델 사용량 제한으로 인해 자동으로 flash 모델로 대체될 수 있으니, 유료 구독을 고려해보는 것도 좋습니다.
3. -p (--prompt) 옵션: 단일 입력으로 빠르게 응답 받기
단순한 질문 하나를 하고 결과만 보고 싶은 경우, -p 옵션을 활용하면 대화형 모드를 건너뛰고 바로 결과를 받을 수 있습니다.
예를 들어, 다음과 같이 입력합니다:
gemini -p "myhost.com에 GET 요청을 보내는 curl 명령어 알려줘"
이 명령어는 대화형 모드 없이 단일 프롬프트의 결과만 출력합니다. 반복적인 테스트나 자동화된 스크립트에 유용하게 활용할 수 있습니다. 다만 이 모드에서는 맥락을 이어가는 대화는 불가능합니다.
4. -d (--debug) 옵션: 내부 동작을 추적하고 이해하기
개발 과정에서 Gemini CLI가 어떤 식으로 동작하는지 알고 싶다면 디버깅 옵션을 사용하는 것이 효과적입니다.
gemini -d -p "리눅스에서 모든 하위 디렉토리의 파일을 이동시키는 명령어는?"
이 옵션을 활성화하면 다음과 같은 정보를 확인할 수 있습니다:
- 어떤 폴더에서 실행됐는지
- GEMINI.md 파일의 존재 여부
- 어떤 내용을 프롬프트로 구성했는지
- 모델 호출에 포함된 명세
디버깅 옵션은 특히 CLI가 왜 특정 결과를 반환했는지 추론하고 싶을 때 큰 도움이 됩니다.
5. -y (--yolo) 옵션: 매번 확인 안 해도 되는 자동화 모드
일일이 사용자 확인을 받지 않고 모든 작업을 자동 승인하고 싶을 땐 --yolo 모드를 사용할 수 있습니다.
gemini -y -p "README.md 파일을 생성해줘"
이 옵션은 실험적인 기능이나 반복 작업 시 매우 유용합니다. 그러나 삭제, 덮어쓰기 등 민감한 작업에서도 자동으로 실행되므로, 실제 운영 환경에서는 주의해서 사용해야 합니다.
6. 그 외 유용한 부가 옵션들
- --sandbox: 로컬 파일이나 시스템 환경과 분리된 안전한 환경에서 명령어를 실행합니다. 실험적인 코드나 위험 가능성이 있는 작업에 유용합니다.
- --show_memory_usage: 모델 호출 시 발생하는 메모리 사용량을 CLI 상태바에서 시각적으로 확인할 수 있습니다.
- --telemetry: 사용 통계를 Google에 전송해 더 나은 제품 개선에 기여할 수 있습니다. 원하지 않을 경우 이 옵션을 비활성화하면 됩니다.
Gemini CLI, 이제는 도구가 아닌 파트너입니다
Gemini CLI는 단순한 터미널 도구 그 이상입니다. 위에서 소개한 다양한 실행 옵션을 적절히 활용하면, 모델을 바꾸고 디버깅 정보를 보고 자동화 모드로 실행하는 등 훨씬 유연하고 실용적인 방식으로 AI 기능을 사용할 수 있습니다.
이번 블로그에서 소개한 실행 옵션을 기억해두면 다음과 같은 상황에서 효과적으로 대응할 수 있습니다:
- 더 빠른 결과를 원할 때 gemini-flash 모델을 지정
- 디버깅이 필요할 땐 -d 옵션으로 로그 확인
- 반복 작업 자동화를 위해 --yolo 활용
- 복잡한 설정 없이 단일 프롬프트만 요청하고 싶을 땐 -p
다음 포스트에서는 settings.json과 .env, GEMINI.md 파일을 활용해 Gemini CLI를 더욱 유연하게 설정하고 관리하는 방법을 안내할 예정입니다. CLI 도구의 진짜 잠재력을 끌어내고 싶은 분들이라면 꼭 주목해 주세요.
Gemini CLI Tutorial Series — Part 2 : Gemini CLI Command line parameters
Welcome to Part 2 of the Gemini CLI Tutorial series. In this part, we are going to look at a few configuration options while launching…
medium.com
'인공지능' 카테고리의 다른 글
속도와 지능을 동시에 잡다: DeepSeek R1T2 Chimera, 새로운 LLM 설계의 혁신 (0) | 2025.07.04 |
---|---|
단순한 터미널이 아닌 ‘Agentic Development Environment’란 무엇인가? - Warp 2.0 VS Claude Code VS Gemini CLI (0) | 2025.07.04 |
터미널 속 AI 비서, Gemini CLI 시작 가이드 – 개발자 손끝에서 바로 실행되는 오픈소스 AI 에이전트 (0) | 2025.07.04 |
이제는 코드와 대화하는 시대: Gemini CLI와 Context 7 MCP로 만드는 AI 파일 챗봇 (0) | 2025.07.04 |
최신 개발 문서를 빠르게 찾는 방법, Context 7과 MCP 서버 활용법 (0) | 2025.07.04 |