
AI 에이전트, 왜 여전히 ‘얕다’고 말할까
최근 1년간 AI 업계에서 가장 많이 회자된 단어 중 하나는 ‘에이전트(Agent)’다. ChatGPT, LangChain, AutoGPT와 같은 도구를 중심으로 수많은 실험이 이어졌지만, 많은 개발자들이 공통적으로 느끼는 한 가지 문제가 있다.
AI 에이전트는 간단한 일에는 유용하지만, 조금만 복잡한 작업을 맡기면 금세 길을 잃는다는 것이다. 예를 들어, “오늘 도쿄 날씨를 알려주고 옷차림을 추천해줘”라는 질문에는 완벽하게 답하지만, “3일에 걸쳐 10개의 경쟁사 가격 모델을 조사하고 비교표를 만들어줘” 같은 복합적 업무는 수행하지 못한다.
이유는 간단하다. 대부분의 에이전트가 ‘얕은 루프(Shallow Loop)’에 갇혀 있기 때문이다. 이러한 한계를 극복하기 위해 등장한 개념이 바로 Agents 2.0, 즉 Deep Agent(깊은 에이전트) 구조다.
Agent 1.0의 구조와 한계: 루프 안에 갇힌 인공지능
현재까지의 대부분 AI 에이전트는 동일한 구조를 가진다.
- 사용자가 프롬프트를 입력한다.
- LLM이 이를 분석하고 필요한 도구를 호출한다.
- 도구의 결과를 받아 다시 답변을 생성하거나 다른 도구를 호출한다.
- 위 과정을 루프(while loop) 형태로 반복한다.
이 단순한 구조는 ‘거래형 작업(Transactional Task)’에는 적합하다. 하지만 몇 가지 심각한 한계를 드러낸다.
1. Context Overflow
작업을 이어가면서 LLM의 대화 히스토리(Context Window)가 점점 쌓이는데, HTML 코드나 로그 데이터 같은 중간 결과가 많아지면 중요한 지시사항이 밀려나 버린다. 결국 AI는 본래 목표를 잃는다.
2. Goal Loss
에이전트가 여러 단계를 거치다 보면, 처음 사용자가 요청했던 ‘최종 목표’를 잊어버린다. 중간 단계에 몰입한 나머지 목적지로 가는 방향을 놓친다.
3. No Recovery Mechanism
잘못된 방향으로 진행될 경우 스스로 되돌아가거나 새로운 접근 방식을 시도할 수 있는 복구 메커니즘이 없다. 즉, AI는 한 번 틀린 길로 들어서면 끝까지 잘못된 루프를 반복한다.
이러한 이유로 기존의 얕은 에이전트(Agent 1.0)는 5~15단계 정도의 단순한 작업에는 유용하지만, 50단계 이상의 복잡한 업무에는 취약하다.
Agent 2.0의 등장: ‘깊이’를 더한 에이전트 구조
Agent 2.0은 이러한 한계를 해결하기 위해 계획(Planning), 위임(Delegation), 기억(Memory), **컨텍스트 관리(Context Engineering)**라는 네 가지 기둥을 기반으로 설계된다. 이는 단순히 더 강력한 LLM을 쓰는 것이 아니라, AI가 스스로 생각하고 관리하는 구조를 재설계한 것이다.
1. 명시적 계획 (Explicit Planning)
얕은 에이전트는 생각을 ‘즉흥적(Implicit)’으로 수행한다. 반면, Deep Agent는 명시적 계획을 세운다.
즉, “무엇을 해야 하는가?”를 메모 형태의 To-Do 리스트나 작업 계획 문서로 작성하고, 매 단계마다 이를 검토·갱신한다.
작업 단계는 보통 다음과 같이 관리된다.
- pending : 대기 중
- in_progress : 진행 중
- completed : 완료
만약 어떤 단계가 실패하면, 단순히 재시도하는 대신 실패 원인을 기록하고 새로운 접근법을 계획에 반영한다. 이렇게 하면 에이전트가 스스로 목표를 잃지 않고 지속적으로 방향을 조정할 수 있다.
2. 계층적 위임 (Hierarchical Delegation)
하나의 에이전트가 모든 일을 처리하려 하면, 결국 효율이 떨어진다. Agent 2.0은 **오케스트레이터(Orchestrator)**와 서브 에이전트(Sub-Agent) 구조를 사용한다.
- 오케스트레이터: 전체 목표를 관리하고 작업을 분리해 각 서브 에이전트에게 위임한다.
- 서브 에이전트: 특정 역할에 특화된 하위 에이전트로, 예를 들어 ‘리서처(Researcher)’, ‘코더(Coder)’, ‘라이터(Writer)’ 등이 있다.
이 구조를 통해 각 서브 에이전트는 자신만의 컨텍스트 내에서 전문적으로 작업을 수행하고, 결과만을 오케스트레이터에게 전달한다. 이는 마치 한 팀의 프로젝트 매니저와 팀원들이 협력하는 구조와 유사하다.
3. 지속적 메모리 (Persistent Memory)
얕은 에이전트는 대화 히스토리만을 기억의 전부로 사용한다. 하지만 Deep Agent는 외부 저장소(파일시스템, 벡터 데이터베이스 등)를 장기 기억으로 활용한다.
예를 들어, Claude Code나 Manus 같은 프레임워크는 에이전트가 파일을 읽고 쓸 수 있도록 지원한다. 이를 통해 에이전트는
- 중간 결과(리서치 데이터, 코드, 초안)를 파일로 저장하고,
- 필요할 때 해당 파일을 불러와 필요한 정보만 추출한다.
이로써 ‘모든 것을 기억하려는’ 비효율적인 접근에서 벗어나, ‘어디에 무엇이 있는지 아는’ 똑똑한 구조로 발전하게 된다.
4. 고도화된 컨텍스트 엔지니어링 (Extreme Context Engineering)
Deep Agent는 “너는 친절한 AI야” 같은 단순 프롬프트로는 작동하지 않는다. 수천 토큰에 달하는 상세한 규칙, 절차, 도구 정의가 필요하다.
이 문맥에는 다음과 같은 내용이 포함된다.
- 언제 계획을 세우고 언제 실행할지 판단하는 규칙
- 어떤 상황에서 서브 에이전트를 생성해야 하는지에 대한 기준
- 파일 명명 규칙과 폴더 구조
- 인간 피드백(‘human-in-the-loop’) 절차
- 도구 사용 예시와 제한 조건
즉, 더 똑똑한 모델일수록 단순화가 아니라, 더 정교한 컨텍스트 관리가 필요하다.
Deep Agent의 실제 작동 예시
예를 들어 “양자 컴퓨팅을 조사하고 요약 파일을 작성하라”는 요청을 처리한다고 가정해보자.
- 오케스트레이터는 전체 목표를 설정한다.
- “양자 컴퓨팅 관련 주요 논문과 기사 조사”
- “핵심 개념 및 응용사례 정리”
- “요약 파일 생성”
- 각 단계는 서브 에이전트에게 위임된다.
- 리서처가 웹을 검색하고 주요 정보를 정리
- 라이터가 이를 요약해 문서 작성
- 코더가 결과를 지정된 경로에 저장
- 모든 결과물은 외부 메모리에 기록되고, 이후에도 참조 가능하다.
이런 구조는 단순히 LLM의 반복 루프가 아니라, 명확한 계획과 협업 구조를 통해 복잡한 프로젝트도 단계적으로 해결할 수 있게 한다.
Agent 1.0에서 2.0으로: 단순한 기능이 아닌 ‘구조적 진화’
Agent 2.0으로의 진화는 단순히 모델의 성능을 높인 것이 아니라, AI 시스템 설계 철학의 변화다.
- Reactive(반응형) → Proactive(주도형)
- Stateless(비지속형) → Persistent(지속형)
- Monolithic(단일형) → Hierarchical(계층형)
이러한 구조적 전환을 통해 AI는 단순한 질의응답 도우미를 넘어, 장기적 목표를 가진 자율형 시스템으로 진화하고 있다.
앞으로의 AI 에이전트는 ‘깊이’를 설계한다
Agent 2.0은 단순히 도구를 더 많이 연결한 버전이 아니다.
이것은 ‘루프 기반의 반응형 에이전트’에서 ‘계획 기반의 자율형 시스템’으로의 근본적 전환이다.
명시적 계획, 계층적 위임, 지속적 메모리, 정교한 컨텍스트 설계를 통해 AI는 더 이상 맥락을 잃지 않고, 수십 단계에 걸친 복잡한 문제를 스스로 해결할 수 있게 되었다.
결국 Agent 2.0은 AI가 ‘더 똑똑해지는’ 단계가 아니라, ‘더 깊게 생각하는’ 단계로 나아가는 진화다.
이 변화는 앞으로의 AI 시스템이 단순한 보조 도구를 넘어, 인간과 함께 복잡한 문제를 해결하는 진정한 협력 파트너로 발전할 것임을 예고한다.
https://www.philschmid.de/agents-2.0-deep-agents
Agents 2.0: From Shallow Loops to Deep Agents
An overview of the architectural shift from Shallow Agents (Agent 1.0) to Deep Agents (Agent 2.0) and how to build complex AI agents that can handle multi-step tasks over extended periods.
www.philschmid.de

'인공지능' 카테고리의 다른 글
| Claude 스킬 완전 가이드: AI를 나만의 전문가로 만드는 방법 (0) | 2025.10.20 |
|---|---|
| AI는 개발자를 대체하지 않는다, 하지만 그 속도를 30% 높인다— FAANG급 워크플로우에서 본 AI 개발 보조의 실제 적용 사례 (0) | 2025.10.20 |
| Claude Skills: MCP를 넘어선 단순함 속의 혁신 (0) | 2025.10.20 |
| AI도 인간처럼 ‘뇌가 썩는다’? - 거대 언어모델(LLM)에서 발견된 인지 퇴행 현상 (0) | 2025.10.20 |
| 스펙 중심 개발(Spec-Driven Development, SDD)은 새로운 AI 개발 패러다임일까? (0) | 2025.10.20 |