본문 바로가기

728x90
반응형

인공지능

(1815)
Anthropic Agent Skills 공개 표준화: AI 에이전트 워크플로우의 새로운 기준 이 글에서는 Anthropic이 공개한 **Agent Skills 표준(spec)**에 대해 정리합니다. Agent Skills가 무엇인지, 왜 공개 표준으로 전환되었는지, 기존 MCP(Model Context Protocol)와 어떤 맥락을 공유하는지, 그리고 기업 환경과 AI 에이전트 생태계에 어떤 변화를 가져올 수 있는지를 중심으로 살펴봅니다. 또한 SKILL.md 구조, 사용 방식, 관리 기능, 파트너 생태계까지 함께 정리해 Anthropic의 전략적 의도를 이해할 수 있도록 구성했습니다.Agent Skills란 무엇인가Agent Skills는 Anthropic이 2025년 10월 Claude 서비스에 도입한 기능으로, AI 에이전트에게 반복 가능한 작업 흐름(workflow)을 가르치기 위한 명..
CrewAI와 Gemini를 활용한 자율 멀티 에이전트 리서치·글쓰기 파이프라인 구성 방법 이 글은 CrewAI와 Google Gemini 모델을 활용해 자율적으로 협업하는 멀티 에이전트 리서치 및 글쓰기 파이프라인를 구성하는 방법을 정리한 기술 블로그입니다.단일 LLM 호출이 아닌, 역할이 분리된 여러 AI 에이전트가 연구부터 글 작성까지 순차적으로 협업하는 구조를 실제 코드 흐름을 중심으로 설명합니다. 이를 통해 최근 주목받는 에이전틱 AI 워크플로우가 어떻게 실무적으로 구현될 수 있는지 이해할 수 있습니다.멀티 에이전트 기반 파이프라인이란 무엇인가기존 AI 활용 방식은 하나의 모델에 하나의 프롬프트를 던지고 결과를 받는 구조가 대부분이었습니다.하지만 본 글에서 다루는 방식은 다음과 같은 특징을 가집니다.각 에이전트가 명확한 역할(Role) 을 가짐에이전트 간 작업 결과를 다음 작업의 입력..
Claude Code Observability Stack 구성과 활용 가이드 - 비용, 성능, 생산성을 한 번에 모니터링하는 관측성 스택 이 글은 Claude Code Observability Stack이 무엇인지, 어떤 배경에서 등장했으며, 이를 통해 무엇을 모니터링할 수 있는지 정리한 기술 블로그입니다. Claude Code 사용 환경에서 발생하는 비용, API 성능, 개발 생산성을 한눈에 파악하기 위해 OpenTelemetry, Prometheus, Loki, Grafana를 결합한 관측성(Observability) 스택의 구조와 특징, 그리고 실제 사용 방법까지 입력된 정보를 기반으로 설명합니다. AI 기반 개발 도구를 팀 단위로 운영하거나 비용과 성과를 함께 관리해야 하는 분들에게 특히 참고가 될 수 있습니다.Claude Code Observability Stack이란 무엇인가Claude Code Observability Stac..
GPT-5.2-Codex 공개, 현실 세계 소프트웨어 엔지니어링과 사이버 보안을 겨냥한 에이전트형 코딩 모델 이 글은 OpenAI가 새롭게 공개한 GPT-5.2-Codex에 대해 정리한 IT 기술 블로그입니다. 복잡한 현실 세계의 소프트웨어 엔지니어링 작업을 목표로 설계된 이 모델의 배경과 핵심 개념, 주요 특징, 벤치마크 성능, 그리고 사이버 보안 영역에서의 의미까지 단계적으로 살펴봅니다. 특히 장시간 코딩 작업과 대규모 코드 변경, 그리고 보안 연구에서 어떤 가치를 제공하는지에 초점을 맞춥니다.GPT-5.2-Codex란 무엇인가GPT-5.2-Codex는 GPT-5.2를 기반으로 Codex 환경에 최적화된 에이전트형 코딩 모델입니다. 단순한 코드 생성이 아니라, 실제 개발 현장에서 발생하는 복잡한 문제를 해결하는 것을 목표로 설계되었습니다.이 모델의 핵심 방향은 다음과 같습니다.현실적인 소프트웨어 엔지니어링 ..
FunctionGemma: 엣지 환경을 위한 함수 호출 특화 경량 AI 모델 정리 이 글에서는 Google의 Gemma 3 270M 모델을 기반으로 함수 호출(Function Calling)에 특화해 공개된 FunctionGemma를 중심으로, 등장 배경과 기술 개념, 주요 특징, 활용 시나리오를 정리합니다. 특히 온디바이스·엣지 환경에서 자연어를 실제 API 실행으로 연결하는 에이전트 모델이 왜 필요한지, FunctionGemma가 어떤 해답을 제시하는지를 입력된 정보를 기반으로 살펴봅니다.Gemma 모델의 성장과 FunctionGemma의 등장 배경Gemma 모델 패밀리는 2025년 한 해 동안 1억 다운로드에서 3억 다운로드 이상으로 성장하며, 오픈 모델의 가능성을 보여주었습니다. 단일 가속기 환경에서의 고성능을 입증한 Gemma 3부터, 암 연구를 지원한 C2S Scale 이니..
스마트폰에서 LLM을 직접 실행하는 방법: ExecuTorch 기반 iOS·Android 온디바이스 배포 가이드 이 글은 대규모 언어 모델(LLM)을 직접 학습하고, 이를 iOS와 Android 스마트폰에서 로컬로 실행하는 전체 과정을 정리한 기술 블로그입니다.Unsloth, TorchAO, ExecuTorch를 활용해 Qwen3 계열 모델을 파인튜닝하고 양자화한 뒤, 실제 스마트폰(iPhone과 Android)에서 구동하는 방법과 배포 절차를 단계별로 설명합니다.클라우드 의존 없이 개인정보 보호, 즉각적인 응답, 오프라인 사용이 가능한 모바일 LLM 환경을 어떻게 구축할 수 있는지에 초점을 맞춥니다.모바일 온디바이스 LLM이 주목받는 배경기존 LLM 서비스는 대부분 서버에서 모델을 실행하고 네트워크를 통해 응답을 받는 구조입니다. 이 방식은 다음과 같은 한계를 가집니다.네트워크 지연으로 인한 응답 속도 문제민감한..
Nemotron-Cascade-14B-Thinking 모델 개념과 성능 분석: 고급 추론 특화 AI 모델 소개 이 글에서는 NVIDIA가 공개한 Nemotron-Cascade-14B-Thinking 모델에 대해 정리합니다. 해당 모델이 어떤 배경에서 만들어졌는지, 학습 파이프라인은 어떻게 구성돼 있는지, 그리고 실제 벤치마크 결과를 통해 어떤 성능을 보이는지를 중심으로 설명합니다. 또한 기존 대형 추론 모델들과 비교했을 때의 특징과, 실제 사용 시 알아두어야 할 채팅 템플릿 구조까지 함께 살펴봅니다.Nemotron-Cascade-14B-Thinking 모델 개요Nemotron-Cascade-14B-Thinking은 범용 추론 성능을 목표로 설계된 대규모 언어 모델입니다.Qwen3-14B Base 모델을 기반으로 후처리 학습(post-training) 되었으며, 순차적이고 도메인별 강화학습을 적용한 것이 핵심 특징..
Gemini 3 Flash 기술 개념과 특장점 정리: 속도와 지능을 동시에 잡은 차세대 AI 모델 이 글은 Google이 새롭게 공개한 Gemini 3 Flash 모델을 중심으로, 해당 기술의 배경과 개념, 주요 특징, 성능 지표, 그리고 개발자와 일반 사용자 관점에서 어떤 가치를 제공하는지를 정리한 IT 기술 블로그입니다.Gemini 3 Flash는 기존 Gemini 3 계열의 고급 추론 능력을 유지하면서도, 더 빠른 속도와 낮은 비용을 실현한 모델로 소개되고 있습니다. 본문에서는 Gemini 3 Flash가 왜 주목받고 있는지, 어떤 환경에서 활용될 수 있는지를 입력된 정보를 기반으로 체계적으로 설명합니다.Gemini 3 Flash 등장 배경과 포지션Google은 지난달 Gemini 3 Pro와 Gemini 3 Deep Think 모드를 시작으로 Gemini 3 모델 패밀리를 본격적으로 확장했습니..

728x90
반응형