분류 전체보기 (3024) 썸네일형 리스트형 DeepSeek-V4 아키텍처 혁신 정리: Sparse Attention과 1.6T 모델이 의미하는 것 이 글은 2026년 4월 넷째 주 공개된 DeepSeek-V4를 중심으로, 이번 모델이 어떤 기술적 배경에서 등장했고 기존 프론티어 모델들과 무엇이 달라졌는지를 정리합니다. 단순한 성능 비교가 아니라, 아키텍처 선택의 변화, 인프라 최적화 방식, 그리고 업계 전반에 던지는 시사점을 중심으로 DeepSeek-V4가 갖는 의미를 살펴봅니다.DeepSeek-V4 공개 배경과 위치GPT-5.5, 구글 클라우드 넥스트 등 굵직한 발표가 이어진 가운데, 가장 주목받은 사건은 DeepSeek-V4의 공개였습니다.R1 이후 약 1년 4개월 만에 등장한 이번 모델은 기존 V3(600B)에서 1.6T 파라미터 규모로 대폭 확장됐습니다.중요한 점은 단순히 크기만 키운 모델이 아니라는 점입니다. DeepSeek-V4는 약 4.. NVIDIA Nemotron 3 Nano Omni: 비전·오디오·언어를 하나로 통합한 고효율 멀티모달 AI 에이전트 모델 이 글은 NVIDIA가 2026년 4월 28일 공개한 Nemotron 3 Nano Omni 모델을 중심으로, 왜 멀티모달 AI 에이전트에 변화가 필요했는지, 이 모델이 어떤 기술적 특징과 효율성을 제공하는지, 그리고 실제 엔터프라이즈 환경에서 어떤 가치를 만들어내는지를 정리한 글입니다. 비전·오디오·언어를 각각 다른 모델로 처리하던 기존 구조의 한계를 짚고, 이를 하나의 모델로 통합했을 때 얻을 수 있는 실질적인 효과를 이해하는 데 목적이 있습니다.기존 AI 에이전트 구조의 한계오늘날 많은 AI 에이전트 시스템은 다음과 같은 방식으로 구성돼 있습니다.화면 인식은 비전 모델음성 처리는 오디오/스피치 모델이해와 추론은 언어 모델이 구조는 기능적으로는 동작하지만, 실제 운영 환경에서는 문제가 발생합니다.지연 .. 에이전트 시대를 대비한 Google 8세대 TPU 전략: 훈련과 추론을 분리한 두 개의 칩 이 글은 Google이 발표한 8세대 TPU(Tensor Processor Unit)를 중심으로, 왜 훈련용과 추론용 칩을 분리했는지, 각각의 아키텍처가 어떤 문제를 해결하기 위해 설계되었는지, 그리고 이 전략이 ‘에이전트형 AI’ 시대에 어떤 의미를 가지는지를 정리한 글입니다.대규모 모델 훈련과 실시간 추론이 동시에 요구되는 환경에서, 인프라가 어떻게 진화하고 있는지를 기술적 관점에서 쉽게 풀어 설명합니다.8세대 TPU 발표 배경과 개요Google은 Google Cloud Next에서 8세대 Tensor Processor Unit(TPU)를 공개했습니다. 이번 세대의 가장 큰 특징은 하나의 칩으로 모든 워크로드를 처리하려는 접근을 버리고, 훈련 전용 TPU 8t와 추론 전용 TPU 8i라는 두 가지 아.. LLM의 자기 지식으로 RAG 성능을 높이는 SKILL-RAG 프레임워크 정리 이 글에서는 대규모 언어 모델(LLM)의 자기 지식(self-knowledge) 을 활용해 기존 RAG(Retrieval-Augmented Generation)의 한계를 개선한 새로운 프레임워크 SKILL-RAG(Self-Knowledge Induced Learning and Filtering for RAG) 논문을 정리합니다.SKILL-RAG는 검색된 문서 중 불필요하거나 관련 없는 정보를 문장 단위로 정밀하게 제거해, 환각(hallucination)을 줄이고 컨텍스트 활용 효율을 크게 높이는 접근입니다. 본문에서는 SKILL-RAG가 등장한 배경, 핵심 개념과 방법론, 문서 필터링 방식, 그리고 실험 결과를 중심으로 기술 내용을 쉽게 풀어 설명합니다.RAG 시스템의 한계와 문제 인식기존 RAG 시스템.. Graph-of-Agents(GoA): 멀티 에이전트 LLM 협업의 효율성과 성능을 동시에 높이는 그래프 기반 프레임워크 이 글은 LLM(Large Language Model) 기반 다중 에이전트 시스템에서 반복적으로 제기되어 온 에이전트 선택, 에이전트 간 통신, 응답 통합의 비효율성 문제를 해결하기 위해 제안된 Graph-of-Agents(GoA) 프레임워크를 정리한 글입니다.기존 Mixture-of-Agents(MoA)가 가진 구조적 한계를 짚어보고, GoA가 어떤 방식으로 이를 개선했는지, 그리고 실제 실험 결과에서 왜 더 적은 에이전트로도 더 높은 성능을 낼 수 있었는지를 기술적 관점에서 쉽게 풀어 설명합니다.멀티 에이전트 LLM 협업의 배경과 문제의식최근 LLM의 수와 종류가 급격히 늘어나면서, 단일 모델이 아닌 여러 LLM을 협업시키는 구조가 자연스럽게 등장했습니다. 서로 다른 도메인 전문성을 가진 모델을 함께.. 대규모 언어 모델에서 발생하는 잠재적 학습 현상과 AI 안전성에 대한 시사점 이 글은 대규모 언어 모델(LLM)이 다른 모델의 출력 데이터를 기반으로 학습할 때 발생하는 잠재적 학습(subliminal learning) 현상을 다룹니다. 겉으로 보기에는 의미적으로 무관한 데이터임에도 불구하고, 교사 모델의 행동적 특성이 학생 모델로 전이되는 이유와 그 메커니즘을 정리하고, 이러한 현상이 AI 안전성과 신뢰성 평가에 어떤 영향을 주는지 살펴봅니다. 연구에서 사용된 실험 구조, 핵심 결과, 그리고 개발·운영 관점에서의 시사점을 중심으로 내용을 정리합니다.잠재적 학습이란 무엇인가잠재적 학습은 학생 모델이 교사 모델의 출력을 학습하는 과정에서, 훈련 데이터에 명시적으로 드러나지 않은 행동적 특성까지 함께 습득하는 현상을 의미합니다.여기서 중요한 점은 전이되는 특성이 데이터의 의미적 내용.. claude-obsidian으로 만드는 자율 진화형 지식 위키 이 글은 claude-obsidian이라는 오픈소스 프로젝트를 중심으로, Claude와 Obsidian을 결합해 지식을 자동으로 축적·정리·유지하는 방법을 정리한 IT 기술 소개 글입니다. 단순한 AI 메모 도구를 넘어, 읽은 모든 자료와 질문을 연결해 스스로 진화하는 위키를 만드는 구조와 특징, 그리고 실제 사용 흐름까지 입력된 정보를 기반으로 설명합니다.claude-obsidian이란 무엇인가claude-obsidian은 Claude를 지식 동반자로 활용해 Obsidian 볼트 전체를 하나의 지속적으로 성장하는 위키로 운영하는 프로젝트입니다.자료를 추가할수록 지식이 누적되고, 질문할수록 기존에 읽은 모든 맥락을 바탕으로 답변이 만들어집니다. 이 과정은 수동 정리 없이 자동으로 진행됩니다.이 프로젝트는.. Symphony: 이슈 트래커를 항상 동작하는 코딩 에이전트 오케스트레이터로 만드는 오픈소스 스펙 이 글은 코딩 에이전트를 “직접 관리해야 하는 도구”가 아니라, “항상 돌아가는 시스템”으로 바꾸기 위해 등장한 오픈소스 스펙 Symphony에 대한 정리입니다.Symphony는 이슈 트래커(예: Linear)를 중심에 두고, 각 작업(Task)에 코딩 에이전트를 자동으로 할당·실행·관리하는 오케스트레이션 방식입니다.기존 인터랙티브 에이전트 사용의 한계를 어떻게 해결했는지, Symphony의 구조와 동작 방식, 그리고 실제로 어떤 변화가 있었는지를 중심으로 살펴봅니다.코딩 에이전트가 가진 근본적인 한계: 컨텍스트 스위칭코딩 에이전트는 빠르고 강력하지만, 대부분 인터랙티브 도구라는 한계를 갖고 있습니다.여러 Codex 세션을 동시에 열어두고각 세션에 작업을 지시하고중간 결과를 확인하며 방향을 수정하는 방식.. 이전 1 2 3 4 ··· 378 다음