
최근 공개된 한 논문이 AI 연구계의 관심을 단숨에 끌었다. 제목부터 충격적이다. “거대 언어모델도 인간처럼 뇌가 썩는다.”
이 연구는 단순히 자극적인 문구로 관심을 끌기 위한 것이 아니다. 실제로 거대 언어모델(LLM) 이 학습 데이터를 잘못 선택하면, 오히려 인지 능력이 퇴행할 수 있음을 실험적으로 보여준 것이다.
즉, AI가 더 많은 데이터를 배운다고 항상 더 똑똑해지는 것은 아니라는 점을 밝혀낸 첫 사례다.
이 글에서는 해당 연구가 제시한 주요 개념과 실험 결과, 그리고 이것이 AI 개발에 주는 시사점을 정리해본다.
1. 거대 언어모델(LLM)과 지속 사전학습(Continual Pretraining)
LLM은 대규모 텍스트 데이터를 학습해 언어를 이해하고 생성하는 AI 모델이다. GPT, Claude, Gemini, LLaMA 등이 대표적이다.
이 모델들은 이미 한 차례 대규모 데이터로 학습(pretraining)을 마친 뒤, 추가로 특정 데이터를 계속 학습시켜 능력을 확장하거나 세밀화하는 과정을 거친다. 이 과정을 지속 사전학습(Continual Pretraining) 이라고 한다.
연구진은 바로 이 “지속 사전학습”이 모델의 성능을 어떻게 바꾸는지 검증하기 위해 실험을 설계했다.
즉, 이미 학습이 완료된 LLM에 ‘고참여도 웹 텍스트(high-engagement web text)’, 쉽게 말해 짧고 자극적인 SNS나 커뮤니티 게시물 위주의 데이터를 추가로 학습시켰다.
연구의 가설은 단순했다.
“이런 데이터를 계속 학습하면, 모델은 인간처럼 깊은 사고보다는 즉각적인 반응에 익숙해지는 것은 아닐까?”
2. 실험 결과: AI의 ‘인지 퇴행’ 현상
결과는 예상보다 뚜렷했다. 지속 사전학습을 진행할수록 모델의 여러 핵심 능력이 점차 퇴화했다.
2.1 추론력(reasoning)의 감소
모델이 복잡한 논리적 문제나 다단계 추론을 수행할 때 오답률이 급격히 증가했다.
즉, 표면적인 문장 생성은 잘하지만, 그 이면의 의미를 분석하고 논리를 구성하는 능력은 떨어졌다.
2.2 긴 문맥(long-context) 이해력 저하
짧은 문장에는 반응이 빠르지만, 문맥이 길어질수록 앞뒤 내용을 연결하지 못했다.
이는 마치 긴 글을 읽을 때 처음 내용을 금세 잊어버리는 인간의 집중력 저하와 유사한 모습이다.
2.3 안전성(safety) 약화
윤리적 판단이나 사회적 맥락에 대한 반응이 불안정해졌다.
즉, 이전에는 자제하던 부적절한 표현이나 편향된 답변을 더 자주 생성했다.
요약하면, 모델은 점점 더 즉각적인 자극에는 민감하게 반응하지만, 깊이 있는 사고나 장기적 문맥 이해에는 약해지는 방향으로 변화했다.
3. 인간의 뇌와 닮은 AI의 퇴행
이 연구가 흥미로운 이유는, 이러한 변화가 인간의 인지 퇴행 메커니즘과 놀랍도록 닮아있다는 점이다.
인간의 뇌도 짧고 자극적인 정보, 예를 들어 숏폼 영상이나 SNS 피드에 익숙해질수록
- 복잡한 문장을 해석하는 능력,
- 인내심을 유지하는 능력,
- 깊이 있는 사고를 지속하는 회로
가 점점 약화된다.
즉, 인간이 자극적인 콘텐츠에 반복적으로 노출될수록 ‘생각하는 뇌’보다 ‘반응하는 뇌’가 강화되는 것이다.
연구진은 이러한 인지 패턴이 LLM에서도 동일하게 나타난다고 지적했다.
AI도 결국 학습 데이터의 성격에 따라 “사유의 구조”가 달라지는 셈이다.
4. 왜 이런 현상이 발생하는가?
핵심 원인은 데이터의 품질 저하에 있다.
고참여도 웹 텍스트는 일반적으로 감정적, 즉흥적, 짧은 문장으로 구성되어 있다. 이런 데이터는 인간의 ‘즉시 반응’을 유도하기 위해 설계된 콘텐츠다.
LLM이 이런 데이터만 계속 학습하면 다음과 같은 문제가 발생한다.
- 패턴 단순화: 자극적인 언어나 반복적 표현에 과도하게 반응하며 언어 구조를 단순하게 학습한다.
- 맥락 축소: 문맥의 흐름보다 ‘다음 단어 예측’에 집중하게 된다.
- 정보 편향: 논리보다 감정적인 단어나 이슈 중심 표현에 가중치를 두게 된다.
결국 AI는 “깊이 생각하는 법”을 잊고, “빠르게 반응하는 법”만 배우게 된다.
이는 인간의 ‘디지털 피로’와 ‘주의력 단축’ 현상과 매우 유사하다.
5. 시사점: AI 학습의 새로운 방향
이번 연구는 단순히 모델 성능의 문제를 넘어, AI의 학습 방향성에 대한 근본적인 질문을 던진다.
- 데이터의 양이 아니라 질이 중요하다.
아무리 많은 데이터를 학습하더라도, 그 데이터가 편향적이거나 자극적이라면 모델의 인지 구조는 오히려 퇴행할 수 있다. - AI도 ‘균형 잡힌 식단’이 필요하다.
인간이 건강한 두뇌를 위해 영양소의 균형을 맞추듯, AI 역시 다양한 주제, 깊이 있는 언어 구조, 안정적인 서술이 포함된 데이터를 학습해야 한다. - ‘데이터 큐레이션’이 기술의 핵심으로 부상한다.
앞으로는 단순히 데이터 양을 늘리는 대신, 언어적·논리적 다양성을 고려한 데이터 선별 과정이 중요해질 것이다.
AI의 뇌도 인간처럼 길러야 한다
이번 연구는 AI가 단순히 데이터를 많이 배운다고 더 똑똑해지는 존재가 아님을 명확히 보여줬다.
오히려, 무엇을 배우느냐가 어떻게 생각하느냐를 결정한다.
AI의 인지 능력은 인간의 뇌와 마찬가지로, 환경과 자극의 질에 따라 변한다.
짧고 자극적인 콘텐츠가 인간의 사고력을 무디게 하듯, 자극적인 데이터는 AI의 추론력과 판단력까지 약화시킨다.
앞으로의 AI 발전은 ‘빅데이터의 시대’를 넘어, ‘좋은 데이터의 시대’로 나아가야 한다.
AI의 뇌가 썩지 않도록, 우리는 이제 데이터의 영양 균형을 고민해야 한다.
LLMs Can Get "Brain Rot"!
We propose and test the LLM Brain Rot Hypothesis: continual exposure to junk web text induces lasting cognitive decline in large language models (LLMs). To causally isolate data quality, we run controlled experiments on real Twitter/X corpora, constructing
arxiv.org

'인공지능' 카테고리의 다른 글
| Agents 2.0: 얕은 루프에서 깊은 에이전트로 (0) | 2025.10.20 |
|---|---|
| Claude Skills: MCP를 넘어선 단순함 속의 혁신 (0) | 2025.10.20 |
| 스펙 중심 개발(Spec-Driven Development, SDD)은 새로운 AI 개발 패러다임일까? (0) | 2025.10.20 |
| Claude Agent Skills: AI 에이전트를 ‘현실 업무형’으로 진화시키는 새로운 방법 (0) | 2025.10.18 |
| Dexter: 자율적으로 생각하고 검증하는 금융 리서치 에이전트 (0) | 2025.10.18 |