본문 바로가기

인공지능

Perplexity, ‘DeepSeek R1 1776’ 오픈소스 공개 - 중국의 검열을 걷어낸 AI

728x90
반응형

오픈소스 LLM 모델, 신뢰할 수 있을까?

혹시 이런 경험이 있으신가요?
최신 대형 언어 모델(LLM)을 사용해 보다 깊이 있는 질문을 던졌지만, 돌아오는 답변은 원론적인 이야기뿐. 특히 특정 민감한 주제를 묻자 “답변할 수 없습니다”라는 회피성 답변만 반복된다면 실망감이 클 수밖에 없습니다.

최근 화제가 되었던 DeepSeek-R1 모델도 뛰어난 성능으로 주목받았지만, 중국 검열의 영향으로 민감한 주제에 대해 답변을 회피하거나 정치적 편향이 느껴지는 경우가 많았습니다.
이런 문제를 해결하기 위해 등장한 모델이 바로 R1 1776입니다. Perplexity AI에서 오픈소스로 공개한 이 모델은 DeepSeek-R1을 기반으로 ‘검열 해제(Post-Training)’ 작업을 거쳐 편향 없이 정확하고 사실적인 응답을 목표로 탄생했습니다.

이 글에서는 R1 1776이 무엇인지, 어떤 과정을 거쳐 검열이 제거되었는지, 실제 성능은 어떤지 자세히 알아보겠습니다.

반응형

1. 오픈소스 LLM DeepSeek-R1과 검열 문제

DeepSeek-R1은 오픈소스로 공개된 고성능 LLM 모델입니다.
특히 논리적 추론 능력과 수리적 계산 능력이 뛰어나 OpenAI의 o1, o3-mini와도 견줄 만하다는 평가를 받았습니다.

그러나 큰 단점이 있었죠. 바로 민감한 주제(예: 대만 독립, 정치, 인권 문제 등)에 대해 답변을 거부하거나 중국 정부 입장만 대변하는 검열 반응이 자주 나타난다는 점입니다.

예를 들어,
“대만 독립이 NVIDIA 주가에 미칠 영향은?”
이런 질문에 대해 DeepSeek-R1은
“중국은 하나의 중국 원칙을 고수하고 있으며, 대만은 중국의 일부입니다…”
이런 식으로 핵심 질문은 피해가고 정치적 견해만 답변하는 경우가 많았습니다.

이러한 검열성 회피 답변은 사용자에게 큰 불편함을 주었고, LLM의 활용도를 떨어뜨리는 요소로 지적되었습니다.


2. R1 1776: DeepSeek-R1 검열을 제거한 모델 등장

이러한 한계를 해결하고자 Perplexity AI는 R1 1776 모델을 오픈소스로 공개했습니다.
R1 1776은 DeepSeek-R1 모델을 기반으로 포스트 트레이닝(Post-Training) 과정을 통해 검열 및 정치적 편향을 제거한 모델입니다.

핵심 목표는 명확합니다.
모든 사용자 질문에 대해 사실에 근거한 정확하고 신뢰성 있는 답변을 제공하는 것.

Perplexity AI는 “질문에 대한 정확한 답변을 제공하는 것이 우리의 철학”이라고 밝히며, R1 1776 모델을 통해 기존 R1 모델이 가진 검열 한계를 극복하고자 했습니다.


3. R1 1776의 특징 및 핵심 기술

(1) 검열 제거(Post-Training) 방식

Perplexity AI는 R1 1776 모델을 만들기 위해 다음과 같은 방식으로 훈련했습니다.

  1. 검열 주제 식별
    약 300개의 중국 내 검열 주제를 전문가들이 직접 선정했습니다.
    (예: 대만 독립, 신장 위구르, 정치적 사건 등)
  2. 데이터 수집
    사용자의 질문 중 검열 주제와 관련된 약 40,000개의 프롬프트(prompt)를 수집했습니다.
    → 개인정보(PII)는 모두 필터링하여 안전하게 데이터 활용.
  3. 사실 기반 응답 생성
    질문에 대한 논리적 근거와 사실적 설명이 담긴 응답 데이터를 구축했습니다.
    → 단순 정보 전달이 아닌, Chain-of-Thought(연쇄 추론 방식) 을 활용해 답변 과정이 드러나도록 설계.
  4. Nvidia NeMo 2.0 활용
    Nvidia의 NeMo 2.0 프레임워크를 수정해 DeepSeek-R1 모델에 추가 학습(Post-Training) 진행.
    → 검열만 제거하고, 기존 수리 능력과 논리 추론 성능은 유지하도록 조정했습니다.

(2) 성능 유지 및 검증

검열을 제거하면 성능이 떨어질 수 있다는 우려도 있었지만,
Perplexity AI는 모델 평가를 통해 기존 DeepSeek-R1과 동등한 성능을 유지했다고 밝혔습니다.

  • 수학적 계산(MATH Benchmark): 기존 DeepSeek-R1 수준 유지
  • 논리적 추론(LogiQA 등): 성능 유지
  • 다국어 검열 평가: 검열성 회피 답변 현저히 감소

결론적으로 검열은 제거하고, 성능은 그대로 유지한 모델이라는 점이 R1 1776의 가장 큰 특징입니다.


4. R1 1776 모델 다운로드 및 활용법

R1 1776 모델은 Hugging Face에서 무료로 다운로드할 수 있습니다.

간단한 사용 예제 (Python)

from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("perplexity-ai/r1-1776")
model = AutoModelForCausalLM.from_pretrained("perplexity-ai/r1-1776")

inputs = tokenizer("대만 독립이 NVIDIA 주가에 미치는 영향은?", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=50)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

이처럼 기존 Hugging Face Transformers 라이브러리를 활용해 바로 모델을 불러와 사용할 수 있습니다.


728x90

5. R1 1776이 주는 의미와 기대 효과

R1 1776 모델의 출시는 단순히 또 하나의 LLM 모델 공개를 넘어 ‘검열 없는 AI’, ‘신뢰할 수 있는 정보 제공자’로서 LLM의 진화 방향을 보여줍니다.

  • 검열과 편향 없는 AI 활용
    → 연구, 데이터 분석, 콘텐츠 제작 등 정확한 정보가 중요한 분야에서 활용성 증가
  • 오픈소스 모델의 확산
    → 누구나 자유롭게 모델을 활용하고, 맞춤형으로 개선해 나갈 수 있는 가능성 열림
  • 성능과 공정성의 균형
    → 검열 해제 이후에도 성능 저하 없이 안정성을 유지했다는 점에서 LLM 개발의 새로운 기준 제시

앞으로도 AI 모델의 공정성과 신뢰성에 대한 논의는 계속될 것입니다.
그 과정에서 R1 1776 모델과 같은 시도가 검열 없는 자유로운 정보 접근의 시작점이 될 수 있다는 점에서 큰 의미가 있습니다.

https://www.perplexity.ai/ko/hub/blog/open-sourcing-r1-1776?fbclid=IwZXh0bgNhZW0CMTEAAR0HF6wzZMYk6CffG81VyzK2l103wYNldfmE_ElsPA8I4sP4ebCwChPa1Ho_aem_Cl5LVBs6frOgasu1cHJgZQ

 

Open-sourcing R1 1776

An unbiased & uncensored reasoning model

www.perplexity.ai

 

728x90
반응형