
생성형 AI 서비스를 만들다 보면 누구나 같은 고민에 부딪힌다. 같은 입력을 넣어도 매번 다른 답을 내놓고, 예측 불가능한 사용자 질문은 끊임없이 튀어나온다. 이 때문에 잘 만들어진 모델도 예상치 못한 답변을 하거나, 안전 규칙을 벗어나거나, 전혀 다른 문맥을 따라가 버릴 때가 많다. 문제는 이런 상황을 기존의 방식으로는 충분히 테스트할 수 없다는 점이다.
Rhesis는 바로 이 문제를 해결하기 위해 만들어진 오픈소스 기반 GenAI 테스트 자동화 플랫폼이다. 사람이 일일이 테스트 케이스를 만들 필요 없이, 자연어로 규칙을 작성하면 AI가 수백 개의 테스트 시나리오를 생성하고, 결과를 평가해 어디서 문제가 발생하는지 자동으로 알려준다. 생성형 AI QA 과정을 반복적으로 경험한 사람이라면 왜 이런 도구가 필요한지 즉시 이해할 것이다.
이 글에서는 Rhesis가 어떤 문제를 해결하는지, 어떻게 작동하는지, 그리고 실제로 AI 애플리케이션 개발팀에 어떤 가치를 주는지 명확하게 정리해본다.
LLM 테스트가 어려운 이유
생성형 AI 테스트가 유난히 어렵게 느껴지는 이유는 명확하다. 모델 출력이 비결정적이며, 사용자 입력 또한 예측할 수 없기 때문이다. 동일한 질문을 해도 매번 다른 응답을 받을 수 있기 때문에 전통적인 방식의 테스트는 한계가 분명하다.
기존 방식으로는 다음 문제가 발생한다.
- 수작업 테스트는 시간과 자원이 많이 들고, 케이스를 무한히 늘릴 수도 없다.
- 유닛 테스트는 고정된 입력과 고정된 출력을 전제로 하지만 LLM은 기본적으로 출력을 단정할 수 없다.
- 실서비스 단계에서 발생하는 문제는 사전에 막기 어렵고, 문제 발생 이후에만 대응할 수 있다.
- 레드팀 테스트는 단발성 테스트에 그치기 때문에 지속적인 품질 관리를 대체하기 어렵다.
결국 생성형 AI에서는 기존의 테스트 방식만으로는 안전성, 정확성, 규정 준수 여부 등을 충분히 검증할 수 없다. 더 지속적이고 자동화된 방식이 필요하다.
Rhesis란 무엇인가
Rhesis는 생성형 AI 애플리케이션을 위한 자동화 테스트 플랫폼이다. 사용자가 자연어로 “앱이 지켜야 할 요구사항”을 적으면 AI가 이를 기반으로 다양한 테스트 입력을 생성하고, 실제 애플리케이션에 요청을 보내 결과를 평가한다.
핵심 구성은 다음과 같다.
- Plain English 요구 정의
- AI 기반 테스트 시나리오 생성
- 테스트 실행 (UI 또는 API, SDK 등 개발 환경에서 실행 가능)
- LLM 기반 자동 평가
- 테스트 결과 분석 및 개선 작업 관리
이 과정을 통해 사람이 놓칠 수 있는 수많은 엣지 케이스를 자동으로 발견하고, 어떤 조건에서 문제가 발생하는지 한눈에 파악할 수 있다.
기존 테스트 방식의 한계를 넘어서는 접근
Rhesis가 제공하는 가장 큰 차별점은 "사람이 설계할 수 없는 테스트 범위를 자동으로 확장해준다"는 점이다.
특히 다음 상황에서 강점을 발휘한다.
- 다중 턴 대화에서만 발생하는 문제를 잡아내기 어려운 경우
- 정책 위반, 정보 누락, 명령 무시 등 다양한 실패 모드를 자동으로 찾아야 하는 경우
- 비기술 인력도 테스트 요구사항을 정의해야 하는 팀 환경
- 수백~수천 개 테스트를 반복적으로 실행해야 하는 CI/CD 파이프라인 운영
Rhesis는 단일 턴 질문뿐 아니라 실제 사용자처럼 여러 번 주고받는 대화를 통해 문제를 찾는 멀티턴 테스트도 지원한다. 이는 Penelope라는 대화형 테스트 에이전트를 통해 가능하며, 단순한 Q&A 수준이 아니라 복잡한 맥락 추적과 조건 변화를 테스트할 수 있다.
Rhesis의 작동 방식
1. 요구사항 정의
기술 용어를 사용하지 않아도 된다. 예를 들어 다음처럼 자연어로 쓰면 된다.
- 항상 출처를 명시해야 한다.
- 의료 진단을 제공해서는 안 된다.
- 개인정보를 추론하거나 출력해서는 안 된다.
- 해서는 안 되는 조언은 반드시 거부해야 한다.
누구나 작성할 수 있기 때문에 개발자뿐 아니라 법무, 컴플라이언스, 마케팅 등 다양한 팀이 함께 품질 기준을 정리할 수 있다.
2. 테스트 시나리오 자동 생성
입력된 요구사항을 기반으로 Rhesis는 다음과 같은 시나리오를 생성한다.
- 규칙 위반을 유도하는 문장
- 우회 프롬프트
- 합법/불법을 모호하게 섞은 질문
- 장황하거나 특수한 문맥을 가진 입력
- 멀티턴 대화 기반 시나리오
사람이 직접 설계할 때보다 훨씬 다양한 유형의 입력을 만들 수 있다.
3. 테스트 실행
생성된 테스트는 UI를 통해 실행하거나, 개발 환경에서 직접 호출할 수도 있다.
이때 단일 턴, 멀티 턴 테스트 모두 가능하다.
4. LLM 기반 평가
단순 문자열 비교가 아니라 요구사항을 기준으로 LLM이 “지켰는가, 위반했는가”를 자동으로 판단한다.
이를 통해 비결정적 출력을 효과적으로 검증할 수 있다.
5. 품질 분석 및 협업
UI에는 테스트 결과가 정리되어 표시되며, 문제 지점마다 다음과 같은 기능이 제공된다.
- 팀원 간 댓글
- 작업 생성
- 리뷰 요청
- 재테스트
이렇게 실제 서비스 개선까지 연결되는 구조를 갖추고 있다.
Rhesis만의 차별점
Rhesis가 다른 플랫폼과 구별되는 요소는 다음과 같다.
단일 턴 + 멀티 턴 테스트 모두 지원
Penelope라는 에이전트가 실제 사용자처럼 여러 번 대화를 이어가며 문제를 유도한다.
이는 일반적인 자동 테스트 도구에서는 거의 제공하지 않는 기능이다.
기술/비기술 역할 모두를 위한 플랫폼
- 비기술 담당자: UI에서 요구사항 정리, 테스트 결과 리뷰
- 엔지니어: SDK 통합, CI/CD 자동화
팀 단위 협업을 자연스럽게 지원한다.
자동 생성 테스트 케이스
사람이 일일이 만들 필요 없이, 의미 있는 케이스들이 연속적으로 생성된다.
사전 구축된 평가 메트릭
RAGAS, DeepEval 등 널리 쓰이는 평가 기준들이 기본 탑재되어 있어 직접 구현할 필요가 없다.
오픈소스 기반
MIT 라이선스 기반으로 누구나 자유롭게 사용할 수 있으며, 핵심 기능은 오픈소스로 유지된다.
Rhesis는 생성형 AI 애플리케이션의 테스트 방식을 근본적으로 바꾸는 도구다.
비결정적인 LLM 출력 특성 때문에 기존 테스트 방식이 무력해지는 환경에서, 자동화된 테스트 시나리오 생성과 LLM 기반 평가를 통해 다음과 같은 가치를 제공한다.
- 출시 전 문제를 선제적으로 발견
- 팀 단위 협업 강화
- 테스트 자동화를 통한 QA 비용 절감
- 규정 준수, 보안, 안전성 측면에서의 리스크 감소
- 더 빠른 제품 개선 사이클 구축
LLM과 에이전트 기반 애플리케이션이 점점 중요해지는 지금, Rhesis는 개발팀이 꼭 갖춰야 할 필수 테스트 인프라로 자리 잡을 가능성이 높다.
https://github.com/rhesis-ai/rhesis/
GitHub - rhesis-ai/rhesis: Open-source testing platform & SDK for LLM and agentic applications. Define what your app should and
Open-source testing platform & SDK for LLM and agentic applications. Define what your app should and shouldn't do in plain language, and Rhesis generates hundreds of test scenarios, runs th...
github.com

'인공지능' 카테고리의 다른 글
| 구글의 ‘중첩 학습(Nested Learning)’ 패러다임 (0) | 2025.11.24 |
|---|---|
| AI 에이전트를 마케팅에 활용하는 방법: SafetyCulture 사례로 보는 GTM 혁신 (0) | 2025.11.24 |
| Nano Banana Pro: 이미지 생성 모델의 혁신 이미지 생성 과정 고도화 여정 (0) | 2025.11.22 |
| 메타 SAM 3 공개: 범용 개념 분할 모델 등장 (0) | 2025.11.22 |
| 클라우드에서도 내 데이터가 안전할까? 구글 Private AI Compute가 제시한 새로운 답 (0) | 2025.11.20 |