xAI는 OpenAI가 GPT-Realtime-2를 출시한 같은 주에 Grok Voice를 출시했습니다. 2026년에 음성 모델을 선택하는 개발자는 이제 두 가지 플래그십 옵션을 비교해야 합니다. 두 모델 모두 추론 기능을 갖춘 음성-음성 모델이고, WebSocket으로 실행되며, 도구 사용을 지원하고, 사람에 가까운 억양으로 응답합니다. 선택 기준은 지연 시간, 가격, 음성 카탈로그, 추론 깊이, 그리고 SIP, 이미지 입력, 음성 복제 필요 여부입니다.
이 글에서는 Grok Voice와 GPT-Realtime-2를 API 관점에서 비교하고, 일반적인 음성 에이전트 유형별로 어떤 모델을 선택해야 하는지 정리합니다.
단독 구현 가이드는 GPT-Realtime-2 사용 방법 및 Grok Voice 무료 사용 방법을 참조하세요. 부하 상태에서 두 모델을 스트레스 테스트하려면 Apidog가 WebSocket 세션을 기본적으로 처리합니다.
요약
-
Grok Voice (
grok-voice-think-fast-1.0)는 지연 시간, 무료 콘솔 액세스, 80개 이상의 음성 카탈로그, 28개 언어 TTS, 음성 복제에서 강점이 있습니다. - GPT-Realtime-2는 GPT-5급 추론, 128k 컨텍스트, 이미지 입력, 네이티브 SIP, MCP 지원에서 강점이 있습니다.
- 유료 사용 기준으로 GPT-Realtime-2는 오디오 토큰 1백만 개당 입력 $32, 출력 $64입니다.
- Grok Voice는 콘솔에서 음성 기능에 대한 분당 오디오 요금이 없고, Grok 4.3 추론에 대해 입력 $1.25/출력 $2.50 per 1M tokens를 지불합니다.
- 대용량, 저지연 소비자 앱 또는 음성 복제가 필요하면 Grok Voice를 우선 검토하세요.
- 복잡한 추론, 멀티모달 음성 에이전트, SIP 기반 콜센터 배포에는 GPT-Realtime-2가 더 적합합니다.
- Apidog에서 WebSocket 테스트를 한 번 구성한 뒤 URL만 바꿔 두 모델을 비교할 수 있습니다.
한 표로 보는 두 모델
| 기능 | Grok Voice (grok-voice-think-fast-1.0) |
GPT-Realtime-2 |
|---|---|---|
| 첫 오디오까지의 시간 | 1초 미만. xAI 주장: 가장 가까운 경쟁자보다 약 5배 빠름 |
low 추론 시 1초 미만, high/xhigh에서는 더 느림 |
| 추론 수준 | 낮음 / 중간 / 높음. 기반: Grok 4.3 | 최소 / 낮음 / 중간 / 높음 / 최고 |
| 기반 지능 | Grok 4.3. 지능 지수 53 | GPT-5급 |
| 컨텍스트 창 | 1,000,000 토큰. Grok 4.3 기준 | 128,000 토큰 |
| 사전 설정 음성 | 80개 이상. 음성 에이전트 페르소나: Eve, Ara, Rex, Sal, Leo | 10개. Cedar, Marin 및 재조정된 8개 음성 |
| 언어, TTS | 28개 | 공식적으로 집계되지 않음 |
| 언어, STT | 25개 | GPT-Realtime에서 상속 |
| 음성 복제 | 예. 1분 샘플, 2분 미만 훈련 | 아니요 |
| 이미지 입력 | 아니요. 텍스트 + 오디오 | 예. 사진, 스크린샷 |
| 원격 MCP 서버 | 도구 사용 가능. 네이티브 MCP는 아직 홍보되지 않음 | 예. API를 통해 MCP 도구 실행 |
| 네이티브 SIP / 전화 통화 | 자체 SIP 공급자 필요 |
예. ?call_id={call_id} 엔드포인트 |
| 오디오 형식 | PCM16, MP3, μ-law | PCM16, G.711 μ-law, A-law |
| 가격 모델 | 콘솔에서 음성 기능은 무료. Grok 4.3 추론에 대해서만 입력 $1.25/출력 $2.50 per 1M tokens | 오디오 입력 $32/1M, 오디오 출력 $64/1M, 텍스트 입력 $4/출력 $24 per 1M tokens |
| 규정 준수 | SOC 2 Type II, HIPAA 적격 BAA, GDPR | SOC 2, GDPR. OpenAI Enterprise 기준 |
지연 시간: Grok Voice가 유리
xAI는 grok-voice-think-fast-1.0이 “가장 가까운 경쟁자보다 거의 5배 빠르다”고 주장합니다. 자체 벤치마크이므로 배율 자체는 보수적으로 봐야 하지만, 경향은 명확합니다.
- Grok Voice: 첫 오디오까지 1초 미만으로 안정적
- GPT-Realtime-2: 추론 수준에 따라 약 800ms–1500ms 범위
전화 통화에서는 600ms와 1200ms의 차이가 큽니다. 사용자는 “사람처럼 대화한다”와 “봇이 기다렸다가 답한다”를 지연 시간으로 판단합니다.
선택 기준
- 모바일 앱, 소비자 앱, 인터랙티브 캐릭터처럼 반응 속도가 핵심이면 Grok Voice를 먼저 테스트하세요.
- 응답 품질과 복잡한 추론이 더 중요하면 GPT-Realtime-2의 높은 추론 설정을 함께 측정하세요.
가격: 단위가 다르므로 같은 방식으로 환산해야 함
두 모델은 가격 구조가 다릅니다.
GPT-Realtime-2
GPT-Realtime-2는 음성을 토큰 단위로 과금합니다.
- 오디오 입력: $32 / 1M tokens
- 오디오 출력: $64 / 1M tokens
- 텍스트 입력: $4 / 1M tokens
- 텍스트 출력: $24 / 1M tokens
1초 오디오는 약 50토큰입니다. 균형 잡힌 턴 교환이 있는 5분 대화는 약 30,000 오디오 토큰이 될 수 있으며, 오디오 입출력 비용은 약 $1.50 수준입니다. 안정적인 시스템 프롬프트는 캐시 입력으로 비용을 줄일 수 있습니다.
Grok Voice
Grok Voice는 xAI 콘솔에서 TTS, STT, 음성 에이전트, 사용자 지정 음성에 대한 분당 또는 토큰당 음성 요금이 없습니다. Grok 4.3 추론에 대해서만 과금됩니다.
- 입력: $1.25 / 1M tokens
- 출력: $2.50 / 1M tokens
동일한 5분 통화에서 추론 토큰은 오디오 토큰보다 대략 한 자릿수 적기 때문에 비용이 $0.10 미만으로 나올 수 있습니다.
선택 기준
- 하루 10,000분 이상 통화하는 대용량 소비자 앱이면 Grok Voice가 비용 면에서 유리합니다.
- 소량이지만 중요도가 높은 영업, 규제 지원, 복잡한 고객 상담이면 가격보다 추론 품질을 우선해서 비교하세요.
관련 가격 자료:
추론 깊이: GPT-Realtime-2가 유리
GPT-Realtime-2는 OpenAI가 “GPT-5급”이라고 설명하는 음성-음성 모델입니다.
발표된 벤치마크 기준:
- Big Bench Audio: 96.6%
- 이전 모델: 81.4%
- Audio MultiChallenge: 48.5%
- 이전 모델: 34.7%
또한 minimal부터 xhigh까지 5가지 추론 수준을 제공하므로 요청별로 품질과 지연 시간을 조절할 수 있습니다.
Grok Voice는 Grok 4.3을 기반으로 합니다. Grok 4.3은 Artificial Analysis에서 지능 지수 53을 기록했고, 146개 모델 중 10위에 해당합니다. 특히 에이전트 작업에서 강력하지만, 공개된 음성-음성 추론 벤치마크에서는 GPT-Realtime-2가 더 앞서 있습니다.
선택 기준
- 사용자의 의도를 명확히 해야 함
- 여러 도구를 순서대로 호출해야 함
- 긴 대화 기록을 바탕으로 판단해야 함
- 실패한 도구 호출에서 복구해야 함
이런 패턴이 많으면 GPT-Realtime-2가 더 안전합니다.
FAQ 응답, 간단한 예약, 리드 수집처럼 흐름이 단순하면 Grok Voice의 지연 시간과 비용 이점이 더 중요할 수 있습니다.
음성 카탈로그: Grok은 개수, OpenAI는 일관성
Grok은 28개 언어에 걸쳐 80개 이상의 사전 설정 음성을 제공합니다. 음성 에이전트에는 Eve, Ara, Rex, Sal, Leo의 5가지 페르소나가 있으며, 더 넓은 TTS 표면에서는 더 큰 음성 라이브러리를 사용할 수 있습니다.
GPT-Realtime-2는 총 10개 음성을 제공합니다.
- 신규 Realtime API 전용 음성: Cedar, Marin
- 재조정된 기존 음성: alloy, ash, ballad, coral, echo, sage, shimmer, verse
OpenAI의 라이브러리는 작지만, 음성 간 일관성이 높습니다. 모든 음성이 동일한 오디오 스택을 사용하고 억양 제어가 비슷하게 동작합니다.
선택 기준
- 특정 지역 억양, 브랜드 음성, 캐릭터 음성, 음성 복제가 필요하면 Grok Voice
- 적은 수의 고품질 음성과 예측 가능한 동작이 중요하면 GPT-Realtime-2
음성 복제: Grok Voice만 제공
xAI의 Custom Voices는 약 1분 분량의 깨끗한 음성 샘플에서 음성을 복제하고, 2분 이내에 voice_id를 반환합니다. 동일한 voice_id는 TTS 엔드포인트와 음성 에이전트에서 사용할 수 있습니다.
OpenAI는 현재 Realtime API에서 음성 복제 기능을 노출하지 않습니다.
따라서 음성 복제가 필수 요구사항이면 선택지는 Grok Voice입니다.
이미지 입력: GPT-Realtime-2만 제공
GPT-Realtime-2는 텍스트, 오디오, 이미지를 입력으로 받을 수 있습니다. 예를 들어 사용자 턴에 스크린샷이나 사진을 첨부하고, 에이전트에게 설명을 요청한 뒤 계속 음성 대화를 이어갈 수 있습니다.
적합한 사용 사례:
- 현장 지원
- 음성 기반 QA
- 접근성 내레이션
- 화면을 보며 진행하는 고객 지원
- 사진 기반 문제 진단
Grok Voice는 현재 이 패턴을 지원하지 않습니다.
OpenAI의 비전 스택은 GPT-Image-2 API 사용 방법을 참조하세요.
SIP 및 전화 통합: GPT-Realtime-2는 네이티브, Grok은 브리지 필요
OpenAI Realtime API는 네이티브 SIP를 지원합니다. SIP 트렁크를 OpenAI 게이트웨이로 연결하면 수신 전화가 다음 형태의 WebSocket 세션을 엽니다.
wss://api.openai.com/v1/realtime?call_id={call_id}
이 방식은 별도의 SIP-to-WebSocket 브리지 레이어를 줄일 수 있습니다.
Grok Voice는 전화 통화에 필요한 μ-law 출력을 지원하지만, 자체 SIP 공급자를 사용해야 합니다.
예:
- Twilio
- Telnyx
- Plivo
이 경우 SIP 공급자와 Grok Voice 사이의 브리지를 직접 운영해야 합니다.
선택 기준
- 콜센터 에이전트를 빠르게 배포해야 하면 GPT-Realtime-2
- 이미 SIP 브리지를 운영 중이고 비용과 지연 시간이 더 중요하면 Grok Voice도 검토 가능
MCP 및 도구 사용
두 모델 모두 함수 호출을 지원합니다. 차이는 도구 실행 방식입니다.
GPT-Realtime-2
GPT-Realtime-2는 원격 MCP 서버를 기본적으로 지원합니다. 서버 URL과 도구 허용 목록을 구성하면 Realtime API가 MCP 도구를 실행합니다. 애플리케이션 서버가 모든 함수 호출 이벤트를 직접 중계하지 않아도 됩니다.
도구가 많은 에이전트에 적합합니다.
예:
- 은행 상담 에이전트
- CRM 기반 영업 에이전트
- 내부 운영 자동화 에이전트
- 50개 이상의 API 엔드포인트를 다루는 음성 에이전트
Grok Voice
Grok Voice는 함수 호출을 지원하고 내장 web_search 도구를 제공합니다. 다만 MCP가 아직 일급 프리미티브로 홍보되지는 않았습니다.
도구 수가 5개 이하이고 이벤트 루프를 직접 구현해도 된다면 Grok Voice에서도 충분히 구현할 수 있습니다.
MCP 서버 자체를 테스트하려면 Apidog에서 MCP 서버 테스트를 참조하세요.
한 줄 선택 가이드
- 소비자 음성 앱, 대용량, 지연 시간 중요: Grok Voice
- 음성 복제 필요: Grok Voice
- 맞춤형 브랜드 음성 또는 캐릭터 음성: Grok Voice
- 10개 이상 언어의 대규모 TTS: Grok Voice
- 스크린샷을 이해해야 하는 음성 에이전트: GPT-Realtime-2
- SIP 기반 콜센터 배포: GPT-Realtime-2
- 50개 이상의 도구를 사용하는 다단계 에이전트: GPT-Realtime-2
- MCP 기반 도구 실행: GPT-Realtime-2
- 긴 컨텍스트 대화: GPT-Realtime-2. 단, 오디오 토큰 비용을 감당할 수 있다면 Grok 4.3의 1M 컨텍스트도 검토 가능
- 가장 저렴한 프로덕션 음성 에이전트: 콘솔의 Grok Voice
-
벤치마크 중심의 고난도 추론:
xhigh추론을 사용하는 GPT-Realtime-2
커밋 전에 두 모델을 모두 테스트하는 방법
처음부터 한 모델에 고정하지 말고, 같은 시나리오를 두 모델에서 실행해 측정하세요.
권장 절차는 다음과 같습니다.
1. 고정 대화 시나리오 만들기
10턴 정도의 대화를 준비합니다.
포함할 항목:
- 일반 질문 2~3개
- 모호한 사용자 요청 1개
- 도구 호출 1개
- 긴 답변 1개
- 사용자 중단 또는 정정 1개
- 실제 사용자 음성 녹음
2. WebSocket 요청을 한 번 구성하기
Apidog에서 WebSocket 요청을 만들고, API 키를 환경 변수로 분리합니다.
예:
XAI_API_KEY=...
OPENAI_API_KEY=...
테스트 URL은 실행마다 교체합니다.
wss://api.x.ai/v1/realtime?model=grok-voice-think-fast-1.0
wss://api.openai.com/v1/realtime?model=gpt-realtime-2
3. 동일한 메시지 시퀀스 실행하기
각 모델에 동일한 사용자 오디오와 동일한 대화 흐름을 보냅니다.
측정할 값:
- 첫 오디오까지의 시간
- 전체 응답 완료 시간
- 중단 처리 품질
- 도구 호출 성공률
- 답변 품질
- 토큰 사용량
- 실행당 예상 비용
4. 결과를 버전 관리하기
응답 오디오, 이벤트 로그, 비용 계산 결과를 저장합니다. 모델 선택은 감이 아니라 실제 워크로드 기준 데이터로 결정해야 합니다.
나란히 비교하려면 Apidog를 다운로드하세요. 컬렉션 형식은 이식성이 높기 때문에 비교 아티팩트를 버전 제어 시스템에 보관하기 쉽습니다.
자주 묻는 질문
동일한 앱에서 두 모델을 모두 사용하고 런타임에 라우팅할 수 있나요?
가능합니다. 두 모델 모두 유사한 이벤트 형태를 사용합니다. 예를 들어 저렴한 의도 분류기를 앞단에 두고, 캐주얼한 요청은 Grok Voice로, 복잡한 요청은 GPT-Realtime-2로 라우팅할 수 있습니다.
언어 기준 라우팅도 가능합니다. 대규모 비영어권 TTS가 필요하면 Grok Voice를 우선 라우팅하는 방식입니다.
어떤 모델의 비영어권 음성 품질이 더 좋나요?
언어 커버리지는 Grok Voice가 유리합니다. 80개 이상의 음성과 TTS 28개 언어를 제공합니다.
다만 두 모델이 모두 지원하는 언어에서는 실제 품질 차이가 사용 사례별로 달라질 수 있습니다. 필요한 언어, 억양, 도메인 문장을 직접 녹음해 비교하는 것이 안전합니다.
GPT-Realtime-2가 일반 워크로드에서 10배 가격을 지불할 가치가 있나요?
워크로드에 따라 다릅니다.
FAQ에 답변하는 단순 고객 지원 에이전트라면 가격 차이를 정당화하기 어렵습니다. 반대로 CRM을 읽고, 도구를 디스패치하고, 사용자 중단에서 복구해야 하는 영업 에이전트라면 추론 격차가 비용보다 중요할 수 있습니다.
두 모델 모두 유명인의 실제 음성 복제를 지원하나요?
아니요. 두 공급업체 모두 동의된 샘플에 한해 복제를 허용하도록 필터링합니다. 허가 없이 유명인의 음성을 복제하는 것은 양쪽 플랫폼의 서비스 약관을 위반합니다.
나중에 한 모델에서 다른 모델로 마이그레이션하려면 얼마나 걸리나요?
이벤트 이름은 다르지만 대화 구조는 비슷합니다. 보통 session.update 페이로드, 이벤트 핸들러 이름, 오디오 포맷 처리 부분을 수정해야 합니다.
테스트용 요청 컬렉션을 Apidog에서 관리하면 모델 교체 시 비교와 포팅이 더 쉽습니다.
마무리
Grok Voice와 GPT-Realtime-2 사이에 보편적으로 정답인 모델은 없습니다. 선택은 사용 사례가 결정합니다.
- 빠른 소비자 음성 앱을 만들고 모든 밀리초가 중요하면 Grok Voice를 먼저 테스트하세요.
- 화면을 이해하고, 많은 도구를 호출하고, SIP 브리지 없이 전화 통화를 처리해야 한다면 GPT-Realtime-2가 더 적합합니다.
- 그 외의 경우에는 Apidog에서 동일한 WebSocket 테스트를 구성하고, 일주일 동안 두 모델을 같은 시나리오로 측정한 뒤 선택하세요.
Top comments (0)