OpenCode + NVIDIA NIM에서 20개 이상의 모델을 테스트해 봤어. 너넨 그럴 필요 없게 (벤치마크 & "진짜 되는 거")
안녕 얘들아,
OpenCode를 NVIDIA NIM에 연결해 본 사람들은 NVIDIA 인증을 하고 나면 라이브러리가 엄청 커 보인다는 거 알 거야. 근데 솔직히 말해서, 그 목록에 있는 모델들 중 절반은 별로거나, TUI에서 제대로 응답하지 않잖아.
나는 실제로 작동하고 안정적인 모델들에 대해 간단한 벤치마크를 돌려봤어. "안녕 / 당신의 능력은 무엇인가요?"라는 표준 프롬프트를 사용해서 얻은 결과는 다음과 같아.
모델 이름 속도 / 지연 시간 성능 참고 사항
nvidia/nemotron-3-nano-30b-a3b 1.6초 ⚡ 속도 킹. 즉각적인 응답!
minimaxai/minimax-m2.5 2.0초 엄청 빠름.
moonshotai/kimi-k2-instruct-0905 2.0초 2.5 버전보다 훨씬 빠름.
mistralai/ministral-14b-instruct-2512 3.5초 괜찮은 중간 크기 성능.
z-ai/glm5 4.0초 반응 좋고 안정적.
nvidia/llama-3.3-nemotron-super-49b 4.0초 파워/속도 밸런스 굿.
mistralai/mistral-large-3-675b 4.3초 최고의 헤비급. 크기에 비해 엄청남.
openai/gpt-oss-120b 6.0초 믿을만하지만, 중간 정도.
nvidia/nvidia-nemotron-nano-9b-v2 8.0초 빠르게 시작하지만, 너무 생각이 많거나/수다스러움.
meta/llama-3.1-405b-instruct 10초 – 50초 복불복. 가끔 빠르고, 가끔 멈춤.
moonshotai/kimi-k2.5 30초 느린 녀석.
z-ai/glm4.7 32초 상당한 렉.
deepseek-ai/deepseek-v3.2 2분 작동은 하지만, 커피 한 잔 해.
간단 요약:
- 속도 최고: NVIDIA 네이티브 모델(Nemotron 시리즈)이나 MiniMax를 고수해. 이 인프라에 대한 최적화가 확실히 거기에 맞춰져 있어.
- 추론 최고: Mistral Large 3가 승자. 무료 티어에서 675b 모델 치고는 놀랍도록 빠름.
- "꽝": 현재 NIM 카탈로그에 있는 모델 중 절반은 즉시 시간 초과되거나 TUI에서 응답하지 않음—위에 있는 것들이 확인된 생존자들임.
카탈로그에서 실제로 응답하는 다른 모델을 찾은 사람 있어?