
(AsiaGameHub) – Nvidia telah merilis Nemotron 3 Super, sebuah model AI terbuka baru yang dibangun untuk berjalan lebih cepat dan menangani prompt yang sangat panjang. Nvidia menargetkannya untuk pengembang yang membangun agen AI, di mana biaya dapat meningkat pesat ketika model perlu bernalar melalui banyak langkah.
Baik untuk Diketahui
- Nvidia mengatakan Nemotron 3 Super memberikan throughput hingga 7,5x lebih tinggi daripada Qwen3.5 122B A10B.
- Model ini mendukung jendela konteks hingga 1 juta token.
- Nvidia telah membuat model dan materi pelatihan terkait tersedia secara terbuka.
Dibangun untuk Kecepatan dan Input Panjang
Nemotron 3 Super tidak menggunakan semua parameternya setiap kali menjawab. Sebaliknya, ia menggunakan desain Mixture of Experts, di mana hanya sebagian dari model yang aktif untuk setiap tugas. Nvidia mengatakan bahwa hal itu membantu menurunkan biaya inferensi dan membuat model lebih berguna untuk agen AI yang sering menghabiskan banyak token.
Model ini menggunakan campuran lapisan Mamba dan Transformer di seluruh 88 lapisan. Sederhananya, satu bagian membantunya menangani input yang sangat panjang dengan lebih efisien, sementara bagian lain membantunya tetap akurat. Nvidia mengatakan pengaturan itu memberi model jendela konteks asli hingga 1 juta token.
Nvidia juga menambahkan sistem perutean yang disebut LatentMoE. Sistem ini mengirimkan setiap tugas ke sekelompok kecil ahli di dalam model alih-alih menggunakan seluruh sistem. Menurut Nvidia, hal itu memungkinkan spesialisasi lebih lanjut tanpa meningkatkan biaya inferensi dengan cara yang sama seperti sistem MoE biasa.
Perusahaan mengatakan Nemotron 3 Super memberikan throughput 2,2x lebih tinggi daripada GPT OSS 120B dan 7,5x lebih tinggi daripada Qwen3.5 122B A10B dalam pengaturan pengujian yang dinyatakan. Nvidia juga mengatakan ia menawarkan lebih dari 5x throughput dan hingga 2x akurasi dari versi Nemotron Super sebelumnya.
Pelatihan dilakukan pada 25 triliun token, diikuti oleh fase tambahan pada 51 miliar token untuk memperpanjang panjang konteks hingga 1 juta token. Nvidia kemudian menggunakan supervised fine tuning dan reinforcement learning untuk meningkatkan kinerja.
Hasil benchmark juga kuat. Nvidia melaporkan skor 83,73 pada MMLU Pro, 90,21 pada AIME25, 60,47 pada SWE Bench dengan OpenHands, 85,6% pada PinchBench, dan 91,64 pada RULER 1M. Model ini juga mendukung Nvidia AI Q, agen penelitian yang mencapai puncak papan peringkat Deepresearch Bench.
Nvidia melatih model dalam NVFP4, sebuah format yang dibangun untuk GPU Blackwell. Pada perangkat keras B200, Nvidia mengatakan inferensi dapat berjalan hingga 4x lebih cepat daripada FP8 pada H100, tanpa kehilangan akurasi yang dilaporkan.
Nemotron 3 Super tersedia di bawah Nvidia Nemotron Open Model License. Pengembang dapat memperoleh checkpoint dalam BF16, FP8, dan NVFP4 di Hugging Face. Nvidia juga mendukung inferensi melalui Nvidia NIM, build.nvidia.com, Perplexity, Openrouter, Together AI, Google Cloud, AWS, Azure, Coreweave, Dell Enterprise Hub, dan HPE. Panduan dan resep lebih lanjut tersedia melalui NeMo.
Artikel ini disediakan oleh penyedia konten pihak ketiga. AsiaGameHub (https://asiagamehub.com/) tidak memberikan jaminan atau pernyataan apa pun terkait isinya.
Kategori: Berita Terkini, Pembaruan Umum
AsiaGameHub menyediakan layanan distribusi iGaming yang ditargetkan untuk perusahaan dan organisasi, dengan menghubungkan lebih dari 3.000 media premium di Asia dan lebih dari 80.000 influencer spesialis. Platform ini menjadi jembatan utama untuk distribusi konten iGaming, kasino, dan eSports di seluruh kawasan ASEAN.
