

Vad är Grok 3
Grok 3 är den senaste språkmodellen från xAI, tränad med hjälp av ett banbrytande reinforcement learning-ramverk på ett kluster av 200 000 GPU:er. Den har 27 miljarder parametrar och ett kontextfönster på 1,28 miljoner tokens med realtids kunskapsåterhämtning.
Genom Think-läget kan Grok 3 engagera sig i djupa tankeprocesser som varar från 6 sekunder till 6 minuter, och visar prestanda över mänsklig expertnivå. Den uppnådde 93,3% noggrannhet i AIME 2025-tävlingen och 84,6% i GPQA på forskarnivå.
Som en mångsidig AI-assistent stöder Grok 3 12 programmeringsspråk, kan bearbeta bild- och videoinnehåll, och använder DeepSearch för realtidsverifiering av information.
Huvudfunktioner Översikt
Upptäck Revolutionerande Genombrott i Grok 3
Förbättrad Tankemotor
- Stödjer djup tankeprocess från 6s till 6min
- 93,3% noggrannhet i AIME 2025-tävlingen (64 tankeiterationer)
- 84,6% noggrannhet på GPQA diamantnivå problem (överträffar mänskliga experter)
- Reinforcement learning-ramverk baserat på 200k GPU-kluster
Matematik & Vetenskap
- AIME 2024/2025 tvåårsgenomsnitt: 94,5% noggrannhet
- MMLU-Pro benchmark: 79,9% noggrannhet (ledande inom STEM)
- Genomsnittlig latens för komplexa matematiska problem: 67ms
Kodgenerering & Optimering
- LiveCodeBench v5: 79,4% noggrannhet (realtidsprogrammeringsutvärdering)
- Stödjer analys av miljontals rader kodbaser
- Stödjer 12 språk inklusive Python/Java/C++
Multimodal Förståelse
- MMMU benchmark: 73,2% noggrannhet
- EgoSchema lång videoförståelse: 74,5% noggrannhet
- Bild-text blandad problemlösning förbättrad med 42%
Realtids Kunskapsmotor
- Täcker realtidswebbdata + sociala data från 𝕏-plattformen
- Genomsnittlig svarstid för komplexa frågor <800ms
- Stödjer korsverifiering från över 1 200 pålitliga källor
Lång Kontextbehandling
- 1M tokens kontextminne (cirka 750k tecken)
- Engångsanalys av 3000-sidors tekniska dokument
- 83,3% noggrannhet i LOFT 128k benchmark
Prestandajämförelse
Competition Math
Graduate-Level Google-Proof Q&A (Diamond)
LiveCodeBench (v5)
Code Generation: 10/1/2024 - 2/1/2025
MMMU
Multimodal Understanding