

Qu'est-ce que Grok 3
Grok 3 est le dernier modèle de langage de xAI, entraîné à l'aide d'un cadre d'apprentissage par renforcement révolutionnaire sur un cluster de 200 000 GPUs. Il dispose de 27 milliards de paramètres et d'une fenêtre contextuelle de 1,28 million de tokens avec récupération de connaissances en temps réel.
Grâce au mode Think, Grok 3 peut s'engager dans des processus de raisonnement profond durant de 6 secondes à 6 minutes, démontrant des performances supérieures au niveau expert humain. Il a atteint une précision de 93,3 % lors de la compétition AIME 2025 et de 84,6 % dans le GPQA de niveau supérieur.
En tant qu'assistant IA polyvalent, Grok 3 prend en charge 12 langages de programmation, peut traiter du contenu image et vidéo, et utilise DeepSearch pour la vérification d'informations en temps réel.
Points Clés des Fonctionnalités
Découvrez les Avancées Révolutionnaires de Grok 3
Moteur de Raisonnement Amélioré
- Supporte un processus de raisonnement profond de 6s à 6min
- Précision de 93,3% au concours AIME 2025 (64 itérations de raisonnement)
- Précision de 84,6% sur les problèmes GPQA niveau diamant (dépassant les experts humains)
- Cadre d'apprentissage par renforcement basé sur un cluster de 200k GPUs
Mathématiques et Sciences
- Moyenne biennale AIME 2024/2025 : 94,5% de précision
- Benchmark MMLU-Pro : 79,9% de précision (leader en STEM)
- Latence moyenne pour la résolution de problèmes mathématiques complexes : 67ms
Génération et Optimisation de Code
- LiveCodeBench v5 : 79,4% de précision (évaluation de programmation en temps réel)
- Supporte l'analyse de bases de code de millions de lignes
- Prend en charge 12 langages dont Python/Java/C++
Compréhension Multimodale
- Benchmark MMMU : 73,2% de précision
- Compréhension vidéo longue EgoSchema : 74,5% de précision
- Résolution de problèmes mixtes image-texte améliorée de 42%
Moteur de Connaissances en Temps Réel
- Couvre les données en temps réel du web + données sociales de la plateforme 𝕏
- Temps de réponse moyen pour les requêtes complexes <800ms
- Prend en charge la vérification croisée de plus de 1 200 sources fiables
Traitement de Contexte Long
- Mémoire contextuelle de 1M tokens (environ 750k caractères)
- Analyse en une passe de documents techniques de 3000 pages
- Précision de 83,3% sur le benchmark LOFT 128k
Comparaison des Performances
Competition Math
Graduate-Level Google-Proof Q&A (Diamond)
LiveCodeBench (v5)
Code Generation: 10/1/2024 - 2/1/2025
MMMU
Multimodal Understanding