

¿Qué es Grok 3?
Grok 3 es el último modelo de lenguaje de xAI, entrenado mediante un innovador marco de aprendizaje por refuerzo en un clúster de 200.000 GPUs. Cuenta con 27 mil millones de parámetros y una ventana de contexto de 1,28 millones de tokens con recuperación de conocimiento en tiempo real.
A través del modo Think, Grok 3 puede participar en procesos de razonamiento profundo que duran de 6 segundos a 6 minutos, demostrando un rendimiento superior al nivel de expertos humanos. Logró una precisión del 93,3% en la competencia AIME 2025 y del 84,6% en el GPQA de nivel graduado.
Como asistente de IA versátil, Grok 3 admite 12 lenguajes de programación, puede procesar contenido de imagen y video, y aprovecha DeepSearch para la verificación de información en tiempo real.
Características Principales
Descubre Avances Revolucionarios en Grok 3
Motor de Razonamiento Mejorado
- Soporta proceso de razonamiento profundo de 6s a 6min
- Precisión del 93,3% en la competencia AIME 2025 (64 iteraciones de razonamiento)
- Precisión del 84,6% en problemas GPQA nivel diamante (superando a expertos humanos)
- Marco de aprendizaje por refuerzo basado en clúster de 200k GPUs
Matemáticas y Ciencia
- Promedio bienal AIME 2024/2025: 94,5% de precisión
- Benchmark MMLU-Pro: 79,9% de precisión (líder en STEM)
- Latencia promedio en resolución de problemas matemáticos complejos: 67ms
Generación y Optimización de Código
- LiveCodeBench v5: 79,4% de precisión (evaluación de programación en tiempo real)
- Soporta análisis de código base de millones de líneas
- Soporta 12 lenguajes incluyendo Python/Java/C++
Comprensión Multimodal
- Benchmark MMMU: 73,2% de precisión
- Comprensión de video largo EgoSchema: 74,5% de precisión
- Resolución de problemas mixtos imagen-texto mejorada en un 42%
Motor de Conocimiento en Tiempo Real
- Cubre datos en tiempo real de toda la web + datos sociales de la plataforma 𝕏
- Tiempo de respuesta promedio para consultas complejas <800ms
- Soporta verificación cruzada de más de 1.200 fuentes confiables
Procesamiento de Contexto Largo
- Memoria de contexto de 1M tokens (aproximadamente 750k caracteres)
- Análisis de una sola pasada de documentos técnicos de 3000 páginas
- Precisión del 83,3% en benchmark LOFT 128k
Comparación de Rendimiento
Competition Math
Graduate-Level Google-Proof Q&A (Diamond)
LiveCodeBench (v5)
Code Generation: 10/1/2024 - 2/1/2025
MMMU
Multimodal Understanding