Xiaomi es la última empresa en lanzar un modelo de IA de peso abierto: se afirma que MiMo-V2.5 es «un gran paso adelante en las capacidades de los agentes y la comprensión multimodal».
Xiaomi ha compartido varios resultados de referencia comparando el MiMo-V2.5 con el recientemente lanzado DeepSeek-V4, Kimi K2.6, Claude Opus 4.6, Gemini 3.1 Pro y el antiguo MiMo-V2-Pro de Xiaomi.
La compañía afirma que MiMo-V2.5 logra el mejor rendimiento de su clase en los puntos de referencia de tareas de agentes internos. En el banco de codificación MiMo interno, el modelo V2.5 más pequeño igualaba al V2.5-Pro más grande a la mitad del costo. En otro punto de referencia que probó la comprensión de imágenes y videos del modelo, el V2.5 estuvo a la par con el modelo de código cerrado, dijo Xiaomi.
MiMo-V2.5 se evalúa en tareas de codificación y agente.
El modelo fue entrenado con 48 billones de tokens y es multimodal con soporte para datos de texto, imágenes y video. Xiaomi ha publicado dos versiones: MiMo-V2.5 con parámetros totales 310B (15B activos) y MiMo-V2.5-Pro con parámetros totales 1.02T (42B activos). Este modelo admite 1 millón de tokens de contexto.
MiMo-V2.5 evalúa la comprensión de imágenes y videos
Puede descargar el modelo de Hugging Face y ejecutarlo usted mismo, pero necesitará algo como un Mac Studio completo para hacerlo: las GPU de consumo no tienen suficiente VRAM (no, ni siquiera la Nvidia RTX 5090).
Puedes probar el Xiaomi MiMo-V2.5 en AI Studio (que no estaba cargado al momento de escribir este artículo) o usarlo a través de la API oficial. O, como se mencionó anteriormente, descárguelo y ejecútelo localmente, si puede permitírselo.
Fuente


