Equipo de MistralAI. Foto: MistralAI

MistralAI, una emergente empresa francesa de inteligencia artificial, está empezando a destacar en los medios de comunicación. Según el último informe de la plataforma Tagaday, MistralAI ha logrado captar el 10% de las menciones en los medios de comunicación franceses en el primer trimestre de 2024, un notable ascenso desde su creación en mayo de 2023. Hasta ahora, el dominio de ChatGPT y Gemini, en cuanto a cobertura de los medios, había sido muy mayoritario y, aunque lo sigue siendo, el hecho de que MistralAI apueste por el código abierto, está despertando interés en los medios.

Según el citado informe, la cobertura de la inteligencia artificial en los medios ha aumentado significativamente, con 54.097 artículos y segmentos en radio y televisión dedicados al tema cada mes en promedio durante el inicio de 2024, lo que representa un incremento del 48% respecto al año anterior en Francia. La atención no solo se concentra en la tecnología en sí, sino también en las implicaciones éticas y las aplicaciones prácticas de la IA.

MistralAI, con la que algunos medios europeos han empezar a probar, ha logrado cerrar recientemente una ronda de financiación significativa, recaudando 100 millones de euros y alcanzando una valoración de 240 millones de euros. 

Mixtral 8x22B, el modelo más reciente y más abierto

El 17 de abril de 2024, el equipo de Mistral AI presentaba Mixtral 8x22B, su modelo más reciente y abierto, que establece un nuevo estándar en rendimiento y eficiencia dentro de la comunidad de inteligencia artificiam según la empresa.

Te puede interesar:   ChatGPT Plus ofrecerá ahora directamente en las respuestas los enlaces de las fuentes que consulta

Mixtral 8x22B es un modelo sparse Mixture-of-Experts (SMoE) que utiliza solo 39 mil millones de parámetros activos de un total de 141 mil millones, “ofreciendo una eficiencia de costos sin precedentes para su tamaño”, explican.

Modelo disponible en español

Este modelo es multilingüe, que domina idiomas como inglés, francés, italiano, alemán y español, y posee capacidades avanzadas en matemáticas y programación. Su ventana de contexto de 64K tokens permite la recuperación precisa de información de grandes documentos. Además, está optimizado para la realización de llamadas a funciones, lo que facilita el desarrollo de aplicaciones y la modernización de tecnologías a gran escala, según sus desarrolladores

Mistral AI ha liberado Mixtral 8x22B bajo la licencia Apache 2.0, la más permisiva entre las licencias de código abierto, permitiendo su uso sin restricciones en cualquier lugar.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí