Mistral AI lanza una IA sin censura que sabe matemáticas

Mistral AI lanza una IA sin censura que sabe matemáticas

Un modelo sin censura, con fluidez en varios idiomas, fuerte en matemáticas y codificación. De uso gratuito sin inicio de sesión o cuenta.

Características de Mixtral 8x22B

  • Dominio del inglés, francés, italiano, alemán y español
  • Gran capacidad matemática y de codificación
  • Ventana contextual de 64K tokens
  • Mixtral 8x22B está bajo licencia Apache 2.0 (la licencia de código abierto más permisiva). Así que cualquiera puede utilizar el modelo en cualquier lugar sin restricciones.
Rendimiento de Mixtral 8x22B
Rendimiento de Mixtral 8x22B
Soporte multilenguaje del modelo
Soporte multilenguaje del modelo

Uso del modelo Mixtral 8x22B

La mejor forma de utilizarlo gratuitamente es en Labs Perplexity:

  • Ir a labs.perplexity.ai
  • Despliega la lista de modelos en la parte inferior derecha.
  • Selecciona «mixtral-8x22b-instruct«.
Como usar el modelo Mixtral 8x22B en labs.perplexity.ai
Como usar el modelo Mixtral 8x22B en labs.perplexity.ai

Ahora puedes escribir tus indicaciones y continuar la conversación como cualquier otro chatbot de IA.

PROMPT: Eres un programador de Python experto en extraer datos de páginas web. Construye un script de Phyton que utilice BeautifulSoup para extraer detalles de producto desde Amazon. El script debería navegar de forma eficiente por páginas de producto, manejar la paginación y obtener la siguiente información del producto: nombre, precio y valoración de los compradores. Por ejemplo el script podría recopilar la información de los auriculares mejor valorados listados en Amazon. Presenta el script en un formato de código bien comentado, invluyendo las funciones necesarias para trabajar con código HTML. Asegúrate de que el script es amigable al usuario e incluye el manejo de errores para que funcione sin problemas.
PROMPT DE EJEMPLO: Eres un programador de Python experto en extraer datos de páginas web.
Resultado del prompt de ejemplo

Para borrar el chat, haz clic en el icono situado a la izquierda del campo de texto:

Vaciar el chat de labs.perplexity.ai

Y con está información: a jugar.

¿Quieres saber más sobre la inteligencia artificial generativa de Microsoft? En DQS/ te asesoramos. ¿Por qué no nos preguntas cómo podemos ayudarte?

Información basada el anuncio oficial de Mistral AI: «Mixtral 8x22B is our latest open model. It sets a new standard for performance and efficiency within the AI community. It is a sparse Mixture-of-Experts (SMoE) model that uses only 39B active parameters out of 141B, offering unparalleled cost efficiency for its size.«

Publicaciones Similares

¿Te ha parecido interesante? ¿Tienes dudas sobre el contenido?
Para cualquier pregunta ponte en contacto conmigo.