GPT4All 3.0: La aplicación LLM local de código abierto
Esta nueva versión marca el primer aniversario del proyecto GPT4All de Nomic. Aporta una revisión y un rediseño completos.
GPT4ALL es la aplicación que uso todos los días para ejecutar modelos LLM en local. Aquí te describo como usar LLAMA 3 en local: «Ejecuta Llama-3 en tu ordenador«
¿Por qué uso GPT4All?
Estas son algunas de las razones por las que me encanta y uso GPT4All:
- Aplicación de escritorio totalmente privada.
- Compatible con miles de modelos y los principales sistemas operativos.
- Importantes mejoras en la interfaz de usuario y la interfaz de usuario.
- Chat de documentos locales con Nomic Embed.
- Licencia MIT.
Además de ser el tercer repositorio de GitHub con mayor crecimiento de todos los tiempos, con más de 250.000 usuarios activos mensuales, 65.000 estrellas de GitHub y 70.000 descargas mensuales de paquetes de Python.
¿Qué cambia en GPT4All 3.0?
- Rediseño: La nueva interfaz de usuario ha sido completamente rediseñada por Vincent Giardina de Nomic. El nuevo diseño tiene como objetivo proporcionar un flujo de aplicación moderno a través de vistas en lugar de cuadros de diálogo, por lo que es más intuitivo para los nuevos usuarios que desean la experiencia más despejada y fácil de usar posible al utilizar LLM.
- LocalDocs mejorado: LocalDocs permite a cualquiera enriquecer un chat LLM en privado con conocimientos de sus propios archivos locales. Es importante que los usuarios tengan la opción de una experiencia privada, asegurando que sus datos permanezcan en su propio dispositivo y no sean enviados a corporaciones que buscan controlar el acceso a los datos de los usuarios con el propósito de mejorar su propia tecnología de IA. El rediseñado LocalDocs tiene una base de datos de vectores locales renovada, la última Nomic Embed Text v1.5, y una experiencia general más estable y profesional.
Información basada en el anuncio oficial de NOMIC en su blog: «Announcing the release of GPT4All 3.0: The Open-Source Local LLM Desktop App!«. Puedes descargar la última versión aquí.