Ollama 0.9.5: ¡aplicación LLM revolucionaria para macOS con muchas funciones nuevas!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Descubra las últimas funciones de Ollama 0.9.5: rendimiento mejorado para LLM en macOS, Windows y Linux.

Entdecken Sie die neuesten Funktionen von Ollama 0.9.5: verbesserte Performance für LLMs auf macOS, Windows und Linux.
Descubra las últimas funciones de Ollama 0.9.5: rendimiento mejorado para LLM en macOS, Windows y Linux.

Ollama 0.9.5: ¡aplicación LLM revolucionaria para macOS con muchas funciones nuevas!

El mundo de la inteligencia artificial ha abierto un nuevo capítulo con el lanzamiento de la versión actualizada 0.9.5 de la herramienta de código abierto Ollama. A partir del 5 de julio de 2025, este software ya está disponible para la gestión local de Large Language Models (LLM). Cómo stadt-bremerhaven.de Según informó, la herramienta ha sido revisada fundamentalmente y ahora viene como una aplicación nativa de macOS, lo que trae mejoras notables. Estos incluyen tiempos de inicio más rápidos y requisitos de memoria reducidos.

Particularmente impresionante es el cambio de Electron a una aplicación nativa de macOS, que reduce el tamaño de instalación en aproximadamente un 25 por ciento. También vale la pena mencionar las nuevas características de la versión 0.9.5: por ejemplo, ahora hay una nueva ventana de configuración para compartir modelos de idiomas en la red. Esto permite el acceso a LLM que consumen muchos recursos desde computadoras potentes, mientras que otros dispositivos en la red pueden beneficiarse. Además, los modelos ahora se pueden guardar en medios de almacenamiento externos o en directorios alternativos.

Usos versátiles y ventajas.

La versatilidad de Ollama no se limita sólo a macOS. La herramienta también está disponible para Windows y Linux, proporcionando así una interfaz unificada para descargar, administrar y ejecutar LLM en diferentes sistemas operativos, como markaicode.com reflejos. Cada vez más usuarios descubren los beneficios de impartir LLM localmente. Esto significa que todo el procesamiento de datos permanece en su propio ordenador, lo que garantiza una total privacidad. Además, no hay costes por el uso de API y los modelos también pueden funcionar sin conexión.

Los requisitos de hardware son moderados, por lo que incluso los usuarios con GPU o portátiles para juegos más antiguos pueden aventurarse en el mundo de los LLM. Se recomienda un procesador multinúcleo moderno y al menos 8 GB de RAM para aprovechar al máximo el rendimiento. La lista de modelos compatibles incluye Llama 2, Code Llama, Mistral y Vicuna, por lo que se puede encontrar el modelo adecuado para casi cualquier aplicación.

El código abierto como elemento de cambio

Las otras ventajas de los LLM de código abierto incluyen la independencia de proveedores externos. fraunhofer.de señala que los datos sensibles permanecen en su propia red y los costos de operación son transparentes y predecibles. Estas tecnologías avanzadas han experimentado avances significativos a lo largo de 2023, lo que ha alimentado el interés en las herramientas de IA generativa. Especialmente con la llegada de ChatGPT de OpenAI, la demanda de LLM ha demostrado ser enorme.

La capacidad de adaptar modelos a casos de uso específicos mediante ajustes abre nuevos horizontes para empresas y desarrolladores. Además, continuamente se añaden nuevas técnicas de optimización del rendimiento que permiten velocidades aceptables incluso con hardware menos potente.

Con la nueva versión de Ollama la entrada al mundo de la inteligencia artificial se vuelve aún más fácil para muchos usuarios. Sigue siendo emocionante ver cómo seguirá desarrollándose la tecnología y qué nuevas oportunidades creará. La combinación de facilidad de uso y potentes funciones hace de Ollama una oferta tentadora para cualquiera que trabaje en el campo de la inteligencia artificial.