Ollama 0.9.5 : Application LLM révolutionnaire pour macOS avec de nombreuses nouvelles fonctionnalités !
Découvrez les dernières fonctionnalités d'Ollama 0.9.5 : performances améliorées pour les LLM sur macOS, Windows et Linux.

Ollama 0.9.5 : Application LLM révolutionnaire pour macOS avec de nombreuses nouvelles fonctionnalités !
Le monde de l'intelligence artificielle a ouvert un nouveau chapitre avec la sortie de la version mise à jour 0.9.5 de l'outil open source Ollama. Depuis le 5 juillet 2025, ce logiciel est désormais disponible pour la gestion locale des Large Language Models (LLM). Comment stadt-bremerhaven.de signalé, l'outil a été fondamentalement révisé et se présente désormais sous la forme d'une application macOS native, ce qui apporte des améliorations notables. Ceux-ci incluent des temps de démarrage plus rapides et des besoins en mémoire réduits.
Le passage d'Electron à une application macOS native est particulièrement impressionnant, ce qui réduit la taille de l'installation d'environ 25 %. A noter également les nouveautés de la version 0.9.5 : par exemple, il existe désormais une nouvelle fenêtre de paramétrage pour le partage des modèles linguistiques sur le réseau. Cela permet d'accéder à des LLM gourmands en ressources à partir d'ordinateurs puissants, tandis que d'autres appareils du réseau peuvent en bénéficier. De plus, les modèles peuvent désormais être enregistrés sur des supports de stockage externes ou dans des répertoires alternatifs.
Utilisations et avantages polyvalents
La polyvalence d'Ollama ne se limite pas à macOS. L'outil est également disponible pour Windows et Linux, fournissant ainsi une interface unifiée pour télécharger, gérer et exécuter des LLM sur différents systèmes d'exploitation, tels que markaicode.com points forts. De plus en plus d'utilisateurs découvrent les avantages de proposer des LLM localement. Cela signifie que tout le traitement des données reste sur votre propre ordinateur, ce qui garantit une confidentialité totale. De plus, l'utilisation de l'API est gratuite et les modèles peuvent également être utilisés hors ligne.
Les exigences matérielles sont modérées, de sorte que même les utilisateurs disposant de GPU ou d'ordinateurs portables de jeu plus anciens peuvent s'aventurer dans le monde des LLM. Un processeur multicœur moderne et au moins 8 Go de RAM sont recommandés pour une utilisation optimale des performances. La liste des modèles pris en charge comprend Llama 2, Code Llama, Mistral et Vicuna, de sorte que le bon modèle puisse être trouvé pour presque toutes les applications.
L’open source pour changer la donne
Les autres avantages des LLM open source incluent l'indépendance vis-à-vis des fournisseurs externes. fraunhofer.de souligne que les données sensibles restent dans votre propre réseau et que les coûts d'exploitation sont transparents et prévisibles. Ces technologies avancées ont connu des progrès significatifs tout au long de 2023, alimentant l’intérêt pour les outils d’IA générative. Surtout avec l'avènement de ChatGPT d'OpenAI, la demande de LLM s'est avérée énorme.
La possibilité d’adapter les modèles à des cas d’utilisation spécifiques via des réglages fins ouvre de nouveaux horizons aux entreprises et aux développeurs. De plus, de nouvelles techniques d'optimisation des performances sont continuellement ajoutées pour permettre des vitesses acceptables même avec du matériel moins puissant.
Avec la nouvelle version d'Ollama, l'entrée dans le monde de l'intelligence artificielle devient encore plus facile pour de nombreux utilisateurs. Il reste passionnant de voir comment la technologie continuera à se développer et quelles nouvelles opportunités elle créera. La combinaison de facilité d'utilisation et de fonctionnalités puissantes fait d'Ollama une offre alléchante pour toute personne travaillant dans le domaine de l'intelligence artificielle.