Ollama 0.9.5: Revolutionaire LLM-app voor macOS met veel nieuwe functies!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Ontdek de nieuwste features van Ollama 0.9.5: verbeterde prestaties voor LLM's op macOS, Windows en Linux.

Entdecken Sie die neuesten Funktionen von Ollama 0.9.5: verbesserte Performance für LLMs auf macOS, Windows und Linux.
Ontdek de nieuwste features van Ollama 0.9.5: verbeterde prestaties voor LLM's op macOS, Windows en Linux.

Ollama 0.9.5: Revolutionaire LLM-app voor macOS met veel nieuwe functies!

De wereld van kunstmatige intelligentie heeft een nieuw hoofdstuk geopend met de release van de bijgewerkte versie 0.9.5 van de open source tool Ollama. Vanaf 5 juli 2025 is deze software nu beschikbaar voor lokaal beheer van Large Language Models (LLM). Hoe stadt-bremerhaven.de Naar verluidt is de tool fundamenteel herzien en wordt hij nu geleverd als een native macOS-applicatie, wat merkbare verbeteringen met zich meebrengt. Deze omvatten snellere starttijden en verminderde geheugenvereisten.

Bijzonder indrukwekkend is de overstap van Electron naar een native macOS-app, die de installatiegrootte met ongeveer 25 procent verkleint. De nieuwe features in versie 0.9.5 zijn ook het vermelden waard: er is nu bijvoorbeeld een nieuw instellingenvenster voor het delen van taalmodellen op het netwerk. Dit maakt toegang mogelijk tot resource-intensieve LLM's vanaf krachtige computers, terwijl andere apparaten in het netwerk hiervan kunnen profiteren. Bovendien kunnen de modellen nu op externe opslagmedia of in alternatieve mappen worden opgeslagen.

Veelzijdige toepassingen en voordelen

De veelzijdigheid van Ollama beperkt zich niet alleen tot macOS. De tool is ook beschikbaar voor Windows en Linux en biedt zo een uniforme interface voor het downloaden, beheren en uitvoeren van LLM's op verschillende besturingssystemen, zoals markaicode.com hoogtepunten. Steeds meer gebruikers ontdekken de voordelen van het lokaal aanbieden van LLM's. Dit betekent dat alle gegevensverwerking op uw eigen computer blijft staan, wat volledige privacy garandeert. Daarnaast zijn er geen kosten verbonden aan het API-gebruik en zijn de modellen ook offline te bedienen.

De hardwarevereisten zijn gematigd, dus zelfs gebruikers met oudere gaming-GPU's of notebooks kunnen zich in de wereld van LLM's wagen. Om optimaal gebruik te maken van de prestaties wordt een moderne multi-core processor en minimaal 8 GB RAM aanbevolen. Op de lijst met ondersteunde modellen staan ​​onder meer Llama 2, Code Llama, Mistral en Vicuna, zodat voor vrijwel iedere toepassing het juiste model te vinden is.

Open source als gamechanger

De andere voordelen van open source LLM's zijn onder meer de onafhankelijkheid van externe providers. fraunhofer.de wijst erop dat gevoelige gegevens in uw eigen netwerk blijven en dat de exploitatiekosten transparant en voorspelbaar zijn. Deze geavanceerde technologieën hebben in 2023 aanzienlijke vooruitgang geboekt, waardoor de belangstelling voor generatieve AI-tools is aangewakkerd. Vooral met de komst van ChatGPT van OpenAI is de vraag naar LLM's enorm gebleken.

De mogelijkheid om modellen via verfijning aan te passen aan specifieke gebruiksscenario’s opent nieuwe horizonten voor bedrijven en ontwikkelaars. Bovendien worden er voortdurend nieuwe prestatie-optimalisatietechnieken toegevoegd die acceptabele snelheden mogelijk maken, zelfs met minder krachtige hardware.

Met de nieuwe versie van Ollama wordt de toegang tot de wereld van kunstmatige intelligentie voor veel gebruikers nog eenvoudiger. Het blijft spannend om te zien hoe de technologie zich verder zal ontwikkelen en welke nieuwe kansen deze zal creëren. De combinatie van gebruiksgemak en krachtige features maakt Ollama een verleidelijk aanbod voor iedereen die werkzaam is op het gebied van kunstmatige intelligentie.