Ollama 0.9.5: Revolutionerande LLM-app för macOS med många nya funktioner!
Upptäck de senaste funktionerna i Ollama 0.9.5: förbättrad prestanda för LLM på macOS, Windows och Linux.

Ollama 0.9.5: Revolutionerande LLM-app för macOS med många nya funktioner!
Världen av artificiell intelligens har öppnat ett nytt kapitel med lanseringen av den uppdaterade versionen 0.9.5 av öppen källkodsverktyget Ollama. Från och med den 5 juli 2025 är denna programvara nu tillgänglig för lokal hantering av stora språkmodeller (LLM). Hur stadt-bremerhaven.de rapporterat har verktyget reviderats i grunden och kommer nu som en inbyggd macOS-applikation, vilket ger märkbara förbättringar. Dessa inkluderar snabbare starttider och minskat minneskrav.
Särskilt imponerande är Electrons övergång till en inbyggd macOS-app, som minskar installationsstorleken med cirka 25 procent. De nya funktionerna i version 0.9.5 är också värda att nämna: till exempel finns det nu ett nytt inställningsfönster för att dela språkmodeller i nätverket. Detta ger tillgång till resurskrävande LLM från kraftfulla datorer, medan andra enheter i nätverket kan dra nytta av det. Dessutom kan modellerna nu sparas på externa lagringsmedia eller i alternativa kataloger.
Mångsidig användning och fördelar
Ollamas mångsidighet är inte bara begränsad till macOS. Verktyget är även tillgängligt för Windows och Linux, vilket ger ett enhetligt gränssnitt för nedladdning, hantering och körning av LLM på olika operativsystem, som t.ex. markaicode.com höjdpunkter. Fler och fler användare upptäcker fördelarna med att tillhandahålla LLM lokalt. Detta innebär att all databehandling finns kvar på din egen dator, vilket säkerställer fullständig integritet. Dessutom tillkommer inga kostnader för API-användning och modellerna kan även användas offline.
Hårdvarukraven är måttliga, så även användare med äldre spel-GPU:er eller bärbara datorer kan ge sig ut i LLM-världen. En modern flerkärnig processor och minst 8 GB RAM rekommenderas för att utnyttja prestandan optimalt. Listan över modeller som stöds inkluderar Llama 2, Code Llama, Mistral och Vicuna, så att rätt modell kan hittas för nästan alla applikationer.
Öppen källkod som en game changer
De andra fördelarna med LLM med öppen källkod inkluderar oberoende från externa leverantörer. fraunhofer.de påpekar att känslig data finns kvar i ditt eget nätverk och att kostnaderna för driften är transparenta och förutsägbara. Dessa avancerade teknologier har sett betydande framsteg under 2023, vilket har väckt intresset för generativa AI-verktyg. Speciellt med tillkomsten av ChatGPT från OpenAI har efterfrågan på LLM visat sig vara enorm.
Möjligheten att anpassa modeller till specifika användningsfall via finjustering öppnar nya vyer för företag och utvecklare. Dessutom läggs nya prestandaoptimeringstekniker till kontinuerligt som tillåter acceptabla hastigheter även med mindre kraftfull hårdvara.
Med den nya versionen av Ollama blir inträdet i världen av artificiell intelligens ännu lättare för många användare. Det är fortfarande spännande att se hur tekniken kommer att fortsätta att utvecklas och vilka nya möjligheter den kommer att skapa. Kombinationen av användarvänlighet och kraftfulla funktioner gör Ollama till ett lockande erbjudande för alla som arbetar inom artificiell intelligens.