Ollama 0.9.5: Revolutionær LLM-app til macOS med mange nye funktioner!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Oplev de nyeste funktioner i Ollama 0.9.5: forbedret ydeevne for LLM'er på macOS, Windows og Linux.

Entdecken Sie die neuesten Funktionen von Ollama 0.9.5: verbesserte Performance für LLMs auf macOS, Windows und Linux.
Oplev de nyeste funktioner i Ollama 0.9.5: forbedret ydeevne for LLM'er på macOS, Windows og Linux.

Ollama 0.9.5: Revolutionær LLM-app til macOS med mange nye funktioner!

Verden af ​​kunstig intelligens har åbnet et nyt kapitel med udgivelsen af ​​den opdaterede version 0.9.5 af open source-værktøjet Ollama. Fra den 5. juli 2025 er denne software nu tilgængelig til lokal administration af store sprogmodeller (LLM). Hvordan stadt-bremerhaven.de rapporteret, er værktøjet blevet fundamentalt revideret og kommer nu som en indbygget macOS-applikation, hvilket bringer mærkbare forbedringer. Disse omfatter hurtigere starttider og reducerede hukommelseskrav.

Særligt imponerende er Electrons skift til en indbygget macOS-app, som reducerer installationsstørrelsen med omkring 25 procent. De nye funktioner i version 0.9.5 er også værd at nævne: for eksempel er der nu et nyt indstillingsvindue til deling af sprogmodeller på netværket. Dette giver adgang til ressourcekrævende LLM'er fra kraftfulde computere, mens andre enheder i netværket kan drage fordel af det. Derudover kan modellerne nu gemmes på eksterne lagermedier eller i alternative mapper.

Alsidige anvendelser og fordele

Ollamas alsidighed er ikke kun begrænset til macOS. Værktøjet er også tilgængeligt til Windows og Linux og giver dermed en samlet grænseflade til download, styring og afvikling af LLM'er på forskellige operativsystemer, som f.eks. markaicode.com højdepunkter. Flere og flere brugere opdager fordelene ved at tilbyde LLM'er lokalt. Det betyder, at al databehandling forbliver på din egen computer, hvilket sikrer fuldstændigt privatliv. Derudover er der ingen omkostninger til API-brug, og modellerne kan også betjenes offline.

Hardwarekravene er moderate, så selv brugere med ældre gaming GPU'er eller notebooks kan vove sig ind i LLM'ernes verden. En moderne multi-core processor og mindst 8 GB RAM anbefales for at udnytte ydeevnen optimalt. Listen over understøttede modeller inkluderer Llama 2, Code Llama, Mistral og Vicuna, så den rigtige model kan findes til næsten enhver applikation.

Open source som en game changer

De andre fordele ved open source LLM'er omfatter uafhængighed af eksterne udbydere. fraunhofer.de påpeger, at følsomme data forbliver i dit eget netværk, og omkostningerne ved driften er gennemsigtige og forudsigelige. Disse avancerede teknologier har set betydelige fremskridt gennem 2023, hvilket har vakt interesse for generative AI-værktøjer. Især med fremkomsten af ​​ChatGPT fra OpenAI har efterspørgslen efter LLM'er vist sig at være enorm.

Muligheden for at tilpasse modeller til specifikke use cases via finjustering åbner nye horisonter for virksomheder og udviklere. Derudover tilføjes der løbende nye ydelsesoptimeringsteknikker, der tillader acceptable hastigheder selv med mindre kraftfuld hardware.

Med den nye version af Ollama bliver det endnu nemmere for mange brugere at komme ind i verden af ​​kunstig intelligens. Det er stadig spændende at se, hvordan teknologien vil fortsætte med at udvikle sig, og hvilke nye muligheder den vil skabe. Kombinationen af ​​brugervenlighed og kraftfulde funktioner gør Ollama til et fristende tilbud for alle, der arbejder inden for kunstig intelligens.