Ollama 0.9.5: Revolusjonerende LLM-app for macOS med mange nye funksjoner!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Oppdag de nyeste funksjonene til Ollama 0.9.5: forbedret ytelse for LLM-er på macOS, Windows og Linux.

Entdecken Sie die neuesten Funktionen von Ollama 0.9.5: verbesserte Performance für LLMs auf macOS, Windows und Linux.
Oppdag de nyeste funksjonene til Ollama 0.9.5: forbedret ytelse for LLM-er på macOS, Windows og Linux.

Ollama 0.9.5: Revolusjonerende LLM-app for macOS med mange nye funksjoner!

Verden av kunstig intelligens har åpnet et nytt kapittel med utgivelsen av den oppdaterte versjonen 0.9.5 av åpen kildekode-verktøyet Ollama. Fra 5. juli 2025 er denne programvaren nå tilgjengelig for lokal administrasjon av store språkmodeller (LLM). Hvordan stadt-bremerhaven.de rapportert, har verktøyet blitt fundamentalt revidert og kommer nå som en innebygd macOS-applikasjon, som gir merkbare forbedringer. Disse inkluderer raskere starttider og reduserte minnekrav.

Spesielt imponerende er Electrons overgang til en innebygd macOS-app, som reduserer installasjonsstørrelsen med omtrent 25 prosent. De nye funksjonene i versjon 0.9.5 er også verdt å nevne: for eksempel er det nå et nytt innstillingsvindu for deling av språkmodeller på nettverket. Dette gir tilgang til ressurskrevende LLM-er fra kraftige datamaskiner, mens andre enheter i nettverket kan dra nytte av dette. I tillegg kan modellene nå lagres på eksterne lagringsmedier eller i alternative kataloger.

Allsidig bruk og fordeler

Ollamas allsidighet er ikke bare begrenset til macOS. Verktøyet er også tilgjengelig for Windows og Linux, og gir dermed et enhetlig grensesnitt for nedlasting, administrasjon og kjøring av LLM-er på forskjellige operativsystemer, som f.eks. markaicode.com høydepunkter. Flere og flere brukere oppdager fordelene ved å tilby LLM lokalt. Dette betyr at all databehandling forblir på din egen datamaskin, noe som sikrer fullstendig personvern. I tillegg er det ingen kostnader for API-bruk og modellene kan også betjenes offline.

Maskinvarekravene er moderate, så selv brukere med eldre spill-GPUer eller bærbare datamaskiner kan begi seg inn i LLM-verdenen. En moderne flerkjerneprosessor og minst 8 GB RAM anbefales for å utnytte ytelsen optimalt. Listen over støttede modeller inkluderer Llama 2, Code Llama, Mistral og Vicuna, slik at den riktige modellen kan bli funnet for nesten alle bruksområder.

Åpen kildekode som en game changer

De andre fordelene med åpen kildekode LLM-er inkluderer uavhengighet fra eksterne leverandører. fraunhofer.de påpeker at sensitive data forblir i ditt eget nettverk og kostnadene ved driften er transparente og forutsigbare. Disse avanserte teknologiene har sett betydelig fremgang gjennom 2023, noe som vekker interessen for generative AI-verktøy. Spesielt med bruken av ChatGPT fra OpenAI, har etterspørselen etter LLM-er vist seg å være enorm.

Muligheten til å tilpasse modeller til spesifikke brukstilfeller via finjustering åpner nye horisonter for bedrifter og utviklere. I tillegg legges det stadig til nye ytelsesoptimeringsteknikker som tillater akseptable hastigheter selv med mindre kraftig maskinvare.

Med den nye versjonen av Ollama blir det enda enklere for mange brukere å komme inn i verden av kunstig intelligens. Det er fortsatt spennende å se hvordan teknologien vil fortsette å utvikle seg og hvilke nye muligheter den vil skape. Kombinasjonen av brukervennlighet og kraftige funksjoner gjør Ollama til et fristende tilbud for alle som jobber innen kunstig intelligens.