Ollama 0.9.5: تطبيق LLM ثوري لنظام التشغيل macOS مع العديد من الميزات الجديدة!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

اكتشف أحدث ميزات Ollama 0.9.5: أداء محسّن لحاملي LLM على أنظمة التشغيل macOS وWindows وLinux.

Entdecken Sie die neuesten Funktionen von Ollama 0.9.5: verbesserte Performance für LLMs auf macOS, Windows und Linux.
اكتشف أحدث ميزات Ollama 0.9.5: أداء محسّن لحاملي LLM على أنظمة التشغيل macOS وWindows وLinux.

Ollama 0.9.5: تطبيق LLM ثوري لنظام التشغيل macOS مع العديد من الميزات الجديدة!

لقد فتح عالم الذكاء الاصطناعي فصلاً جديدًا بإصدار الإصدار المحدث 0.9.5 من الأداة مفتوحة المصدر Ollama. اعتبارًا من 5 يوليو 2025، أصبح هذا البرنامج متاحًا الآن للإدارة المحلية لنماذج اللغات الكبيرة (LLM). كيف Stadt-bremerhaven.de تم الإبلاغ عن أن الأداة تمت مراجعتها بشكل أساسي وتأتي الآن كتطبيق أصلي لنظام التشغيل macOS، مما يوفر تحسينات ملحوظة. يتضمن ذلك أوقات بدء أسرع ومتطلبات ذاكرة أقل.

ومن المثير للإعجاب بشكل خاص انتقال Electron إلى تطبيق macOS الأصلي، مما يقلل من حجم التثبيت بحوالي 25 بالمائة. تجدر الإشارة أيضًا إلى الميزات الجديدة في الإصدار 0.9.5: على سبيل المثال، توجد الآن نافذة إعدادات جديدة لمشاركة نماذج اللغة على الشبكة. وهذا يسمح بالوصول إلى دورات LLM كثيفة الاستخدام للموارد من أجهزة كمبيوتر قوية، بينما يمكن للأجهزة الأخرى في الشبكة الاستفادة. بالإضافة إلى ذلك، يمكن الآن حفظ النماذج على وسائط تخزين خارجية أو في أدلة بديلة.

استخدامات ومزايا متعددة

لا يقتصر تنوع استخدامات Ollama على نظام التشغيل macOS فقط. الأداة متاحة أيضًا لنظامي التشغيل Windows وLinux، وبالتالي توفر واجهة موحدة لتنزيل وإدارة وتشغيل LLMs على أنظمة تشغيل مختلفة، مثل markaicode.com يسلط الضوء. يكتشف المزيد والمزيد من المستخدمين فوائد توفير LLMs محليًا. وهذا يعني أن جميع عمليات معالجة البيانات تظل على جهاز الكمبيوتر الخاص بك، مما يضمن الخصوصية الكاملة. بالإضافة إلى ذلك، لا توجد تكاليف لاستخدام واجهة برمجة التطبيقات (API) ويمكن أيضًا تشغيل النماذج دون الاتصال بالإنترنت.

متطلبات الأجهزة معتدلة، لذلك حتى المستخدمين الذين لديهم وحدات معالجة رسومات أو أجهزة كمبيوتر محمولة قديمة للألعاب يمكنهم المغامرة في عالم LLMs. يوصى باستخدام معالج حديث متعدد النواة وما لا يقل عن 8 جيجابايت من ذاكرة الوصول العشوائي لتحقيق الاستخدام الأمثل للأداء. تتضمن قائمة النماذج المدعومة Llama 2، وCode Llama، وMistral، وVicuna، بحيث يمكن العثور على النموذج المناسب لكل تطبيق تقريبًا.

المصدر المفتوح كبديل للعبة

تشمل المزايا الأخرى لبرامج LLM مفتوحة المصدر الاستقلال عن مقدمي الخدمات الخارجيين. fraunhofer.de يشير إلى أن البيانات الحساسة تظل في شبكتك الخاصة وأن تكاليف التشغيل شفافة ويمكن التنبؤ بها. وقد شهدت هذه التقنيات المتقدمة تقدمًا كبيرًا طوال عام 2023، مما أدى إلى زيادة الاهتمام بأدوات الذكاء الاصطناعي التوليدية. خاصة مع ظهور ChatGPT من OpenAI، أثبت الطلب على LLMs أنه ضخم.

إن القدرة على تكييف النماذج مع حالات استخدام محددة من خلال الضبط الدقيق تفتح آفاقًا جديدة للشركات والمطورين. بالإضافة إلى ذلك، يتم باستمرار إضافة تقنيات جديدة لتحسين الأداء تتيح سرعات مقبولة حتى مع الأجهزة الأقل قوة.

مع الإصدار الجديد من Ollama، أصبح الدخول إلى عالم الذكاء الاصطناعي أكثر سهولة بالنسبة للعديد من المستخدمين. ويبقى من المثير أن نرى كيف ستستمر التكنولوجيا في التطور وما هي الفرص الجديدة التي ستخلقها. إن الجمع بين سهولة الاستخدام والميزات القوية يجعل من Ollama عرضًا مغريًا لأي شخص يعمل في مجال الذكاء الاصطناعي.