DeepSeek: Europas Antwort auf KI-Herausforderungen mit neuem Modell!
Berlin, Deutschland - Die neuesten Fortschritte im Bereich der künstlichen Intelligenz (KI) werden maßgeblich von den Entwicklungen des Sprachmodells DeepSeek geprägt. Expert*innen der Technischen Universität Berlin, darunter Dr. Vera Schmitt und Dr. Nils Feldhus, illustrieren, wie DeepSeek sich von anderen Modellen wie ChatGPT abhebt. Im Mittelpunkt ihrer Forschung stehen hochriskante KI-Anwendungen und die Unterstützung intelligenter Entscheidungsprozesse. In der XplaiNLP-Gruppe des Quality and Usability Lab wird an kritischen Themen wie der Erkennung von Desinformation und der Analyse medizinischer Daten gearbeitet. DeepSeek ist nicht nur ein Open-Source-Modell, sondern ermöglicht auch eine hohe Anpassungsfähigkeit und niedrigere Kosten im Vergleich zu proprietären Lösungen wie ChatGPT.
DeepSeek nutzt eine Vielzahl von Open-Source-Modellen, einschließlich LLaMa, und fördert durch transparente technische Berichte die Open-Source-Community. Das Modell hat sich als besonders wertvoll erwiesen, weil es nicht nur bei der Erkennung von Desinformation hilft, sondern auch effizient für die Verarbeitung medizinischer Daten eingesetzt werden kann. Der offene Ansatz begünstigt nicht nur Transparenz, sondern auch die Integration in Mensch-KI-Prozesse und könnte die Forschung durch neue Trainingsansätze und effizientere Modellarchitekturen weiter vorantreiben.
Technische Details und Herausforderungen
DeepSeek-V3, die neueste Version dieses Modells, beeindruckt mit seiner Architektur, die 671 Milliarden Gesamtparameter umfasst und speziell entwickelt wurde, um in der Praxis effektiver zu agieren. Laut DeepSeek-V3 beträgt der Aufwand für das Vortraining lediglich 2,664 Millionen GPU-Stunden, während die nachfolgenden Trainingsphasen nur einen minimalen Ressourcenaufwand erforderten. Diese Effizienz ist besonders in Anbetracht des steigenden Bedarfs an Rechenleistung für KI-Modelle bemerkenswert.
Das Modell verwendet Multi-head Latent Attention und eine neue Methode zur Wissensdestillation. Mit einer innovativen Lastenausgleichsstrategie und einem Multi-Token Vorhersage-Trainingsziel übertrifft DeepSeek-V3 nicht nur andere Open-Source-Modelle, sondern erzielt Leistungen, die vergleichbar sind mit führenden Closed-Source-Optionen. Es kann lokal ausgeführt werden und integriert sich problemlos in bestehende Systeme, was seine kommerzielle Nutzung unter der MIT-Lizenz zusätzlich erleichtert.
Europäische KI-Initiativen und Zusammenarbeit
Im Kontext der KI-Entwicklung in Europa spielt die Occiglot-Initiative eine entscheidende Rolle. Diese Initiative, ins Leben gerufen vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und dem Hessischen Zentrum für Künstliche Intelligenz, zielt darauf ab, generative Open-Source-Sprachmodelle für europäische Sprachen zu entwickeln. Die Herausgeber der Initiative unterstreichen die Notwendigkeit eines starken KI-Ökosystems und die Bedeutung akademischer Freiheit für eine digitale Sprachgleichheit in Europa. Die erste Version von Occiglot, die bereits zehn Sprachmodelle umfasst, legt den Fokus auf die fünf größten europäischen Sprachen und nutzt dafür einen umfangreichen Datenpool.
Wie von DFKI dargestellt, wird die Entwicklung dieser Modelle durch erhebliche Rechnerressourcen gefördert, die durch Partnerschaften mit verschiedenen Organisationen bereitgestellt werden. Das herausragende Ziel ist es, dass Modelle diese Sprachen genauso gut bedienen können wie englischsprachige Anfragen, wodurch die Verfügbarkeit von KI für weniger verbreitete Sprachen gesichert wird.
Insgesamt zeigt der Fortschritt von DeepSeek und die Arbeit an Initiativen wie Occiglot, dass europäische Unternehmen und Forschungseinrichtungen aktiv daran arbeiten, im globalen Wettbewerb um KI-Ressourcen und Technologien mitzuhalten. Dieser Fortschritt könnte der Schlüssel zur Sicherung der europäischen Sprachsouveränität und zur Förderung innovativer Ansätze in der KI-Entwicklung sein.
Details | |
---|---|
Vorfall | Sonstiges |
Ort | Berlin, Deutschland |
Quellen |