Machines intelligentes ou simple illusion ? Le professeur Zweig précise !

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Le 15 octobre 2025, la professeure Katharina Zweig donnera une conférence sur la capacité de réflexion des modèles d'IA sur le campus de Zweibrücken.

Am 15.10.2025 hält Prof. Katharina Zweig am Campus Zweibrücken einen Vortrag über die Denkfähigkeit von KI-Modellen.
Le 15 octobre 2025, la professeure Katharina Zweig donnera une conférence sur la capacité de réflexion des modèles d'IA sur le campus de Zweibrücken.

Machines intelligentes ou simple illusion ? Le professeur Zweig précise !

La curiosité pour l'intelligence artificielle est au centre d'une conférence passionnante à l'Université technique de Rhénanie-Palatinat (RPTU) à Deux-Ponts. Le 15 octobre 2025, la célèbre professeure d'informatique Katharina Zweig posera la question : « ChatGPT et d'autres modèles de langage peuvent-ils penser ? Cette conférence, qui se veut instructive, promet de captiver non seulement les auditeurs étudiés, mais aussi de séduire ceux qui s'intéressent simplement à la technologie. Le Saarbrücker Zeitung rapporte que Zweig travaille comme expert auprès de différents ministères fédéraux et a déjà reçu plusieurs prix prestigieux.

Katharina Zweig est tout sauf une inconnue dans la recherche en IA. Elle a fondé le cours unique de socioinformatique et a été nommée ambassadrice de l'IA du Land de Rhénanie-Palatinat en 2020. En septembre 2023, elle a reçu la Croix fédérale du mérite pour ses réalisations exceptionnelles dans le domaine de l'informatique et de la société. Elle a également publié des best-sellers sur l’intelligence artificielle qui captivent de nombreux lecteurs. Si vous souhaitez en savoir plus, vous pouvez retrouver ses œuvres, entre autres, sur Amazone.

Risques et opportunités des modèles de langage d'IA

L'exposé de Zweig mettra non seulement en lumière la perspective philosophique de l'IA, mais s'inscrira également dans un discours plus large sur les opportunités et les risques associés aux grands modèles d'IA. L'Office fédéral de la sécurité de l'information (BSI) a récemment publié un document actualisé qui aborde ces aspects. Ce document, disponible en allemand et en anglais, sert de base complète pour l'analyse des risques lors de l'utilisation des LLM (Large Language Models) dans les entreprises et les autorités. Le BSI répertorie les risques en trois catégories : bon usage, mauvais usage et attaques contre le LLM.

La restructuration du document BSI produit également de nouvelles contre-mesures, qui sont liées aux risques correspondants dans un tableau. Cette mise à jour permet d'intégrer facilement les futurs modèles d'IA dans des workflows qui vont au-delà du texte et peuvent également éditer des vidéos, des images ou des fichiers audio par exemple. Il y a ici certainement un potentiel qui pourrait révolutionner l’économie et la société.

Dans un environnement numérique en constante évolution, il est extrêmement important de comprendre les développements de l’IA et leurs implications pour notre avenir. Que ce soit dans la vie professionnelle ou dans la vie de tous les jours, aborder ces sujets devient de plus en plus important. C'est pourquoi une visite à la conférence du professeur Zweig vaut la peine non seulement pour les fans de technologie, mais aussi pour tous ceux qui sont curieux de connaître l'avenir.