Antrittsvorlesung von Prof. Dr. Michel Besserve 28. Januar 2026 | 17:00 Uhr - 19:00 Uhr
Antrittsvorlesung „The quest for inductive biases in causal artificial intelligence“
Artificial intelligence is increasingly relied on to assist with complex tasks by learning from vast amounts of data. However, designing more reliable and explainable artificial intelligence systems is essential for unlocking their potential in various applications. These objectives can be framed in terms of modifications to the input data: we „understand“ and trust a system when we comprehend its behavior in response to plausible and meaningful changes in its environment. Causality offers a comprehensive framework for modeling these changes through the concepts of interventions and counterfactuals. Causal artificial intelligence not only aims at making artificial systems more reliable, but also at helping humans understand the world they live in.
Both biological and artificial systems can learn from past experience, but do they rely solely on it to understand the world and better act in the future? This is akin to a long standing philosophical question, called the problem of induction. It turns out that the answer is generally negative: learning from experience requires additional assumptions about the world in order to supplement the partial and noisy information provided by in empirical data. These assumptions are called inductive biases. The inaugural lecture will outline guiding principles in the pursuit of better inductive biases for machine learning models. It will demonstrate how these principles can be leveraged to uncover key mechanisms in various complex systems, and ultimately pave the way to more trustworthy uses of AI.
Short-bio
Michel Besserve studied electrical engineering and applied mathematics at ENS Paris-Saclay. After investigating brain-computer interfaces during his doctorate at Paris-Saclay University, he joined as a postdoc the Cognitive Neurophysiology department at the Max Planck Institute for Biological Cybernetics of Tübingen in 2008, where he investigated the mechanisms of distributed information processing in the brain using information theory. He became project leader in the same department in 2014, supervising the data science and machine learning efforts to understand high-level brain functions. At the same time, he started investigating principles of causal machine learning in the department of Empirical Inference of the Max Planck Institute for Intelligent Systems of Tübingen. From 2022, he merged his interests in artificial and biological systems by leading methodological research on Machine Learning for Complex Systems in this department. Michel Besserve became Professor of Artificial Intelligence in Interactive Systems in October 2024 at the newly founded institute of artificial intelligence of TU Braunschweig.
—–
Künstliche Intelligenz wird zunehmend zur Unterstützung komplexer Aufgaben eingesetzt, indem sie aus riesigen Datenmengen lernt. Die Entwicklung zuverlässigerer und erklärbarer künstlicher Intelligenzsysteme ist jedoch unerlässlich, um ihr Potenzial in verschiedenen Anwendungsbereichen auszuschöpfen. Diese Ziele lassen sich anhand von Änderungen an den Eingabedaten formulieren: Wir „verstehen” ein System und vertrauen ihm, wenn wir sein Verhalten als Reaktion auf plausible und sinnvolle Veränderungen in seiner Umgebung nachvollziehen können. Die Kausalität bietet einen umfassenden Rahmen für die Modellierung dieser Veränderungen durch die Konzepte der Interventionen und “counterfactuals”. Kausale künstliche Intelligenz zielt nicht nur darauf ab, künstliche Systeme zuverlässiger zu machen, sondern auch darauf, Menschen dabei zu helfen, die Welt, in der sie leben, zu verstehen.
Sowohl biologische als auch künstliche Systeme können aus vergangenen Erfahrungen lernen, aber verlassen sie sich ausschließlich darauf, um die Welt zu verstehen und in Zukunft besser zu handeln? Dies ähnelt einer seit langem bestehenden philosophischen Frage, dem sogenannten Induktionsproblem. Die Antwort lautet im Allgemeinen „nein“: Um aus Erfahrungen zu lernen, sind zusätzliche Annahmen über die Welt erforderlich, um die unvollständigen und verrauschten Informationen aus empirischen Daten zu ergänzen. Diese Annahmen werden als induktive Verzerrungen bezeichnet. In der Antrittsvorlesung werden Leitprinzipien für die Suche nach besseren induktiven Verzerrungen für maschinelle Lernmodelle vorgestellt. Es wird gezeigt, wie diese Prinzipien genutzt werden können, um Schlüsselmechanismen in verschiedenen komplexen Systemen aufzudecken und letztlich den Weg für eine vertrauenswürdigere Nutzung von KI zu ebnen.
Kurzbiografie
Michel Besserve studierte Informationstechnik und angewandte Mathematik an der ENS Paris-Saclay. Nachdem er sich während seiner Promotion an der Universität Paris-Saclay mit Gehirn-Computer-Schnittstellen befasst hatte, trat er 2008 als Postdoktorand in die Abteilung für Kognitive Neurophysiologie am Max-Planck-Institut für biologische Kybernetik in Tübingen ein, wo er sich mit Hilfe der Informationstheorie mit den Mechanismen der verteilten Informationsverarbeitung im Gehirn befasste. Im Jahr 2014 wurde er Projektleiter in derselben Abteilung und leitete die DataßScience- und Machine-Learning-Arbeiten zum Verständnis höherer Gehirnfunktionen. Gleichzeitig begann er, sich mit den Prinzipien des kausalen maschinellen Lernens in der Abteilung für Empirische Inferenz des Max-Planck-Instituts für Intelligente Systeme in Tübingen zu befassen. Ab 2022 verband er seine Interessen an künstlichen und biologischen Intelligente Systemen, indem er in dieser Abteilung die methodische Forschung zum maschinellen Lernen für komplexe Systeme leitete. Michel Besserve wurde im Oktober 2024 Professor für Künstliche Intelligenz in interaktiven Systemen am neu gegründeten Institut für Künstliche Intelligenz der TU Braunschweig.
Referent*in
Prof. Dr. Michel Besserve, Institut für Künstliche Intelligenz
Zur Website der Veranstaltung →
Veranstaltung im Kalender speichern →