Physik bildet die Grundlage von allgemeinen KI-Methoden und trägt bis heute zu deren Weiterentwicklung bei. KI-Methoden finden wiederum umgekehrt breite Anwendung in verschiedensten Bereichen der Physik.

Physiknobelpreis 2024: Physik in der Künstlichen Intelligenz

Ausgabe 73 | Dezember 2024 | „Konzepte aus der Physik haben maschinelles Lernen mitbegründet und leisten heute wichtige Beiträge, KI-Methoden weiter voranzutreiben. Gleichzeitig ist moderne Forschung in der Physik aufgrund der Komplexität und gewaltigen Menge von Daten ohne fortgeschrittene KI-Algorithmen oft nicht mehr denkbar.“ - Klaus Richter (DPG-Präsident)

Download: Physikkonkret 73 -Physiknobelpreis 2024: Physik in der Künstlichen Intelligenz [PDF]

  • Titelseite des Physikkonkret zu Künstlicher Intelligenz
    Titelseite des Physikkonkret zu Künstlicher Intelligenz
    Der Physiknobelpreis 2024 zeichnet John Hopfield und Geoffrey Hinton für ihre Arbeiten zu Hopfield-Netzwerken und Boltzmann-Maschinen aus.
  • Dabei handelt es sich um Arbeiten, die Konzepte aus der statistischen Physik nutzen, um neuronale Netzwerke – die Grundbausteine maschinellen Lernens – zu strukturieren.
  • Heutzutage findet Künstliche Intelligenz (KI) breite Anwendung auf eine Vielzahl von physikalischen Problemen und darüber hinaus, während umgekehrt Erkenntnisse aus der Physik genutzt werden, um KI-Systeme weiterzuentwickeln.

Moderne KI-Systeme basieren fast ausschließlich auf künstlichen neuronalen Netzwerken. Das sind Netzwerke, die sich im Aufbau am menschlichen Gehirn orientieren. Sie bestehen aus einzelnen, miteinander verknüpften Einheiten und können mithilfe von Daten selbst lernen.

Die 1982 von John Hopfield eingeführten und nach ihm benannten Hopfield-Netzwerke helfen dabei, Muster zu speichern und wiederzuerkennen. Sie nutzen dabei das Prinzip der Energieminimierung: Ähnlich wie ein Ball talwärts rollt, strebt das Netzwerk als Ganzes hin zu einem Zustand niedriger Energie – einem tiefen Tal in einer Hügellandschaft. Dabei ist die Definition der Energie des Hopfield-Netzwerks angelehnt an das sogenannte Ising-Modell, welches das magnetische Verhalten von Festkörpern beschreibt.

Boltzmann-Maschinen sind nach dem Physiker Ludwig Boltzmann (1844 - 1906) benannt und wurden 1985 von Geoffrey Hinton entwickelt. Sie funktionieren ähnlich wie Hopfield-Netzwerke, nutzen jedoch zusätzlich eine Wahrscheinlichkeitsfunktion, die der temperaturabhängigen Energieverteilung in der Thermodynamik nachempfunden ist, um ebenfalls eine niedrige Energie zu finden. Die Differenz zu einem Zustand minimaler Energie ist dann ein Maß für den Lernerfolg des Netzwerks. 

Dies macht deutlich, wie groß der Einfluss der Physik auf die Entstehung und Entwicklung von KI bis heute ist. Ein Beispiel für die Relevanz physikalischer Konzepte bei der aktuellen Weiterentwicklung des maschinellen Lernens sind Diffusionsmodelle. Diese beschreiben mathematisch, wie sich z. B. ein Tintenklecks langsam in einem Wasserglas verteilt. Korrespondierende KI-Diffusionsmodelle simulieren zuerst eine zur Vermischung analoge Verrauschung der Daten und lernen dann, diese schrittweise wieder rückgängig zu machen. Damit können aus ursprünglich zufälligen Mustern eindrucksvolle neue Bilder erzeugt werden.

Umgekehrt stellen moderne Methoden der KI für die Physik eine große Bereicherung dar. Der Durchbruch erfolgte durch die Kombination von maschinellem Lernen und Supercomputern zur Analyse gewaltiger Datenmengen (Big Data), wie sie z.B. in der Astronomie oder Teilchenphysik entstehen: Komplexe Experimente, wie solche am CERN, produzieren Unmengen an Daten. Umfassende KI-Methoden, z. B. zur Erkennung von Anomalien, ermöglichen es, unerwartete Muster in diesen Daten zu finden oder relevante physikalische Information zu extrahieren. Einen ähnlichen Einsatz finden KI-Methoden auch heute schon in bildgebenden Verfahren in der Medizinphysik, z. B. in der Nachbearbeitung von CT- und MRT-Bildern, um kleinste Veränderungen sichtbar zu machen. 

Eine weitere Anwendung von KI ist die Simulation von physikalischen Abläufen oder die Generierung von Daten. KI ist sehr effizient darin, numerische Simulationen zu beschleunigen und präziser zu gestalten. Dabei kann es sich um Klimamodelle, astrophysikalische Phänomene, quantenmechanische Simulationen oder Anwendungen in den Materialwissenschaften handeln. Forschende können auf diese Weise schneller Hypothesen testen, die zu neuartigen Materialeigenschaften oder dem gezielten Design neuer Materialien führen.

Während spezifische physikalische Konzepte die Grundlage maschinellen Lernens bilden, was nach einer stürmischen Entwicklung, zu der erneut die Physik beigetragen hat, inzwischen allgegenwärtig ist, steigern heute umgekehrt diese KI-Techniken die Effizienz physikalischer Forschung, ermöglichen qualitativ neuartige Ansätze und führen zu neuen physikalischen Erkenntnissen. Dieses Zusammenspiel wird zweifellos in den kommenden Jahren zu weiteren spannenden Entwicklungen, sowohl in der KI allgemein als auch in zahlreichen Bereichen der Physik führen.

Die DPG dankt ihrem Autor Prof. Gregor Kasieczka von der Universität Hamburg und dem Exzellenzcluster Quantum Universe.