Denken lernen wie die Natur
Forscherinnen und Forscher der Universität Graz wollen die Funktionsweise des menschlichen Gehirns in Algorithmen übertragen – um Künstliche Intelligenz deutlich energieeffizienter zu machen.
Die Natur zeigt seit Millionen von Jahren, wie energieeffizient Denken funktionieren kann. Unser Gehirn verbraucht im Ruhezustand gerade einmal rund 20 Watt – weniger als eine herkömmliche Glühbirne. Moderne Sprachmodelle wie ChatGPT oder Gemini hingegen benötigen zur Verarbeitung ähnlicher Aufgaben ganze Rechenzentren mit Megawatt-Leistungen. Dieser extreme Energiehunger ist nicht nur ein Kosten-, sondern auch ein Nachhaltigkeitsproblem. Ein einzelner KI-Dialog oder eine komplexe Textanalyse erzeugen bereits heute messbare CO₂-Emissionen.
Genau hier setzt ein internationales Forscherteam der Universität Graz an. Ziel ist es, das Prinzip biologischer Informationsverarbeitung auf künstliche Systeme zu übertragen. Statt riesige Mengen von Daten mit immer größeren neuronalen Netzen zu verarbeiten, wollen die Grazer Wissenschaftler verstehen, wie das Gehirn mit minimalem Energieeinsatz maximale Effizienz erreicht – und dieses Prinzip in neue KI-Architekturen übersetzen.
Vom neuronalen Netz zum neuromorphen Denken
Während klassische KI-Modelle auf mathematischen Operationen in digitalen Schaltkreisen basieren, arbeitet das Gehirn auf analoger Ebene mit elektrischen Impulsen und chemischen Reaktionen. Diese sogenannten Spikes, also kurze Spannungsspitzen in Nervenzellen, bilden die Grundlage einer enorm sparsamen Informationsverarbeitung. Neuromorphe Chips, die solche Prozesse elektronisch nachahmen, gelten daher als mögliche Zukunft der KI.
Forschende der Uni Graz untersuchen derzeit, wie sich die „Spiking Neural Networks“ (SNN) besser trainieren lassen und welche Lernmechanismen sich aus der Biologie übernehmen lassen. Sie orientieren sich dabei an Prinzipien wie der Plastizität des Gehirns – also seiner Fähigkeit, ständig neue Verbindungen zu knüpfen und alte zu lösen. So sollen Systeme entstehen, die sich selbst anpassen, ohne ununterbrochen gewaltige Rechenleistung zu beanspruchen.
Energieeffizienz als Schlüssel
Einer der Hauptgründe für den enormen Energiebedarf heutiger KI-Systeme liegt in der Art und Weise, wie sie trainiert werden. Milliarden Parameter müssen in unzähligen Rechendurchläufen angepasst werden. Allein das Training eines großen Sprachmodells kann so viel Strom verbrauchen wie mehrere tausend Haushalte pro Jahr.
Das menschliche Gehirn löst ähnliche Aufgaben – Spracherkennung, Lernen, Problemlösung – jedoch mit einer winzigen Energiemenge. Das liegt unter anderem daran, dass es Informationen parallel und kontextsensitiv verarbeitet. Nur relevante Signale werden weitergeleitet, irrelevante Reize automatisch unterdrückt. Diese Form der selektiven Aufmerksamkeit soll nun algorithmisch nachgebildet werden.
Ein weiterer Ansatz ist das sogenannte Event-based Computing: Statt kontinuierlich alle Daten zu berechnen, reagiert das System nur auf Veränderungen – ähnlich wie ein Nervensystem, das nur dann „aktiv wird“, wenn sich etwas ändert. So könnten KI-Modelle künftig erheblich sparsamer arbeiten, ohne an Leistungsfähigkeit zu verlieren.
Kooperation von Neurowissenschaft und Informatik
Die Uni Graz gilt in Europa als einer der Vorreiter auf diesem Forschungsgebiet. Das interdisziplinäre Team vereint Expertinnen und Experten aus Neurowissenschaft, Informatik und Physik. Gemeinsam erforschen sie, wie biologische und technische Systeme voneinander lernen können. Unterstützt wird das Projekt durch EU-Förderprogramme zur nachhaltigen Digitalisierung.
Langfristig soll daraus eine neue Generation von biologisch inspirierten KI-Chips entstehen, die nicht mehr in riesigen Rechenzentren, sondern direkt in Geräten laufen – energieautark und lokal. Damit ließe sich auch ein Teil des Datenschutzproblems lösen, da Datenverarbeitung zunehmend dezentral und ohne Cloud-Abhängigkeit erfolgen könnte.
Vom Effizienz- zum Nachhaltigkeitstrend
Die Idee, das Gehirn als Vorbild zu nutzen, ist mehr als ein technologischer Schritt – sie ist ein Paradigmenwechsel. Weg von der reinen Rechenpower, hin zu intelligenter, adaptiver Energieverwendung. In Zeiten steigender Strompreise und wachsender Umweltbelastung durch Serverfarmen könnte das zum entscheidenden Faktor werden, um KI langfristig nachhaltig zu gestalten.
Forscherinnen und Forscher weltweit beobachten die Grazer Entwicklungen mit großem Interesse. Denn sollte es gelingen, Denkprozesse wirklich „nachzubauen“, könnten künftige Sprachmodelle hundert- oder gar tausendmal effizienter arbeiten – und damit die Tür öffnen zu einer neuen, ökologisch vertretbaren Form der künstlichen Intelligenz.












