Vom Stromvernichter zum Leichtgewicht

„Wir sind in zwölf Minuten da.“ Kein Zweifel, Künstliche Intelligenz (KI) macht den Alltag oft komfortabler und planbarer, befreit von umständlichen Routinen – wie dem Navigieren per Karte. Doch jede Rechenleistung hat auch ihre dunklen Seiten: Denn KI ist ein Ressourcenfresser. Wie sich Energie, Material sowie Zeit effizienter einsetzen lassen, das sind Forschungsfragen von Professor Gregor Schiele. Fragen, mit denen es nie langweilig wird.

von Katrin Koster

Seit 2014 leitet Gregor Schiele das Fachgebiet Eingebettete Systeme der Informatik (ESI). Allein in diesen sieben Jahren hat sich viel bewegt: KI steckt in noch mehr Produkten – wenngleich der mitdenkende Kühlschrank bisher kein Kassenschlager ist. Bei dem winkt der Experte sofort ab; ihn interessieren eher eingebettete Systeme in der Industrie. Ein Beispiel: Wie lassen sich alte Anlagen aufrüsten? Statt neue Maschinen zu kaufen, kann hier nachträglich integrierte KI dafür sorgen, dass sie länger betrieben werden.

Und die Augen des Professors beginnen zu leuchten, sobald es um Medizintechnik geht. Zum Beispiel bei der Frage, wie KI in Implantaten dazu beiträgt, Schaltprozesse im Gehirn nach einem Schlaganfall zu verstehen. Mittels kluger Algorithmen kann bei Fehlschaltungen der Neuronen rechtzeitig gegengesteuert werden.

„Je kleiner die KI, desto größer die Gefahr, dass sie sich irrt.“

Professor Gregor Schiele

Was haben diese beiden Beispiele jetzt mit ressourcenschonender KI zu tun? „Sehr viel. Wir arbeiten zusammen mit anderen Fachleuten daran, dass die KI zum einen nahezu wartungsfrei, langlebig, sicher und zuverlässig ist“, so Schiele. „Und dass zum anderen so etwas wie ein medizinisches Implantat immer kleiner wird.“ Trotzdem sollen die Computerchips so viele Daten wie möglich erfassen – was die Diagnostik präziser mache –, ohne dass dabei zu viel Wärme entsteht, da dies die Zellen schädige.

Weniger Elektroschrott
KI soll also kleiner, schneller und genauer werden. Wie das gelingen kann – die Antwort darauf ist abendfüllend. Bisher braucht KI vor allem große Rechenzentren, um die Datenmassen zu bewältigen. Die Fachleute setzen daher vor Ort an: „Wenn ich etwa industrielle Prozesse lokal berechne und steuere – im Idealfall über normale Computer oder Smartphones –, dann fallen eine Menge Kabel und Server weg, es muss weniger gekühlt werden und der Stromverbrauch ist geringer“, blickt Schiele auf die Nachhaltigkeit. Wird die unabhängige Intelligenz lokal eingebettet, sinkt auch der CO2-Ausstoß. „Ein weiterer Pluspunkt: Sensible Daten werden noch besser geschützt, da sie nicht in einer Cloud liegen.“

Die Optimierer beschränken sich nicht nur auf vernetzte Systeme und die Nutzung vorhandener IT-Ressourcen, sondern schauen auch auf die Produktion von Hardware. „So ein Computerchip ist normalerweise nicht biologisch abbaubar“, scherzt der 47-Jährige. „Aber wenn wir kleinere und stabilere Systeme bauen, die später sogar recycelt werden, wächst der Schrottberg nicht mehr ganz so rasant.“

Es ist komplex

Die komplexe Thematik in vier Schritten: Informatiker wie Professor Schiele wollen bestehende KI effizienter, nachhaltiger und sicherer machen, indem sie

  • 1. clevere Algorithmen programmieren,
  • 2. Rechenprozesse lokal verankern,
  • 3. die Systeme verkleinern und
  • 4. Daten bestmöglich schützen.

Klingt so weit sinnvoll und machbar. Ein Stolperstein bremst die Euphorie: „Je kleiner die KI, desto größer die Gefahr, dass sie sich irrt.“ Was manchmal ziemlich offensichtlich sei, etwa beim Anfangsbeispiel, in dem nicht die schnellste Route berechnet wird. Oder wenn bei einer Übersetzung der Satzbau Murks ist. Aber nicht immer ist das sofort klar.

Es kommt also noch ein fünfter Punkt hinzu: Die Informatik will die KI optimal trainieren. Das allerdings geschieht nicht im luftleeren Raum, wie die University of Massachusetts berechnete: Durch das Programmieren und stetige Verbessern einer KI, die natürlichsprachliche Texte verarbeitet, entsteht so viel CO2, wie durchschnittlich fünf US-amerikanische Autos während ihrer Produktion und gesamten Einsatzdauer verursachen. Eine Zahl, die Schiele nicht isoliert betrachtet: Er hinterfragt, wie viel Energie die KI später in der Anwendung verbraucht und wie groß ihr Nutzen ist. Schließlich gibt es – um beim Navi zu bleiben – durch eine kluge Verkehrssteuerung weniger Staus und weniger Emissionen.

Mit klarem Verstand

Der Fachmann kann sich kaum einen Bereich vorstellen, bei dem intelligente Systeme nicht hilfreich wären. „Noch genauer hinschauen sollten wir jedoch, wenn soziale Systeme darüber gesteuert werden – so berechnen Richterinnen und Richter in den USA inzwischen das Strafmaß teilweise mittels KI“, sagt er skeptisch.

Problematisch ist für ihn auch die menschliche Bequemlichkeit: „KI ist wie ein Hammer – den kann man auch immer irgendwo brauchen. Das Problem ist, dass wir diesen Hammer anbeten. Dass wir denken, er sei allwissend, unfehlbar und könne alles für uns lösen.“ Kurzgefasst: KI an, Hirn aus. Und genau das wäre gefährlich, egal wie klein, grün und effizient die Künstliche Intelligenz künftig ist.

Green Artificial Intelligence – Digitale Technologien sind alles andere als klimaneutral. Dies zu verändern, ist ein Arbeitsschwerpunkt von Professor Dr. Gregor Schiele. Der Informatiker ist seit 2014 an der UDE, zuvor arbeitete er u.a. am Insight Centre for Data Analytics und am Digital Enterprise Research Institute (DERI) sowie an der National University of Ireland, Galway.
Foto: Frank Preuß

Foto: sdecoret/Adobestock.com

Start typing and press Enter to search