Auch künstliche Intelligenz schützt nicht vor Vorurteilen

Ein Gespräch mit dem KI-Experten Jens Wilting vom Technologiekonzern Bosch über die Entwicklung von KI, welche Herausforderungen zu bewältigen sind und wo die Grenzen liegen.

zeb Interview Wilting

„In zehn Jahren wird Banking ohne künstliche Intelligenz nicht mehr wettbewerbsfähig sein“, das prognostizierte vor Kurzem Michael Bentlage, Vorsitzender des Vorstands der Privatbank Hauck & Aufhäuser, in einem Interview.

Zur generellen Bedeutung von KI hat das Bundeswirtschaftsministerium eine schlichte und klare Position: „Die Entwicklung und Beherrschung der Anwendungsformen von künstlicher Intelligenz (KI) ist eine Schlüsselfrage für Deutschland.“ Das Ziel ist es, „Deutschland und Europa zu einem führenden Standort für KI machen“ zu wollen.

Interview mit Jens Wiltung auf der zeb.Uni

Wilting, bei Bosch für Sicherheit und Validierung von KI im Bereich des automatisierten Fahrens tätig und einer der Keynote Speaker bei der zeb.Uni im Herbst 2021, ist da etwas weniger euphorisch: „KI ist nicht das Wunderheilmittel für alle Probleme.“ Man müsse sehr genau schauen, welche Aufgaben Menschen einfach viel besser erfüllen, wo einfache Software weiterhelfe und wo KI sinnvoll eingesetzt werden könne. Generell gelte: Überall dort, wo repetitive Aufgaben automatisiert werden können, sei es sehr wahrscheinlich, dass KI dies über kurz oder lang übernehme. Und das sei auch gut so: „Damit schaffen wir Freiräume für das, was den Menschen ausmacht, nämlich Kreativität sowie Probleme wirklich verstehen zu können und aus einem anderen Blickwinkel zu betrachten. Das kann KI – so gut sie ist – bis heute nicht“, so der Physiker.

Ein zweites Einsatzfeld sieht er dort, wo große Datenmengen anfallen, zum Beispiel beim automatisierten Fahren, im Bereich der Industrie 4.0 oder bei Finanzdienstleistungen. „Überall da, wo wir rational messbare Kenngrößen haben, lässt sich potenziell ein Zusammenhang erkennen, auf den wir KI ansetzen können“, sagt Bosch-Mitarbeiter Wilting. Er erläutert das mit einem Beispiel aus der Autobranche: Hier werden bereits heute Teile der Qualitätssicherung von KI übernommen. Kameras erfassen Autoteile von allen Seiten und gleichen die Bilder mit Fotos dieser Teile ab, auf welche die KI vorher trainiert wurde. So werden Mängel wie etwa Haarrisse erkannt. „KI kann Muster – oder eben auch Abweichungen davon – erkennen, die auf entsprechende Mängel deuten.“

Unbewusste Vorurteile vermeiden

Bei der Qualitätssicherung ist der Nutzen demnach hoch und das Risiko aufgrund der überschaubaren Komplexität beherrschbar. Hingegen können Fehler beim Einsatz von KI im automatisiert fahrenden Auto buchstäblich tödlich sein. „Eine der großen Herausforderungen beim automatisierten Fahren ist es, zu zeigen, dass unsere Systeme sicher sind, bevor wir sie in Serie bringen“, so Wilting. Diese Gefahr gehe von einem Robo Advisor zwar nicht aus, „gleichwohl werden auch Anwendungen im Finanzbereich als sicherheitskritisch eingestuft. Hier kann es zu sehr großen Vermögensschäden kommen, die sich direkt auf die

Lebensqualität von Menschen auswirken können. Dementsprechend ist auch im Bankwesen die Überprüfung von KI-Systemen ein ganz, ganz kritischer Faktor.“

Und noch ein weiteres Problem kommt laut Wilting hinzu: Diskriminierungen. Es könne sein, dass unbewusste Vorurteile (Unconscious Biases) in die Programmierung einfließen. Würde der Entwickler/die Entwicklerin etwa Kryptowährungen wie Bitcoin beim Anlernen einer KI zur Geldanlage übergewichten, könne sich dies auf deren späteres Verhalten auswirken. Ähnlich gelagerte Diskriminierungsfälle sind schon vorgekommen – etwa beim Einsatz künstlicher Intelligenz für Personalauswahlprozesse: People of Color wurden benachteiligt, weil in der Datenbasis zum Anlernen der KI diese Gruppe unterrepräsentiert war, erzählt Wilting. „Die große Frage lautet: Wann habe ich genug gemacht? Habe ich genug und vor allem die richtigen Daten gesammelt, um mein System vor so etwas zu schützen? KI-Systeme seien nun einmal immer nur so gut wie die Daten, mit denen sie trainiert werden.

Um Systeme in Banken oder Versicherungen vor derlei Fehlverhalten zu schützen, müsse ein „kontinuierliches Monitoring integraler Bestandteil der Strategie sein. Es wird nie so sein, dass man sagt: ,Jetzt haben wir einen Stand erreicht, den wir freigeben und der für alle Ewigkeiten so bleibt.‘ Wir werden immer schauen müssen: Wo gibt es Auffälligkeiten? Wo müssen wir dann entsprechend das System verbessern?“ Wilting mahnt zum „sehr kritischen analytischen Blick“ beim Einsatz von KI und Machine Learning. „Wenn wir nicht mehr verstehen, was der Computer tut, und vor allem nicht mehr merken, dass er etwas Falsches macht, dann setzen wir KI nicht richtig ein. Dann laufen wir Gefahr, uns Probleme zu erzeugen, statt sie zu lösen.“ Beim Einsatz von KI braucht es also vor allem: weiterhin viel menschliche Intelligenz.

 

Herr Wilting war Gastredner auf der zeb.Uni 2021. Wenn Sie Fragen haben oder den Kontakt wünschen, wenden Sie sich bitte an Sarah Schroeder.