Kaum eine Technologie wird mit so vielen Hoffnungen verknüpft wie die künstliche Intelligenz (KI). Und mit Sorgen: Sind Maschinen bald schlauer als wir? Haben dann die Roboter das Sagen? Professor Dr. Ute Schmid, KI-Expertin von der Universität Bamberg, bringt Licht in die Blackbox.
Frau Professor Dr. Schmid, die künstliche Intelligenz präsentiert sich seit Jahren als eine große Grauzone zwischen Heilsversprechen und Urängsten. Sie fordern, dass sich alle Menschen mit dem Thema KI beschäftigen sollten. Warum?
Prof. Dr. Ute Schmid: KI-Technologie wird viele Bereiche des Lebens und der Wirtschaft stark verändern. Damit potenziell positive und negative Auswirkungen von KI-Anwendungen besser eingeschätzt werden können, ist ein grundlegendes Verständnis von KI-Methoden, insbesondere auch maschinellem Lernen wichtig. Ich mache das an einem einfachen Beispiel deutlich – an Recommender-Systemen für Nachrichten, Suchergebnisse und Produkte. Diese basieren auf klassischen Ansätzen des Information-Retrieval, erweitert um KI-Methodik. Die Menschen, die ja diese Technologien täglich nutzen, müssen verstehen, was ein Page Rank bei Google macht, warum wir in Filterbubbles geraten und was die Auswirkungen davon sind – beispielsweise auf Meinungsbildungsprozesse.
Wie sieht die Situation in Unternehmen aus, wo KI als Technologie gilt, die über die Zukunftsfähigkeit entscheidet?
Auch in Unternehmen ist Aufklärung unbedingt nötig. Hier werden sehr hohe Erwartungen in den Einsatz von Deep-Learning-Methoden gesetzt. Dabei fehlt aber häufig ein Verständnis dafür, dass es sehr teuer und aufwendig werden kann, wenn solche datenintensiven Methoden einsetzt werden. Schließlich müssen sehr viele Daten in sehr hoher Qualität zur Verfügung stehen, um robuste und zuverlässige Modelle zu lernen. Inzwischen gibt es aber immer mehr Initiativen zur Vermittlung von KI-Kompetenzen. Seitens des Ministerium für Bildung und Forschung werden beispielsweise zurzeit viele Mittel in die Hand genommen, um KI-Kompetenzen in Firmen zu fördern.
Wo sollten die Maßnahmen ansetzen?
Ich glaube, dass in einem Unternehmen alle Mitarbeitenden zumindest eine grundlegende Vorstellung davon haben sollten, wie KI-Systeme arbeiten. Je nach Position im Unternehmen sollten die Kenntnisse mehr oder weniger breit und mehr oder weniger tief sein. Während eine Sachbearbeiterin zum Beispiel verstehen muss, an welchen Stellen Daten Einfluss auf die Güte eines gelernten Modells etwa zur Vorhersage von Bedarfen in einem Quartal haben, muss im strategischen Management so viel über Deep-Learning-Ansätze und andere Methoden der KI bekannt sein, damit eine sinnvolle Einschätzung über Einsatzmöglichkeiten gelingen kann. In Gesprächen höre ich oft, dass in Unternehmen die Parole ausgegeben wird: ‚Wir müssen jetzt was mit KI machen.‘ Betrachtet man dann, welche Aufgaben und Probleme konkret bearbeitet werden sollen, wird oft klar, dass Standardansätze völlig ausreichen und sogar zielführender sind.
Eine Abgrenzung erscheint bei den vielen Hype-Begriffen und Einsatzszenarien schwierig.
Aktuell herrscht teilweise ein ziemliches Begriffs-Wirrwarr. KI wird mit maschinellen Lernen gleichgesetzt oder auch direkt mit Deep Learning. Oft werden sogar Digitalisierung und KI synonym verwendet. Digitalisierung meint ja die Transformation analoger Information in digitale Formate, so dass diese Information mit Computeralgorithmen verarbeitet werden kann. KI-Methoden sollten immer nur dann zum Einsatz kommen, wenn es keine klar vordefinierten Regeln gibt oder wenn die Probleme so komplex sind, dass man die Lösung nicht mehr effizient berechnen kann. Auch Blockchain-Technologien oder Robotik sind nicht KI.
Sie sind unlängst mit einem Preis ausgezeichnet worden, weil Sie KI einfach erklären können, sie bringen das Thema in Grundschulen und haben das Buch „KI selber programmieren für Dummies – Junior“ herausgebracht. Was ist denn genau KI?
Eine bekannte Definition lautet, dass sich KI-Forschung mit der Lösung von Problemen beschäftigt, die Menschen im Moment noch besser lösen können. Diese Definition mag ich, weil sie ohne den Begriff „Intelligenz“ auskommt. Dieser wird im Alltagsgebrauch auf eine bestimmte Art verwendet, die nicht so gut beschreibt, worum es in der KI-Forschung geht. Typischerweise halten wir Personen für intelligent, die sehr gut Schach spielen können oder Physik studiert haben. Dagegen finden wir es nicht beeindruckend, wenn jemand einen stabilen Turm aus Baukötzen bauen kann oder Apfelschorle mischen kann. Die beiden letztgenannten Aktivitäten sind jedoch deutlich schwieriger mit einem KI-System umzusetzen, das diese Aufgaben robust unter verschiedenen Rahmenbedingungen ausführen kann. Hier müssen vielfältige Probleme – von der Objekterkennung bis zur Planung von Handlungsschritten – gelöst werden. Oft muss schwer formalisierbares Weltwissen – sogenanntes Common Sense Knowledge – berücksichtig werden, über das jedes Kind verfügt, beispielsweise, dass es kein stabiler Turm wird, wenn man einen Quader auf eine Pyramide setzt. Menschen fallen solche Schlussfolgerungen leicht, Rechnen und strategisches Vorausplanen, wie es beim Schach gefordert wird, dagegen eher schwer.
Um welche Arten von Problemen geht es konkret, die man mit KI lösen will?
KI-Methoden werden vor allem eingesetzt, wenn eine der folgenden Bedingungen zutrifft: Entweder handelt es sich um ein Problem in einem sehr komplexen Bereich, bei dem sich die eine Lösung im Suchraum wie die Nadel im Heuhaufen versteckt. Das sind die sogenannten exponentiell komplexen Probleme, bei denen man nicht einfach mit einem Standardalgorithmus alle Varianten durchsuchen kann. Solche Probleme finden sich zum Beispiel in der Logistik. Oder es handelt sich um ein Problem, das nicht vollständig modelliert werden kann. In diesem Fall lässt sich maschinelles Lernen verwenden, um aus Daten Modelle anzunähern. In den meisten anderen Problembereichen reichen Standardmethoden der Software-Entwicklung aus.
Was hat denn den Hype um KI vor ein paar Jahren ausgelöst, abgesehen von Schach-, Jeopardy- und Go-Meisterschaften?
Vor rund zehn Jahren hat ein künstliches neuronales Netz einen Wettbewerb zur Bilderkennung gewonnen. Im Gegensatz zu klassischen Methoden der Bildverarbeitung (Computer-Vision) konnte mit diesem Ansatz direkt aus den Bilddaten gelernt werden, welches Objekt auf dem Bild zu sehen ist. Zudem hat das neuronale Netz viel mehr Bilder korrekt erkannt als die zuvor verwendeten Methoden. Dieses sogenannte Convolutional Neural Net erlaubt End-to-End-Learning, also das direkte Lernen eines Klassifikators aus den Rohdaten, in diesem Fall aus Bitmaps. Vorher mussten beim maschinellen Lernen, auch bei klassischen neuronalen Netzen, immer zunächst Merkmale aus den Rohdaten extrahiert werden, damit die Programme aus diesen Merkmalsvektoren lernen können. Diese ‚Feature Extraction‘ macht sehr viel Arbeit, und man muss sich bei komplexen Problemen auch viele Gedanken machen, welche Art von Merkmalen man aus den Rohdaten extrahieren soll. Da man mit den neuen Deep-Learning-Ansätzen nun Rohdaten unverarbeitet in neuronale Netze kippen kann, erhoffen sich viele Leute davon, ohne viel Mühe Modelle zu bekommen, die in komplexen Bereichen einsatzbar werden, für die es bislang keine guten Lösungsansätze gibt. Die Hoffnung ist hier, Denken durch Daten zu ersetzen, verbunden mit dem Glauben, dass Daten billiger zu kriegen sind als Mitarbeitende, die gute Lösungen erdenken.
Wo steckt denn der Trugschluss, in den Daten oder im Denken?
Was bei datenintensiven Ansätzen des Deep Learning oft übersehen wird, ist, dass man sehr viele Trainingsdaten benötigt, die erstens möglichst repräsentativ gesampled sind und die zweitens korrekte Klassen-Labels benötigen. Hat man Daten, die die Klassenerteilung nur unzureichend abbilden, kommt man zu unfairen Modellen, bei denen beispielsweise Menschen bestimmter Ethnien benachteiligt werden. Zudem kann es zu groben Fehlern aufgrund von Overfitting kommen – das gelernte Modell nutzt irrelevante Information zur Entscheidung. Die Vergabe korrekter Klassen-Labels an sehr große Mengen von Trainingsdaten kann schnell den Flaschenhals für den Einsatz tiefer Netze bilden. Tierbilder oder Verkehrsschilder könnte man noch recht zuverlässig und kostengünstig etwa durch Crowdsourcing labeln lassen. Aber um Gutteile von Schlechtteilen zu unterscheiden oder um Tumore in Gewebeschnitten zu klassifizieren, müssen die Daten von Expertinnen und Experten gelabelt werden. Damit werden also auch Daten teuer, und Denken ist notwendig, um Daten in guter Qualität zur Verfügung zu haben.
Setzen daher Banken und Versicherungen KI-Methoden noch zögerlich ein?
Finanzdienstleister nutzen schon lange statistische Methoden, um etwa Kreditwürdigkeit von Kunden oder Risiken vorherzusagen. In den 90ern gab es EU-Projekt ‚StatLog‘, in dem die damalig vorhandenen Machine-Learning-Algorithmen – vom Entscheidungsbaum zum klassischen neuronalen Netz – auf vielen Datensätzen verglichen wurden. Dort war unter anderem der sogenannte German-Credit-Datensatz dabei, der auch heute noch oft als Benchmark-Datensatz verwendet wird. Bei Versicherungen werden meines Wissens Ansätze der Statistik und des maschinellen Lernens zunehmend auch eingesetzt, um individuelle Tarife zu bestimmen, etwa durch Monitoring von Autofahrenden oder die Auswertung von Fitness-Trackern.
Wo sehen Sie dir größten Hürden bei der Implementierung?
Sie brauchen Menschen, die fundiertes Fachwissen im der künstlichen Intelligenz und dem maschinellen Lernen haben. Die meisten Mitarbeiter in der Software-Entwicklung haben diese Themen nicht im Informatikstudium kennengelernt, da KI bis vor Kurzem ein eher weniger häufig gewähltes Wahlfach war. Zudem brauchen Sie Menschen, die das Anwendungsfeld sehr gut kennen. Die beiden Gruppen müssen wechselseitig so viel vom jeweiligen Gebiet verstehen, dass Daten und Methoden zusammenpassen. Denn „einfach so“ ein tiefes Netz mit vorhandenen Daten zu füttern, geht in der Regel schief. Es ist eine Binsenweisheit in der Statistik wie im maschinellem Lernen, dass den größten Einfluss auf die Qualität des Ergebnisses die Qualität der Daten hat – Garbage in, garbage out.
Wie können Unternehmen hier ihre Datenbestände ins Spiel bringen?
Zwar haben Banken oder Klinikbetreiber oft Big Data. Aber wenn die Verteilung der Daten von der echten Welt abweicht oder die Daten stark unbalanciert sind, weil bestimmte Kundenprofile oder Krankheiten selten sind, sind die gelernten Modelle sehr ungenau und neue Daten werden falsch klassifiziert. Häufig hat man eben auch nicht Big Data, sondern nur ‚Small Data‘ zur Verfügung. Für die aktuellen tiefen Netze gilt, dass dort oft mehr als eine halbe Million Gewichte zu adaptieren sind. Um solche Netze gut zu trainieren, brauchen Sie eigentlich ein Vielfaches an Trainingsdaten, die, wie ja bereits gesagt, mit den korrekten Klassen-Labeln annotiert sein müssen.
Was können die negativen Folgen sein?
Unzureichende Daten führen zu Modellen, die häufig Fehler machen, weil sie beispielsweise gebiased – verzerrt – sind. Bekannt wurden Fälle, bei denen Bilder von dunkelhäutigen Menschen als Gorillas klassifiziert wurden oder bei denen Bewerberinnen nicht für Stellen im IT-Bereich berücksichtigt wurden. Gerade im Human-Resources-Bereich wird ja propagiert, dass die KI-Systeme hier objektivere Entscheidungen bei der Auswahl von Bewerbungen treffen würden. Bei unreflektiertem ‚Daten rein, Denken aus‘ werden die Vorurteile sogar noch verstärkt, da frühere Entscheidungen der HR-Mitarbeitenden als ‚ground-truth‘-Labels zum Training der Modelle genutzt werden. Ohne gute Daten kein gutes Entscheidungsmodell.
Wie entwickelt sich die KI in den kommenden fünf Jahren?
Der aktuelle Hype um die Künstliche Intelligenz hat in die KI-Forschung viel Dynamik gebracht und viele spannende Forschungsfragen generiert. In der Wissenschaft gibt es zunehmend Austausch zwischen verschiedenen Strömungen der KI – etwa Kooperationen zwischen statistischem maschinellen Lernen und wissensbasierten Ansätzen. Insbesondere die Entwicklung hybrider Ansätze, bei denen maschinelles Lernen und logische Inferenz kombiniert werden und sich ergänzen, wird die Forschung meiner Meinung nach noch einige Zeit voranbringen. Nicht zuletzt werden Methoden der sogenannten ‚explainable AI‘ immer mehr ins Zentrum rücken, bei denen versucht wird, die Entscheidungen von Blackbox-Modellen transparent und nachvollziehbar zu machen.
Und wie wirkt sich KI auf Wirtschaft und Gesellschaft aus?
Aktuell laufen wir Gefahr, dass in der Praxis Verfahren des Deep Learning unreflektiert eingesetzt werden. Die resultierenden Modelle werden sehr fehlerhaft sein, wenn es nicht ausreichend Daten in notwendiger Qualität gibt und wenn die Fragestellungen, die gelöst werden sollen, nicht zu den Methoden passen. Die Gefahr ist, dass Anwenderinnen und Anwender daraus schließen, dass KI nichts bringt, obwohl die unbefriedigenden Ergebnisse am falschen Einsatz der Methoden, aber nicht an den Methoden selbst liegen. Aber das ist nicht ungewöhnlich – in der Geschichte der KI gab es ja schon mehrere sogenannte KI-Winter, die auf Hype-Phasen folgten. Wobei jede neue Welle auch dazu geführt hat, dass ein Teil der Methoden und Technologien aus der Grundlagenforschung in die Praxis eingezogen ist und gar nicht mehr als KI-Methode wahrgenommen wird. Wir stehen meiner Meinung nach heute an einem Punkt, wo sich entscheiden wird, ob der zukünftige Einsatz von KI-Systemen Wirtschaft und Gesellschaft hilfreich unterstützen kann – etwa auch in den Bereichen Bildung und Gesundheit – oder ob wir Menschen Kompetenzen entziehen. Um diesen Zauberlehrling-Effekt zu vermeiden, müssen wir jetzt einen breiten gesellschaftlichen Diskurs führen und uns fragen, wie wir in Zukunft mit KI leben, lernen, arbeiten, produzieren und Geschäfte betreiben wollen.