Mehr Transparenz & Kontrolle für KI-Algorithmen: Wie Menschen mit Künstlicher Intelligenz umgehen sollten
Ob zweibeinige Roboter, neuronale Netze oder Sprach-Programme – bei der Entwicklung von Künstlicher Intelligenz (KI) dient der Mensch der Maschine häufig als Vorbild. Dabei verfügen Algorithmen eigentlich über völlig andere Stärken und Schwächen als der Mensch, erklärt Dr. Boris Konrad, Hirnforscher und viermaliger Gedächtnisweltmeister.
von Dr. Boris Nikolai Konrad – Gedächtnisweltmeister, Neurowissenschaftler & Fintropolis-Keynote-Speaker
Ein Roboter mit menschenähnlicher Gestalt, Gefühlen, Kognition und Sprache – eine Vision, von der Menschen schon seit vielen Jahrhunderten träumen.Zahllose Erzählungen in Literatur, Film und Fernseher zeugen davon, ob lebendige Marmorstatuen in der griechischen Mythologie oder Kinofilme wie „Metropolis“ und „I, Robot“. Und tatsächlich: Heute ist die Forschung diesem Traum so nahe wie nie zuvor. Ein wichtiger Grund hierfür sind die enormen Fortschritte in der KI-Entwicklung.”
Jenseits der Träumereien
Geht es um die Verbesserung menschlicher Leistungsfähigkeit durch KI-Anwendungen, so ist der Traum längst Realität geworden. Oder könnten Sie sich noch ein Leben ohne Smartphones vorstellen? Überhaupt wäre unser heutiger Alltag ohne Künstliche Intelligenz und maschinelles Lernen kaum noch denkbar. Ob Smart Factories, intelligente Logistik, Suchmaschinen, Robo Advisor, Smart Homes oder autonome Fahrassistenten – bei genauerer Betrachtung finden sich KI-Anwendungen so gut wie überall. Dennoch werden sie nicht immer gleich als solche erkannt, was auch daran liegt, dass der Begriff der Künstlichen Intelligenz weiterhin sehr unscharf ist. Denken die einen bei KI vor allem an Siri und Alexa, ist für die anderen bereits ein intelligenter und fühlender Roboter gemeint. Dabei wissen die wenigsten, was Künstliche Intelligenz wirklich besser kann als wir, aber auch nicht, wo sie ihre Grenzen hat.
Stärken und Schwächen von KI
Klar ist: Von einer KI, die uns Menschen auf breiter Fläche ersetzt, sind wir weit entfernt. Zwar gibt es schon lange Computerprogramme, die besser rechnen können als wir, aber trotzdem ist KI heute alles andere als allwissend oder fehlerfrei. Genaugenommen sind die meisten neuen KI-Programme sogar sehr anfällig für Fehler. Der Grund:
Computer sind schlicht nicht dazu in der Lage, die Bedeutung von menschlicher Kommunikation zu erfassen – ob verbal oder non-verbal.”
Alles was Computer können, ist Muster erkennen und bestimmte Verhaltensweisen reproduzieren, wofür sich die Programme allerdings auch erst durch riesige Trainingsdatensets arbeiten müssen. Und selbst das gelingt den Maschinen nur bedingt, wie ein Bericht des MIT Technology Review vor Kurzem zeigte. Nach ihm ist es KI-Programmierern trotz großer Anstrengungen und zahlloser Versuche bisher nicht gelungen, ein automatisches Diagnose-Tool für Corona-Erkrankungen zu entwickeln. Von über hundert Anwendungen ist bisher nicht eine dazu in der Lage gewesen, die Krankheit aus Röntgenbildern sicher zu erkennen. Das Gefährliche: Die Programme spuckten dennoch Ergebnisse aus, die allerdings nicht das visuelle Profil der Krankheit aufwiesen. Der Grund: Bei ihren Testdurchläufen mit Trainingsdaten haben die Algorithmen in dem Set mit Röntgenaufnahmen von Coronapatienten andere Muster erkannt, etwa, dass die erkrankten Personen häufiger liegen als gesunde. Ein Fehler, der sich aufgrund der Komplexität der Algorithmen gar nicht so einfach erkennen lässt.
Mensch lernt nie aus
Um die Schwächen und Gefahren von KI so gut es geht zu vermeiden, ist es wichtig die, Algorithmen mit möglichst unmissverständlichen Daten zu füttern.
Darüber hinaus sollten Programmierer stets versuchen, die Kontrolle über die Entscheidungskriterien ihrer Programme zu behalten. Ein aktueller Ansatz hierfür ist der Trend zur “erklärbaren KI” (explainable AI).”
Dabei wird versucht, Licht in die Black Box sich selbst optimierender Programme zu bringen, indem Algorithmen das maschinelle Lernen anderer Algorithmen überwachen und für Menschen sichtbar machen. Doch nicht nur Algorithmen sollten ein Auge auf KI-Programme haben. Auch wir Menschen müssen von der KI lernen und ebenso neueste Erkenntnisse der Hirnforschung nutzen. Ob wir dazu bereit sind, wird entscheiden, ob wir auch zukünftig die Computer kontrollieren oder sie uns. Die Zukunft ist gut! Wenn wir die beste KI einsetzen und zugleich bereit bleiben, selbst (auch von ihr) zu lernen.Dr. Boris Nikolai Konrad - Fintropolis-Keynote-Speaker
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/142500
Schreiben Sie einen Kommentar