Bekannte Unbekannte und die Fehler der künstlichen Intelligenz

MalwareSecurity TipsAIartificial intelligence

Oft wird künstliche Intelligenz dem menschlichen Denken gleichgesetzt, nur ohne Empfindung (bisher). Auch wenn künstliche Intelligenz heute bereits in vielen Bereichen, darunter in der IT-Security, gewinnbringend zum Einsatz kommt, gibt es ein oft übersehenes und grundlegendes Problem bei der Formulierung maschineller Lernmodelle. Man könnte es sogar als gravierenden Konstruktionsfehler interpretieren, der die künstliche Intelligenz von der tatsächlichen Intelligenz unterscheidet. Modelle des maschinellen Lernens zielen darauf ab, in der Zukunft zu operieren und Entscheidungen über neue Inputs zu treffen. Aber sie werden ohne eine grundsätzliche Unsicherheit trainiert. So wird während des Trainings gelehrt, bestimmte Stichproben unter der Annahme zu kategorisieren, dass die betreffenden Stichprobendaten eine vollkommene Sicht auf alles darstellen und dass sich die Beobachtungen nicht ändern. Aber so funktioniert Intelligenz in der realen Welt nicht. Menschen, so klug sie auch sein mögen, sind sich selten sicher. Und das zu Recht. Denn es fehlen in der Regel vollständige Informationen. Das Resultat: unvollständige Informationen können katastrophale Folgen haben. Es ist also intelligent und auch weise, die Grenzen des eigenen Wissens zu erkennen.

Die meisten Modelle des maschinellen Lernens, einschließlich der Modelle des Deep Learning, sind ohne die “bekannte Unbekannte” entwickelt worden. In einer Welt mit fiktiven, geschlossenen Annahmen funktioniert die empirische Risikominimierung gut, aber in der realen, offenen Welt geht es um mehr. Ein Beispiel: ein Klassifikator ist darauf trainiert, drei verschiedene Datenklassen unter einem empirischen Ziel der Risikominimierung zu trennen. Wenn hierbei Daten aus einer neuartigen Klasse auftreten, werden sie als zu einer der bekannten Klassen gehörig eingestuft. Auch wenn sie besonders weit von einer der Trainingsproben entfernt liegen, werden sie mit hoher Wahrscheinlichkeit als eine der bekannten Klassen, also falsch, eingestuft.

Ist es möglich, Klassifikatoren so zu formulieren, dass Fehler zu vermeiden sind? Die Antwort ist ja. Dies kann durch ein realistischeres Risikomanagement erreicht werden, das sowohl das empirische Risiko – das Risiko der Fehlklassifizierung einer Stichprobe – als auch das Risiko der Kennzeichnung von unbekanntem Raum ausgleicht.

Mehr Details zum Problem der Künstlichen Intelligenz unter: https://news.sophos.com/en-us/2018/05/02/known-unknowns-overcoming-catastrophic-failure-modes-in-artificial-intelligence/

Leave a Reply

Your email address will not be published.