Reise durch die "Grauzone" der Künstlichen Intelligenz
Seitdem sich der Wiener Bildungsserver in einem Schwerpunkt mit Künstlicher Intelligenz auseinandersetzt, ist innerhalb des Teams verstärkt die Frage aufgekommen, wo genau rein auf Algorithmen basierten Programmen die Grenzen gesetzt sind und erst KI-Lösungen zum Erfolg führen (zu genaueren Definitionen siehe auch “Ich im Netz: Was ist Künstliche Intelligenz?”). Ist im Abstrakten der Unterschied zwischen Algorithmus, der ja auch oft fundamentaler Baustein von Künstlicher Intelligenz ist, und KI-Anwendung noch relativ greifbar, so lässt sich dies anhand praktischer Beispiele meist nicht so leicht erklären. Dies liegt nicht zuletzt auch daran, weil die Begrifflichkeiten im Alltag oft synonym verwendet werden.
Wir haben uns daher auf ein kurzes Gespräch mit Daniel Lehner getroffen, der für seine Doktorarbeit zu “Digitalen Zwillingen” forscht und sich daher auch mit dem Phänomen der KI auseinandersetzt. Noch bevor es losgeht: Wie sooft ist die Angelegenheit leider etwas komplizierter, als erhofft… Eine klare Abgrenzung ist nicht so leicht möglich, wir begeben uns daher auf eine kleine Reise in die “Grauzone” der Künstlichen Intelligenz.
Fixe Regeln versus Zufall
"‘Klassische Programme´ implementieren einen Algorithmus so, dass man fixe Regeln hat - einen Programmcode -, mit denen bei einem gewissen Input immer derselbe Output erzielt wird. Wenn man generell über KI redet, vor allem auch etwa maschinelles Lernen, dann hat man eher stochastische (bedeutet so viel wie “vom Zufall abhängig”, Anm.) Regeln, wo gleicher Input nicht immer dasselbe Ergebnis bringt, sondern die ´wahrscheinlichsten Ergebnisse´ liefert”, stellt Lehner dabei zu Beginn fest.
Um die Unterschiede anschaulich zu machen, führt er daher gerne auch immer ein zu schreibendes Programm an, das die Frage “Soll ich heute Tennisspielen oder nicht?” klären soll. “Das kann ich zum Beispiel fix programmieren und nach folgenden Regeln festlegen: Immer wenn es über 20 Grad hat, die Sonne scheint und es zwischen 10 und 18 Uhr ist, dann gehe ich Tennisspielen”, stellt er zuerst einen auf starren Algorithmen basierenden Zugang vor.
Gelernte Wahrscheinlichkeiten
“Bei maschinellem Lernen wäre das eher so, dass das Ergebnis aus Beispielen gelernt wird. Etwa: Irgendwann war es einmal schön um 10 Uhr, daher bin ich Tennisspielen gegangen, irgendwann war das Wetter einmal schlecht um 10 Uhr, daher bin ich nicht auf den Tennisplatz gegangen. Dann war das Wetter einmal schön, aber es war Mitternacht, daher war ich auch nicht. Und aus diesen Daten werden die Wahrscheinlichkeiten für einen gewissen Zeitpunkt unter gewissen Bedingungen abgeleitet”, so Daniel Lehner.
Nach letzterem System funktionieren etwa die Vorhersagen bei den ÖBB über Auslastungen von Zuggarnituren an gewissen Tagen. Aber auch die österreichische Post nutze bereits KI-Tools, um das Paketvolumen für die kommenden Tage vorherzusagen.
Annäherung anhand von Beispielen
Grundsätzlich sieht Lehner in der Auseinandersetzung mit dem Thema durchaus die Problematik der ungenauen Definitionen und Abgrenzungen. “Darum finde ich den Begriff KI auch immer schwierig, und rede dann lieber von konkreten Techniken wie Maschinellem Lernen oder Expertensystemen, weil diese klar definiert sind und es klare Methoden dazu gibt. Wenn etwa aus Beispielen Regeln gelernt werden und diese auf neue Beispiele angewendet werden können, dann hat man es mit Maschinellem Lernen zu tun…”
Für zusätzliche Verwirrung sorge dabei durchaus auch, dass etwa bei Kaufempfehlungen durch Amazon oder den Vorschlägen von “interessanten Posts” in Sozialen Medien beinahe ausschließlich von Algorithmen geredet würde, obwohl mit ziemlich hoher Wahrscheinlichkeit KI-Mechaniken dahinterstehen. Gerade hier auch etwa Maschinelles Lernen, mit dem immer genauere Anpassungen an die jeweiligen Nutzer:innen vorgenommen werden können.
“Im Endeffekt weiß man leider nicht, was Amazon oder Google machen, solange sie es nicht sagen”, so Lehner dazu. Aufgrund der Komplexität und schieren Anzahl der zu verarbeitenden Daten sei es aber etwa in diesen Fällen eher unwahrscheinlich, dass sie auf rein algorithmischen Programmen basieren würden.
Turing-Test zum Abklären
Zur Abklärung für das Vorhandensein von Künstlicher Intelligenz würde er daher immer auch den Turing-Test (siehe genauer beschrieben auch hier unter diesem Link) heranziehen. “Das was man einem Menschen als Intelligenz zuschreibt, versucht man über den Computer nachzubilden, geht aber über bloße Programmierung hinaus. Mit dem Turing-Test sollte man das erkennen, also: Dass ich nicht unterscheiden kann, ob das Produkt nun von einem Menschen oder einem Computer stammt. Sondern im Gegenteil: Ich würde dasselbe Ergebnis auch einem Menschen zutrauen.”
Dazu bringt er auch noch ein Beispiel aus der Gaming-Praxis, in der Reinforcement Learning - eine Methode von Maschinellem Lernen zum Finden von bestmöglichen Strategien -, eingesetzt wird. Sehr augenscheinlich wurden die Vorteile einer solchen Annäherung etwa mit dem Kultspiel der 80er-Jahre “Pacman” umgesetzt, wie dieses kurze Video eindrücklich zeigt:
Nach 120 Stunden voll austrainiert
Wie im Clip auch angeführt, lernte eine KI aufgrund der eigenen "Spielerfahrungen" nach 20 Stunden Training zu gewinnen. Nach 60 Stunden wurde die Spielwelt vergrößert, das Konzept, die Geister durch den Verzehr der großen Punkte verletz- und fressbar zu machen, war zu diesem Zeitpunkt allerdings noch nicht erlernt worden. Dafür brauchte die Künstliche Intelligenz dann noch einmal das Doppelte an Zeit, also insgesamt 120 Stunden. Die genauen dahinterstehenden Überlegungen finden Sie auch unter diesem Link (in Englisch).