t-online Tonspur Wissen

t-online Tonspur Wissen

Ein Podcast von t-online und der Leibniz Gemeinschaft

Transkript

Zurück zur Episode

00:00:31: Ursula Weidenfeld: Ich bin Ursula Weidenfeld. Ich habe jede Menge Fragen, weil ich Dinge verstehen oder einen neuen Blick darauf bekommen möchte. In diesem Podcast verabrede ich mich mit Wissenschaftlerinnen und Experten aus ganz unterschiedlichen Bereichen, stelle meine Fragen und höre zu. Ich lade Sie herzlich ein, das auch zu tun. Diesmal spreche ich mit Gerhard Kahmen, dem wissenschaftlichen Direktor des Leibniz-Instituts für Innovative Mikroelektronik, über Künstliche Intelligenz. Herr Kahmen, was ist Künstliche Intelligenz?

00:01:02: Gerhard Kahmen: Ja, ich denke, bevor wir über das Thema Künstliche Intelligenz sprechen, sollten wir erst mal eine grobe Definition treffen: Was ist Intelligenz als solches? Und ich denke, das ist ein sehr, sehr komplexes Thema. Da beschäftigen sich ja ganze Wissenschaften mit. Darum versuchen wir das jetzt mal dahin zu definieren in die Richtung, wo wir dann später über die Künstliche Intelligenz sprechen. Es geht darum letztendlich, Informationen aus verschiedensten Quellen zu nutzen, um damit eigentlich zu Entscheidungen und hoffentlich zu richtigen Entscheidungen zu kommen. Also, das Ganze beruht natürlich auf Gelerntem. Wenn wir jetzt als Mensch zum Beispiel darüber nachdenken, ist es zum Beispiel ein Stück Lebenserfahrung. Das heißt, ich habe verschiedenste Situationen schon erlebt, gelernt, und nutze dieses Gelernte, um daraus letztendlich richtige Entscheidungen in vielleicht auch nicht unbedingt ganz bekannten Situationen zu treffen.

00:01:45: Ursula Weidenfeld: Das ist der Punkt, nicht? Dass Intelligenz am Ende heißt, mit vorhandenen Informationen in neuen Situationen neu entscheiden zu können?

00:01:55: Gerhard Kahmen: Das ist, denke ich, einer der ganz großen Schwerpunkte, weil das unterscheidet auch, ich sage jetzt mal, das algorithmische Vorgehen. Algorithmisches Vorgehen sind klassische Ja-Nein-Entscheidungen nach einem Entscheidungsbaum, und die sind in solcher Situation natürlich nicht vorhanden, weil ich neues Terrain betrete. Und das macht auch die Stärke von Intelligenz aus und später natürlich auch von Künstlicher Intelligenz.

00:02:15: Ursula Weidenfeld: Und wie bringt man jetzt einer Maschine bei, nicht ja/nein zu entscheiden, sondern die Informationen, die sie hat, zu nutzen, um andere komplexe Situationen neu entscheiden zu können?

00:02:27: Gerhard Kahmen: Da muss man vielleicht auch nochmal den Unterschied zwischen, ich sage mal: klassischer Algorithmik, und letztendlich diesem Thema Künstliche Intelligenz - wie das Ganze aufgebaut ist - nochmal betrachten. Also, klassische Algorithmik ist, wie ich eben schon sagte, Entscheidungsbäume. Also, wenn man das klassisch programmiert am Rechner, ist das eine Lernentscheidung. Und das große Problem dabei ist natürlich, je komplexer eine Situation ist, die ich bewerten möchte, desto unpraktikabler und schwieriger wird sowas letztendlich in vordefinierte Entscheidungsbäume zu bringen.

00:02:52: Ursula Weidenfeld: Weil man dann eben Hunderttausende dieser Wenn-Dann-Entscheidungen einpflegen muss in ein System, und das eben am Ende nicht mehr zu den gewünschten Ergebnissen führt.

00:03:01: Gerhard Kahmen: Richtig, beziehungsweise sie vergessen auch ganz bestimmte Fälle. Also, ein Beispiel nenne ich jetzt mal, eine komplexe Verkehrssituationen, wo sie als Mensch intuitiv richtig reagieren, weil sie aus Erfahrenem die richtige Entscheidung ableiten. Und jetzt stellen Sie sich vor, jede Verkehrssituationen ist anders, Sie würden das als If... Then-Geschichte [Wenn... Dann-Geschichte] machen! Das heißt, Sie müssen hier neue Ansätze finden, zum Beispiel wenn man Richtung Autonomes Fahren denkt. Und da sind wir ganz schnell auch beim Thema Künstliche Intelligenz. Und das Ganze funktioniert jetzt so, dass man versucht, letztendlich Strukturen, die jetzt auch biologisch vorhanden sind, wie Nervenzellen, nachzubilden. Das ist jetzt ein Beispiel, wie man Künstliche Intelligenz macht. Das heißt, wie ist so ein Neuron aufgebaut im Mensch? Man hat letztendlich Eingänge - das sind also praktisch die Verbindung zwischen den Nervenzellen. Und diese Eingangssignale, die werden bewertet mit sogenannten Gewichten, und die Gewichte werden dann in einem Addierer sozusagen addiert, und wenn ich einen gewissen Schwellenwert überschritten habe, man nennt das: "feuert" dieses Neuron.

00:04:52: Ursula Weidenfeld: Das ist so eine Art Reiz-Reaktions-Schema?

00:04:55: Gerhard Kahmen: Das ist ein Reiz-Reaktion-Schema, genau! Und letztendlich: Der Ausgang dieser Zelle ist dann wieder mit etlichen anderen Zellen verbunden, und somit kann man ein komplexes Netzwerk letztendlich bauen. Und das Ganze wird jetzt trainiert. Das ist ja dieses maschinelle Lernen. Das bedeutet, man hat Situationen, gibt Situationen vor und sagt zum Beispiel diesem Netzwerk: Ja, die Entscheidung war richtig oder die Entscheidung war falsch. Und dadurch werden nach gewissen Algorithmen diese Gewichte und diese Vernetzung letztendlich trainiert, sodass dann dieses maschinelle Netzwerk in der Lage ist, auf bestimmte Situationen auch richtig zu reagieren.

00:04:28: Ursula Weidenfeld: Aber immer nur auf die, auf die es auch trainiert worden ist?

00:04:31: Gerhard Kahmen: Das ist sicherlich der Unterschied zu einem Mensch. Wenn man sich das überlegt: ein biologisches Wesen. Was heißt lernen? Auch da ist es so, dass wir im Leben etliche Situationen durchlaufen müssen, um dann letztendlich, ich sage jetzt mal, in einer komplexen Welt lebensfähig zu sein. Dasselbe gilt natürlich in einem viel, viel kleineren Maßstab auch für eine Maschine. Das heißt, das System reagiert natürlich nur in Situationen richtig, wo auch gelerntes Wissen da ist. Das heißt, das ist auch der Unterschied zum Mensch, wir reden hier von einem Bruchteil der, ich sage mal, Fähigkeit eines Menschen.

00:05:02: Ursula Weidenfeld: Was können denn Maschinen, was kann Künstliche Intelligenz schon heute gut?

00:05:07: Gerhard Kahmen: Also, es gibt viele Bereiche, da ist in der Tat die Künstliche Intelligenz dem Menschen sogar überlegen, muss man ganz klar sagen. Also, typische Dinge aus dem Alltagsleben, was uns vielleicht gar nicht so bewusst ist, ist ganz klar das Thema Mustererkennung, Bilderkennung, zum Beispiel Lesen, automatisiertes Lesen. Also, wenn ich jetzt zum Beispiel so Mautsysteme habe und gucke, welches Auto ist gerade vorbeigefahren? Nummernschild erkennen aus verschiedensten Perspektiven. Maschinelle Übersetzung, was wir alles aus dem Internet kennen, Suchmaschinen. Aber, auch ganz wichtig: Das wird ein zunehmendes, großes Gebiet auch der Künstlichen Intelligenz, eben Bewertungen von Verkehrssituationen für Fahrassistenzsysteme. Das sind Dinge, das kann letztendlich Künstliche Intelligenz schon sehr gut. Wo es absolut noch keine Konkurrenzfähigkeit gibt, sag ich jetzt mal, und das ist vielleicht auch ethisch gesehen gut, ist, wenn es um das ganze Thema Gefühle, soziales Verhalten, Empathie geht. Also, das sind Themen, da ist die Künstliche Intelligenz letztlich noch so gut wie nicht fähig, irgendwas zu leisten.

00:06:01: Ursula Weidenfeld: Wann wird Künstliche Intelligenz denn so weit sein? Oder ist Künstliche Intelligenz schon so weit, dass sie aus vielen bekannten Situationen die Schlüsse zieht, die in einer völlig neuen Situation angemessen sind?

00:06:17: Gerhard Kahmen: Ich denke, in vielen Systemen - das ist auch ein Gebiet, woran wir hier forschen am IHP - sind wir an der Stelle schon sehr weit. Das heißt, das ist ja auch gerade im Bereich, wo zum Beispiel das Thema Sicherheit, Datensicherheit, Erkennen von Angriffen, also von Cyberangriffen zum Beispiel, wird dieses Thema zunehmend wichtig. Und da gibt's Verfahren, wo bestimmte Muster, also Zugriffsmuster zum Beispiel auf irgendwelche Systeme, die angegriffen werden, erkannt werden und zum Beispiel irreguläres Verhalten letztendlich detektiert wird. Also, da ist das Thema Künstliche Intelligenz schon einen ganz, ganz wichtiger Faktor und wird auch zunehmend wichtig.

00:06:52: Ursula Weidenfeld: Und wie wichtig ist, dass derjenige, der die Künstliche Intelligenz programmiert, also der Mensch, der dieser Intelligenz den Rahmen gibt, indem sie entscheiden darf und indem sie entscheiden kann, dass dieser Mensch gute und friedliche Absichten hat?

00:07:07: Gerhard Kahmen: Das ist sicherlich ein sehr großes ethisches Problem, weil wie jede Technologie, kann man natürlich auch die Künstliche Intelligenz zum Wohle des Menschen und auch gegen den Menschen natürlich nutzen. Also, ich denke, hier ist es wirklich wichtig meines Erachtens, dass man den Themen auch irgendwelche Regularien hinsichtlich ethischer Bestimmungen mitgibt, weil man kann natürlich die Leistungsfähigkeit Künstlicher Intelligenz sicherlich auch missbrauchen. Also, es geht schon in ganz einfachen Situationen los: Wenn ich zum Beispiel Bilderkennung mache, kann ich die für Gesichtserkennung einsetzen. Das heißt, ich kann letztendlich damit auch Menschen verfolgen. Technisch geht da sehr viel. Ich denke, es ist hier sehr wichtig, auch Regularien einzuführen, die das irgendwo unterbinden. Und ich denke, das Gute ist, in unserer Gesellschaft ist sowas halt möglich.

00:07:51: Ursula Weidenfeld: Die meisten Menschen, die Künstliche Intelligenz kritisch diskutieren, haben ein bisschen Angst vor der Situation, dass Künstliche Intelligenz tatsächlich wie menschliche Intelligenz arbeitet und hantiert, also eben tatsächlich auch sehr weitreichende, eigene Entscheidungen trifft. Da sagen dann Informatiker und Mathematiker ganz oft: Nee, das ist überhaupt kein Problem, weil es wird ja hier nur gerechnet. Was unterscheidet denn Künstliche Intelligenz von ganz, ganz, ganz vielen Rechenoperationen, die man einfach hintereinander schaltet?

00:08:23: Gerhard Kahmen: Also, der Unterschied zwischen dem rein algorithmischen Rechnen - eben habe ich ja gesagt: Schwarz-Weiß-Entscheidungsbäume, wirklich schwarz-weiß und richtige Entscheidung. Künstliche Intelligenz ist eher eine wahrscheinlichkeitbehaftete Sache, dass sie mit hoher Wahrscheinlichkeit das richtige Ergebnis hat. Ein Beispiel ist, wie ich als Mensch rechne und wie ein Computer rechnet. Ein Computer rechnet praktisch numerisch-algorithmisch. Ein Mensch oder auch eine Künstliche Intelligenz würde jetzt rechnen: Ich habe mal gelernt 2+3 ist fünf. Wenn ich jetzt eine neue Aufgabe gestellt kriege, die ich vielleicht vorher noch nie gerechnet habe, wie 20+30, reduziere ich das auf das Gelernte und habe mit einer hohen Wahrscheinlichkeit das richtige Ergebnis. Also, es ist mit Wahrscheinlichkeiten behaftet.

00:09:02: Ursula Weidenfeld: Und wenn Sie sagen, dass Computer immer in dem Rahmen nur arbeiten und denken oder Künstliche Intelligenz ausprobieren können, denen der Mensch setzt, dann fragt man sich ja eben umgekehrt: Wo ist denn die Grenze des Gültigkeitsbereichs der Künstlichen Intelligenz?

00:09:20: Gerhard Kahmen: Ja, das ist eine ganz wichtige Frage, weil natürlich, das ist letztendlich auch wieder wie beim Menschen: Die Künstliche Intelligenz ist natürlich nur so leistungsfähig, wie sie angelernt worden ist, wie natürlich auch die Beispiele, die ich zum Anlernen verwendet habe, einen möglichst großen Bereich überstreichen. Und es ist in der Tat, weil es schwer nachvollziehbar ist, im Gegensatz zum Rechnen, wo letztendlich der Entscheidungsweg, wie ich eben schon sagte, durch das algorithmische Extrem klar vorgegeben ist - können bei der Künstlichen Intelligenz, wenn ich zum Beispiel solche Netzwerke habe, ähnliche Entscheidungen - ähnlich sage ich deswegen, weil es eben mit einer gewissen Wahrscheinlichkeit behaftet ist, aber auf unterschiedlichsten Wegen zustande kommen. Und das bedeutet letztendlich, dass es sehr schwer nachzuvollziehen ist, wie ein Ergebnis praktisch zustande kommt. Und da besteht natürlich auch sehr die Gefahr, dass der Gültigkeitsbereich, dass eine Entscheidung noch richtig ist, dass der manchmal schwer zu erkennen ist. Also, ich möchte mal ein Beispiel nennen: Es gab einen Versuch, wo man einer Künstlichen Intelligenz beigebracht hat, Bilder zu erkennen, wo Eisenbahnen drauf sind. Und das hat auch sehr gut funktioniert, bis man plötzlich festgestellt hat, dass auch Bilder, wo lange gerade Striche irgendwie drauf waren, auch als Eisenbahn erkannt wurden, obwohl es gar kein Eisenbahnbild war. Hintergrund war der, als man das dann sehr genau nachvollzogen hatte, dass letztendlich der Fokus dieses Netzwerkes, was sich da antrainiert hat, auf langen, geraden Strukturen waren, die eben die Schienen waren. Aber es gibt halt Bilder, wo auch lange gerade Strukturen drauf sind, die dann eben fehlinterpretiert wurden.

00:10:44: Ursula Weidenfeld: Und was heißt das zum Beispiel für Künstliche Intelligenz im Verkehr, wenn man nicht so ganz genau weiß, ob die Künstliche Intelligenz dann die richtigen Kriterien im Modell hat, um sich zu entscheiden, wie man zum Beispiel beim autonomen Fahren sich verhält?

00:11:00: Gerhard Kahmen: Ich denke, was hier sehr, sehr wichtig ist: Erstens, dass man den möglichen Erfahrungsraum sehr, sehr groß wählt. Und der zweite Punkt ist: Ich bin jetzt da kein Experte, aber was meines Erachtens in solchen - ich sage jetzt mal: sicherheitskritischen Systemen wichtig ist, dass man sogenannte redundante Systeme hat. Das heißt, man hat Systeme, die zu einer Entscheidung kommen, aber auf unterschiedlichem Weg, die auch unterschiedliche Realisierungen der Systeme beinhalten. Und dann entscheidet man, liefert System A ein bestimmtes Ergebnis? Liefert ein System B ein bestimmtes Ergebnis? Sind die Ergebnisse gleich, dann hat man eine, ich sage jetzt mal, sehr, sehr hohe Wahrscheinlichkeit, dass die Entscheidung richtig ist beziehungsweise, wenn diese Ergebnisse nicht gleich sind, muss man einen Alternativweg beschreiten beziehungsweise, man nennt das "arbitrary", vielleicht noch eine dritte Entscheidung mit einbeziehen. Also, letztendlich geht es darum, meines Erachtens, sich nicht nur auf ein System an der Stelle, sondern auf redundante Systeme auch zu verlassen.

00:11:46: Ursula Weidenfeld: Künstliche Intelligenz spielt auch eine Rolle in der Robotik und da eben nicht nur in der Industrie, sondern zunehmend auch bei der Frage, wie man sie einsetzen kann, um sich zum Beispiel um ältere Menschen zu kümmern, um Menschen das Leben zu erleichtern. Wie würden Sie da die Grenzen ziehen? Also, man weiß, dass die Künstliche Intelligenz dem Menschen gegenüber keine Gefühle entwickelt, ihn vielleicht aber perfekt erkennt. Umgekehrt ist es aber so, dass Menschen ganz offensichtlich der Künstlichen Intelligenz gegenüber Gefühle entwickeln.

00:12:16: Gerhard Kahmen: Das ist natürlich jetzt eine hoch ethische Frage...

00:12:19: Ursula Weidenfeld: Naja, es gibt so eine Studie, da hat man so einem Roboter mal Augen aufgeklebt und hat den Menschen dann gesagt, sie sollten doch bitte den wegwerfen oder ihn umbringen. Das ging nicht!

00:12:28: Gerhard Kahmen: Ja, das ist natürlich, ich sage es schon bewusst, ethisch hoch gefährliche Frage. Das heißt, solche Maschinen sind natürlich eine sehr, sehr große Hilfe, wenn es darum geht, wirklich die praktischen Arbeiten - gerade Service-Roboter, alte Menschen - letztendlich zu erledigen. Und ich denke, es werden Maschinen auch zunehmend gut können. Man redet ja heute schon von "personal robotic" an der Stelle. Nichtsdestotrotz, was Sie eben schon richtig angesprochen haben, wird so eine Maschine aus heutiger Sicht nicht so schnell wirklich Gefühle, Empathie, wie auch immer letztendlich entwickeln können. Und meines Erachtens, das ist meine persönliche Meinung, wenn man jetzt letztendlich anfängt, für eine Maschine Gefühle zu entwickeln, das halte ich für ethisch gefährlich. Also, sage ich aus meiner Sicht, das ist aber meine persönliche Meinung. Da weiß ich auch nicht, ob da die Grenzen zwischen Maschine und letztendlich menschlichen Wesen, ob das wünschenswert ist, dass das so verschwimmt. Aber wie gesagt, das ist eine persönliche Meinung.

00:13:18: Ursula Weidenfeld: Glauben Sie, dass die Kollegen in der Wissenschaft, in der Forschung, in der KI-Forschung dieses Problem auch sehen und ihre Meinung da teilen, dass man eben eher vorsichtig und zurückhaltend ist?

00:13:29: Gerhard Kahmen: Das kann ich jetzt sehr schwer beurteilen. Ich kann nur aus unserer Sicht hier, wie wir das hier machen, weil wir uns natürlich auch mit KI-Themen beschäftigen, mitteilen. Wir stellen uns schon natürlich die Fragen: Welche Konsequenzen hat Forschung? Ich denke, das ist jetzt ja nicht nur beim KI-Thema so. Man muss da unterscheiden. Es gibt viele Dinge, die sehr, sehr interessant sind, die man machen kann aus rein wissenschaftlicher Sicht. Aber, das große Problem ist, wenn die Idee mal da ist, kriegt man sie auch nicht mehr aus der Welt. Das heißt, man sollte sich trotzdem als Wissenschaftler und Wissenschaftlerin schon auch ethisch mit den Themen auseinandersetzen und wirklich überlegen: Ist es das Thema, was wirklich als Forschung die Menschheit weiterbringt oder nicht? Das ist auch wieder meine persönliche Meinung. Es ist sicherlich eine Grenze, die häufig auch verschwimmt und auch hart einzuhalten ist, weil die Themen natürlich auch aus wissenschaftlicher Sicht sehr interessant sind.

00:14:13: Ursula Weidenfeld: Vielen Dank, Herr Professor Kamen.

00:14:14: Gerhard Kahmen: Gerne.

Über diesen Podcast

Im Podcast "Tonspur Wissen" lädt die Journalistin Ursula Weidenfeld alle Hörerinnen und Hörer auf eine Entdeckungsreise ein. Sie trifft Wissenschaftlerinnen und Wissenschaftler aus ganz unterschiedlichen Fachbereichen, stellt ihre Fragen und hört zu. Ursula Weidenfeld ist überzeugt: Nur so kann man Dinge verstehen oder einen neuen Blick darauf bekommen. Und zu entdecken gibt es jede Menge in der Welt der Wissenschaft.

Weiterhin verfügbar sind außerdem 30 Folgen von "Tonspur Wissen" rund um die Auswirkungen des Coronavirus. Es kommen nicht nur Virologen im Podcast zu Wort, sondern auch Psychologen, Historiker, Ökonomen, Politik- und Ernährungswissenschaftler und Experten anderer Fachbereiche. "Tonspur Wissen" ist eine Gemeinschaftsproduktion von t-online und der Leibniz-Gemeinschaft.

Ein Abonnement von "Tonspur Wissen" bei Apple Podcasts, Spotify, Google Podcasts oder in Podcast-Apps ist kostenlos. Sie bekommen dann immer die neueste Folge.

von und mit Ursula Weidenfeld & t-online

Abonnieren

Follow us