F.A.Z. Digitalwirtschaft

F.A.Z. Digitalwirtschaft

Transkript

Zurück zur Episode

00:00:04: Alle reden über die künstliche Intelligenz.

00:00:06: Ständig kommen neue Sprachmodelle heraus, die heißen JetGPT, GPT, Gemini, Cloth.

00:00:15: Doch was können die eigentlich wirklich?

00:00:17: Gibt es prinzipielle Grenzen, die diese Modelle gar nicht überwinden können?

00:00:22: Sachen, die unser Gehirn einfach besser kann, egal wie groß die Modelle werden?

00:00:26: Darüber wollen wir heute sprechen.

00:00:29: Und herzlich willkommen, liebe Hörerinnen und Hörer, zu einer neuen Ausgabe unseres FAZ Digitalwirtschaft Podcasts.

00:00:34: Mein Name ist Alexander Arnbruster, ich bin Resolator in unserer Wirtschaftsredaktion.

00:00:39: Und ich spreche heute mit dem Kognitionswissenschaftler Frank Jekel von der TU Darmstadt.

00:00:45: Hallo Frank.

00:00:46: Hallo, ich freue mich hier zu sein.

00:00:47: Bevor wir ins Thema näher einsteigen, du hast ein Lehrstuhl für Kognitionswissenschaft.

00:00:52: Was machst du täglich?

00:00:54: Wir beschäftigen uns damit, wie Menschen Probleme lösen.

00:00:58: Das heißt, in Laborversuchen geben wir Leuten Puzzles, so was wie ... Sodoku, Schachprobleme, Logikprobleme, aber auch so Schätzfragen, so was wie wie viele Pizzas werden jeden Tag in Darmstadt ausgeliefert.

00:01:14: Und dann lassen wir Leute im Labor diese Probleme lösen und beobachten, wie sie das machen.

00:01:19: Und dann versuchen wir aufgrund dieser Verhaltensbeobachtung, Computerprogramme zu bauen, die die Art und Weise, wie manche Probleme lösen, im Computer nachbilden.

00:01:27: Den Probleme lösen ist etwas, wo wir allgemein sagen, das hat was mit Intelligenz zu tun.

00:01:32: In vielen Fällen.

00:01:34: Und das ist deine Brücke sozusagen auch zur künstlichen Intelligenz.

00:01:37: Und wieso du dich auch mit diesem Thema jetzt befasst?

00:01:40: Ja, traditionell ist es so die klassische KI, als die in den fünftiger Jahren angefangen hat.

00:01:45: Die ersten KI-Programme überhaupt hatten, die waren solche Problemse-Programme.

00:01:50: Also das allererste Komputerprogramm, was als KI-Programm gilt, ist der Logic Theorist.

00:01:56: Von Nuland Simon, neunze sechsenfünfzig.

00:01:59: Das war ein Programm, das aufgrund von Beobachtung des Mathematika-Logikproblems lösen, versucht hat, diesen Prozess im Computer nachzubilden.

00:02:06: Und das gilt das erste KI-Programm.

00:02:08: Ja, und solche Sachen mache ich heute noch.

00:02:11: Also die Idee, man gibt dem Computer die Regeln ein oder kann der Computer damit umgehen, so wie wir auch als Menschen Regeln lernen, im Straßenverkehr zum Beispiel oder in.

00:02:22: anderen Bereichen und uns danach verhalten.

00:02:24: Oder in der Schule, wenn man schriftliche Additionen lernt.

00:02:27: Das ist vielleicht ein wichtiger Punkt.

00:02:28: Wir reden ja heute oft von Lernender, KI und Deep Learning und so weiter.

00:02:32: Und KI erkennt Muster aus vielen Daten, aber vieles, was zum Lernen gehört, zumindest bei uns Menschen, ist auf Basis von solchen Regeln statt.

00:02:40: Wir kriegen einfach gesagt, Addition ist so und so und dann können wir das.

00:02:43: Wir müssen nicht zwanzigtausend Rechenaufgaben angucken, sondern wenn wir die Regel gelernt und verstanden haben, dann können wir... Auf Basis dieser Regel einfach alle Zahlen addieren, auch solche, die wir bisher noch nie addiert haben, ganz konkret.

00:02:55: Ja, das war eine der grundlegenden Einsichten der Kognitionswissenschaft.

00:02:59: zu Beginn, als die Kognitionswissenschaft sich zusammen mit der KI gleichzeitig gegründet hat.

00:03:05: Und als die Idee aufkam, dass vielleicht der menschliche Geist sowas wie ein Computer ist, war genau diese Einsicht, dass das eben ein programmierbarer Computer ist, ganz, ganz zentral.

00:03:14: Und dass das eigentlich entkehrndessen ist, dass man sich die ganz auszeichnet.

00:03:18: schnell neue Regeln zu lernen und nicht aus tausend von Beispielen.

00:03:21: Ich sage immer, das interessante Limit ist nicht, wenn die Anzahl der Beispielung endlich geht.

00:03:26: So ein interessanter Limit ist, wenn die Anzahl der Beispiel gegen null geht.

00:03:28: Ich meine, ganz wenige brauchen trotzdem, eine allgemeine Regel abzuleiten und zu verstehen.

00:03:33: Genau so ist es.

00:03:35: Jetzt wollen wir erst mal, bevor wir darauf weiter eingehen, in der Geschichte weit zurückgehen, denn wir wollen diesen Podcast auch bewusst nutzen, um uns dem Thema KI mal wirklich allgemeiner und umfassender... zu widmen.

00:03:46: Und dazu zählt tatsächlich auch, dass wir klären wollen, was sind eigentlich Computer?

00:03:50: Was ist eigentlich Intelligenz?

00:03:52: Jeder benutzt das Wort ja so in vielfältiger Hinsicht und auch manchmal mit verschiedenen Hintergrund.

00:03:58: Was ist eigentlich Denken?

00:04:00: Aber tatsächlich ist es etwas, mit dem sich die Menschen schon viel, viel länger beschäftigen, als jetzt mit den letzten tippsig, achtzig Jahren, seitdem es die KI auch als eigenständigen Fachbereich gibt.

00:04:10: Und du hast ein Buch geschrieben, das heißt die Intelligente.

00:04:14: Träuschung über die Fähigkeiten künstlicher Intelligenz, was ich bei der Gelegenheit auch gerne erwähne.

00:04:18: Und da gehst du auf René Descartes zum Beispiel ein.

00:04:22: Ein Denker von vor ein paar Jahrhunderten, der schon, wenn ich es richtig verstanden habe, darüber nachgedacht hat, ob Maschinen denken können.

00:04:31: Ja, also man muss wissen Descartes kannte Automaten.

00:04:34: Man stellt sich vor, was wir heute kennen noch von... Kuckucks-Uren, mit Spiel-Uren, wo sich Figuren bewegen nach komplizierten Mustern.

00:04:46: Solche Arten vor Automaten gibt es Gastar schon im siebzehnten Jahrhundert.

00:04:51: Und es gab auch Versuche, von so Automatenbauern Tiere nachzubauen.

00:04:57: Sehr berühmt ist eine Ente, die sich bewegen konnte, auch Verdauungs-Trakt hatte.

00:05:04: Und ja, solche von Automaten kannte die Karte.

00:05:07: und hat sich die Frage gestellt, ob vielleicht der Mensch bzw.

00:05:14: Tiere auch eigentlich nur komplizierte Automaten mit komplizierten Maschinen sind.

00:05:22: Und Rickard kam zu der Auffassung, dass, naja, Tiere sind im Wesentlichen nur Maschinen, aber Menschen unterscheiden sich sowohl von Tieren als Maschinen, weil sie sowas wie den Menschen verstanden haben.

00:05:38: Und das hat er an zwei Sachen testgemacht.

00:05:40: Zum einen an unsere Fähigkeit Sprache zu benutzen.

00:05:43: Also Deckard konnte sich, anders als wir heute, die Budgetivity kennen, konnte sich nicht vorstellen, dass es Maschinen geben könnte.

00:05:50: Die Sprache genauso kompetent benutzen wie der Mensch das macht.

00:05:54: Also es war eine Maschine bauen könnte, die das tut, außerhalb der Vorstellungskraft von Deckard.

00:05:59: Und gleichzeitig, dass unsere Intelligenz, er sprach mal von Vernunft, Die Vernunft ist so universell einsetzbar, dass wir die bei jeder Gelegenheit einsetzen können.

00:06:11: Das konnte man sich nicht vorstellen, dass man es an einer Maschine beibringen konnte.

00:06:13: Er macht dann so Beispiele wie, naja, man kann die Maschine vielleicht an der Schulter berühren und dann dreht sich um und fragt, was ist.

00:06:22: Heute würden sagen, die Reaktionsschirmata gibt, dass man das in die Maschine einbauen kann.

00:06:25: Das konnte man sich gut vorstellen.

00:06:27: Aber diese allgemeine Fähigkeit zu Intelligenz, zu Vernunft.

00:06:31: Konnte sich nicht vorstellen, dass eine Maschine implementiert werden könnte.

00:06:34: Und so kann man dann zu der Auffassung, dass das ist das, was den Menschen von Maschinen und von Tieren damit unterscheidet.

00:06:42: Und hat das sozusagen auf Basis von eher allgemein beobachteten Tungen mit den damaligen Werkzeugen oder Instrumentarium gemacht.

00:06:50: Ich meine, um den Punkt mal einzugehen mit der Sprache, das finde ich auch was Faszinierendes immer wieder.

00:06:54: Wir haben eine tatsächlich ja sehr begrenzte Anzahl von Zeichen, wenn man mal einfach nimmt.

00:06:59: Wir haben so ein Alphabet.

00:07:01: Und wir haben noch ein paar Satzzeichen.

00:07:03: Ich spitze es jetzt auch mal ein bisschen zu.

00:07:06: Und wir haben zehn Ziffern.

00:07:09: Und damit können wir unglaublich viele Sachverhalte beschreiben.

00:07:13: Und endlich viele sogar.

00:07:15: Ja.

00:07:17: Und die weitergeben und die so beschreiben, dass sie andere Menschen verstehen.

00:07:21: Und wir können nicht nur Dinge beschreiben, die... die wir sehen, so rein deskriptiv.

00:07:27: Wir können auch spekulieren, wir können Zeitbezüge herstellen und wir können die auch so formulieren, dass auch andere die verstehen und zwar so ziemlich genauso verstehen, wie wir die sagen.

00:07:38: Ob es genauso verstehen ist immer die Frage, aber wenn die Kommunikation funktioniert, hoffentlich schon, ja.

00:07:44: Und er hat gesagt also, dass das eine Fähigkeit ist, das kann nur der Mensch und das können Tiere nicht, aber wir wissen inzwischen, dass Tiere natürlich auch solche Fähigkeiten haben.

00:07:54: Nicht so wie der Mensch, aber

00:07:55: Genau, Descartes hat sich an zwei Fronten geirrt.

00:07:57: Also, zum einen hat er sich nicht vorstellen können, wie so komplex viele aussehen könnten, die eben auf Sprache beherrschen können.

00:08:04: Kann ich gleich noch mal was zu sagen, aber zum anderen Punkt, du gesagt hast, auch auf der Front, dass er Tieren nicht so viel zugetraut hat, hat er sich ja auch geirrt.

00:08:12: Also, heute wissen wir, dass Tiere sehr viel mehr Intelligenz und symbolische Fähigkeiten haben, als Descartes ihn wahrscheinlich damals zugesprochen hätte.

00:08:20: Was interessant ist an den sprachlichen Sachen, die du gesagt hast, wir reden da in der Koalitionswirtschaft von Symbolverarbeitungsfähigkeiten.

00:08:27: Diese Fähigkeit, Symbole, Bilitis kombinieren immer neuen Strukturen, um immer komplexere Gedanken auszudrücken.

00:08:34: Das ist tatsächlich eine der zentralen Ideen ganz am Anfang der Koalitionswirtschaft gewesen.

00:08:40: Was vielleicht etwas Unbekanntes ist, also ein nicht geringer Teil der Theorie, der Informatik eigentlich aus der Linguistik kommt, nämlich aus den formalen Sprachen.

00:08:50: Also Linguisten haben sich auch in der Mitte des zwanzigsten Jahrhunderts versucht, anzuschauen, was genau die formale Struktur von natürlicher Sprache ist, analysiert, was die Grammatik von Deutsch und Englisch und anderen sprachen, und haben versucht eben genau diese Struktur, die du gerade besprochen hast, mathematisch versuchen zu formalisieren, in sogenannten formalen Sprachen.

00:09:11: Und eine der großen entscheidenden Durchbrüche in der Informatik ist tatsächlich, dass Die Linguisten und die frühen Informatiker und Mathematik-Rest gestalten, es gibt eine Korrespondenz zwischen der Komplizität einer Sprache und einer Maschine, die diese Sprache ausdrücken kann.

00:09:28: Und da gibt es eine Hierarchie von Automaten, die erfüllt sein muss, um bestimmte Komplizitäten von Sprache, Phänomene, die es in natürlicher Sprache gebiederspiegeln.

00:09:41: Und ganz viele Diskussionen in der Linguistik haben sich darum gedreht, wie komplex eigentlich die Maschine im Kopf sein muss.

00:09:48: um so was die natürliche Sprache ausdrücken zu können.

00:09:51: Und was war das Ergebnis?

00:09:52: zunächst?

00:09:53: Ja, das ist eine gute Frage.

00:09:55: Also in dieser Regie gibt es sozusagen hier, hier als Chomsky, hier als Chomsky, beinahe nur um Chomsky, den berühmteilingo ist und der hat die klassifizierten nach Typ eins, zwei, drei und vier und die sogar einen kontextfreien Dramatiken sahen am Anfang so aus, dass die so sind, mit denen man größte Teile der natürlichen Sprache irgendwie abdecken kann.

00:10:15: Und dafür braucht man zwar komplexere Maschinen als einfache Automaten, aber nicht volle Touring-Maschinen.

00:10:22: Also Touring-Maschine ist das, was moderner Computer kann.

00:10:25: Es gibt quasi Computer, die einfacher sind, die weniger können als Touring-Maschinen.

00:10:30: Und die ersten Studien sahen so aus, dass man sozusagen weniger braucht, als was der volle Computer braucht.

00:10:36: Und davon gehen wir eigentlich heute auch noch aus, weil wo genau diese Grenze ist, also wie komplex diese Maschinäre ist und wie genau die Komplexität der natürlichen Sprache eigentlich ist.

00:10:46: Darüber streiten wir uns eigentlich seitdem.

00:10:47: Okay.

00:10:48: Das heißt, das ist auch mal für die erste Abgrenzung wichtig, wenn wir mal erst mal fragen, was ist überhaupt eigentlich ein Computer?

00:10:52: Was unterscheidet ein Computer von einem allgemeinen Automaten?

00:10:56: Ein Computer ist...

00:10:59: Ja, also das ist, wenn wir zu der, also der entscheidende Begriff, der immer da fallen muss, ist die sogenannte Touring-Maschinen.

00:11:09: Das ist ein hypothetisch Computer, den sich Touring in den dreißiger Jahren aufgedacht hat.

00:11:14: Und der ist quasi in der Hierarchie ganz oben.

00:11:17: Und der ist deswegen ganz oben, weil wir sagen in Informatik, der ist universell.

00:11:22: Und die Universität ist eben, dass es eine Maschine, die jede beliebige andere Maschine simulieren kann.

00:11:28: Und zwar, indem man ihr als Eingabe ein Programm gibt, die sagt, wie sich eine andere Maschine verhält.

00:11:35: So, eine Maschine, die das kann, die nennt man universell.

00:11:39: Und es gibt zum Beispiel eine andere Charakterisierung.

00:11:42: Also in den Anfangstagen der Informatik, in den neunzehnten, dreißiger Jahren, als Mathematik, das ich gefragt habe, was können Maschinen überhaupt?

00:11:48: Gibt es bestimmte Sachen, die Maschinen nicht können?

00:11:50: Gibt es Grenzen dessen, was Mathematiker mit Mathematik mit Weisen beweisen können?

00:11:54: Als diese Fragen versucht wurden, sind sie beantworten.

00:11:57: Da gab es verschiedene andere Versuche.

00:11:58: Da gab es zum Beispiel noch von The Lonely Church, der hat gleichzeitig mit Turing an einem mathematischen Formulismus gearbeitet.

00:12:04: So ein ganzer Lambda-Kalkül, in dem er versucht hat, zu formalisieren, was man mit, ja.

00:12:10: Im Prinzip, was man mit mathematischen Beweisen und Funktionen machen kann.

00:12:14: Emil Post hat sogar eine Produktionssysteme entwickelt.

00:12:16: Die sind eigentlich für mich als Koalitionszuschaffende Transistinnen.

00:12:19: Es sind so, wenn dann regeln, wenn das passiert, macht das, wenn das passiert, macht das.

00:12:23: Und er hat damit versucht, Algorithmen zu formalisieren.

00:12:27: Und all diese Leute haben gleichzeitig gearbeitet.

00:12:29: Und eine der großen Durchbrüche war festzustellen, dass all diese Ideen, die man algorithmisches Denken formalisieren kann, sich als equivalent rausgestellt haben.

00:12:40: Und da gibt es sowas wie der Church-Touring-These, dass es darüber hinaus auch nicht mehr gibt, dass das die allgemeinste Maschine ist, die man bauen kann, die irgendwie korrektive Prozesse, Denkprozesse nachbilden kann.

00:12:53: Und ja, es sind These, weil es könnte sein, dass morgen eine Maschine vorschlägt, die mehr kann als die Touring-Maschine.

00:13:01: Aber ich sag mal, hundert Jahre Geschichte zeigen uns, bisher hat keine Idee gehabt, wie das aussehen soll.

00:13:07: Und die Allgemeinfähigkeit und so von Rechnern zeigen sich auch, weil man ihnen eben mit bestimmten Kombinationen von Nullen und Alten, also wieder mit einer begrenzten Zahl von Zeichen im Prinzip auch ziemlich viel beibringen kann und einprogrammieren kann am Ende.

00:13:20: Ja.

00:13:20: Was so ähnlich ist wie bei uns Menschen.

00:13:22: Wir können auch eine begrenzte Zahl von Zeichen in unserer Sprache und die haben halt Nullen und Einsen und können damit auch sehr viele Sachen machen.

00:13:32: Genau.

00:13:32: Also, das Entscheidende ist diese Programmierbarkeit, dass man als Eingabel ein Programm geben kann, was eigentlich eine andere Maschine beschreibt.

00:13:39: Und damit kriegt man jetzt die Universität, dass man mit dieser Maschine dann alles machen kann.

00:13:43: Auch alle einfachen Maschinen, die diese Fähigkeit nicht haben, simulieren oder emulieren kann.

00:13:48: Und dass es jetzt nur Nullen und Einsen sind am Computer, das ist eigentlich nicht wirklich wichtig und relevant.

00:13:55: Das macht halt nur die Maschine, um die Nacher zu bauen einfacher.

00:13:59: Also konzeptuell ist es vielleicht besser, als einfach so vorzustellen, wie du es gerade gesagt hattest, nämlich, dass es eine endliche Menge an Symbolen gibt, die man kombinieren kann, um bestimmte Sachen aufzudrücken.

00:14:09: Und ich sage immer, was man eigentlich verstehen muss, ist, dass Computer keine Rechenmaschinen sind.

00:14:13: Also Leute denken ja, wenn sie ein Rechen denken, dass mit Zahlen gerechnet wird.

00:14:17: Und wenn man von nur einem einzelnen redet, dann denkt man auch immer, ja, der Computer rechnet halb mit nullen im Einzelnen.

00:14:21: Das eigentlich entscheidet es aber, diese Fähigkeit Zeichen zu verarbeiten.

00:14:24: Also Computer sind eigentlich keine Rechenmaschinen.

00:14:27: im traditionellen Sinn, wie man rechner steht, sondern Zeichenverarbeitungsmaschinen.

00:14:31: Das ist eigentlich, dass das Computer auszeichnet.

00:14:32: Und jetzt hast du auch schon ein paar andere Namen genannt, nämlich zum Beispiel Alan Turing, der auch sich viele Gedanken um Computer gemacht hat, auch schon um KI in den vierziger Jahren.

00:14:41: Und dann ging es auch mit der künstlichen Intelligenz tatsächlich auch richtig los als eigenständiges Fach.

00:14:47: Dann gab es in den fünftiger Jahren nämlich diesen berühmten diesen berühmten Workshop im Sommer, wo sich ein paar Wissenschaftler zusammengetan haben und da traut auch der Begriff KI zum ersten Mal auf, weil die damals einen Sponsor gebraucht haben für ihr Treffen.

00:15:00: und damit es cool klingt hat einer gesagt, wir müssen jetzt künstliche Intelligenz in das Schreiben einfügen, entkriegen und haben auch von der Rockefeller Foundation dann die Mittel bekommen.

00:15:07: und dann gab es diesen.

00:15:09: Und sie haben... ... waren sehr ambitioniert und nämlich gedacht, ... ... wenn ich es richtig erinnere, ... ... dass sie innerhalb von acht Wochen, ... ... wenn sich so zehn gelehrte Leute zusammensetzen, ... ... eigentlich das Thema lösen können.

00:15:20: Da kann man dann nämlich klären ... ... und sie hatten genau diese Regeln im Kopf.

00:15:23: Der war also gar nicht der Deep Learning-Ansatz ... ... sozusagen im Fokus, sondern ... ... die haben gedacht, wir können dann eigentlich ... ... alle Regeln der Welt sozusagen ... ... irgendwie zusammenfassen oder erfassen ... ... und die können wir in den Computer beibringen ... ... und dann haben wir im Prinzip KI.

00:15:35: So schnell ging es dann nicht, ... ... aber es kamen trotzdem auch schon ... gar nicht so viel später, der erste Chatbot, einer über den du auch schreibst, Eliza.

00:15:45: Warum war das so spektakulär, was konnte man mit dem machen?

00:15:48: Vielleicht

00:15:49: erst noch eine kurze Anekdote eingeschoben zu dem, was du gesagt hast.

00:15:52: Also tatsächlich hat McCarthy diesen Begriff KI auch deshalb gewählt, um mehr Geld in Studenten anzulocken.

00:15:58: Was man so hört, was auch in einigen Büchern dokumentiert ist, dass McCarthy sich mit seinem Mentor Claude Chen, dem Erfinder der Informationstheorie, über den Begriff lange gestritten hat.

00:16:09: Und die haben im gleichen Jahr, als der Workshop war, zusammen auch ein Buch rausgegeben, wo sich Schennen noch durchgesetzt hat.

00:16:16: Und das Buch hat den langweiligen Titel, Automatenstudien.

00:16:21: Und,

00:16:23: ähm... Ich bin eigentlich...

00:16:24: Man merkt,

00:16:24: wie das Künstliche Intelligenz genannt.

00:16:26: Ja, man wollte das Künstliche Intelligenz nennen, aber Schennen hat sich durchgesetzt, lieber Automatenstudien zu nennen, weil er eben diesen reichsinnlichen Begriff nicht mochte.

00:16:34: Und ähm... Und so ähnlich argutig war im Buch auch, viel in der KI-Forschung besser gelaufen, wenn wir das letzten paar Automatenstudien geredet hätten und nicht diese großen Erwartungen mehr wecken würden, indem wir von Künstlerchen die Gänze reden würden.

00:16:46: Das ist als Anekdote dazu.

00:16:48: Interessant bei Eliza ist, also tatsächlich Eliza ist in einem gewissen Sinne die Großmutter der heutigen Chatbots.

00:16:55: In neunzeilsechs und sechzig hat Josef Weizenbaum damals Professor am MIT den Artikel dazu veröffentlicht.

00:17:02: Und ich habe das erste Mal In den Achtzgern, als ich Kind war, aus dem C-IV in den Sechzig, selber mit Eliza interagieren dürfen.

00:17:11: Und da kommt auch ein bisschen meine Faszination tatsächlich her für Künstliche Igenz, dass man sich mit dem Computer unterhalten konnte und eine Konversation mit dem Computer hatten konnte, war damals für mich eine große Inspiration später auch KI zu studieren.

00:17:24: Ich kann zuerst mal kurz so ein Beispiel sagen, was konnte man denn Eliza fragen und was hat die denn geantwortet zum Beispiel?

00:17:31: Man konnte sich nicht über viele Sachen unterhalten.

00:17:33: Das klassische Eliza, der Doktor, hat tatsächlich einen Psychotherapeutin simuliert.

00:17:43: Man konnte sich mit einem Psychotherapeutin über seine Familie unterhalten.

00:17:48: Da kann man sagen, ich streite mich immer mit meinen Eltern.

00:17:52: Dann fragt Eliza zurück, warum streitest du dich mal mit deinen Eltern?

00:17:55: Ja, weil die verbieten mir immer Sachen.

00:17:58: Warum verbieten die mehr Sachen?

00:17:59: Da merkt man schon, was der Trick von der Leiser ist.

00:18:01: Also ein Trick von der Leiser war einfach immer Aussagesätze, umzuformende Fragesätze.

00:18:07: Und dann gab es bestimmte Kotwörter.

00:18:09: Wenn von den Eltern geredet wird, dann wurde halt auch dem Vater gefragt.

00:18:12: Oder wenn vom Familie geredet wurde, wurde von den Geschwittenen gefragt und so weiter.

00:18:17: Und das waren einfach nur stumpfe Regeln, die dem Programm einprogrammiert waren, sich auf bestimmte Schlagwörter, auf bestimmte Atomweisern zu verhalten.

00:18:25: Und wenn man den Code angeschaut hat, merkt man schnell, dass sich da keine Dirkidigenz hinter verbirgt, sondern es ist da nur bestimmte Konversationstricks gibt.

00:18:35: Auch wenn Eliza nicht weiter wusste, weil es nicht wusste, um was es ging und nicht verstanden hat.

00:18:41: Und keine Regel hatte, die den Fall abgefangen hat, hat Eliza immer gefragt, einfach inwiefern.

00:18:45: Das kann man immer fragen.

00:18:46: Oder wieso.

00:18:48: Und es ist gegenüber dann merkt, dass eigentlich die Konversation gar nicht verstanden worden ist.

00:18:53: Und Weizenbaum hat er dann drum gespielt und ziemlich schnell aber gemerkt, wie schnell die Leute fasziniert waren von dem Programm.

00:19:01: Also er selber wusste, dass es ein sehr dummes Programm ist, dass eigentlich keine wirkliche Kompensation fähig ist.

00:19:10: Und er hat sich dann gefragt, woran liegt das, dass die Menschen aber so schnell drauf reinfallen?

00:19:16: dass sie glauben, sich mit dem intelligenten Computerprogramm zu unterhalten.

00:19:19: Obwohl, wenn man die Daube schaut, einfach nur ein Satz von recht einfachen Regeln da ist, die der Maschine sagen, was sie machen sollen.

00:19:26: Weil die Menschen einfach gerne möchten, dass ihr mal jemand zuhört, frech gefragt?

00:19:32: Vielleicht so rum, ich in dem Fall war es sogar eher andersrum.

00:19:36: Man kann auch sagen, das war ein sehr schlauer Trick von Weizenbaum, dass der natürlich, also er hat so einen Psyriathalpeuten in der... Rogerianischen Traditionen extra genommen, der sich immer dumm stellt und einfach nur Fragen stellt, sodass aus der Situation heraus, der Kontext-Situation einfach so war, dass es total okay war, wenn er nur Fragen stellt.

00:20:00: Und dass man aber auch nicht erwartet, dass die Konversation andere Wendungen nimmt.

00:20:06: Und aufgrund dieser Situation, die sehr eingeschränkt war, das hat natürlich dazu beigetragen, diese Illusion, dass man sich mit einem schlauen Computerprogramm unterhält, die hat es halt verstärkt.

00:20:17: Und eigentlich hat dann Weizenbaum den Rest seines Lebens, das ist zehn Jahre später, dann vielfach das Buch geschrieben, eine der großen KI-Kritiken, der es hauptsächlich darum geht.

00:20:30: Also zum einen darum, dass wir den Maschinen sehr vorschnell Intelligenz zuschreiben, ohne zu verstehen, was unter der Haube wirklich passiert.

00:20:38: Und deswegen heißt mein Buch auch die intelligente Täuschung, weil ich quasi diese Täuschung, die Weizenbaum-Darmsforschung wieder aufnehme.

00:20:45: Wir täuschen uns halt sehr leicht darüber, wir lassen uns sehr leicht täuschen darüber, was Intelligenz unter Haube wirklich verhandelt ist und schreiben diesen Maschinen sehr schnell mehr Intelligenz zu, als wirklich vorhanden ist.

00:20:54: Weil halt aufgrund der Situation mit Attagieren es auf den ersten Blick sehr überzeugend aussieht.

00:20:59: Und das war einer der Hauptpunkte, den Weizenbaum in den siebziger Jahren, also setzgejahren als angefangen hat, das ist schon zu machen, aber bis siebziger Jahre noch immer an der KI krisiert hat, dass sie eigentlich drauf aus ist, Leute über die Ligenz der Maschinen zu täuschen.

00:21:11: Und Weizenbaum, um das nochmal ganz kurz einzufügen und der Leiser ist sozusagen ein Beispiel für eine KI, die nicht auf Lernen basiert, sondern da hat man wirklich Regeln vorgegeben.

00:21:19: Ja, genau.

00:21:20: auf einem Set von Regeln eben ein Programm aufgebaut, was sich dann verhalten konnte und wo man auch zum Beispiel mal zeigen hat, dass man auch mit einer begrenzten Zahl von Regeln manchmal schon relativ weit kommt, weil die eben so erfolgreich war, wie sie gewesen ist.

00:21:35: Ist das ein paar Mal schon den Begriff Intelligenz erwähnt und wir schreiben den Computern hofft mehr Intelligenz, so als sie eigentlich haben, das ist auch tatsächlich immer... Ich sage manchmal, das sind das erste Problem an der KI oder nicht?

00:21:46: Problem, aber die erste Facette der Diskussion ist, dass KI mal aus zwei Worten besteht.

00:21:50: Das eine ist künstlich, das andere Intelligenz und beide sind gar nicht klar definiert, weil wenn man über beide Leute fragt, man kriegt auch verschiedene Antworten.

00:21:58: Das Spannende ist natürlich Intelligenz erstmal.

00:22:00: Was ist denn jetzt eigentlich Intelligenz?

00:22:02: Was unterscheidet denn Intelligenz von unintelligentem Verhalten?

00:22:07: Das ist eine große Frage.

00:22:08: Deswegen kriegst du sie.

00:22:10: Ja.

00:22:10: Intelligenz.

00:22:11: Wir wissen eigentlich nicht wirklich, was das ist.

00:22:13: Das ist einer dieser Begriffe, you know it when you see it.

00:22:18: Ein schlecht definierter Alltagsbegriff, was wir mit Intelligenz beeilen, verschiebt sich auch zunehmend durch künstliche Intelligenz.

00:22:24: Also Sachen, die wir noch früher als Intelligenz verhalten bezeichnet hätten, finden wir heute interessant.

00:22:28: Zum Beispiel Stumpfmultiplikationen ausrechnet per Hand.

00:22:33: So hätte man früher gesagt, ja natürlich muss es Intelligenz sein, sowas zu machen.

00:22:37: So und jetzt macht das Computer viel schneller und besser als wir und einer ist vielleicht nicht das Zeichen für Intelligenz.

00:22:42: Ja, ich spiele Schach und das gerade auch mal als intelligente Spiel und jetzt höre ich auch auf Nährs rechnen.

00:22:50: Ja.

00:22:50: Das können ja die Computer auch, deswegen ist es nur noch rechnen.

00:22:52: Es ist natürlich

00:22:53: Quatsch, ja, weil man braucht immer noch ganz schön viel Liebungen, Intelligenz überhaupt anfangen zu können zu spielen.

00:22:59: Aber genauso ist es, ja.

00:23:03: Aber wir können sich so ziehen auf die Psychologie-Definition von Intelligenz.

00:23:05: Das passiert auch manchmal in der KI-Forschung.

00:23:08: In der Psychologie sagen Leute häufig, Intelligenz ist einfach das, was der Intelligenztest misst.

00:23:14: Das hilft auch nicht wirklich weiter, aber man kann sich fragen, was genau haben die Psychologen gemacht, als sie versucht haben, Intelligenztest zu definieren?

00:23:22: Die haben einfach auch auf die Institution gehört, einfach sehr viele kleine Aufgaben genommen, von denen sie glaubten, dass sie irgendein Intelligenz zu tun haben müssten.

00:23:31: Und haben dann sehr vielen Versuchspersonen diese Aufgaben gegeben.

00:23:35: Und dabei haben sie was Interessantes gefunden.

00:23:38: Was dabei gefunden haben ist, dass es Korrelationen gibt, nämlich dass Menschen, die in allen Aufgaben gut sind, ein gemeinsames Faktor gibt, der viel der Varianz erklärt, wie die Leute die ganzen Aufgaben bearbeiten.

00:23:54: Also ich mache mal ein paar Punkte konkret dazu machen.

00:23:57: Also es gibt natürlich Aufgaben, da braucht man irgendwie Sprachfähigkeiten zu.

00:24:01: Es gibt Aufgaben, da braucht man irgendwie Mathematischfähigkeiten zu.

00:24:04: Es gibt Aufgaben, da braucht man räumliches Vorstellungsvermögen für und so weiter.

00:24:07: Und man findet Korrelation zwischen Aufgaben, also jemand, der eine dreidimusale Vorstellungsaufgabe gut macht, der weder anderen dreidimusale Vorstellungsaufgabe auch gut sein.

00:24:16: Jemand, der in einer sprachlichen Aufgabe gut zu der anderen sprachlichen Aufgabe auch gut sein.

00:24:19: Also man findet diese Korrelation zwischen den Aufgaben.

00:24:21: Interessant ist, wenn man das statistisch auswertet, was die Psychologen eben sehr sorgfältig gemacht haben, dass es dann einen sogenannten G-Faktor gibt, also den Faktor der generellen Intelligenz.

00:24:32: Es gibt Leute, die einfach in allen Aufgaben gut sind, unabhängig von den spezifischen Fähigkeiten, die für die einzelnen Aufgaben notwendig sind.

00:24:39: Das ist der berühmte G-Faktor für generelle Intelligenz, General Intelligence.

00:24:44: Und das ist das, was Psychologen meinen, wenn sie von Intelligenz reden.

00:24:47: Also es gibt die spezifischen Intelligenzen, aber halt diese allgemeine Intelligenz, die uns erlaubt, beliebige Probleme zu lösen.

00:24:53: Und jemand, der gut ist, beliebige Probleme zu lösen, Der ist halt dann in allen Aufgaben besser und nicht nur speziellen Aufgaben besser.

00:25:00: Das ist die Idee von Intelligenz in der Psychologie.

00:25:02: Und wenn er das ist, dann ist er eben intelligenter als jemand, der in allen Aufgaben schlechter ist, so würde man es sagen.

00:25:07: Genau, das wäre die Idee.

00:25:10: Und darum ging es auch in den frühen Tagen der Kalie.

00:25:13: noch mal an, was sie vor dem Dekat gesagt hatte, die sie vernunft als Universalinstrument, die in jeder Gegegenheit eingesetzt werden kann.

00:25:19: Das ist eigentlich so die Grundidee auch in der Psychologie, dieser G-Faktor.

00:25:23: Und das war auch der Anspruch der KI-Forscher in den Fünfzigerjahren und in den Sechzigerjahren, die gesagt haben, wir wollen jetzt allgemeine Problemlöseprozesse.

00:25:32: Das ist das, was die Menschen sich auszeichnen.

00:25:34: Ich schmeiße Menschen ein liebiges neues Problem hin, das er noch nie gesehen hat und er schafft, irgendwie damit umzugehen.

00:25:41: Das ist das, was diese Allgemeintelligenz auszeichnet.

00:25:45: Und das ist das, was, glaube ich, als Grundgedankertsituation dahinter ist, dass es eben keine speziellen KI's gibt, die dann spezielle Aufgaben lösen, sondern eine allgemeine KI gibt, die beliebige Aufgaben lösen kann.

00:25:59: Und davon sind wir dann noch einigermaßen weit entfernt.

00:26:02: Wie weit, das klären wir gleich, aber das ist sozusagen auch ein Grund, warum jetzt gerade viele sehr hoffnungsvoll und euphorisch sind, weil wir jetzt plötzlich KI-Systeme haben, die eben ziemlich ordentlich und ziemlich vielseitig mit Sprache umgehen können.

00:26:18: Und wenn wir sagen, mit Sprache kann man, Sprache ist ein Instrument mit dem kann man sehr vieles bearbeiten und alles Mögliche weitergeben und wer kompetent oder vielseitig mit Sprache umgehen kann, der muss eine gewisse generelle Allgemeinefähigkeit haben.

00:26:31: Deswegen sagen die eben auch, wir haben jetzt halt eine KI, die ist nicht mehr so eng, die kann halt nicht nur Schach spielen oder oder Go spielen oder Pokern, sondern die, oder irgendein Computerspiel, sondern die kann halt wirklich breiter denken oder die ist breiter intelligent in einem gewissen Sinne.

00:26:48: Absolut.

00:26:49: Das ist genau das, was die Begeisterten gerade mit diesen large language models auszeichnet, dass die genau eben diese sprachigen Fähigkeiten haben.

00:26:55: Und das spielt mit dem zusammen, was wir das mal anfangs gesagt haben, nämlich dadurch, dass ich jetzt einen KI-System Instruktion natürlich Sprache geben kann habe ich sowas wie vorgelegt haben nicht diese Fähigkeit ich kann der sagen was sie machen soll und dann kann sich das kann die Anweisung geben.

00:27:10: so funktioniert schriftliche Edition und da muss ich es nicht aus tausend Beifubilen erstmal lernen sondern kann diesen Anweisung folgen.

00:27:17: das ist die Hoffnung.

00:27:18: Wie lern denn wir Menschen eigentlich.

00:27:22: Weil ich sage mal, um da in der KI noch erst mal ganz kurz anzuknüpfen, wir hatten also erst in der ersten Phase diese regelbasierte KI.

00:27:29: oder die Hoffnung, man kann mit, wenn man alle Regeln der Welt erfasst oder die wichtigsten, kann man ein Computer bauen, der allgemeine Intelligenz, weil er hat dann eben alle Regeln, dann hat man gemerkt, naja, so geht das nicht so einfach.

00:27:37: Und dann kam, ich kürze es ein bisschen ab und spitze es ein bisschen zu, um einfach die Unterscheidbarkeit zu zeigen, dann kam eine... Eine da gibt's und die ist auch zum Teil der Parallel gelaufen.

00:27:48: Philosophie, nee, das im Regeln ist nicht der Schlüssel, sondern es geht um Lernen aus vielen Daten, vielen Beobachtungen, weil wir Menschen eben auch so lernen.

00:27:56: Wir nehmen ganz viel wahr und daraus erkennen wir plötzlich, wie die Welt funktioniert.

00:28:00: Und ein Baby hat auch niemand gesagt, das Plusgramm Perfekt ist dieses und das Futur zwei ist jenes und ein Komma setzt man bei einem Relativsatz, sondern das ... Baby hört halt zu irgendwie und verarbeitet viele Daten und kapiert aber trotzdem durch vieles zuhören, plötzlich war es eigentlich ein Wort ist, was mehrere Wörter sind und kann dann anfangen zu sprechen.

00:28:19: Aber wie lernen wir Menschen denn eigentlich?

00:28:22: oder wie denken wir?

00:28:25: Ich kann mal mal das wie denken wir aus, machen erst noch die Frage, wie lernen wir.

00:28:30: Also es gibt da auch keine einfache Antwort zu.

00:28:32: Ich glaube am besten stellt man sich vor, dass es sehr viele unterschiedliche Lernmechnissen gibt.

00:28:37: Es gibt nicht nur diesen allen Lähmechnismus, nach dem wir lernen, sondern es gibt viele verschiedene Arten, auf die wir lernen.

00:28:43: Und was vielleicht wichtig ist in der heutigen Diskussion, wenn wir immer von diesen large Language Models und tiefen neuronalen Netzen und diesen sehr lernbasierten Sachen reden zu wissen ist, dass die eine sehr spezifische Definition von Lernen haben, die In der Psychologie, würde man sagen, sehr traditionell überholt ist, die nämlich eigentlich auf Ideen der klassischen und instrumentellen Konditionierungen, die über hundert Jahre alt sind, beruhen, nämlich die Idee, dass Ideen, die dann durch neuronale Systeme im Gehirn repräsentiert sind, dass die assoziiert werden durch Verbindung zwischen diesen neuronalen Netzwerken.

00:29:25: Und dass eigentlich dieses Lernen der Verbindung zwischen den Ideen durch eben Statistik, also wenn bestimmte Ideen häufig zusammen auftreten, dann wird die Verbindung zwischen gestärkt und so lerne ich den statistischen Zusammenhang zwischen den zwei Ideen.

00:29:41: Und dass das der Kern dessen ist, was Menschen lernen auszeichnet.

00:29:46: Und da muss man das klar sagen, das ist ein Aspekt der Menschen, die sie lernen auszeichnet, aber das ist nicht alles, was zum Lernen gehört.

00:29:53: Und das, was wir jetzt schon mehrmals gesagt haben, ist ein wichtiger Aspekt, wenn wir also an Lernen in der Schule denken, das ist eben nicht nur ich lerne Vokabellisten auswendig, Ich lerne das Cat auf Englisch, dann auf Deutsch Katze heißt und ich muss die Assoziation lernen zwischen den zwei Wörtern, sondern lernen ist viel mehr.

00:30:13: Lernen ist versuchen, die kausale Struktur der Welt zu verstehen.

00:30:16: Lernen ist, ich krieg was beigebracht, weil mir jemand was erklärt.

00:30:21: Lernen ist, was passiert, wenn ich mit jemand anderem mich unterhalte und wir gemeinsam Ideen entwickeln.

00:30:27: Das ist auch alles Lernen, was in dieser Art von sehr vereinfacht leeren Theorien, klassischen leeren Theorien nicht abgebildet ist.

00:30:34: Und was Computer dann auch noch nicht können?

00:30:37: Die können das erste jetzt, das sind die Learningmodellen drin, aber das zweite eben noch nicht, das versucht man gerade reinzukriegen.

00:30:44: Also das, was gerade diese künstlichen neuroneine Netze, dieses ganze tiefe Lernen, das wir gerade haben, machen, das ist auf alle Fälle das erste.

00:30:52: Wir haben durchaus Vorstellungen, Theorien, Ideen, wie diese andere Art von Lernen auch funktionieren kann.

00:30:59: Aber ich würde sagen, es ist richtig, dass wir da noch nicht so weit sind.

00:31:04: Ja, also das sind die Art von Sachen, an denen ich forsche, die wir uns im Labor machen, wenn wir uns anschauen, wenn wir Leute Probleme geben, dann geben wir Leuten neuen Probleme, die sie noch nicht gemacht haben.

00:31:14: Und es geht es halt, wie sie lernen, diese neuen Probleme zu lösen.

00:31:17: Eine Art und Weise, wie man sich darüber nachdenken kann, was da passiert ist, die Art und Weise, ich darüber rede, ist Selbstprogrammierung.

00:31:25: Also, was eigentlich passiert ist, ich mache mal ein kleines Beispiel, bei uns im Labor schauen wir uns an, die Menschen Sudoku lernen.

00:31:31: Also ich gebe dir ein Sodoku-Puzzle, du hast das erste Mal Sodoku in deinem Leben und du weißt noch gar nicht, dass es funktioniert.

00:31:35: Dann ist das erst das Erzgesannte ist, ich sage dir die Regeln, das sind die Regeln, nach denen es funktioniert.

00:31:40: Und dann ist das coole, dass Menschen das erste Mal, wenn sie Sodoku machen, schon ganz vernünftig Sodoku spielen und lösen können, obwohl sie noch gar nicht genau wissen, wie das wirklich funktioniert.

00:31:50: Und je mehr sie das spielen und überlegen, über wie das eigentlich funktioniert, das Spiel, desto besser werden sie.

00:31:55: Und das heißt, sie bringen sich selber ein Algorithmus bei, wie man Sodoku-Probleme löst.

00:32:01: eine Art und Weise konzeptualisierend nachzudenken ist, die Menschen programmieren ihr eigenes Verhalten.

00:32:06: Und wie das funktioniert, das ist das, wo ich sagen würde, da ist das ganze Forschungsgrund, wie wir Computersysteme bekommen, die sich selber programmieren können.

00:32:15: Es ist nicht so, dass wir nichts wissen.

00:32:16: Es gibt da durchaus verschiedene Computersysteme, auch von den Siebzigerjahren, die solche Systeme, also Programmiersysteme, die sich selber weiter programmieren können, entwickelt haben.

00:32:26: Aber ich würde sagen, da ist die Forschungsgrund.

00:32:27: Und da ist auch das, was mit Sprachmodellen

00:32:32: Ganz kurz.

00:32:33: Ja, ganz kurz.

00:32:33: Vielleicht habe ich es auch nicht richtig verstanden, dann bitte korrigieren.

00:32:36: Aber es gibt ja Ideen, die, es gibt ja verschiedene Formen von, von die Learning sozusagen.

00:32:43: Es gibt, es ist super weiß, Learning.

00:32:45: Ich habe halt bestimmte, ich zeige halt einen Computer, tausend Bilder und sage ihm halt danach, was sozusagen das richtig ist.

00:32:53: Und es gibt ja auch, auch Ideen das ganze zu... ... sozusagen auch sehr verhalten auszulösen.

00:32:58: Also sozusagen ... ... was man, glaube ich, bestärkt das Lernen nennt.

00:33:01: Also ich geb so einen ... ... weil ich bring mir ja auch so Doku bei, ... ... weil ich offenbar ... ... es toll finde, wenn ich es dann löse, ... ... dann habe ich wie so eine Belohnung ... ... und ich krieg so sozusagen gesagt, ... ... du musst das jetzt rausfinden, ... ... dann hast du es nämlich gelöst, ... ... dann fühle ich mich vielleicht irgendwie toll, ... ... weil ich dann so ein Problem gelöst habe oder sowas ... ... und dann ... ... dann vielleicht ist das eine Möglichkeit, ... ... das mit KI-System eben auch zu machen.

00:33:21: Es gibt ja auch ... ... auch Beispiele, wo sich ... Und wenn wir zum Schach gehen, die besten Schachprogramme, die sich selbst Schach beigebracht haben durch Spielen gegen sich selbst.

00:33:31: Die haben gar nicht Milliarden Partien angeguckt, sondern die haben es auch in sehr kurzen Zeit Räumen gelernt, indem sie gegen sich selbst gespielt haben und auf einem Niveau was besser war als viele andere.

00:33:41: Findet an der Stelle sowas in Computern schon statt?

00:33:45: So ähnlich wie bei uns?

00:33:46: Oder ist das ein schiefer Vergleich?

00:33:48: Also das Beispiel mit dem Schach ist sehr gut.

00:33:51: Also es gibt diese Schachsysteme, die einfach mit sich selber spielen.

00:33:55: Und dann aus der Belohnung lernen, wenn was funktioniert hat, nicht funktioniert hat, wenn ich Spiel gewonnen habe, dann muss wohl das, was ich gemacht habe, gut funktioniert haben und dann wird dieses Verhalten verstärkt.

00:34:03: Also schauen dann zurück, was sind die Sachen, die ich gemacht habe, die Zurückwürdung ist gewonnen hat.

00:34:07: Und man kann es durchaus aus Regelbasis-Systemen machen, also wenn die Regeln, die Verhaltensregelungen dafür zurück haben, dass ich gewonnen habe, die werden halt verstärkt.

00:34:15: Und der Erfolg setzt sich durch.

00:34:17: Was

00:34:17: so bisschen wie beim Sudoku, wo ich jetzt der Gedanke habe, ist, ich probiere halt auch und dann finde ich plötzlich Wege raus.

00:34:22: Und

00:34:22: das ist glaube ich nicht so.

00:34:24: Und so lernen Menschen nicht.

00:34:25: Also diese Schacht-Dinger, die gegen Selber gespielt haben, die haben erstaunlich schnell Schacht gelernt.

00:34:31: Ich hoffe, ihr seid falsch, ich habe es in meinem Buch ausgerechnet gehabt.

00:34:33: Also man braucht irgendwie knapp fünfhundert Leute, die ihr ganzes Leben lang nichts anderes machen als Schachspielen, um so viele Schachpartien zu spielen, wie dieses Computerprogramm von dem ihr gerade geredet hast.

00:34:46: Also, wenn fünfhundert Menschen ihr Leben lang nichts anderes machen, als gegen sich selber Schach spielen, dann hätten sie so viele Partien gespielt, wie diese Schachprogramme von dem Gott geredet hat.

00:34:57: So, da sind wir bei dem, was ich am Anfang gesagt habe, das ist halt, das Interessante ist, Menschen lernen das schneller.

00:35:03: Die müssen nicht so viele Spiele spielen.

00:35:05: Und das zeigt uns, dass das Lernen, dass die Menschen machen, anders ist als diese Art von verstärkendem Lernen, was du gerade beschrieben hast.

00:35:12: Und ich glaube, zwei Sachen sind ganz essentiell.

00:35:16: Das eine ist, wir fangen nicht bei null an, sondern, also wie habe ich Schach gelernt, aus dem Buch.

00:35:24: Da hat sich ein bisschen gespielt, aber die ganze Erfahrung, das Erfahrungswissen von anderen Leuten, die vorher schon Schachspiel haben, habe ich in einem Buch gelesen.

00:35:32: So, und wie lernt man, indem man sich alte Partien anschaut, das spiel über nicht selber.

00:35:35: Also da sind ganz viele Sachen, und wenn ich einen Schachverein gehe, gibt es einen Trainer, der weiß, was sind die wichtigen Konzepte.

00:35:42: Wie bauen die aufeinander auf?

00:35:44: Was muss ich verstehen, damit ich Läuferenspiele und Turmenspiele verstehe?

00:35:47: So, da wird erklärt.

00:35:48: Da wird nicht einfach nur stumpf rumprobiert und geschaut, was funktioniert.

00:35:51: Und dann wird es, wenn es erfolgreich war, belohnt.

00:35:54: Und dann mache ich mehr davon.

00:35:55: Sondern da passiert sowas wie Erklärung von anderen wohlmeinenden Menschen, die uns in Sprache eben die Informationen, die wir brauchen, mitgeben.

00:36:03: Und so Bootstrappen.

00:36:06: Also es ist eine ganz wichtige Zutat.

00:36:08: Und die andere wichtige Zutat ist, was man als Einsicht bezeichnen würde oder nachdenken.

00:36:12: Also ich spiele eben nicht zufällig irgendwelche Spiele und schau, was belohnt wird, so wie diese KI-Programme das macht, sondern ich überlege, was es ja gibt Sinn.

00:36:20: Ich habe vielleicht Erfahrung mit anderen Spielen.

00:36:22: So andere Brettspieler, die es aus Abstrategie geht, kann ich was von dem nehmen und übertragen per Analogie auf dieses neue Spiel, was ich lerne.

00:36:28: Also in der Zeit lang gab es so einen sehr interessanten KI-Wettbewerb.

00:36:32: KI-Forscher nehmen sich ja immer gerne solche Spiele vor.

00:36:35: Das liegt daran, weil das sind die Regeln gut definiert und dann weiß man, was richtig und falsch ist.

00:36:40: Ja, überschaubares Spielpreis, überschaubares Spielfiguren.

00:36:43: Genau, ist das für zum Erproben von KI-System immer sehr, sehr schön.

00:36:49: Aber ein instantaner Wettbewerb war mal so ein Metaspielerren-System zu machen, eben ein Computersystem, was nicht nur ein Spiel lernt, sondern ein Computersystem, dem man ein neues Spiel gibt.

00:37:02: Und die Regeln für das neue Spiel und das dann das neue Spiel sofort richtig gut spielen soll, aufgrund der Erfahrung mit komplett anderen Spielen.

00:37:09: Und dann per Analogie von den anderen Spielen aufs neue Spiel schließen muss.

00:37:12: Wie klappt das?

00:37:13: Ich würde sagen so mittelgut bisher.

00:37:16: Also wir haben so Ideen, wie das funktionieren könnte, mit klassisch regelbasierten Systemen, die natürlich jetzt in letzter Zeit mit Sprachmodellen und Deep Learning-Modellen irgendwie angereichert werden.

00:37:27: Aber das sind die Sachen, wo ich sage, dass die Forschungsfront da wissen wir noch nicht, wie man das richtig macht.

00:37:32: Dann lassen wir mal auf die Sprachmodelle jetzt eingehen und auf deren Grenzen.

00:37:35: Jetzt verwenden wir die seit einer Weile und die werden auch immer größer und es kommen immer mehr verschiedene raus.

00:37:41: und dann gibt es Modelle, die heißen Reasoning-Modelle, wo man sagt, die denken schon ein bisschen mehr nach, da braucht es auch ein bisschen länger bis dann ein Ergebnis kommt, wenn man da was fragt.

00:37:50: Der Weg, der da gerade beschritt mit und aber die Basis ist oft dieses, was wir zu Transformer-Architektur nennen, was momentan so ein bisschen ist wie das, was, wo wir auf eben diese... Durchbrüche da beruhen.

00:38:03: Wie weit kommt man denn damit?

00:38:04: Ist, wenn man die immer größer macht, immer noch mehr Daten reintot, noch mehr Rechenleistung, werden die dann immer schlauer und kommen die dann auf den Weg irgendwann in die Lage, dass sie halt wirklich mehr Spiele lernen können, wenn sie da Vorbereitungen gemacht haben.

00:38:18: Ich habe aus dem was zugesagt, dass du ein bisschen Zweifel daran, dass dieses immer größer der alleinige Schlüssel ist.

00:38:24: Ich auch, aber ich muss immer dazu sagen, ich musste in den letzten Jahren sehr häufig, wie sagt man, Kreidelecken.

00:38:38: Also seit zehn Jahren sage ich, dass immer nur skalieren, skalieren, skalieren bringt nichts, weil aus prinzipiellen Gründen die Dinger so wie sie gebaut sind, halt gerade diese reasoningsachen nicht können, die Sachen beim Anfang geredet haben, wie man Intelligenz, Symbole kombiniert, um neue Ideen zu haben und so.

00:38:55: Per Konstruktion können die das eigentlich nicht und da hilft es auch nicht, das immer größer hoch zu skalieren.

00:39:00: Aber ich bin jedes Jahr neu überrascht, wie viele Dinge jetzt mehr können durch das Reihenhochskalieren.

00:39:05: Und ich würde sagen, da ist die große Diskussion innerhalb der KI und Konkussionswirtschaft da.

00:39:12: Ich glaube, da gibt es Leute, die glauben daran, dass Skalieren hilft und Leute, wie ich, die sagen, irgendwann kommen wir da eine Grenze.

00:39:19: Für Leute wie mich ist, glaube ich, das Interessante, wie weit man auch mit scheinbar nicht so intelligenten Methoden kommt.

00:39:30: Also mit eigentlich Standard Sachen, die wir schon seit Ewigkeiten kennen, teilweise mit theoretischen Sachen, die hundert Jahre alt sind aus der Psychologie.

00:39:37: Also Konzepten, die klassische Konditionierung und instrumentelle Konditionierung und verstärkendes Lernen.

00:39:44: Das sind uralte Konzepte in der Psychologie, die eigentlich diesen klassischen Lernpsychologie, die diesen ganzen Allgruppen zugrunde liegen, von denen wir eigentlich die letzten setzigen Jahre geglaubt haben, die reichen nicht aus, um Menschen Intelligenz zu erklären.

00:39:56: Und ich glaube, eine Sache, die wir jetzt gemerkt haben, ist, wie erstaunlich weit man kommt, von außen scheinständigen Verhalten zu erzeugen, aufgrund dieser einfachen Prinzipien.

00:40:05: Und von diesem Erfolg angespitzt, glauben jetzt halt sehr viele Leute, dass wir müssen es einfach nur skalieren.

00:40:11: Und dann gibt es halt Leute wie mich, die eher glauben, naja, das kann noch nicht alles sein.

00:40:18: Und dann macht man halt so Argumente, wie ich vorhin versucht habe, zu machen.

00:40:20: Aber schau mal, wie viele Daten die brauchen.

00:40:22: Es kann auch nicht alles sein, wenn es alles wäre, wäre es auch ein bisschen ernüchternd für uns Menschen.

00:40:27: Das mögen wir natürlich auch nicht so gerne, wenn das das Ergebnis wäre.

00:40:32: Aber das ist natürlich das Gefährliche, weil die andere Seite sagt man, ja, ja, du glaubst halt noch, da gibt es irgendwie eine Magie hinter, aber wir wissen schon, was die Magie ist.

00:40:39: Da ist nicht mehr, das ist das von alles.

00:40:41: Und das ist ein bisschen der Vorwurf dann immer, dass dann Leute wie ich an so magische Zutaten glauben würden, die wir noch nicht kennen.

00:40:48: Interessant ist vielleicht in dem Kontext so eine Beobachtung, ja, wissenschaftsoziologisch.

00:40:52: Ich glaube, auf der korrektionsdissenschaftlichen Seite.

00:40:55: Das heißt, die Leute, die wirklich so wie ich, deren Hauptgeschäft es nicht ist, Computersysteme zu bauen, die praktisch Probleme lösen, sondern deren Hauptgeschäft ist, Computermodelle zu bauen, die wirklich die menschlichen Prozesse, was Menschen machen, im Computer nachzubilden.

00:41:11: Leute auf meiner Seite tendenziell viel skeptischer.

00:41:14: als die Leute auf die anderen Seite.

00:41:16: Woran liegt das mit dem, von dem wir die ganze Zeit reden?

00:41:19: Weil man kann sich einfach nur, wenn man sich nur die Leistung anschaut, was können die alles Tolles, dann ist man leicht beeindruckt.

00:41:23: Aber wenn man halt genauer hinschaut in Laborversuchen, wie genau machen die das eigentlich und funktioniert das so ähnlich wie der Mensch das macht, dann findet man halt ziemlich schnell Risikunterschiede.

00:41:32: Also Anzahl die Daten erbraucht, wie die Daten sind, aus welchen Sachen wirklich gelernt werden.

00:41:37: welche Innovationen relevant und nicht relevant sind, welche Fehler gemacht werden, da findet man ziemlich schnell sehr große Unterschiede zwischen diesem KI-System und dem, was Menschen machen.

00:41:44: Und deswegen glaube ich tendenziell Leute, die sich im Labor oder auch in der wirklichen Welt mensches Verhalten genauer anschauen, die sind glaube ich ein bisschen weniger beeindruckt, weil sie halt die Unterschiede sehen zu dem menschlichen Verhalten.

00:41:57: Und es zeigt aber auch ein bisschen auch die verschiedenen Ziele, die es zum Teil gibt, die auch auch in der KI.

00:42:02: Es gibt eben Leute, die sagen KI oder die betreiben es, weil sie wirklich versuchen, den Menschen künstlich nachzubauen.

00:42:08: Und andere, die halt sagen, na ja, das muss nachher, was ich da habe, nicht wie Commander Data aussehen, sondern das muss bestimmte Kompetenz haben.

00:42:15: Und wenn das die eben auf einem anderen Weg kriegt, als wir die uns angeeignet haben, dann ist das auch nicht schlimm.

00:42:21: Dann ist das halt einfach eine andere Form dahin zu kommen.

00:42:25: Absolut.

00:42:25: Und diese Unterscheidung zwischen Ich sage immer KI als Ingenieurdisziplin und KI als Kognitionslissenschaft.

00:42:34: Es ist wichtig, dass die zwei Sachen nicht zu konfundieren und nicht die ganze Zeit durcheinander zu schmeißen.

00:42:39: Ein guter Vergleich, finde ich, ist immer, wenn ein Vogelforscher versuchen möchte, den Vogelfug zu verstehen, versus wenn Ingenieur versuchen möchte, eine Passagiermaschine für Tausend Fluggäste zu designen.

00:42:56: haben die zwei Sachen, was mit das zu tun.

00:42:57: Es geht um Fliegen.

00:42:58: Es geht darum, man muss die Physik des Auftriebs verstehen.

00:43:01: Man muss verstehen, wie die Luft sich bewegt.

00:43:04: Man muss ganz viele ähnliche Prinzipien verstehen, die alle was mit der Physik des Fliegens zu tun haben.

00:43:10: Aber natürlich sind das komplett andere Ziele.

00:43:12: Und wenn ich eine Boeing Sieben Vier Sieben bauen möchte, dann baue ich eben nicht genau einen Flügel mit Federn nach, sondern dann baue ich das aus... einem stabilen, leicht Material, was ich leicht bauen kann.

00:43:26: Und würden auch nicht versuchen, dass wir ein Flugzeug bauen, was am Ende noch ein Nest baut und künstlicher Air da reinlegt, sondern es kann halt auch anders.

00:43:34: So, und diese wichtige Unterscheidung, die geht tatsächlich auch gerade in meinem Gefühl in der KI-Diskussion häufig durcheinander, dass diese zwei Sachen immer konfidiert werden, nur weil jetzt eine Maschine Sprache machen kann, dass sofort dann zu dem Schluss gesprungen wird, dass es lieber Menschen ist.

00:43:50: Braucht man, um Computer zu kriegen, die so intelligent sind wie wir, braucht man da welche, die auch wirklich in Körper haben und sich im Raum bewegen?

00:43:59: Die allermeisten Korrektionswissenschaftler heutzutage würden dem wahrscheinlich zustimmen.

00:44:05: Ich glaube, es hätte ein bisschen eine Farbe, was man mit Intelligenz meint.

00:44:08: Ob man, wenn man verstehen möchte, wie Menschen Schach spielen, ob man dazu dann Körper braucht, bin ich mir nicht sicher.

00:44:14: Aber es ist sicher so, dass vielleicht, wenn es nicht der Körper ist, dass die Erfahrungen... übereinstimmen müssen.

00:44:21: Und da ist der Körper wahrscheinlich ein großer Teil der Erfahrung.

00:44:24: Da hat es vorhin die theoretischen und philosophischen Arbeit von Touring schon erwähnt, aus den Fünfzigerjahren, wo Touring sich Gedanken über KI gemacht hatte, bevor es den Begriff gab, nämlich ob man im Computer Menschintelligenz nachbilden kann und Menschliches Denken nachbilden kann.

00:44:38: Und seine Flussfolge eigentlich am Ende von seinem berühmten Artikel über KI.

00:44:43: ist, dass die Art und Weise, wie man es überhaupt kriegen kann, ist, wir müssen eben keine Krüterprogramme bei einer bestimmten Stelle Fähigkeiten nachmachen, sondern wir müssen eigentlich verstehen, wie Kinder lernen.

00:44:54: Und wenn wir verstehen, wie Kinder lernen, und dann diesen Lernalgorithmus auf einem kindlichen Roboter machen, den wir quasi die gleiche Erfahrung machen lassen, wie Menschen machen, wenn sie aufwachsen.

00:45:05: dass das der Königsweg hin ist zu echter Künstlingenz.

00:45:09: Und nur dann hätten wir so was nachgebildet, was den Menschen mit Denken entspricht.

00:45:13: Und ich glaube, das ist das, was viele Leute heute auch sagen würden, dass das, wenn die Maschine halt ganz andere Erfahrungen macht, als wir aus anderen Daten lernen, auch andere Sensoren hat, da spielt der Körper dann die Rolle, dass dann natürlich was rauskommt, was ganz anderes ist und nicht nur vergleichbar ist, irgendwie dann auch logisch.

00:45:30: Wie nutzt du KI eigentlich im Alltag?

00:45:33: Hilft es dir bei deiner Arbeit schon sehr?

00:45:36: Nicht wirklich.

00:45:37: Also wenn du jetzt mit KI meinst Sprachmodelle, Sprachmodelle nutze ich quasi nicht.

00:45:43: Die merke ich hauptsächlich im Universitätskontext, wenn Studenten natürlich ihre Hausaufgaben bei mir abgeben müssen, dass die natürlich vermehrt jetzt auf solche Tools zurückgreifen.

00:45:54: Brauchst

00:45:54: du welche um zu wissen, ob sie es machen und um das zu checken?

00:45:57: Ja,

00:45:57: das mache ich nicht einmal.

00:45:58: Meistens habe ich das jetzt laut gesagt, meine Studenten wissen jetzt, dass ich das nicht kontrolliere.

00:46:05: Momentan habe ich noch das Gefühl, dass ich merke, wenn das noch nicht den Ansprüchen entspricht.

00:46:13: Also momentan glaube ich nur von mir, dass ich es erkenne, wenn die das Ding einfach für sich haben, was schreiben lassen.

00:46:20: Weil meistens hat es dann wenig damit zu tun, was wir wirklich im Seminar besprochen haben.

00:46:24: Ich würde dich zum Schluss gerne noch mal eine Spekulation machen lassen, wenn wir in einem Jahr dieses Gespräch führen.

00:46:31: Was, glaubst du, was können Computer dann, woran sie bisher heute scheitern?

00:46:36: Ah, wie denn?

00:46:37: Vorher sagen, ich habe ja vorhin schon gesagt, ich lag die letzten zehn Jahre immer falsch.

00:46:41: Ja, deswegen müssen die vorher sagen, die müssen immer, die vorher sagen, müssen immer die Gäste hier machen.

00:46:45: Das ist das verfänglichste.

00:46:47: Ich versuche mir mal ein bisschen rauszuwinden, indem ich Folgendes sage.

00:46:51: Also ich glaube, was passt?

00:46:53: was passieren wird, ist, dass diese Idee, wir skalieren das einfach nur mit den Architekturen der Wertshaben und schmeißen mehr Daten und so weiter drauf.

00:47:02: So, ich glaube, dass wir zum Ende kommen und die reasoning-Sachen werden wichtiger werden, aber nicht so, dass das reasoning jetzt oben drauf ist auf die Sprachmodelle, die wir von haben, sondern es wird tatsächlich mit klassischen KI-Methoden, die wir eigentlich seit zwei Jahren haben, dass diese neuen Methoden mit den Sprachmodellen, mit den klassischen Methoden kombinieren werden.

00:47:23: Weil für mich erfließt es sich eigentlich nicht ganz, dass wir jetzt mit Sprachmodellen versuchen, Reasoning zu machen, wo, wie gesagt, der Anfang der KI war, wie Menschen Logikprobleme lösen.

00:47:34: Da haben wir Methoden, siebzig Jahre Erfahrung, die etabliert sind, die supergut funktionieren, die in großem industriellen Einsatz sind, die verlässlich sind.

00:47:44: Und ich glaube, The Name of the Game wird in den nächsten paar Jahren sein, diese klassischen KI-Methoden mit diesen neuen Sprachmodellen zu kombinieren.

00:47:51: Sagt Frank Jekyll.

00:47:52: des Kognitionswissenschaftlern der Theodarmstadt.

00:47:55: Vielen Dank dir für deine Zeit und das Gespräch.

00:47:57: Hat ein Buch geschrieben, die intelligente Täuschung, das ab jetzt auch erhältlich ist.

00:48:02: Wir reden spätestens in einem Jahr darüber, wie weit wir dann gekommen sind.

00:48:06: Vielen Dank dir.

00:48:07: Vielen Dank.

00:48:08: Und Ihnen, liebe Hörerinnen und Hörer, auch vielen Dank, dass Sie immer mehr eingeschaltet haben.

00:48:13: Bleiben Sie gesund und uns gewogen und hoffentlich bis in der kommenden Woche.

00:48:17: Ciao.

Über diesen Podcast

Im Podcast "F.A.Z. Digitalwirtschaft" (früher FAZ D:ECONOMY) sprechen die Redakteure der FAZ über neue Entwicklungen in der digitalen Wirtschaft, in der Industrie 4.0 - und in der Technik. Wir diskutieren miteinander und auch mit Gästen – dabei ordnen wir die aktuellen Themen rund um Digitalisierung und Technologie ein. Dabei geht es nicht nur um Bits und Bytes, sondern auch um einen größeren gesellschaftlichen Kontext.

Zur App für iOS und Android: https://app.adjust.com/8sasetq_gxy4985
Mehr erfahren: https://fazdigitec.de

von und mit Frankfurter Allgemeine Zeitung

Abonnieren

Follow us