Sehr verehrte Damen, sehr verehrte Herren, herzlich willkommen im Kepler Salon. Ich darf Sie hier herzlich begrüßen, ich darf aber auch die zugeschalteten Gäste via Livestream begrüßen. Wir beschäftigen uns heute mit Wittgenstein, Sprache, Schule und KI und vor allem mit der Diskussion über künstliche Intelligenz, Sinn, Unsinn, was das alles mit Wittgenstein zu tun hat, was die KI mit Wittgenstein zu tun hat, was das mit Schule zu tun hat. Dafür haben wir zwei Experten hier vor Ort, die uns das mit sicher erwartbarer Leidenschaft vermitteln werden. Und natürlich haben sie dann wie immer auch die Möglichkeit, sich einzubringen und Fragen zu stellen. Ich darf die zwei ganz kurz vorstellen. Zu meiner rechten, für Sie linken Seite, Matthias Leichtfried. Er hat nach der Matura 2007 am BRG Fadlinger Straße deutschen Philosophie und Psychologie an der Uni Wien studiert und 2021 mit einer Arbeit zur literaturdidaktischen Perspektivierung performativer Theorien promoviert. Aktuell ist er Postdoc im Bereich Fachdidaktik Deutsch am Institut für Germanistik. Mehr dazu wird er selber noch erklären. An meiner anderen Seite Wilfried Utz. Er wuchs in Leonding auf und maturierte 1999 am BG Fadlinger Straße und studierte internationale Betriebswirtschaft und dann noch Wirtschaftsinformatik mit dem Doktor. Wirtschaft und dann noch Wirtschaftsinformatik mit dem Doktor. In Wien auch und inklusive eines Auslandsaufenthalts in Tokio. Auch er wird dann nochmal darauf eingehen, was er genau macht in der Forschung. Mein Name ist Claudia Werner. Ich darf Sie heute Abend als Gastgeberin begleiten und darf die beiden Herren, haben sie mir schon versprochen, unterbrechen und wieder zurückpfeifen, wenn der Enthusiasmus durchgeht. Und ja, ich bin grundsätzlich freie Selbstständige mit Text und Lektorat. Seit Anfang Jänner jetzt Pressesprecherin des Bruckner Orchester Linz. Und ja, ab und zu bei solchen Abenden wie diesem. Und ich freue mich sehr darauf, mit Ihnen den gemeinsam zu verbringen. Und auch ich habe übrigens an der Fadinger Schule maturiert. Das wird jetzt schon langsam auffallend. Irgendwas, also das eint uns auf jeden Fall. Also das eint uns auf jeden Fall. Und dazu auch gleich ganz kurz noch der Hinweis, wie dieser Abend eigentlich entstanden ist. Nämlich dadurch, dass die Fadinger Schule dieses Schuljahr, 175-Jahr-Jubiläum feiert, gibt es eine Reihe von Veranstaltungen. Und dadurch hat sich auch dieses Thema ergeben. Und jetzt sind wir alle drei da und sind alle drei an dieser Schule angeblich reif geworden. Schauen wir mal. eure Tätigkeiten selbst zu beschreiben und vielleicht auch dann sich zu überlegen, wie die KI eure Arbeit beschreiben würde, wenn ihr sie fragen würdet. Matthias. Gerne. Also vielen Dank auch nochmal für die Einladung hier zum Keppler Salon. Ich freue mich wirklich sehr, da zu sein und heute über dieses Thema zu diskutieren, gemeinsam mit Wilfried. Ich habe tatsächlich schon die KI gefragt, wie sie meine Arbeit beschreiben würde. Wir haben das für ein Projekt gemacht. Ich habe so einen Sammelband herausgegeben, gemeinsam mit Stefan Krammer und wir haben die KI dann immer uns vorstellen lassen für so einen begleiteten Podcast. Und das Interessante war, ich habe da gefragt, wer ist Matthias Leichtfried? Nochmal von vorne, Matthias. Nochmal von vorne. Jetzt würde ich wahrscheinlich was ganz anderes sagen. Ja, das passt gut. Genau. Und ich habe dann die KI gefragt und das Interessante war, dass die künstliche Intelligenz da sehr wohlwollend mich beschrieben hat und meine Arbeit, zum Beispiel hat sie gesagt, Matthias Leichtfried hat zahlreiche Publikationen zum Thema künstliche Intelligenz und zu diesem Zeitpunkt war es nicht einmal eine. Also da sieht man schon, man muss sehr vorsichtig sein, wenn man künstliche Intelligenz nach Informationen fragt. Wenn ich aber die künstliche Intelligenz jetzt fragen würde oder die aktuellen Chatbots, fragt. Wenn ich aber die künstliche Intelligenz jetzt fragen würde oder die aktuellen Chatbots, dann würde sie wahrscheinlich richtigerweise sagen, dass ich an der Universität Wien forsche im Bereich Fachdidaktik Deutsch und mich damit Fragen der Literatur- und Mediendidaktik auseinandersetze in Bezug auf die Digitalisierung, auf den digitalen Wandel. Und da kommt man natürlich am Thema künstliche Intelligenz nicht vorbei. Für mich ist es ein besonders spannendes Themenfeld, weil es so ein bisschen meine Interessen auch verknüpft. Ich habe eben Philosophie auch studiert, Psychologie studiert und Literatursprache aus dem Germanistikstudium und all das fällt sehr schön zusammen in diesem großen, großen, komplexen Thema Künstliche Intelligenz. Wilfried. Jetzt darf ich was sagen. Nochmal ganz kurz mein Name, Wilfried Utz. In meiner Beschreibung, auch im Text steht, dass Leonding so eine wichtige Rolle spielt. Ich bin seit 1999 weg aus Leonding, das ist mal vorneweg, das weiß auch die KI. Ich habe internationale BWL studiert, das ist, glaube ich, wichtig, weil wir uns mit Themenstellungen auseinandersetzen, die sehr stark betriebswirtschaftlich getrieben sind. Und ich würde gerne heute den Abend nutzen, dass wir uns alle sensibilisieren, was wir eigentlich machen. Also wenn wir über künstliche Intelligenz sprechen, so wie Matthias das auch erzählt hat, wir stellen Fragen, wir prompten, wir machen, wir tun. Wir lesen in der Zeitung darüber, dass uns dieses Ding den Job wegnehmen wird in den nächsten fünf Jahren. Wir haben Angst davor. Und ich glaube, das ist zum einen sehr relevant, Betriebswirtschaft. Aber ich habe dann nachher noch Wirtschaftsinformatik und dort meine Promotion durchgeführt. Und der spannende Teil ist doch eigentlich zu begreifen, was macht denn das Ding überhaupt? Was kann denn das überhaupt? Und da sind wir sehr abstrakt. Also da wollen wir auch gar nicht ins Detail gehen. Also ich gehe mal davon aus, jeder von Ihnen hat schon mal auf Chat-GBD eine Frage gestellt. Soll keine Werbung sein für Open-Eye, die brauchen das auch gar nicht vom Kepler-Salon. Aber ich gehe mal davon aus, Sie haben schon mal einen Prompt geschrieben und auf Enter gedrückt. Haben Sie sich die Frage gestellt, was passiert da eigentlich? Also warum kriegen Sie eine Antwort und warum entsteht da etwas? Und wir sind begeistert davon. Wir können das auch gerne auf den Folien hören. Ich habe ein paar Folien mitgebracht und habe, ich verwende kein Jet-GBD für die Folien, ich habe etwas verwendet, das hat einen europäischen Touch, das ist Cloud. Wenn ich da frage nach meiner Person, bekomme ich etwas zurück? Also es ist ja wirklich beeindruckend in Wirklichkeit. Aber der spannende Teil aus meiner Forschungsperspektive ist, wie kann es denn dazu kommen? Meine Forschung beschäftigt sich damit, wie wir Wissen repräsentieren können. Ich habe auch ein bisschen Bücher mitgebracht, können wir in Pause gibt es ja keine, aber im Anschluss dann auch gemeinsam durchgehen. Nämlich, wie beschreiben wir menschliches Wissen? Und die Annahme, die wir treffen, wenn wir jetzt sagen, wir sprechen über künstliche Intelligenz, mediengeprägt, dann machen wir Statistik. Und das müssen wir mal die wir treffen, wenn wir jetzt sagen, wir sprechen über künstliche Intelligenz, Medien geprägt, dann machen wir Statistik. Und das müssen wir mal aussprechen. Also wenn wir JetGPT nutzen, verwenden wir statistische Mechanismen. Finde ich spannend. Ich finde es aber noch spannender, wenn wir das Wissen, das wir in unserem Kopf haben, in einer Art und Weise formalisieren können, dass es eine Maschine versteht und verarbeiten kann. Das ist genau der Punkt, den ich versuche mit meiner Forschungsarbeit zu machen und gleichzeitig auch mit der Organisation, die wir betreiben, nennt sich OMI-Lab, ist eine Non-Profit-Organisation, sitzt in Berlin, Berlin als großer Innovationshub, hat 30 Standorte in der ganzen Welt mittlerweile und meine Zielsetzung ist es, jungen Menschen diese Sensibilisierung auch mitzugeben. Wie funktioniert Mensch-Maschinen-Kollaboration? Wie kann man jetzt junge Leute, junge Leute meine ich jetzt von dem Moment an, wo die mit Mobiltelefonen zu spielen beginnen, weil wenn ich in den Raum schaue, es tut mir leid, keiner ist ein Digital Native hier herinnen, unterstelle ich jetzt ganz frisch. Aber die Art und Weise, wie wir das nutzen, das werden uns unsere Kinder mal demonstrieren und zeigen. Und ich glaube, das ist der spannende Teil, wie wir dann nachher mit dem ganzen Zeug auch umgehen und wie wir das sinnvoll einsetzen können. Ich bringe jetzt zu uns dreien noch einen vierten Absolventen der Fadeng-Schule ein. Ich kann es nicht lassen. Und zwar Ludwig Wittgenstein, den wir ja auch im Titel haben. Wittgenstein gilt ja eigentlich als sehr Begründer der sprachanalytischen Philosophie und er hat viele, viele Jahre vor uns die Fadinger absolviert. Da war sie noch in der Steingasse drüben, also 1906. Und er hat, was ich ganz spannend gefunden habe, weil das auch vor nicht allzu langer Zeit erst entdeckt wurde, er hat vor jetzt exakt 100 Jahren, wo er dann 1926 als Lehrer in Niederösterreich gearbeitet hat, ohne jede philosophische Absicht, muss man auch dazu sagen, ein Wörterbuch für Volksschulen geschrieben. Und zwar deshalb, weil er ein Wörterbuch verfassen wollte, das an die lokalen Bedürfnisse seiner Schülerinnen und Schüler angepasst ist. Und ein Auszug bringt sein Ziel, finde ich, ganz gut auf den Punkt. Er hat nämlich geschrieben, nur das Wörterbuch macht es möglich, den Schüler für die Rechtschreibung seiner Arbeit voll verantwortlich zu machen, denn es gibt ihm ein sicheres Mittel, seine Fehler zu finden und zu verbessern, wenn er nur will. Es ist aber unbedingt nötig, dass der Schüler seinen Aufsatz selbstständig verbessert. Und das ist einer der wichtigsten Sätze, wie ich empfinde. Er soll sich als alleiniger Verfasser seiner Arbeit fühlen und auch allein für sie verantwortlich sein. Und wahrscheinlich liegt da schon irgendwie der Kern der Diskussion über die künstliche Intelligenz, wie sehr man sich verantwortlich fühlt als Verfasser und Verfasserin. Und wie wir mit den Begriffen verstehen, denken, lernen, umgehen. Das ist ja eigentlich auch der Kern, wo man sagen muss, das ist etwas, was wir Menschen als Faktoren empfinden, was aber die KI ja nicht tut. Das sind menschliche Ansätze, die wir da haben. Wie seht ihr das? Laufen wir Gefahr, dass wir das Denken an die KI auslagern? Ich mache mal. Ich denke, wir bewegen uns dorthin, weil wir unreflektiert handeln. Also das, was ich beobachte, ist, dass wir künstliche Intelligenz als Allheilsweltmittel verstehen. Also wir nutzen, wir prompten, wir schreiben und so weiter. Wir machen uns aber nicht bewusst, dass das eine Zweckmäßigkeit haben soll. Also wir nutzen etwas, um einen Zweck zu erfüllen. Einfaches Beispiel, eine Bewerbung für einen Arbeitsplatz, den Coverletter, sowas schreibt keiner mehr, oder? Das tippen Sie nicht mehr in den Computer hinein, sondern das generiert Ihnen dieses tolle Interface. Das ist alles wunderbar. Also es erfüllt eine Zweckmäßigkeit. Ich denke aber, wenn es um intellektuelle Aufgaben geht, dann haben wir nicht die Fähigkeit, das zu machen. Also wir können gar nicht die künstliche Intelligenz nutzen, so wie wir sie jetzt kennen, weil wir uns mal bewusst machen müssen, warum tut denn das überhaupt? Also wir füttern eine Maschine mit sehr, sehr vielen Taten. Wir haben den Begriff gerade gehört von dir, wir sprechen über Lernen, aber wenn wir lernen als Menschen, wie funktioniert das? Wir gehen in die Schule, oder? Wir gehen vier Jahre Volksschule, acht, weil man jetzt formale Ausbildung betrachtet, acht Jahre irgendwas machen, dann Matura, gehen dann an die Uni und so weiter. Also wir lernen aufgrund von Interaktion. Wenn die Maschine lernt, um uns das bewusst zu machen, vielleicht kann ich mal ganz kurz eine Folie zeigen dazu. Wenn Sie überlegen, wie denn eine Maschine lernt, das muss ich jetzt einschalten, oder? Ja, genau. Ich spring da mal drüber, das ist nicht so tragisch. Wir nehmen einfach eine Folie heraus und sagen, wie funktioniert denn ein maschinelles Lernen? Das ist das, was ich Ihnen mitgeben möchte. Das ist ein bisschen out of date, das kommt aus 2024 und das beschreibt, wie denn das, was wir als künstliche Intelligenz verstehen, wie diese Maschinen funktionieren und wie sie operieren. Bis zur Matura sind es zwölf formale Jahre. Wenn Sie da mal hinschauen, dann sehen Sie hier, nehmen wir mal was, was wir kennen, sowas wie ein Large Language Model, JetGPT-3, verwendet einen bestimmten Chip-Typ usw., hat 10.000 solche Prozessoren im Betrieb. Das läuft 15 Tage. Wenn man das zusammenrechnet, lernt das Ding 405 Jahre. Und das lernt nur auf Basis von statistischen Informationen. Also wir lernen ja nicht Schlussfolgernd, das was wir hoffentlich an der Schule machen, wo wir uns mit kritischen Themen auseinandersetzen, sondern das macht schlicht und ergreifend das Data Crunching. Also wir bringen statistische Probability-Werte auf bestimmte faktische Aussagen, die da drinnen stecken. Und dann sind wir begeistert. Die Fragestellung ist, wenn ich 405 Jahre lernen muss maschinell, kostet das Geld natürlich, das will auch wieder retourniert sein. Also die Menschen, die das betreiben, die machen das ja nicht, weil sie große Gönner sind für uns alle, sondern die erwarten sich in gewisser Form einen Gegenwert. Und ich denke, wenn man das eins zu eins übertragt, dann sieht man schon, da ist ein Konflikt, der darin besteht, nämlich dass der Lernaspekt, wie wir uns Wissen aneignen und was auch Wissensaneignung bedeutet, eine menschliche Leistung ist. Und die eins zu eins übertragen, die Frage stellt sich aus meiner Sicht gar nicht. Ja, nur, und um da jetzt ein bisschen in die Diskussion einzusteigen, muss man halt sagen, wir verwenden die Begriffe lernen, verstehen so leicht hin und alle verstehen etwas unter lernen. Und dann muss man aber trotzdem sagen, wir wissen trotzdem nicht alles darüber, wie wir Menschen lernen. Wir wissen tatsächlich auch sehr wenig noch darüber, wie das Gehirn genau funktioniert. Wir wissen, dass es eine sehr komplexe Struktur ist, die aus sehr einfachen Strukturen sich zusammensetzt, aber im Zusammenspiel dieser vielen einfachen Strukturen entsteht etwas sehr Komplexes, wo wir sehr wenig Einblick haben, wie das genau funktioniert. Denn wenn wir das schon geknackt hätten, dann wäre auch das, was wir in der Schule tun, sehr viel einfacher. Dann könnte man das so kybernetisch sozusagen Wissen da reinladen, aber alle, die unterrichten, und ich kenne das selbst als Lehrer, es ist dann oft gar nicht so einfach und Lernen funktioniert nach ganz anderen Logiken und daher ist es für mich wichtig, dass wir auch in die Gehirne nicht hineinschauen können. Es gibt bildgebende Verfahren, aber die komplexen Interaktionen der Neuronen in unserem menschlichen Gehirn genau zu beschreiben, das ist sehr schwierig. Und das Gleiche gilt eben für das, was hier gezeigt wurde, für diese komplexe Anordnung von Milliarden von Datenpunkten, Parametern und so weiter. Das zeitigt sozusagen Phänomene, die komplex sind. Und die Frage ist, was können wir beobachten? Und beim Menschen beobachten wir auch Verhalten. Also wenn ich als Lehrer eine Aufgabe gebe, dann kann ich nur beobachten, wie die Schüler und Schülerinnen darauf reagieren. Ich stelle sozusagen einen Prompt an meine Schülerinnen, meinen Schüler oder meine Studierenden und kann dann ein Verhalten beobachten. Sie schreiben einen Text und ich kann dann diesen Text, diese sprachliche Äußerung beurteilen und von diesem Text darauf schließen, ob sie etwas verstanden haben oder nicht. Aber ich kann nicht direkt in ihre Gehirne reinschauen und sagen, ja, ja, da steht es ganz genau und hier an dieser Stelle hat sie es wirklich verstanden oder hat es wirklich verstanden. Nein, ich habe im Grunde genommen nur das Abbild, diesen Text, in dem dieser Schüler, diese Schülerin eine Aufgabe löst. Das heißt, ich muss das Lernen, ich muss immer auf das Lernen schließen. Ich kann es nicht direkt beobachten. Ich kann sozusagen nur das Verhalten beobachten. Und das, was wir hier jetzt haben, und deshalb bin ich da auch ein bisschen skeptisch, ob es so einfach ist, ob es nur Data-Grunching ist. Das, was wir hier haben, ist ein sehr komplexes System, in das wir nur begrenzt reinschauen können. Es gibt Mechanistic Interpretability, so nennt man das, das ist dieser Ansatz, dass man da in diese ganzen Neuronen, in diese unzähligen Neuronen reinschaut. Aber das ist sehr beschränkt tatsächlich. Wir wissen nicht, wie diese komplexen Phänomene tatsächlich emergieren, das ist der Fachbegriff, entstehen, auftauchen, hervorkommen aus diesen komplexen Datenpunkten, aus diesen komplexen Gebilden. Und letzten Endes sind wir auch bei neuronalen Netzwerken darauf zurückgeworfen, zu sagen, okay, da ist dieses komplexe System und das hat in irgendeiner Weise ein Verhalten. Und wir können dieses Verhalten beobachten und in manchen Bereichen ist dieses Verhalten dumm und man sagt, jetzt habe ich es, ist ja gar keine künstliche Intelligenz und in anderen Bereichen sind diese neuronalen Netzwerke, würde ich sagen, dem durchschnittlichen Menschen weit überlegen, also zum Beispiel, was die Sprachfähigkeiten betrifft, ein klassisches neuronales Netzwerk, heutzutage ein Sprachmodell kann sehr viel mehr Sprachen sprechen. Ich glaube, du machst einen sehr wichtigen Punkt, nämlich es geht um die Anwendung, also das Beobachten der Anwendung, die damit unterstützt wird. Also ich kann ja nicht alles mit dem neuronalen Netz lösen, das wir künstlich gebildet haben. Aus meiner Perspektive ist noch interessant, was hat das für einen Impact auf den Schüler, die Schülerin natürlich oder auch auf den Nutzer ganz allgemein gesprochen. Also ich sehe das ja nicht nur im schulischen Kontext, sondern auch darüber hinaus. Und was für Bedeutung habe ich denn damit? Also das kritische Auseinandersetzen damit. Vielleicht könnte man ganz kurz noch eine Folie zeigen. Ich habe mir gedacht, wenn ich aus Wien komme, muss ich eine Folie zeigen, die an Oberösterreich Bezug hat, oder? Das gehört so. Also das ist jetzt für die Kollegen, die ein bisschen einen politischen Hintergrund auch haben. Ich habe mir heute gedacht, wie bringe ich es zusammen, dass ich sie motiviere, eine Frage zu stellen, die sie automatisch beantworten können als Oberösterreicher. Ich habe den Ding, das ist jetzt dieser Claude-Chat-Prompt, sag ich, gib mir bitte eine Liste aller oberösterreichischen Landeshauptmännern, wohlwissend, dass es keine Fragen gegeben hat, seit 1955 mit Start- und Enddatum ihrer Wirkungsperioden. Und ich schränke oben nochmal ein, das macht man ja bei Prompting, vielleicht haben Sie das schon mal gesehen, ich gebe dem Ding mit, was ich denn möchte und was ich ihm erlaube, was es tun darf. Ich bekomme dann eine schöne lange Liste und dann auf Nummer 4 taucht jemand auf, der heißt Leopold Kratz. Und das soll Ihnen nicht zeigen, wie dumm das Ding ist oder wie gut das Ding ist, sondern es zeigt, was Matthias schon schön erklärt hat, es zeigt Inferenzmechanismen, nämlich auf Daten basierte Inferenzmechanismen, die mir genau dann solche Ergebnisse auch liefern. Und ich denke, ich habe das sehr schön gefunden, was du gesagt hast, dass wir beobachten, wie wir denn so eine Nutzung haben und das Artefakt, das entsteht, in dem Fall der Aufsatz oder in dem Fall das, was ich damit verarbeite, repräsentiert er den Lerneffekt. Und wenn ich das da betrachte, dann sehe ich genau das Gleiche. Ich würde sogar sagen, das Ergebnis ist richtig. Also es ist faktisch falsch, aber es ist richtig berechnet. Es hat eine richtige Logik dahinter, wie denn die Neuronen funktioniert haben, dass ich das hinbekomme. Ich bekomme zufällig auch noch die Zuordnung, dass das falsch ist. Also ich bekomme die Anmerkung dazu. Aber es ist Teil dieser Liste geworden. Und ich denke, technisch spricht man von Halluzination. Also das Ding beginnt zu halluzinieren und erzählt mir etwas, weil es mich glücklich machen will. Ist ja in Ordnung. Ich weiß nicht, ob mich das glücklich macht oder nicht. Spielt keine Rolle. Aber ich bekomme auf alle Fälle eine Antwort. Und die Fragestellung, die wir als Menschen, als Nutzer beantworten müssen, ist, wie gehe ich denn mit dem Ergebnis um? Stellen Sie sich jetzt vor, ich schaue zu Frau Direktor, wir haben einen Geschichtsunterricht, die Frage taucht auf, alle Landeshauptmänner Oberösterreichs. Und wenn ich kein Interesse am Inhalt habe, dann mache ich Copy-Paste und gebe das ab, oder? Noch besser, schön. Bitte. Ich habe gefragt. Noch besser. Und darauf kriege ich dann vielleicht auch eine Antwort. In der siebten Klasse wird tatsächlich noch Faust unterrichtet. Gott sei Dank. Erinnert euch. In der siebten Klasse wird tatsächlich noch Faust unterrichtet, Gott sei Dank. Schön. Ihr erinnert euch. Und es gab eine Faustschularbeit dazu. Und natürlich ist es einerseits eine Schularbeit, auf die man sich gut vorbereiten kann und die ideal ist, um Chat-GPT einzusetzen, auch wenn alle Handys abgesammelt werden und so weiter. Und die Kollegin korrigiert und kommt zu mir mit einer Schularbeit eines Schülers und sagt, du schau dir das an, das ist 1 zu 1 Chattipedi, 100 Prozent. Wir lesen das durch, wir kennen den Schüler und wissen, so kann er nicht schreiben und es war auch tatsächlich so. Interessant, auch da ein Zitat aus dem Faust, völlig falsch übernommen und vor allen Dingen die Verse falsch zugeordnet. Also es war nicht die richtige Stelle. Und da hat man dann auch gehabt, er hat es nicht zugegeben, er hat dann nur zugegeben, er hat gesagt, er hat sich zu Hause so gut vorbereitet, er hat mit Chatschipiti gelernt, er hat es auswendig gelernt und hat auch einiges in seinen Faust hineingeschrieben. Ein paar Notizen dürfen Sie ja machen, dass da Wette hinschreiben, aber der hat wahrscheinlich viel mehr hineingeschrieben. Und jetzt ist die Frage, wir können ihm natürlich jetzt nichts nachweisen. Und um das geht es gar nicht. Ob der die Schularbeit jetzt noch einmal schreibt, das geht ja darum, dass er tatsächlich keine Ahnung hat und nichts gelernt hat. Und um das geht es. Und das ist eigentlich das Traurige, dass da so viel vorbeigeht an ihm. Und wenn man jetzt mündlich prüft, könnte man, ich sage heute, vielleicht in der Schule muss viel mehr ins Mündliche gehen, was auch immer, aber wir haben überlegt, wie kriegen wir das jetzt hin und ich habe dann, also auch das Thema, vielleicht sollte man mündlich vieles besprechen. Ich habe einen ähnlichen Fall in meiner Lehre gehabt, ich hatte unterrichtet an der Uni Wien, Bachelorstudenten, Enterprise Information Systems, spielt auch keine Rolle. Die Aufgabenstellung war, eine Seminararbeit zu verfassen und ich habe den Kollegen halt ein Thema wählen lassen, die haben einen Apps-Brick verfasst, alles wunderbar. Und ich bekomme was zurück von einem der jungen Herren dort, wo er mir freundlich zu mir sein wollte. Also man merkt das sehr schnell, wenn man die Referenzliste durchgeht und man findet seine eigenen Publikationen. Das ist ja wunderbar. Also in der Seminararbeit, schön, der hat verstanden, dass ich mich mit dem Thema auseinandersetze. Der interessante Teil war nur, dass da zehn Publikationen von mir gelistet waren, wo ich fünf nicht geschrieben habe. Und ich habe mir dann die Frage gestellt, was mache ich mit dem Herrn? Der macht das ja nicht, weil er mich bewusst ärgern will. Ich gehe auch davon aus, dass der Kollege vom Faust nicht bewusst eine Provokation erzielen wollte. Vielleicht wollte er es auch und das ist auch genauso gut. Aber ich habe mir dann gedacht, was tue ich mit dem jungen Herrn, weil ich habe ihn als sehr positiv wahrgenommen in der Vorlesung und er hat sich wirklich bemüht. Und ich habe ihn dann mit einem Satz aus der Reserve gelockt und gesagt, bitte drucken Sie mir alle Referenzen auf Papier aus. Haben wir eine Woche vergehen lassen, nächste Vorlesung, er kommt wieder und sagt zu mir, es tut mir leid, aber fünf finde ich nicht von Ihren Arbeiten. Die sind gar nicht da, die sind vielleicht gesperrt. Und ich sage, ja, wenn sie gesperrt sind, dann verstehe ich nicht, warum Sie es referenzieren. Aber okay, das ist vielleicht ein bisschen eine wissenschaftliche Praxis, die Ihnen fehlt. Aber denken Sie mal darüber nach, ob es das vielleicht gar nicht gibt oder was könnte da passiert sein. Und ich habe dann am Ende des Tages eine Seminararbeit bekommen, nicht zu dem Thema, das er bekommen hat, sondern zu der Art und Weise, wie ich wissenschaftlich arbeite, mithilfe von generativer AI und Large Language Models. Und das sind Informatiker natürlich, die haben doch Spaß dabei, sich mit solchen Themen auseinanderzusetzen. Aber ich glaube, er hat da mehr gelernt, als hätte er mir einfach nur sein Thema runtergeschrieben. Und vielleicht hat das auch einen Effekt auf den Faust oder auf das, was du kennst von deiner Lehrerausbildung. Vielleicht müssen wir die Art und Weise, wie wir mit solchen Systemen umgehen und mit denen arbeiten, nochmal fundamental umdenken oder anders denken. Keine Ahnung. Also da verweise ich auf den Pädagogen. Ja, also ich finde das Beispiel tatsächlich sehr spannend und natürlich passiert das. Ich finde aber die Diskussion darüber, was jetzt, und das nehme ich in diesem Diskurs sehr oft wahr, dass anekdotische Evidenzen herangezogen werden, zu sagen, ja, und die KI ist ja eben gar nicht so intelligent und so weiter, weil da gab es diesen und jenen Fehler und da hat es halluziniert und so weiter. Und auch bei diesem Beispiel jetzt, natürlich, das stimmt, das ist problematisch. Ich würde aber sagen, wenn jemand mit ChatGPT arbeitet, und da verweise ich jetzt wieder auf dieses Wittenstein-Zitat, ist im Grunde genommen ja trotzdem der Nutzer, die Nutzerin verantwortlich für das, was sie mit diesem Output tut. Man schreibt sonst die Verantwortung der künstlichen Intelligenz zu und die ist kein wirklicher Akteur, würde ich sagen, sondern das ist ein System und letzten Endes ist es dann doch die Person, die dieses System bedient, die die Verantwortung trägt, wenn wenn man es als Werkzeug versteht und in diesem Fall mit Faust ist ja das Large Language Modell jetzt nicht, man macht sich jetzt nicht von diesem neuronalen Netzwerk und all seinen Fähigkeiten jetzt wirklich Gebrauch, sondern es dient eher wie so ein Rechercheagent oder so. Da gibt es Programme und wir haben es vorher gesehen, diese ganzen unterschiedlichen Large Language Modelle. GPT- dann sinkt die Wahrscheinlichkeit, dass hier jetzt Halluzinationen auftreten. Und insofern ist für mich immer die Frage, ist es wirklich so spannend, nach diesen Dingen zu fragen, denn dieses Beispiel könnte jetzt auch mit Wikipedia sein. Wir hatten diese Diskussion, glaube ich, ich war da selbst noch Schüler, Schüler und Schülerinnen suchen im Internet nach irgendwelchen Informationen und da ist irgendwie ein falscher Artikel oder sind schlechte Quellen und das taucht dann in der Schularbeit auf und man weiß nicht dann genau, woher das gekommen ist. Aber ich würde sagen, hier sind wir wieder bei der Verantwortung und das ist, glaube ich, die große Frage, wie bringen wir Schüler und Schülerinnen dazu, eben verantwortlich mit diesen Systemen umzugehen und auch einschätzen zu lernen. Und das ist, glaube ich, das Schwierige. Was können die Systeme und was können sie nicht? Und das ist deshalb auch schwierig, weil sich diese Systeme ständig weiterentwickeln. Aber auch das gleiche Large Language Modell, also momentan verwende ich GPT 5.2 und das verändert sich gefühlt alle zwei Monate. Aber auch das gleiche Modell würde auf dieselbe Frage, also du hättest wahrscheinlich diesen Prompt mit den Landeshauptmännern auch hundertmal laufen lassen können oder tausendmal laufen lassen können und es wären unterschiedliche Antworten rausgekommen. sondern im Grunde genommen sind da, wir könnten sagen, jetzt Milliarden Stimmen drinnen und Informationen und Texte. Und wie jetzt genau diese eine Antwort entsteht, das ist eben eigentlich ein großes Mysterium. Wir können das sehr schwer nachvollziehen, welche Wege da genau gegangen werden durch die vielen Datenpunkte. Ich ziehe mich auf die Rolle des Technikers zurück, ganz einfach. Wir müssen uns doch klar werden, was steckt denn da dahinter? Und was wir uns ja einig sind, das passiert alles auf Daten, oder? Wir lesen in der Zeitung Daten, das neue Gold und so weiter und so weiter. Wenn wir über Daten sprechen, was ist denn das? Also was haben Daten alle gemein? Das ist alles Vergangenheit. Also wir nutzen vergangene Informationen. Für den Faust ist das wunderbar, weil der Faust wird nicht mehr neu geschrieben. Also wir können davon ausgehen, dass das eine stabile Struktur ist und dann passiert Interpretation obendran und dann kommt halt etwas Merkwürdiges heraus. Aber wenn ich jetzt gestalterisch tätig bin und ich schaue jetzt da in die Mitte wieder und wenn wir über Musik sprechen, über Video sprechen und so weiter, große Ängste, oder? Also man liest in Zeitungen, das wird alles ersetzen. Aber ist das gestalterisch, wenn ich repliziere? Weil das macht das ja in Wirklichkeit. Technisch betrachtet replizieren wir Wissen. Mit einer gewissen Logik dahinter natürlich. Also die Logik, die wir nicht verstehen können, weil uns ja die Unternehmen, die das betreiben, gar nicht mitteilen, wie das funktioniert. Aber wir bauen mal auf alten Situationen auf. Also wir haben unheimlich viele Uralt-Daten. Uralt heißt jetzt auch, kann auch nur eine Sekunde alt sein, aber unheimlich viel. Wir haben Operationen, die wir da drauf laufen lassen können. Das ist, ich habe es mir da aufgegeben, Stochastik, Statistik, Wahrscheinlichkeiten, die wir darauf erkennen können. Und dann habe ich Anwendung. Und das fasziniert uns. Ich sage nicht, was mich fasziniert. Mich fasziniert das, wenn ich etwas Neues schaffe und das nutzt solche Mechanismen und hat das inkludiert. Also wenn ich da jetzt mir überlege, der Matthias und ich überlegen uns, morgen machen wir etwas ganz Neues, morgen machen wir die Lehrerausbildung 3.0 und dann verwenden wir das gestalterisch. Also wir verwenden das nicht als Replikation, sondern wir verwenden es als gestalterisches Element. Und das ist das mit dem Thema, wie ich mich auseinandersetze, grundsätzlich schon mal, dass wir Modellbildung haben. Also wir versuchen, Modelle zu erschaffen, nicht im Sinne von Large Language Models, das sind ja statistische Modelle, sondern wir versuchen, Modelle zu schaffen, die der Mensch interpretiert, aber die Maschine auch genauso versteht. Wir sprechen da von konzeptionellen Modellen. Und die gibt es wie Sand am Meer. Und das ist spannend. Also das macht richtig interessant, wenn ich dann Neuigkeiten erzeugen möchte, neue Nutzungsformen herausbekommen möchte. Natürlich in Kollaboration. Also das, was du sagst, gilt natürlich. Ich habe natürlich die Funktionalität dieser Dinge weiterhin vorhanden. Wie können wir uns aber dann diesem Diskurs nähern? Also gerade die Herausforderungen, vor denen die Lehre dann auch steht. Wie nähern wir uns dem? Wenn du sagst, das ändert sich einfach wirklich in sehr kurzen Abständen. Ich denke mal, das ist jetzt nicht nur bei den Schülerinnen und Schülern eine Generationenfrage, sondern vor allem bei den Lehrkräften. Wie kommen wir da alle mit und wie kommen wir da wieder raus? Ja, also ich würde sagen, wir kommen nicht mehr raus. Ich glaube, die Technologie ist gekommen und zu bleiben. Wenn man sich anschaut, was da wirtschaftlich dahinter steckt und nicht nur das, sondern auch, welche Zugewinne sie ermöglicht an Produktivität. Es ist ja nicht ohne Grund so, dass zum Beispiel bei ChatGPT, das ist das Standardbeispiel, über 800 Millionen Menschen das nutzen. Also es muss ja irgendeinen realen Anwendungsfall geben und wenn das jetzt nur halluzinieren würde, dann würde diese Zahl wahrscheinlich sehr schnell wieder sinken. Aber Chatbots werden von mehr oder über einer Milliarde Menschen genutzt, tagtäglich und in unterschiedlichsten Zusammenhängen. Und ich glaube, das große Problem ist, dass das Thema komplex ist. Und wenn ich es jetzt herunterbrechen darf, ich bin sehr viel in der Aus- und Weiterbildung tätig, also an der Universität, bei den Studierenden, aber in den Schulen mit Lehrpersonen. Und ich kenne sehr gut diese ganzen Problemlagen, die geschildert werden. Also das, was sehr schnell kommt, ist eben diese Frage nach Eigenleistung. Wie können wir überprüfen, ob die Schülerinnen selbst gedacht haben oder ob sie nur fremde Gedanken übernommen haben? Und es ist tatsächlich ein sehr, sehr schwieriges Problem. Es gibt keine einfachen Lösungen, würde ich sagen. Ich glaube aber nichtsdestotrotz, dass wir in der Lage sind, solche Dinge zu gestalten. Und ich glaube, das ist das ganz Entscheidende, zu sagen, also sich jetzt zurückzulehnen und zu sagen, ja, jetzt ist sowieso die KI und wir haben da sowieso überhaupt keine Agency mehr oder keine Handlungsmöglichkeiten, das wäre der absolut falsche Ansatz. Ich glaube, ganz entscheidend ist das, was wir in der Schule ohnehin schon seit Jahrzehnten tun und das ist eben, Schüler und Schülerinnen dabei zu unterstützen, eigenständig zu denken, Subjekte zu werden, wenn man das jetzt so emphatisch sagen möchte. Ich bin selbst in einen Medienzweig gegangen und das ist genau das, was ich im Medienzweig unter anderem bei Professor Manfred Pils gelernt habe, kritisch auch auf Medien zu schauen, nicht alles zu glauben, was man im Fernsehen sieht, dahinter zu blicken. Wie wird eigentlich eine Radiosendung gemacht? Wie entsteht eigentlich eine Zeitung? Und all das schließt sich dann an das an, was du vorher gesagt hast. Ich glaube, wir sollten zumindest den Versuch wagen, uns dem anzunähern. Was ist eigentlich künstliche Intelligenz? Wie können wir sie verstehen? Und nicht zu sagen, das ist ohnehin eine Blackbox und wir sind dem ausgeliefert, sondern ich glaube, dass da Schulen ein Ort sind, um genau das alles zu verhandeln. Und ich möchte aber nicht verschweigen, dass das eine wahnsinnig schwierige Aufgabe ist, weil wir natürlich in einem Feld sind, wo jetzt noch nicht Erwachsene über diese Dinge reflektieren und kritisch denken, noch nicht Erwachsene über diese Dinge reflektieren und kritisch denken, sondern Schüler und Schülerinnen, die vielleicht die Fähigkeiten, die sie dazu brauchen, ja eigentlich erst lernen sollten. Und da haben wir aber, glaube ich, schon ein großes Problem, denn ich sehe ein Riesenproblem darin, wenn Schüler und Schülerinnen in der ersten, zweiten, dritten Klasse dann schon anfangen, standardmäßig zu diesen KI-Chatbots zu gehen, weil da passiert etwas und das ist auch gut beforscht, das nennt sich De-Skilling. Also das heißt, Fähigkeiten, die wir nicht üben, die verkümmern und das ist das Gleiche wie mit unseren Muskeln. Also wenn wir jetzt ins Fitnessstudio gehen und uns irgendwie ein Gabelstapler die Gewichte hebt und wir stehen daneben, bringt das nichts. Und genauso ist es, wenn wir mit künstlicher Intelligenz versuchen zu denken. Ich glaube, wenn man das gelernt hat und ich glaube, viele Lehrer und Lehrerinnen haben das noch sozusagen die Oldschool, auf dieser Oldschool-Way könnte man sagen, gelernt, dass man sich selbst seine Gedanken macht. Aber ich sehe das teilweise jetzt schon bei den Studierenden, dass die eher geneigt sind, bei ihrer Stundenplanung, also bei der Frage, was will ich meinen Schüler und Schülerinnen eigentlich beibringen, auf JetGPT auszuweichen und jetzt gar nicht so sehr aus sich heraus die Ziele zu setzen, sondern sie lassen sich diese Ziele vorgeben und das geht natürlich dann weiter an die Schüler und Schülerinnen und da sehe ich dann schon ein großes Problem eben in diesem De-Skilling und ich glaube, dass das nichts ist, was wir schnell lösen können und ich glaube, es ist auf keinen Fall eine Lösung zu sagen, ja die KI ist eigentlich eh nicht so gescheit und wir werden weiterhin alles, also das, was den Menschen auszeichnet, werden wir weiterhin machen. Weiterhin alles, also das, was den Menschen auszeichnet, werden wir weiterhin machen. Da bin ich ein bisschen skeptischer. Ich glaube, dass es noch sehr viel mehr Leistungsfortschritte geben wird, aber dass es trotzdem immer wieder diese menschliche Komponente braucht. Aber es ist wahnsinnig komplex. Ich denke, es kommt auch was dazu. Es kommt der Teil dazu, dass wir einen Change of Focus haben. Also ich glaube, dass der Fokus sich shiftet von dem, was produziert wird. Ich nehme jetzt das Beispiel mit dem Faust wieder her, wo nämlich eine Schularbeit produziert wird und die Schularbeit beurteilt wird, was ja ein Resultat ist. Das gleiche bei mir, meine Seminararbeit, die ich beurteile am Ende des Semesters. Und ich denke, wir brauchen den Fokus auf den Prozess. Also wir brauchen auf den Ablauf, wie wir dorthin kommen. Und das gilt übrigens nicht nur in der Schule und nicht nur auf der Uni, sondern das gilt auch im Unternehmen. Also was wir sehen ist, Softwareunternehmen, wir sehen, dass der Prozess, Software zu produzieren, entscheidender ist als das Artefakt, das herauskommt. Also ich muss verstehen, wie ich etwas mache und das Resultat ist dann eine logische Konsequenz des Ganzen. Und das kann jetzt KI-gestützt sein oder auch nicht, spielt überhaupt keine Rolle. Übrigens, das ist der Bereich, wo die KI am meisten uns ablösen wird, also die Art und Weise, wie wir Softwareprodukte realisieren. Und der Ablauf, wie wir das machen, ist eigentlich das, was wir lernen, trainieren. Du hast das schon gesagt, wir müssen ja durch Repetition auch unsere Muskeln trainieren. Also wir müssen ja das verstehen, wie wir das machen. Das Ausführen, also das wirkliche Coden in meinem Fall oder das Texte schreiben, das ist ja dann das Resultat. Der Text selber, der kümmert mich nicht so sehr, sondern die Art und Weise, wie ich das eigentlich mache. Und da müssen wir uns da zurückziehen. Und ganz kurz möchte ich trotzdem noch den Wink in den Skatein wieder ins Spiel bringen, damit wir den guten nicht ganz vergessen. Was ja trotzdem auch dazu passt und wo viele eine Parallele sehen, ist ein Ausspruch, den er ja später erst getätigt hat in den philosophischen Untersuchungen, nämlich die Bedeutung eines Wortes ist sein Gebrauch in der Sprache. Also er geht halt von der These aus, dass das Wort sozusagen nicht eine abstrakte Definition ist, nicht einer inneren Idee folgt, sondern dass das Wort erst in Sprachspielen und im sozialen Kontext sozusagen sich entfaltet und dass darin ja viele Parallelen sind zur KI. Im Grunde genommen ist es ja dann auch sowas wie, sie hilft uns zwar, aber wir müssen schon unser Hirn einschalten, um mit ihr umgehen zu können. Wäre ihr einverstanden mit der Definition, dass man Parallelen sieht? Genau, auf alle Fälle. Also ich denke mir, in einer technischen Welt würde ich das Wort Gebrauch mit Kontext ersetzen. Also wir müssen dem Ding einen Kontext geben, in dem es operieren kann, damit sinnvolle Ergebnisse zurückkommen. Also ich kann jetzt nicht einfach general purpose, ich nutze das für alles und nichts. Das wird mich nicht glücklich machen. Das sind auch die Erfahrungswerte, die man statistisch nachweisen kann. Ich muss kontextualisieren, also ich muss das in eine Art bringen, wo ich dann unterschiedliche Mechanismen an die Technologie dran packe. Also wenn man ganz technisch wird, da gibt es ein Model-Context-Protokoll, wo ich mehr lokale Ressourcen, Wissensressourcen noch dazu lade. Matthias hat schon gesagt, ich muss dem halt eine Sekundarliteratur mitgeben, damit das Ding operieren kann. Das wäre genau der Kontext. Und auf dem, auf der Basis habe ich dann sinnvolle Nutzung. Wittgenstein sagt so etwas ähnliches. Er sagt, im Gebrauch, also ich nutze im Gebrauch eine, ergibt sich der Sinn des Ganzen. Und ich glaube da, also dem würde ich zustimmen. Wir brauchen Mechanismen zu kontextualisieren. Ich würde jetzt vielleicht ganz kurz so ein Gedankenexperiment ein bisschen, und jetzt wird es natürlich wieder ein bisschen philosophischer, und wir gehen jetzt wieder weg von der Schule ein bisschen. Aber für mich ist die große Frage, und das ist, wenn man sich mit Sprache auseinandersetzt, mit Sprachphilosophie auseinandersetzt, schon immer die Frage, gibt es eigentlich etwas, das hinter Sprache steckt? Gibt es ein System von Regeln, irgendwelche Muster hinter der Sprnten generativen Grammatik. Also wir Menschen können Sprache sozusagen, wir haben das schon irgendwie in uns drinnen. Bis zwei Jahre lernen Kinder, wenn sie normal entwickelt sind, zusammenhängende Sätze zu sagen. Warum eigentlich? Wie lernen sie das? Und die große Frage, so auch in der Geschichte des Lernens von Sprache ist, gibt es eigentlich irgendein System von Regeln, die man beherrschen muss, damit man sprachfähig ist. Und ganz lange hat es, und das ist deshalb so wichtig, weil man das auch in der künstlichen Intelligenz, in der Entwicklung der künstlichen Intelligenz, ja sich gefragt hat, wie bringen wir den Maschinensprechen bei? Wie können wir Computer dazu bringen, dass sie die menschliche Sprache lernen, unter Anführungszeichen? Und wenn ich da ganz kurz ausholen darf, es gab zwei große Denkschulen. Eine Denkschule war, dass wir die Welt durch Regeln beschreiben können. Also das heißt, dass das, was die Welt ist, kann mit Sprache oder mit auch Formel beschrieben werden. Man nennt das dann einen symbolischen Ansatz. Also das heißt, dass ich alles, was die Welt ist, in Sätze bringen kann, in formallogische Sätze. Und das war ganz lange Zeit der Ansatz, den man in der künstlichen Intelligenz verfolgt hat, nämlich regelbasierte Systeme, dass man versucht, wirklich die Welt zu beschreiben, über Formeln mit oder, und, und so weiter. Und diese Systeme haben auch gewisse Erfolge gehabt, aber Sprache hat man damit nicht gemeistert. Also es gab immer dann sozusagen das Dead End. Und ein ganz anderer Ansatz ist, also nicht über die Regeln von Sprache zu kommen und zu sagen, wir haben die Grammatik und wir müssen die Grammatik dem Computer zeigen und dann kann er auch Sprache produzieren. Das hat nicht wirklich zu etwas geführt. Der ganz andere Ansatz ist, das induktiv zu machen. Also das heißt, man zeigt dem Computer sehr viel Sprache oder dem neuronalen Netzwerk sehr viel Sprache und gibt aber keine Regeln mit. Also man sagt nicht, wenn ein Nomen ist, dann kommt sehr wahrscheinlich ein Verb und so weiter, sondern der Commuter schaut sich eben 405 Jahre oder Gemini hat 15.000 Jahre und so weiter, schaut sich der Sprachmaterial an und aus diesem Induktiven, also von den Einzelfällen herausgehend, emergiert etwas, ein System, das da dahinter steht. Und ich finde, das ist bei Wittgenstein das Spannende. Wittgenstein würde ja sagen, die Bedeutung eines Wortes ist rein dadurch bezeichnet, wie wir dieses Wort, in welchem Kontext wir das gebrauchen, welches Sprachspiel wir spielen. Und das Spannende für mich bei künstlicher Intelligenz ist, wir zeigen diesem neuronalen Netzwerk wirklich, du hast es gesagt, Unmengen von Daten. Und zwar so viele Daten, dass sich das für Menschen, wir können uns das nicht vorstellen. Es gibt so Berechnungen, dass ein Mensch, wenn er alle Texte lesen würde, die GPT gelesen hat, unter Anführungszeichen 20.000 Jahre lesen würde. Also das sind nicht menschlich intelligible Dimensionen. Und das liest unter Anführungszeichen dieses Netzwerk und dann emergiert etwas, entsteht etwas. Und ich weiß nicht, wie es Ihnen gegangen ist, wenn Sie Chat-GPT verwendet haben. Das schreibt relativ gut korrekt in unterschiedlichsten Sprachen. Und man muss dazu sagen, das hat niemand so einprogrammiert. Da ist niemand gesessen und hat gesagt, im Englischen ist die Satzstruktur so und so und im Deutschen ist es so und so, im Französischen so und im Japanischen so, sondern das entsteht aus diesem 15.000 Jahren Training. Und jetzt ist die große Frage, gibt es hinter der Sprache Muster, Systeme, Regeln, die wir als Menschen einfach, die uns Menschen nicht zugänglich sind, die aber eben einem Computer zugänglich sind, der sich über 15.000 Jahre Computerzeit natürlich Sprache anschaut und dann in der Lage ist, korrekt, grammatikalisch korrekte Sprache zu imitieren. Und das ist natürlich ein großes Mysterium, denn die Frage ist, gibt es vielleicht doch irgendwelche dahinterliegenden Muster und nicht nur diesen Sprachgebrauch, sondern gibt es irgendetwas, das da dahinter steckt, irgendwelche Repräsentationen von Welt. Und da wird es dann sehr schnell sehr philosophisch, aber sehr spannend auch. Ich habe gesehen, in der Zwischenzeit ist der Würfel wieder gefallen und zwar zum Herrn Professor Wahl. Ja, ich möchte ein bisschen Bezug nehmen auf das, was du gesagt hast eben. Ich weiß nicht, wie hoch muss man das halten? Den Würfel zum Mond. Okay, das ist ein sehr, sehr komisches Mikrofon. Und zwar das Zitat bezüglich Sprache ist ihr Gebrauch, das geht ja zurück auf den Fritz Mautner, der gesagt hat, Sprache ist kein Werkzeug, sondern ihr Gebrauch. Und das ist eigentlich ein Bezug zu diesem System, was KI entwickelt hat. Was ich noch sagen möchte, ist, dass es mysteriös wäre, wenn es in einer Maschine, so wie du es eben beschrieben hast, eine Struktur vorhanden wäre, die also Sprachen autonom generiert. Weil man weiß ja, dass das bei Menschen ja nicht funktioniert. Es gibt ja das Beispiel von Kaspar Hauser, also der da in Franken mit einem Zettel zu irgendwelchen Leuten gekommen ist und der eigentlich nichts sagen konnte. Also der anscheinend in einem Umfeld aufgewachsen ist, wo es so nicht gesprochen wurde. Also das ist nach wie vor ein Rätsel, also gibt es viel Literatur drüber, auch Dramen und so weiter, der Werner Herzog hat einen Film drüber gemacht auch. Ja, und das andere ist es für mich, also bezüglich KI, also ihr seid es jetzt einmal so weit, dass ihr sozusagen einmal das mal akzeptiert habt und damit arbeitet. Ich gehe mal von dem aus, dass ihr das mal akzeptiert habt und damit arbeitet. Ich gehe mal von dem aus, dass ich das nach wie vor sehr skeptisch sehe, dieses Werkzeug. Und zwar aus dem einen Grund, weil ich wirklich dieses selbstständige Denken, das was ihr optimistisch annehmt, dass es trotz KI passieren wird, da bin ich sehr skeptisch. KI passieren wird, da bin ich sehr skeptisch. Weil nämlich, Wittgenstein hat ja schon gesagt, die Grenzen meiner Sprache sind die Grenzen meiner Welt. Das heißt, wenn ich jetzt nicht über diese Sprache verfüge, die ich brauche, um selbstständig zu denken, und ich das auslagere auf ein Werkzeug, also auf eine Maschine, dann habe ich schon die Grenzen eigentlich in dieser Person drinnen, die sich dieser Maschine, dann habe ich schon die Grenzen eigentlich in dieser Person drinnen, die sich also dieser Maschine bedient, sage ich jetzt einmal. Und das Nächste ist, aber vielleicht kommen wir da noch drauf, das ist die ganze politische Dimension, wie man jetzt weiß, was jetzt diese Typen von Silicon Valley, Elon Musk und so weiter mit diesem Werkzeug anrichten. Und das Nächste ist, dass diese Maschinen unglaublich viel Energie brauchen. Das heißt also, die sogenannte Klima... Katastrophe. Oder, dass man das im Griff kriegt, das rückt in weiter Ferne. Also ich habe da zwei Artikel mitgebracht, ihr werdet vielleicht diese Kurifäden kennen. Und zwar war da ein Interview mit einem Typen, der jetzt in Wien ist, und zwar der heißt Sharon Lanier Sharon Lanier also der sagt in Silicon Valley sind fast alle gegen Menschen, das heißt die Entwicklung geht dahin, dass eigentlich diese Leute eine Welt konzipieren, wo eigentlich der Mensch eigentlich gar keinen Platz mehr hat. Und dann das nächste, was ich mit habe, aktuell aus dem Standard, das ist ein Interview mit der Marietje Schake, die ehemalige niederländische EU-Abgeordnete, Digitalexpertin und so weiter, und die auch unglaublich kritisch bezüglich dieser ganzen politischen Entwicklung, was KI betrifft, was also auch Krok zum Beispiel betrifft, also was Elon Musk weiterentwickelt hat, wo man also dann jede Person also mehr oder weniger nackt ausziehen kann, beziehungsweise in Bikini darstellen kann. Das sind natürlich eher Spielereien, das sind vielleicht noch nicht so gefährlich, aber im Prinzip sehe ich da eine sehr dunkle Zeit auf uns zukommen. Danke. Vielleicht darf ich ganz kurz darauf reagieren. Ich denke, wir haben, ich stimme bei sehr vielen Dingen zu, die Sie sagen, ich habe nur ein Problem damit. Das Problem ist das, dass wir die Nutzung von dieser Technologie nicht im Griff haben. Die Nutzung passiert. Nein, wir können es nicht kontrollieren. Ich sage es ganz offen, wenn ich da in den Raum schaue, Sie sind leider nicht repräsentativ. Es tut mir fürchterlich leid. Wenn Sie mich fragen, wo ich am meisten lerne, wie solche Mechanismen, solche intelligenten, maschinellen, technischen, Smartphone, was auch immer Mechanismen genutzt werden, dann schaue ich meinem Sohn zu. Aber nicht Ihnen und auch nicht Ihren Ängsten. Weil das Problem, das wir haben, ist, wir können Respekt davor haben, wir können Angst davor haben, aber es hilft uns nicht. Weil wenn ich Ihnen sage, mein Junior, wenn er Geschichte gelernt hat fürs Gymnasium. Wie alt ist der? 14. Dann hat er das so gemacht, dass er sich die Geschichte, Fragen von seinem Gymnasialprofessor fotografiert hat, den Prompt dazu, bitte löse alle Fragen und lies sie mir vor und hat sich nach hinten gelehnt und hat sich das angehört. Auf die Idee würde, ich wäre nie drauf gekommen. Also ich hätte mir gedacht, ich arbeite der Frage für die Frage durch und ich schreibe mir das zusammen und so weiter. Aber auf die Idee wäre ich nicht gekommen. Und ich denke mir, das ist die repräsentative Gruppe. Ob wir das gut oder schlecht empfinden, weiß ich nicht. Ich zitiere da meinen Doktorvater, der hat mir gesagt, wenn du recht jammerst über deine Studenten, bist du selber schuld, weil du hast sie dazu gemacht. Also wir haben das selbst produziert. Ich nehme jetzt uns da als Repräsentation her. Wenn die Studierenden so agieren, wenn unsere Kinder so agieren, dann haben wir das selbst produziert. Wir sind selber schuld daran. Und ich habe schon ein Problem damit, nämlich ich glaube, wir können das Problem nicht mit Regeln oder Gesetzen oder sonst irgendwas lösen. Das passiert, also dass in Amerika Atomkraftwerke wieder eingeschaltet werden, damit man den Energiehunger, wir haben das zuerst auf der Folie gesehen, also das kostet ja wahnsinnig viel Energie, Processing Power, Kühlleistung und so weiter. Das akzeptieren wir. Das akzeptieren wir aufgrund des Nutzens. Also der Nutzen, um diese Dinge zu nutzen, ob ich jetzt mit Glock 3 dann irgendwelche absurden Dinge anstellen kann. Wäre nicht ja immer so ein Wir. Doch, jeder macht das. Jeder. Doch, wie viele Menschen sind auf OpenAI? 800 Millionen? Ja, aber das sind nicht alle. Ja, trotzdem, aber wir haben die Nutzer. Wir müssen uns was an... Sie sind, Entschuldigen Sie, dass ich das sage, Sie sind nicht repräsentativ. Wenn ich, tut mir leid, wir müssen, glaube ich, einen sinnvollen Weg finden, wie wir mit Ihrem Propagandieren, mit Ihrer Kritik, die sehr berechtigt ist, umgehen können. Also was muss ich denn für Mechanismen schaffen? Und ich glaube, die Art und Weise, wie wir es zum Beispiel in der EU machen, ist nicht die richtige. In der EU haben wir retrospektiv uns Gesetze überlegt, ein AI-Act, wie wir denn mit solchen Systemen umgehen wollen. Und was ist das Problem von Gesetzestexten? Das ist Vergangenheitsbezug. Also wir lösen mit einem Gesetzestext Probleme, die aufgetreten sind. Wir lösen nicht etwas, was in der Zukunft liegt. Und ich denke, wir sollten uns mehr den Kopf drüber zerbrechen, über sinnvolle Nutzung und Sensibilisierung, als über Verbote. Ich habe ein ganz einfaches Beispiel dafür. Ich nehme wieder, der Junior schaut zu über Videos, er freut sich, wenn ich seinen Namen sage. Wir hatten in der Schule die Diskussion, er ist in Wien in die Schule gegangen, hat auch einen Bezug zur Fadlinger Schule, an die BRG 1, selbe Nummer. Und dort war die Diskussion, wir wollen eine Firewall installieren, die die Kinder davor schützt, pornografische Inhalte anzusehen. Okay? Macht das Sinn, oder? Also wenn ich das jetzt mal so erzähle, eine Regel, um jetzt die gleiche Diktion zu verwenden, wir sperren also das Internet ab, dass pornografische Inhalte an der Schule nicht rauskommen können. Da wird natürlich viel, viel mehr abgesperrt dann automatisch, aber spielt ja keine Rolle. Was ist die Reaktion von einem Zwölfjährigen damals? Er sagt, das spielt ja keine Rolle, ich habe ein Handy. Also was hat das für einen Zweck? Keinen. Also ich muss ganz anders sensibilisieren, wenn ich verhindern will, dass da solche Interaktionen passieren. Ich muss also vorher eine Sensibilisierung für den Inhalt, für die Technologie, für die Art und Weise der Nutzung schaffen. Jetzt sage ich das letzte Mal sein Wort, seinen Namen, Louis Eister. Ich habe ihn gezwungen, in Physik eine Arbeit zu schreiben, wo es darum geht, wie viel kostet eine Google-Suche und wie viel kostet ein Dankeschön bei JetGPD an Energieleistung. Und ich denke mir, das sind die Sensibilisierungsthemen, die wirklich interessant sind. Damit setze ich mich auseinander, was dann im Hintergrund passiert. Ich möchte auch noch ganz kurz auf das eingehen, denn ich glaube, das ist sehr wichtig, worauf Sie hingewiesen haben. Ich glaube aber auch, man muss differenzieren. Wir haben auf der einen Seite die Technologie an sich, also neuronale Netzwerke, das wird in ganz unterschiedlichen Kontexten eingesetzt und dann haben wir sozusagen diese ganzen, würde ich sagen, ökonomischen Aspekte, denn was Tatsache ist, ist diese Technologie zu betreiben, ist unglaublich teuer. Und das heißt, diejenigen, die diese Technologie betreiben können, sind eben die großen Internetgiganten, die nicht nur das Geld haben, sondern eben auch die Daten haben. Und da bin ich völlig bei Ihnen bei dieser kritischen Sichtweise, nämlich dieser Corporate AI, also das heißt Google, OpenAI und all diese Firmen, wie sie auch heißen, die aggregieren Macht und das muss man einfach so beim Namen nennen und die gehen in ganz, ganz viele unterschiedliche Bereiche des Lebens hinein und nicht zuletzt eben auch in den Bildungsbereich. der State University of California mit OpenAI, wo dann irgendwie propagiert wird, dass dieser Chatbot jetzt eben das Problem der Bildung lösen kann und alle können selbstbestimmt lernen und so weiter. Das ist natürlich Marketing-Sprech. Und wir dürfen nicht vergessen, dass wir, und das ist für mich der wichtige Punkt, wir dürfen nicht vergessen, dass wir im Hinblick auf die Digitalisierung und auf diese Kultur der Digitalität, in der wir leben, ohnehin schon eingebunden sind in solche Machtverhältnisse. Es ist nicht so, dass das erst mit der künstlichen Intelligenz gekommen ist. Wir verwenden alle Google. Google weiß ständig, wo sie sich befinden. Sie haben Google Maps. Sie wissen, Google weiß jetzt in diesem Moment, dass sie hier im Kepler-Salon sind. Würden sie sich wohlfühlen, wenn jemand Sie tracken würde und überall verfolgen würde, wo Sie hingehen? Aber man macht das automatisch, weil man vielleicht gar nicht weiß, dass man diese Funktion ausstellen kann. Und das ist für mich der wichtige Punkt, auch bei diesem Energiehunger. Ja, künstliche Intelligenz, neuronale Netzwerke sind eine Technologie, aber diese Technologie ist in der Welt draußen. Und dann gibt es eben die Unternehmen, die diese Technologie auch verwenden, die sie auch zur Verfügung stellen. Nicht ganz uneigennützig, aber eben doch gratis. Also viele Chatbots kann man eben gratis abrufen und das ist natürlich die Einstiegsdroge sozusagen. Also man kann da irgendwie was gratis verwenden, dass man ein nettes Gedicht schreibt und so passieren solche Mechanismen. Und ich weiß nicht, wer von Ihnen hat kein Smartphone? Also wir sind jetzt hier, weiß ich nicht, vielleicht 50 Personen und das zeigen, das sieht man jetzt auf der Aufnahme nicht, das zeigen zwei Personen auf. Und der Rest, würde ich jetzt mal schließen, haben alle ein Smartphone. Und ich möchte noch einmal daran erinnern, das ist 2007 das erste Mal rausgekommen und das ist noch gar nicht so lange. Und diese Technologie hat sich so schnell durchgesetzt und es ist mittlerweile das Standard, dass wir ein Smartphone haben und das bedeutet, wir haben überall das Internet mit, wir können ständig irgendwie navigieren und so weiter und das verändert uns, das verändert die Art und Weise, wie wir auf Wissen zugreifen, das verändert die Art und Weise, wie wir kommunizissen zugreifen, das verändert die Art und Weise, wie wir kommunizieren. Und das tut es ganz schleichend. Wir merken das oft gar nicht so genau. Und deshalb bin ich auch skeptisch, dass wir das wirklich jetzt gut aufhalten könnten, diese Entwicklungen. Ich glaube aber, es gibt eben sehr wohl einen besseren Umgang mit dem Smartphone und einen schlechteren Umgang mit dem Smartphone. Und ich glaube sehr wohl, dass man der Knecht seiner Technologie sein kann und eben ständig am Handy hängt und checkt und so weiter. Oder eben einen Umgang lernt, der sich für einen selbst gut anfühlt, gesund anfühlt und so weiter. Und ich glaube, da komme ich wieder zurück zur Schule. Das muss vor allem diejenigen tun oder finden, die eben besonders vulnerable sind. Und das sind eben junge Menschen, das sind Jugendliche, das sind Schüler und Schülerinnen und deshalb glaube ich, hat die Schule einen ganz entscheidenden Punkt, eben genau diese souveräne Nutzung mit digitalen Technologien und da zählt nicht nur künstliche Intelligenz dazu, sondern eben auch die Frage, muss ich alle zwei Jahre ein neues Smartphone kaufen, denn es braucht nämlich auch unglaublich viel Energie, solche Smartphones herzustellen. Und es ist mittlerweile, würde ich sagen, Standard unter vielen, dass sie ihr Smartphone alle zwei, vielleicht sogar jedes Jahr wechseln. Und das sind dann so Dinge, die wir oft vergessen. Die Technologien, die schon so normal geworden sind, da ist man dann gar nicht mehr so hyperkritisch. Und ich glaube, man sollte kritisch sein, aber man sollte auch nicht vergessen, dass wir ohnehin schon in Zusammenhängen leben, die man vielleicht noch sehr viel kritischer sehen müsste. Und dazu gehört eben auch die Art und Weise, wie wir in einer Kultur der Digitalität zum Beispiel an Informationen kommen, Algorithmen und so weiter. Und das ist so ein ganz wichtiger Punkt. Also ich fände es verengt, wenn es immer nur um die künstliche Intelligenz geht. Korrekt. Ja, und vor allem, wenn es immer sehr Horrorszenario-mäßig ums Negative geht. Also ich versuche jetzt auch eigentlich, dass wir hoffentlich bald wieder mehr das Positive hervorkehren, wie wir damit umgehen und wie wir uns dahin engsetzen. Also ich denke, wir müssen eine Situation erreichen, wo wir uns gleichwertig sind, zumindest. Ich glaube, im Moment haben wir alle das Gefühl, wir werden da irgendwie gefressen von irgendeinem amerikanischen Unternehmen oder einem Algorithmus. Und ich glaube, wir sind gleichwertig in dem Sinne, dass wir kollaborieren. Das ist ein kollaboratives Setting. Es ist sehr technologisch natürlich. Also wir arbeiten zusammen. Vielleicht ein nettes Beispiel aus meinem Japan-Aufenthalt. In Japan machen die Roboter, die Autos bauen bei Toyota und die Mitarbeiter, die die Roboter betreuen, gemeinsam Morgensport. Das klingt absurd, das kann man sich online ansehen, das klingt wirklich merkwürdig, aber das hat einen kollaborativen Aspekt. Also ich sage, ich nehme mich gleichwertig wahr wie eine Maschine, die die Motoren festschraubt. Und das finde ich gar nicht verwerflich und auch gar nicht schlimm, sondern ich denke mir, das hat doch die gleiche Bedeutung. Wir sind auf derselben Ebene. Du hast eine schöne Frage gestellt. Jeder verwendet ein Smartphone. Wir lassen uns also von dem Ding schon, wir nehmen das als gleichwertig wahr. Das bestimmt, wann wir aufstehen, das trackt unseren Kalorienverbrauch, das macht alles Mögliche. Und diese, wir nehmen uns ja gleichwertig wahr, aber gleichzeitig haben wir Ängste davor. Und das passt in meinem Technologiekopf halt einfach nicht zusammen. Ich glaube, wir brauchen eine Situation, wo wir auf derselben Ebene miteinander umgehen. Wir versuchen das in dem Bereich, dass wir etwas erstellen, dass wir Digital Twin nennen, einen digitalen Zwilling zu schaffen. Also wir versuchen eine physikalische Repräsentation mit einer digitalen in Einklang zu bringen und diese zwei Systeme miteinander kommunizieren zu lassen. kommunizieren zu lassen. Was super spannend ist, im Automotive-Bereich ist das ja gang und gäbe, die simulieren sich vorneweg und steuern, wie das Ding funktioniert. Aber ich glaube, auch in einem sozialen Kontext spielt das eine Rolle. Also wenn ich mir vorstelle, wir sind, ich nehme jetzt Schule als Beispiel, wir sind ein Klassenzimmer, kann ich das digital abbilden? Also kann ich Kompetenzen abbilden? Kann ich das vielleicht sogar in irgendeiner Form beeinflussen, gegenseitig beeinflussen, dass das wirklich eine kollaborative Umgebung wird, die dann sich gegenseitig auch steuerbar befruchten kann. Ich schaue da jetzt gerade in die Runde. Also falls es von Ihrer Seite Fragen gibt, falls der Würfel weiter purzeln soll, bitte scheuen Sie nicht. Bitte gern der Herr im Hintergrund. Ich hätte eine Frage, warum wird KI immer synonym mit GCPT verwendet oder umgekehrt? Das finde ich schlecht, gerade in transatlantischen Turbulenzzeiten sollte man das nicht machen und zum Beispiel auf Leuchtt in Frankreich hinweisen, dass wir in Europa auch Kompetenzen haben auf diesem Gebiet. Also bitte, Uhu ist nicht Kleber. Fantastisch, herzlichen Dank. Danke für die gute Frage. Ich würde noch gerne was darauf reagieren, nämlich KI ist nicht nur subsymbolische neuronale Netze. 20 Mal verwendet jetzt. Ja, ich weiß, weil das versteht ja jeder. Aber das ist ja falsch. Korrekt, aber ich würde mich gerne über Wissensrepräsentation unterhalten, über Regelsysteme und formale Logik. Aber glauben Sie, dass dann wer kommen wird? Da machen wir das nächste Mal, Herr Professor, wir würden gerne beim nächsten Mal über formale Logik sprechen und so. Sehr gern. Das ist meine Welt. Nein, ich meine es jetzt ernst. Das sind Dinge, die da keine Rolle spielen. Ich glaube, es ist ein sehr wichtiger Hinweis, den Sie da gegeben haben. Sie haben völlig recht. Das ist tatsächlich zu einem Synonym geworden. Und es stimmt ja in die eine Richtung. Also JetGPT ist eine künstliche Intelligenz oder das, was man unter künstlicher Intelligenz versteht. Aber natürlich ist JetGPT nicht alles, was künstliche Intelligenz ist. Und da haben Sie völlig recht. Es hat sich so eingebürgert, so eben wie man sagt, ja, Google das halt. Und man meint damit, verwende eine Suchmaschine. Viele Menschen wissen ja nicht, dass es noch ganz viele andere Suchmaschinen gibt. Und das ist ein Hinweis darauf, dass eben meistens diejenigen, die sich am schnellsten durchsetzen, dann eben genau diesen Vorteil haben. Es ist ChatGPT als Marke so etabliert, dass das eben als Synonym verwendet wird. Und Sie haben völlig recht, das muss man kritisch reflektieren. Vielen Dank für den Hinweis. Ja, ja, Mistral, absolut. Nächste Frage, bitte. Die Frage ist bezüglich zum Beispiel dem Beispiel der Landeshauptmänner. Wie ist es zu verhindern, dass die Wahrheit verwaschen wird? Also wenn man jetzt immer wieder diese Sachen nachfragt, zum Beispiel im Sinne von Erinnern. Beispiel, wie viele KZs hat es gegeben, wie viele Holocaust-Themen hat es gegeben. Wenn die KI dann Fragen halluziniert, ist das irgendwann einmal gefährlich, dass dann die Wirklichkeit verwaschen wird oder die Wahrheit nicht mehr präsent ist? Wie sagt ihr das? Ich habe beide die Frage. Eine sehr gute Frage. Darf ich gerade reagieren? Das ist eine wirklich interessante Situation, nämlich das haben wir ja schon. Also wir müssen uns mal bewusst sein, das passiert ja schon. Wir bekommen halluzinierte Antworten, wir reflektieren das nicht und wir bekommen das als Realität. Die Frage ist, was machen wir denn mit dem Outcome dann? Ich erzähle eine anekdotische Situation, du hast mich kritisiert vorher, deswegen, aber macht nichts. Ich war auf der AAAI-Konferenz in San Francisco und dort wurde mir erklärt, um bestimmte Inhalte, die ethisch, kritisch zu betrachten sind, die nehmen wir raus. Das war die Beginnzeiten von JetGPD, Entschuldigung, aber das ist genau eine Woche vorher released worden. Und da wurde mir erklärt, wir nutzen halt wieder ein zweites neuronales Netz, das filtert das heraus. Und wie kann ich mir das vorstellen? Naja, wenn ihr danach fragt, wie man eine Atombombe baut, dann bekommst du keine Antwort. Was ja genau dem entspricht, was du gesagt hast. Ich bekomme also vorgefilterte Informationen. Vor der Situation habe ich wesentlich mehr Angst, nämlich ich habe Angst davor, dass mir wer anderer die Entscheidung abnimmt oder wegnimmt, zu wissen, was gut und was schlecht ist. Also ich bekomme was Falsches, weil falsche Informationen kriege ich überall. Wenn ich nach etwas google, suche, kriege ich auch kilometerlangen Mist zurück. Das passiert mir ja auch. Das hat das gleiche Prinzip, aber das kann ich zumindest damit lösen, dass ich ein Resultat habe und das dann noch selbst verifizieren kann. Wenn ich nicht einmal das Resultat bekomme, dann bekomme ich Angst. Das sage ich ganz offen. Also wenn ich dann nicht mehr erfahren darf, wie man eine Atombombe baut, weil irgendwer anderer für mich beschlossen hat, was richtig und was gut ist, mache ich mir Sorgen. Und das passiert. Vielleicht noch ganz kurz zu diesem Thema mit den KZs. Ich finde das tatsächlich sehr wichtig, weil wir in einer Gesellschaft, und das ist ja auch ein kulturelles Gedächtnis, ist eine wahnsinnig wichtige Funktion. Die Literatur ist da ganz entscheidend, dass sie erinnert. Die Literatur ist da ganz entscheidend, das sie erinnert. Die Schule ist ein ganz wichtiger Akteur, auch in den Erinnerungsdiskursen, Shoah, Holocaust, als sehr gutes Beispiel dafür, dass das zum Teil in unserer Zeit immer schwieriger wird, junge Generationen an die Geschichte heranzubringen, das zu unterrichten und so weiter, weil das immer weiter wegrückt. Und generell Geschichte natürlich, ja, was wählt man aus? Und das ist ein reales Problem, denn das, was künstliche Intelligenz macht, würde ich sagen, ist eher, und wir haben es gehört, es ist eine stochastische Technologie, sie repräsentiert den Durchschnitt, sie repräsentiert das, was wahrscheinlich die meisten Menschen hören wollen, sozusagen. Und das Problem ist generell mit dieser Technologie, und da bin ich auch wieder bei diesem kritischen Aspekt, sie ist relativ schlecht darin, marginale Positionen zu repräsentieren, weil die eben statistisch sehr weit unten sind. Und das sind jetzt nicht nur Wissensinhalte, sondern auch Sprachen. Also Minderheitensprachen sind in solchen neuronalen Netzwerken sehr schlecht repräsentiert. Es gibt natürlich Versuche, das dann auszuweiten. Und das ist natürlich ein reales Problem. Und ich würde aber trotzdem sagen, dass wir das Problem schon immer hatten. Also Medien sind natürlich nicht neutral. Es gibt sozusagen nicht ein objektives Medium. Es gibt den Versuch, Grundsätze zu schaffen, irgendwie wie man möglichst nahe an der Objektivität berichten kann und so weiter. Aber auch eine Dokumentation ist nicht neutral und objektiv. Ein Dokumentarfilm. Es ist immer eine gewisse Zurichtung der Wirklichkeit und wir haben gar nicht die Möglichkeit, irgendwie auf die wahre Wirklichkeit zu stoßen, weil es unterschiedliche Ausschnitte sind, die wir über Medien repräsentiert bekommen. Und ich glaube aber, dass das ein ganz entscheidender Punkt ist, dass es einen demokratischen Diskurs darüber braucht, was repräsentiert ist und was nicht. Nämlich auch eben die abseitigen Positionen, die Minderheitenpositionen. nämlich auch eben die abseitigen Positionen, die Minderheitenpositionen. Und da sind wir wieder bei dieser großen Kritik an solchen amerikanischen Unternehmen. Denn die Frage ist, was wird denn eigentlich repräsentiert? Und da gibt es schon Untersuchungen, die zeigen, dass hauptsächlich eine westliche Weltsicht repräsentiert wird. Und da wird es ganz problematisch, wenn dann Leute wie Elon Musk das auch noch mehr zurichten und wirklich manipulativ eingreifen, dass Grock zum Beispiel genau die Antworten gibt, die er hören will. Und das ist ein riesengroßes Problem. Aber ich denke, der Punkt ist doch der, was du vorher gesagt hast, es geht um Statistik, also es geht darum um Auswertung. Es gibt ja diesen Case von New York City mit den Parktickets, das kennt vielleicht jemand. Sehr viele Menschen parken falsch in New York. Jeder musste zum Richter, um sich sein Ticket abzuholen. Also man musste beim Richter vorsprechen. Das hat sich mal vom Volumen her nicht mehr ausgegangen. Und dann sagt man, mach mal doch ein neues Netz, ein Regelsystem, das auf Basis von historischen Daten die Leute bestraft oder eben nicht bestraft. Und was ist der Effekt? Das Ding ist natürlich hyperrassistisch. Warum? Weil die Richter hyperrassistisch waren in der Vergangenheit. Also die Schwarzen bekommen überwahrscheinlich höhere Tickets als der Weiße, der zum Richter geht. Und das ist einfach eine Kopie. Wir haben ja die Wahrscheinlichkeit, dass das auftritt und die Frage ist, wie kann ich das regulieren oder wie kann ich da eingreifen? Und ob das technisch klappt, ich glaube, es ist eher ein soziales Problem, das dann zu lösen gilt. Wir haben nochmal Würfeln, oder? Es gibt, glaube ich, noch weitere Fragen. Der Herr hinten hat noch. Blonder Engel hat noch eine Frage. Ja, ich habe eine Frage. Sie haben das öfters angesprochen schon, dass, wie summiere ich das jetzt kurz, dass sehr viel, was KI wiedergibt und was uns KI da dann vorlegt, halt irgendwie ein Destillat aus Vergangenem ist. Und Daten sind was Vergangenes. Und dann war kurz, glaube ich, auch dieser Spruch, dass Gerichtssprüche und Gesetze ja auch immer von Vergangenem sind. Jetzt ist es aber gerade bei KI, gibt es ja schon sehr viele problematische Themen, irgendwie, keine Ahnung, ich denke jetzt an meine Branche Musik, riesiges Thema, wird mit urheberrechtlich geschütztem Material gefördert, haut jetzt selber Musik aus, das wird im Obi auf und auf gespielt, keiner kassiert mehr dann die Themen. Wie kann man sowas jetzt begegnen, wenn man das eben nicht irgendwie historisch machen will? Gibt es da in der Wissenschaft irgendwie Vorschläge, wie man dem jetzt begegnen kann, wenn man dem nicht nur auf Basis irgendwelcher vergangener Datensätze oder sowas begegnen möchte? Ja, aber das Grundproblem ist, ich sammle Daten, ich produziere etwas Neues, was eine Reproduktion darstellt. Sie produzieren wunderschöne Musik zu machen. Nämlich vorausschauend zu sagen, wie kann ich denn solche Systeme gestalterisch umsetzen? Wie kann ich denn das organisieren? Wie kann ich so ethische Regeln aufstellen? Für ethische Regeln muss ich mir immer etwas berufen, was es schon gibt. Korrekt, aber ich beschreibe das Regelwerk dazu. Ich habe die vergangenen Daten dazu gesagt. Es ist schlecht, wenn du Urheberrechte missachtest. Was ist das Konzept, um eine Antwort darauf zu geben? Ich weiß es nicht. Aber wir können uns überlegen, was denn die Konsequenz dieser Regel wäre. Also wir können uns, aber das ist eine menschliche Schaffungskraft. Aber das steht ja nicht auf eine gewisse Art und Weise, das steht ja jetzt nicht nur im konkreten Fall, das steht ja eine ganze Rechtstradition, die wahnsinnig, wie irrsinnig, wie tausend Jahre alt ist. Korrekt, aber das passiert ja. Wir müssen uns einmal bewusst sein, was passiert. Wenn wir in der EU den AI-Act einführen, passiert halt AI-Produktion in China. Wollen wir das? Und dann nutzen wir es wieder. Dann bestellen wir unsere Artikel auf Temo. Auch gut. Aber das ist die Konsequenz, die passiert. Und ich glaube, wir müssen auf etwas anderes hinaus, was für mich aus meiner Sicht viel kritischer ist. Es gibt einen schönen Artikel, ich zeige ihn ganz zum Schluss an der Wand, nämlich das ist, was passiert, wenn wir nur mehr generativ agieren. Weil das frisst sich ja selber auf. Und das ist dann der interessante Teil. Aber dann wird es ja irgendwann wieder schlechter. Genau, aber vielleicht können wir das mal kurz herzeigen. Die letzte Folie in meinem Ding da drinnen. Geht's noch? Entschuldigung. Macht nichts. da drinnen. Geht's noch? Entschuldigung. Macht nix. Der reißerische Titel, der dystopisch ist, der Internet will die. Also es wird alles zugrunde gehen, weil wir ja jetzt profitieren, wir ja, also diese Systeme profitieren aufgrund dessen, dass wir menschlich produzierte Informationen haben. Ich sage jetzt nicht Wissen dazu, aber warum funktioniert Sprachübersetzung so wunderbar? Und ich versuche jetzt keine Begriffe zu verwenden, die irgendwie amerikanisch sind. Aber warum funktioniert es? Weil wir bei der Europäischen Kommission jeden Gesetzestext in 26 Sprachen übersetzen. Und das ist menschlich übersetzt und das ist hochqualitativ. Also wenn Sie das nächste Mal ein Translate-Service à la Google nutzen, denken Sie daran, Sie haben Steuern dafür gezahlt. Als Europäer. Das ist der Fall. Wir nutzen die goldene Regel, also wir haben übersetzte Werke, die wir in Verbindung bringen können. Also wir können Deutsch nach Englisch übersetzen, weil auf der europäischen Seite das irgendwer gemacht hat. Zweites Referenzwerk für Übersetzung funktioniert, die katholische Bibel. Fantastisch. Passt immer zusammen und ich kann damit meine Systeme steuern. Wenn ich das jetzt aber generativ lösen würde, das ist jetzt nur das Beispiel, wie ich Lernen strukturieren würde, wenn ich das System aber dann sich selbst füttern lasse, also nehmen wir mal an, Sie produzieren zehn tolle Musikstücke, auf Basis dessen generiert Ihnen das Ding weitere hundert, weitere hundert, weitere hundert, dann sind Ihre zehn tollen... Dann weißt er sie selber. Genau, ihre 10 sind auf einmal nur mehr 0,1 Prozent und damit irrelevant. Und alles, was dann hinten rausgekommen ist, wird relevant. Und das macht uns selber kaputt. Ja, wobei ich muss ein bisschen die Gegenseite einnehmen. Das Interessante an den gegenwärtigen Systemen ist ja nicht, dass die Daten so wichtig wären, sondern dass das, was in der Inference, also wenn es läuft, passiert. Und wir haben da ja eben momentan, also die aktuellen Systeme, wenn man denn bezahlt für Chatbots, dann sind das sogenannte Reasoning-Modelle, die noch einmal während, bevor sie eine Antwort geben, sozusagen noch einmal nachdenken und da passieren Prozesse, die, also man kann diese Prozesse so anwenden, dass sich diese Netzwerke iterativ selbst verbessern und das ist das Entscheidende, deshalb ist zum Beispiel DeepSeq, so ein chinesisches Modell, hat solche Leistungssteigerungen bekommen, Zuwächse bekommen, weil dieses Modell sich sozusagen selbst verbessert, sich selbst Fragen stellt, sie beantwort da ist dann immer, das ist mittlerweile schon so eine Art ja, Legende in der künstlichen Intelligenz, da gibt es diesen Move 37, wo ein neuronales Netzwerk gegen einen Go-Spieler, Go ist ein sehr komplexes Schach, würde ich sagen, ein sehr viel komplexeres Schach, gegen einen Go-Spieler angetreten ist und dieses Netzwerk hat Go nur gelernt, indem es gegen sich selbst gespielt hat es hat nur die regeln von go bekommen keine partien vorher gesehen oder so sondern es hat einfach millionen jahre könnte man sagen gegen sich selbst gespielt und hat in dieser partie gegen lise doll im moves 37 37 der move etwas gemacht wo alle kommentatoren die dieses spiel beobachtet haben gesagt haben jetzt ist es aus für die künstliche Intelligenz, das ist ein völlig wirrer, völlig absurder Move, es kann nicht funktionieren. Und man hat zurückgerechnet, dass dieser Move 37 genau der entscheidende war und der war vorher noch nicht gesehen. Es gab noch keinen menschlichen Spieler, der so einen Zug gemacht hätte. Und das sind dann solche Anekdoten oder das sind dann solche erste Hinweise darauf, dass es wohl vielleicht schon möglich ist, in diesen komplexen Strukturen durch die Rekombination, durch die geschickte Rekombination bereits bestehenden Wissens, etwas zu kreieren, das es vorher noch gar nicht gab und das wirklich originell auch ist. Korrekt, aber das hat eine Schlussfolgerung, hat ein gewisses Regelsatz inklusives. Wir haben so Cause-and-Effect-Beziehungen, die dann in dem System selbst trainiert sind, egal wo das herkommt. Es gibt ein klares Ziel, genau. Genau, es kommt die Schlussfolgerung, ich habe die Zielsetzung und das erreiche ich dann. Wir haben eine weitere Frage, die ich gerne dazwischen nehmen möchte. Ich würde mal Einschätzung bieten, bezugnehmend auf das Thema, U-Hu ist nicht clever, wenn die EU morgen beginnt, sämtliche Regeln über Bord zu werfen und alle Kraftanstrengungen unternimmt, auch ein Big Player zu werden. Gibt es noch, Ihrer Einschätzung, noch eine geringste Chance, dass wir dem Nachteil noch wettmachen oder besser werden? Oder ereilt uns da in Europa wieder das Schicksal des Kaufhaus Österreich? Kaufhaus Österreich war fantastisch. Uns fehlen die Fähigkeiten. Also uns fehlen nicht die Fähigkeiten intellektuell, ich glaube, das haben wir. Also wir haben eine Vorreiterrolle, wenn Sie nachsehen, wer die Algorithmik sich überlegt hat für so ein organales Netz und so weiter. Das ist alles europäisches Wissen. Uns fehlt das Wissen um die Produktion. Und das ist, glaube ich, das Kernübel, wenn man so will. Wenn man überlegt, wie, ich habe dir diese Trainingstabelle gezeigt, wir brauchen das Wissen um die Konstruktion von GPUs. Haben wir nicht. Wir haben es im Moment nicht. Vielleicht haben wir das hoffentlich bald mal wieder. Aber ich glaube auch nicht, dass das der sinnvolle Weg ist. Wir haben auch nicht die Möglichkeit, Datencenter in den Dimensionen zu betreiben. Man muss sich mal klarmachen, das, was wir hier als begeistert demonstrieren, das funktioniert nur deswegen, weil wir unlimitierte Speicher- undchenleistung haben also wir es gibt kein limit mehr das ist vorbei und darum schalten ja die amerikaner und auch die engländer mittlerweile ihre atomkraftwerke wieder ein weil das ja den energiehunger still muss aber wir können das ich bin mir nicht sicher ob wir die fähigkeit haben infrastruktur und gpu und was man sie immer aufzustellen man kann das sehr schön beobachten an der Nvidia-Aktie. Das ist meine Zusammenfassung. Eine weitere Frage auf der anderen Seite des Raums. Wittenstein sagt, die Bedeutung eines Wortes ist der Zusammenhang in der Sprache. Kann Sprache existieren, isoliert von der Realität? Oder ist die Bedeutung selber wieder downstream von Realität? Ja, das ist eine sehr gute Frage, über die ich sehr lange nachgedacht habe schon in meinem Leben. Und ich würde sagen, das, was Sprache macht oder das, was die Macht der Sprache ist, ist, dass sie das, was wir als Realität beschreiben oder was wir als Realität wahrnehmen, verdichtet. Ich glaube, Sprache ist eine Verdichtung von Erfahrungen, von empirischen Daten sozusagen und speichert in gewisser Weise oder komprimiert sehr, sehr viele unterschiedliche Erfahrungen, Sinneseindrücke eben in Konzepten, in Worten, die man dann belegt für eben gewisse Phänomene und so weiter. Und insofern würde ich schon sagen, und das ist ja das Entscheidende, dass in dieser Sprache und im Sprachmaterial, und das ist das Entscheidende, ein Large-Language-Modell hat ja keinen Bezug zur Realität. Also das, was hier generiert wird, ist einfach nur ein Abbild. Und es ist ein Abbild des Abbilds. Also man könnte sagen, es ist ein Simulakrum des Simulakrums, weil wir Menschen nehmen die Welt wahr, wir bewegen uns in der Welt, wir handeln und wir schreibenen den dann. Lassen schreiben. Genau. Aber in dieses Schreiben fließt etwas hinein, Erfahrungen aus dieser Welt, verdichtete Erfahrungen. Und das ist das Trainingsmaterial dieser Large-Language-Modelle. Und das, was wir als Text generiert bekommen, bezieht sich auf das Abbild der Welt sozusagen. Und das ist für mich sehr, sehr spannend, weil dieses Abbild der Welt trotzdem sehr, sehr akkurat sein kann. Nicht immer, aber es kann sehr akkurat sein. Und da ist es nämlich dann für mich immer so wichtig, daran zu erinnern, dass es Modelle sind. Und es sind eben Modelle von Sprache, die sich bewähren müssen an unserer Realität, an unserer sozialen Realität, an der Welt sozusagen. Und das tun diese Programme, oder das sind keine Programme, sondern das tun diese Systeme tatsächlich sehr gut. In manchen Bereichen, in anderen Bereichen wieder nicht, aber in manchen Bereichen bewähren sie sich im Widerspiel mit der Realität. Und das ist das Spannende, dass offenbar Sprache diese Kraft hat, so viel über die Welt sagen zu können, dass diese Programme, obwohl sie keinen direkten Bezug zur Welt haben, keine empirischen Daten haben, über die Welt trotzdem sehr, sehr gut funktionieren können in manchen Bereichen. war recht, weil so ein LLM hat noch nie einen Baum oder einen Apfel gesehen. Es war jetzt wirklich nur statistisch gesehen nach diesem Kontext, nach diesem Token, ist die bedingte Wahrscheinlichkeit, dass das Naxxelwort ein Apfel ist, sehr hoch. Und eigentlich ist alles, was LLMs machen, genau das. Die Definition von Wittgenstein, was Sprache ist. Ja, und vor allem, und das ist ein ganz entscheidender Punkt, es ist ja nicht Sprache, sondern es ist im Grunde genommen ein Vektor. Also die Sprache ist. Ja, und das ist ein ganz entscheidender Punkt. Es ist ja nicht Sprache, sondern es ist im Grunde genommen ein Vektor. Also die Sprache ist nur das, was wir wahrnehmen können. Aber schon im nächsten Schritt sind es nur mehr Zahlen. Und insofern, das, was da in diesen Modellen passiert ist, sind einfach Rechnungen. Es sind einfach sehr, sehr komplexe Rechnungen, die parallel ablaufen und am Ende kommt ein Vektor heraus und aus diesem Vektor wird wieder rückübersetzt auf das Wort. Also das heißt, es ist nicht einmal Sprache repräsentiert in diesem multidimensionalen Raum, in diesem Representation Space, wie man das nennt, sondern es sind Zahlen. Es sind Vektoren, die in einem sehr, sehr vieldimensionalen Raum eben eine gewisse ja, ein Mapping der Welt, der semantischen Welt irgendwie repräsentieren. Aber das ist eher dein Fachgebiet, Wilfried. Genau, es sind Knoten und Kanten am Ende des Tages. Aber ich würde bei Semantik vorsichtig sein, weil ich habe keine Semantik in dem Netz selber, sondern die Nutzung bis jetzt, die herauskommt, ergibt mir. Aber der Vektor ist auch schön. Ich finde es ja total interessant, wir sind ja als Computerscience total begeistert von dem Ganzen und wir haben uns ja den denkbar schlechtesten Weg überlegt, wie wir mit diesen Dingen interagieren, nämlich wir interagieren natürlich sprachlich und bekommen natürlich sprachlichen Output. Ignorieren also 60 Jahre Forschung im Bereich Programmiersprache, wo wir Formalität hätten, wo alles wunderbar schön vorhanden wäre. Aber ja, so sollte es sein. Da haben die Leute gute Arbeit geleistet. Vielen Dank jedenfalls auch, dass Wickenstein wieder Einzug gehalten hat. Gibt es eine weitere Frage? Ich hätte auch noch eine Frage. Ich würde den Weg wieder zurück zur Bildung wählen oder anstreben. Diese abstrakte Situation der Abbildung, der Abbildung ist ja meiner Meinung nach jetzt nicht eine Idee der Bildung, die wir jetzt verfolgen, sondern die Bildung sollte an sich einen ganzheitlichen Anspruch haben. Und in der Bildung spricht man ja auch von Kompetenzen. Jetzt im neuen Lehrplan geht es um die 4K-Kompetenzen, wo es um Kollaboration, Kommunikation, kritisches Denken geht und meine Frage wäre, diese Systeme, inwieweit wir mit diesen Systemen unterstützen können, auch eine Bildung in diesen Ebenen, weil die Systeme, die betreffen wir in der Taxonomie jetzt sehr basale Bereiche wissen, aber wir kommen nicht in weitere Ebenen vor und das wäre für mich ein spannender Punkt, inwieweit diese Systeme lernen, im ganzheitlichen Sinn unterstützen können. Vielen Dank für die Frage. Also das ist eine sehr spannende Frage, weil ich habe mich sehr lange mit der Frage beschäftigt, ob man mit künstlicher Intelligenz kritisch denken kann. Ich habe einen Artikel dazu geschrieben, er ist gerade in der Begutachtung. Ich glaube, es gibt noch irgendwelche Revisions, die ich da machen muss. Also Sie können ihn noch nicht lesen. Aber ich habe mir genau diese Frage gestellt. Und kritisches Denken wäre ja eine dieser Schlüsselkompetenzen. Und das Problem ist, es ist einfach so wahnsinnig komplex. Und ganz viele Menschen würden wahrscheinlich sagen, ja, das kritische Denken wird abgeschafft mit künstlicher Intelligenz und niemand denkt mehr für sich selbst. Aber es gibt sehr, sehr gute Argumente, die auch zeigen, dass man erstens einmal sehr gut mit künstlicher Intelligenz kritisch denken kann, also nämlich auch herausgefordert wird, wenn man sie nur richtig bedient, wenn man die richtigen Prompts hat, wenn man sozusagen weiß, dass es nicht darum geht, dass es mir nur Wissen ausspucken soll, sondern mich vielleicht dort hinführen soll, wo ich vielleicht noch nicht so viel nachgedacht habe. Das geht auf jeden Fall. Und dann vergisst man oft, dass kritisches Denken auch manchmal sehr wenig definiert ist. Was ist das eigentlich? Was ist kritisches Denken? Ist das einfach irgendwie dagegen zu sein? Ist es eine Position einzunehmen gegen den Mainstream und so weiter? Und dann merkt man sehr schnell, all diese Dinge sind sehr, sehr komplex und kompliziert. Und ich würde schon sagen, dass man diese 4K, diese Kompetenzen sehr wohl auch mit Large Language Modellen ansprechen könnte, aber man muss auch das Know-how dazu haben und ich glaube, was man sehr oft vergisst oder was in der Schule sehr oft gemacht wird, ist, dass es rein fokussiert wird auf diese Wissenswiedergabe und ich glaube, das ist eigentlich das Unspannendste in der Auseinandersetzung mit Large-Language-Modellen. Genau, als Wissensquelle zu nutzen, das ist eigentlich der Use-Case, wo ich sagen würde, das hat die größten Fallstricke. Ich glaube, es gibt sehr viele andere Anwendungsmöglichkeiten, wo das sehr wohl funktionieren kann. Und da gibt es auch Studien dazu. Es ist ja nicht so, dass wir da jetzt einfach nur im Dunkeln tappen. Aber da gibt es sehr großartige Studien, die zeigen, wenn Large-Language-Modelle als Tutor in eine Rolle des Tutors versetzt werden, ein Tutor-System, dass es dann eben auch wirklich klar messbare Leistungssteigerungen in den Kompetenzen der Schüler und Schülerinnen gibt. wieder bei ChatGPT, alle sagen, ja, verwendet halt ChatGPT, weil ich habe gehört, das kann voll super die Kompetenzen steigern oder so. Da muss man, glaube ich, schon sehr genau wissen, wie man das macht und die Gefahr ist sehr viel mehr, dass Menschen das so verwenden, dass sie ihre Kompetenzen dadurch vermindern. Also wieder dieses De-Skilling. Genau. Ich darf da noch anschließen. Ich finde das spannend, wenn wir über Modelle von Modellen sprechen, weil das war es ja, oder? Du sagst das Abbild des Abbilds zu schaffen. Wir würden da Metamodellierung dazu sagen in der Technologie. Und wenn wir über Metamodellierung nachdenken, dann ist es doch ein total interessanter Punkt, wenn wir diese Metamodelle selbst gestalten könnten. Also das mache ich mit meinen Studierenden. Wir versuchen Mechanismen zu schaffen, wo wir uns nicht einem Metamodell aussetzen, das mir jemand anderer vorschreibt, sondern ich versuche proaktiv solche Metamodelle zu gestalten. Und der spannende Teil, den ich erlebt habe, wir machen das seit 10 Jahren mit Studierenden aus der ganzen Welt, wir machen Summer School dazu, dass wir dafür keine Technologie brauchen, sondern wir brauchen einen Kopf, der funktioniert und der uns erlaubt, Dinge zu gestalten. Vielleicht darf ich den Kollegen nochmal bitten, ich habe ein Video da drinnen, wo man ganz viele Studenten herumarbeiten sieht. Und das Arbeiten, das die dann betreiben, ist nämlich nicht die Nutzung des Systems gleich vorneweg. Genau, das ist es schon. Ich glaube, wenn man noch einmal klickt, soll es losspielen. Nein, tut es nicht. Da ist es, genau. Was man da sieht, ist, die arbeiten in einem Modus zusammen, wo sie ein Design eines Systems sich überlegen. Und das ist ein domainspezifisches System und das hat nichts mit LLMs irgendwas zu tun, sondern die überlegen sich, welche Strukturen brauche ich denn, um nachher eine sinnvolle Nutzung von einer, in einem bestimmten Bereich zu haben. Es hat nicht den Anspruch, allgemein gültig zu sein. Aber ich möchte meinen Studierenden, und vielleicht ist das in der Schule auch relevant, wenn es um kritisches Denken geht, ich möchte ihnen die gestalterischen Fähigkeiten mitgeben, dass sie genau solche Strukturen schaffen können. Weil sonst bin ich immer Konsument. Sonst bin ich der, der beim McDonald's den Hamburger isst. Aber ich möchte der sein, der den Hamburger entwirft. Also ich möchte der die Fähigkeit mitgeben und sagt, wie mache ich denn, dass ich das realisieren kann. Und das sieht man, glaube ich, ganz gut da. Das heißt Nemo, aber spielt nicht so eine große Rolle. Und wir nutzen dafür keine Technologie. Also wir nutzen dafür Papier. Man sieht das da, wir nutzen schon etwas an Technologie, weil wir sind Informatiker, wir machen uns daraus ein digitales Abbild, damit wir das dann verarbeiten und bewerten und auch generieren können, dass dann was herauskommt am Ende des Tages. Aber ich glaube, das ist der spannende Teil, wo wir dann nicht nur Konsument und aus der Konsumentenperspektive auf etwas drauf sind, sondern als proaktiver Gestalter. Ich habe den Musiker in der ersten Reihe im Kopf gesagt, wie würde der mir beschreiben, was in seinem Kopf abgeht, wenn er ein tolles Musikstück schreibt. wäre er kopierbar. Aber gibt es Möglichkeiten, solche Wissensstrukturen abzubilden? Ich glaube, das ist sehr eingeschränkt. Also ich habe zum Beispiel keine Sorge, wenn ich das sehe, was die Dinge können. Die sind schon beeindruckend, aber es kommt nie ein Neuheitswert heraus. Also ich kriege nicht ein neues Aber. Das ist sehr mechanisch, ganz genau. Und das ist ja das, was auch die Frau Direktor sagt. Beim Lesen der Schularbeit über den Faust konnte die Kollegin erkennen, ohne irgendwelche AI-Detektoren da drauf zu schalten, sie konnte erkennen, dass das generierter Text war. Also das sagt uns doch was, oder? Das sagt uns doch, wir verstehen, wenn etwas nicht natürlich produziert ist und etwas künstlich produziert ist. Und ich glaube, eine Frage, die wir uns beantragen, wir sprechen über künstliche Intelligenz, total toll, aber gibt es auch so was wie künstliche Dummheit dann? Also das ist nur eine Provokation an Sie alle und ich glaube, das kennen Sie auch. Und das Spannende ist, dass durch das, dass wir etwas künstlich machen, nehmen wir was, ich hatte gerade die Diskussion vorgestern, wir nehmen was aus der echten Welt weg und machen es künstlich, oder? Wir ersetzen, das kennen wir doch. Und vielleicht ist Ihnen das schon aufgefallen, haben Sie diese spannenden Interaktionen mit Ihrer Hausbank? Also ich spreche jetzt aus eigener Erfahrung. Ich schreibe im Moment hunderte E-Mails mit irgendeiner Person, die anscheinend ein System auf der anderen Seite zu bedienen hat. Und ich weiß gar nicht warum, sie will gar nicht mit mir telefonieren. Aber haben wir den Effekt erzielt dadurch, dass wir systemische Strukturen aufbauen, wo wir uns so rein, wie soll ich sagen, fokussieren oder so einsperren lassen, dass es gar nicht mehr die Möglichkeit gibt zu denken. Und ich denke mir, das wäre total spannend, wenn wir uns über rein, wie soll ich sagen, fokussieren oder so einsperren lassen, dass es gar nicht mehr die Möglichkeit gibt, zu denken. Und ich denke mir, das wäre total spannend, wenn wir uns überlegen, wie kann ich jemandem die Fähigkeiten geben, auch in der Schule, an der Uni, dass er Strukturen selbst erstellt, selbst generiert, selbst betreibt und auch wenn es nur Prototypen sind, auch wenn es nur einmal geht und sonst nie wieder. Und das, glaube ich, wären spannende Denkmodelle, Experimente, die wir durchführen müssen. Wunderbar, on point. Ja klar. Und das, glaube ich, wären spannende Denkmodelle, Experimente, die wir durchführen müssen. Das macht Spaß. Wunderbar, on point. Ja, klar. Vielleicht noch eine 10-Sekunden-Abschlussfrage. Weil ja die Idee ist, das Abbild der Wirklichkeit, also ich bin in der Primarstufe, in den Köpfen der Kinder oder im Wesen der Kinder abzubilden. Und da ist meiner Meinung nach um einiges mehr auch noch dazu. Weil da sind wir sensorisch unterwegs und da sind wir auf vielen Ebenen. Und das ist, denke ich, ein Bereich, der in diesen Systemen nicht abgebildet werden kann. Und den ist er kritisch, Sirch. Weil wenn diese neuronalen Netze jetzt in diesen Systemen existieren, sie existieren nicht in den Kindern, weil die Kinder die Systeme selbst kreieren müssen und selbst gestalten müssen. Und da braucht es die Aneignung im Realen. Mein Outcome ist nicht, dass ein neuronales Netz herauskommt. Mein Outcome ist, dass ich eine konzeptionelle Gestaltung eines Systems habe, die maschinell verarbeitbar wird und die aber auch menschlich verstanden wird. Und das ist ja mein Kritikpunkt, wenn ich so LLMs im Kopf habe, dann ist das ja menschlich nicht fassbar. Du hast das oft gesagt heute. Wir haben so viele Strukturelemente da drinnen, die kann ich nicht fassen. Das geht gar nicht. Und ich möchte aber die Möglichkeit geben, dass jemand Strukturen versteht. Und ich will kein LLM jemandem erklären. Keine Sorge. Neuronalenenal-Netz-EU. Ich möchte aber trotzdem vielleicht auch so ein bisschen als Schlusswort Sie einladen dazu, über die Möglichkeit nachzudenken, dass wir möglicherweise doch als Menschen gar nicht so besonders sind. Auch wir Menschen haben eben Modelle von der Welt und Bildung ist unter anderem auch diese Modelle zu verfeinern und zu verbessern, um eben handlungsfähig zu sein, in unterschiedlichen Umgebungen anpassbar zu sein. Und die 4K-Kompetenzen geraten ja auch immer wieder mal unter so einen neoliberalen Verdacht, eben, dass man flexibel bleibt und so weiter. neoliberalen Verdacht eben, dass man flexibel bleibt und so weiter. Und wir haben jetzt immer über LLMs gesprochen, da steckt das Language drinnen, aber all diese Large-Language-Modelle, die wir verwenden, sind keine Large-Language-Modelle mehr, sondern sie sind multimodale Modelle. Also sie können auch mit über Bilder sozusagen, Inferenzen bilden, nachdenken. Und im Grunde genommen ist die Frage nur, und da müssen wir wieder differenzieren zwischen den Chatbots und Chat-GPT und so weiter und der Technologie dahinter, nämlich den neuronalen Netzwerken. Und da ist es im Grunde genommen völlig egal, was als Datenpunkte reingeht. Das können auch visuelle Informationen sein, das können Temperaturinformationen sein, das können haptische Informationen sein. Informationen sein und da glaube ich, wird es in den nächsten Jahren noch einige Entwicklungen geben, wo wir vielleicht uns das jetzt noch gar nicht so richtig vorstellen können, was alles imitierbar ist und dann stellt sich irgendwann die Frage, wann ist die Imitation auch sozusagen das, was wir sind. Genau. Super. Ein wirklich schöner Schlusswort. Danke. Das wäre meine letzte Frage gewesen. Und zwar, können Sie sich hier vorstellen, dass die künstliche Intelligenz uns einmal regieren wird? Dass wir unsere Entscheidungsfähigkeit oder die Politiker und die Wirtschaftsbosse, denen sind wir ausgeliefert. Also zunehmend eigentlich diesen Typen. Ich war nicht so pessimistisch beim Tragen. Bitte? Stimmt, ich war nicht so pessimistisch beim Tragen. Ja, ja, okay. Ja, also kann sein, also könnt ihr euch das vorstellen? Ist das eine Möglichkeit, dass wir die Entscheidungsfähigkeit bis zu einem gewissen Grad verlieren? Ist eine binäre Antwort ausreichend, oder? Naja, vielleicht könnt ihr beide noch einmal kurz zur Stellung nehmen. Matthias, magst du? Das soll ich? Also, wirklich ganz kurz, die Frage ist wirklich, sind wir nicht ohnehin schon immer regiert von Technologien? Also ich weiß nicht, wer von Ihnen ist heute zu Fuß hergekommen und hat nicht das Auto genommen? Es gibt ein paar. Diese Technologie des Automobils gekommen und hat nicht das Auto genommen. Es gibt ein paar. Der Beispiel hinkt. Diese Technologie des Automobils und so weiter. Wir sind ohnehin als Menschen und das ist vielleicht etwas, das man auch nur ein bisschen bedenken muss, wir sind ohnehin immer eingebunden in ganz, ganz viele Machtverhältnisse und zum Teil ist auch die Technologie, sind die Medien Bestandteil dieser Machtverhältnisse und insofern ist es, insofern wäre es gar nicht so ein weiter Weg, von dieser Technologie unterworfen zu werden. Ich glaube, manche Menschen erleben diese Erfahrung schon immer wieder mal, dass sie das Gefühl haben, ich bin eigentlich der Diener meiner Technologien. Diener meiner Technologien. Und ich glaube, es wäre eigentlich ein sehr kurzer Weg und ich kann auch später noch einmal ein Szenario schildern im Pausengespräch, das mir sehr nachvollziehbar erscheint. Ich glaube, die Gefahr ist real, dass wir Steuerungsmechanismen auslagern an scheinbar objektive Instanzen. Ich finde das weniger dystopisch, ich sage es ganz ehrlich. Ich glaube, dass da noch sehr viel Wasser die Donau runter rinnt, bis wir dort ankommen, dass wir von solchen Systemen bedient werden. Ich darf vielleicht meine letzte Folie zeigen, weil die passt gut zum Abschluss. Darf ich die kurz herzeigen? Entschuldige, die ganz letzte. Nämlich, ich möchte Ihnen einen Hinweis geben. Bleiben Sie weiterhin höflich. Nur als kleiner Hinweis, sind Sie nicht höflich zur Technologie. Nämlich, was sagt das, entschuldigen Sie, wenn ich Sie mit Chet Chibidi wieder provoziere, aber jedes Mal, wenn Sie Danke sagen an Chet Chibidi oder Bitte sagen, kostet das Millionen. Also unhöflich à la Trump sein zum Chatschibidi, freundlich zwischen uns Menschen. Das wäre meine Zusammenfassung. Ja, vielen Dank. Ich glaube, wir sind uns einig, dass wir da zwei sehr besondere Menschen zu Gast hatten. Matthias Leichtfried, Wilfried Utz. Ich darf euch herzlich danken für eure Expertisen und ich darf Ihnen danken fürs Mitmachen, fürs Zuhören und wir können uns jetzt mit menschlicher Intelligenz auch noch hinten an der Bar über alles unterhalten, was vielleicht jetzt noch die Frage war. Danke fürs Kommen. Danke fürs Kommen. Dankeschön.