Herzlich willkommen an diesem sommerlich heißen Montagabend bei einer weiteren Ausgabe der Sendereihe der Stachel im Fleisch, hier aus dem Studio von DorfTV in der Kunstuniversität Linz. Ja, mit dem Artificial Intelligence Act hat das EU-Parlament vergangenen Mittwoch die weitreichende und weltweit bislang einzigartige Entscheidung getroffen, die Verwendung von künstlicher Intelligenz supranational zu regulieren. In selbe Horn stößt auch Florian Turski, unser ÖVP-Staatssekretär für Digitalisierung, mit der Ankündigung, eine Kennzeichnungspflicht für künstliche Intelligenz einführen zu wollen, die der Aufsicht einer neuen Behörde unterliegen soll. Tatsächlich haben Anwendungen wie JetGPT die Thematik zuletzt stärker ins Blickfeld gerückt. Wir alle haben vielleicht schon mal uns darin ausprobiert, wobei natürlich neben einer gewissen Faszination auch die Sorge immer größer wird, auch die Anzahl der kritischen Stimmen, die vor Missbrauch warnen und eine Kontrolle der technologischen Entwicklung fordern. Künstliche Intelligenz, vielleicht ist uns das oft gar nicht so sehr bewusst, findet ohnehin schon längst in unserem Alltag breite Anwendung, sei es auf unseren Smartphones oder auch nur, wenn wir im Internet uns auf die Suche begeben mit den Suchmaschinen. Also das ist etwas, was uns tatsächlich schon tagtäglich begegnet, aber dennoch in der öffentlichen Debatte ist die Furcht etwas, die immer größer und breiter wahrnehmbar wird. die Furcht etwas, die immer größer und breiter wahrnehmbar wird. Und das hat damit zu tun, dass eben viele in Sorge sind, dass diese technologische Entwicklung zunehmend auf die menschliche Existenz, auf uns alle negativen Einfluss nehmen kann oder in Zukunft noch viel mehr nehmen wird. Um dieser Frage nachzugehen, um hier auch mal ein bisschen einen differenzierten Blick zu entwerfen, habe ich mir gedacht, wir machen das doch heute in dieser Ausgabe meiner Politikgespräche mit Vorarbeitsdrang zum Thema. Und ich freue mich, dass ich zwei Gäste bei mir im Studio willkommen heißen darf, die aus Wien zu mir gekommen sind. Das ist gleich neben mir Stefan Strauß. Er ist Experte, er arbeitet zu diesem Thema am Institut für Technikfolgenabschätzung an der Österreichischen Akademie der Wissenschaften und neben ihm sitzend Clemens Abrich. Er ist der neue Leiter, der seit vergangenem Herbst Leiter der Abteilung Medientheorie an der Universität für Angewandte Kunst. Auch er hat viel damit zu tun. Ja, und ich möchte gar keine weitere Zeit mehr verlieren, sondern mich gleich in die Thematik stürzen. Herr Strauß, ich beginne gleich mal mit Ihnen mit einer vielleicht etwas ungewöhnlichen Frage. Ich habe mir gedacht, ich lasse da jetzt gleich mal Ihre Fantasie spielen und stellen Sie sich einfach vor, wenn Sie zuvor hier dieses Studio betreten haben, Sie kommen hier rein ins Studio und finden nicht mich vor, der heutige Moderator, als menschliche Existenz, sondern Sie sehen hier eine Maschine, die darauf programmiert wurde, die kommenden 60 Minuten dieser Diskussionssendung zu leiten und auch kritische Fragen zu stellen. Wie wäre es Ihnen dabei gegangen? Hätten Sie Ihre Freude damit gehabt, weil Sie denken, die bei DorfTV gehen mit dem Trend der Zeit und stellen hier eine Maschine hin oder würde das bei Ihnen ein gewisses Unbehagen auslösen? Ich glaube, es wäre irritierender, um ehrlich zu sein. Und wahrscheinlich hätte ich damit versucht, mit einem oberösterreichischen Dialekt zu testen, wie gut die Maschine antworten kann oder auf Fragen reagiert oder auf Statements generell. Aber es ist nicht so sehr vorbei fantasiert. Das ist ja auch schon teilweise Realität. sozusagen vorbei fantasiert. Das ist ja auch schon teilweise Realität, dass auch, ich kenne selber auch Fernsehsendungen, wo auch schon Roboter eingesetzt werden, um zumindest eine gewisse Form von Kommunikation zu führen. Natürlich, also Beispiel Chatbots, man diskutiert ja aktuell viel über Chat-GPT und so weiter, ist medial ja ein sehr großes Thema geworden, geben das sich schon lange. Da kann der Kollege sicher viel dazu sagen, es gibt ja schon lange experimentelle Dinge mit Robotern, die mit Interaktionen arbeiten und mit menschlichen Interaktionen und so weiter. Aber de facto ist die Frage immer, wie gut diese Interaktion dann funktioniert. Wir haben immer so eine Ebene, da kann man sagen, es funktioniert vielleicht in einem kurzen Wechselspiel, aber in einer Interaktion, die länger dauert als, sagen wir mal, 10 Minuten, wird es dann langsam kritisch, würde ich sagen. Das kommt sehr stark vom Inhalt natürlich ab. Man kann relativ leicht herausfinden, ob man es mit einem Chatbot zu tun hat. Stichwort Illusion von AI und so weiter. Da gibt es alles mögliche Probleme. Vielleicht kann man da noch genauer drüber diskutieren. Wir haben eh jede Menge Zeit dafür, aber Herr Abrech, ich würde mit Ihnen eingangs noch eine andere Betrachtung beleuchten, nämlich vielleicht auch philosophisch, gerne auch kulturgeschichtlich. Das Thema Mensch und Maschine, das Verhältnis des Menschen zur Maschine, das ist ja etwas, das uns ja seit ewigen Zeiten bewegt. Die Menschheit von Anbeginn an trägt sich ja mit dem Glauben oder mit der Hoffnung, dass die Technologie, die Weiterentwicklung von Technologie ja auch Fortschritt bringt. Bis zu dem Punkt, wo wir eigentlich als Menschheit schon sehr früh draufgekommen sind, hoppala, da ist etwas, da müssen wir Obacht geben. Denn es kann sehr schnell auch sein, dass die Maschinen nicht mehr nur tun, was wir ihnen gebieten, sondern dass wir vielleicht bald mal so weit sind, dass wir tun, was die Maschinen uns gebieten. Was lässt sich denn aus dieser Fragestellung, aus dieser Ambivalenz zwischen Mensch und Maschine, die ja wirklich sehr weit zurückgeht, das hat ja ganze Philosophen-Generationen ja auch geprägt, was lässt sich denn da diesbezüglich sagen, wo wir jetzt vor dieser großen Fragestellung sind, künstliche Intelligenz und was macht das eigentlich mit uns als Menschen? Ich würde sogar fast noch provokativer die Frage zuspitzen und zu sagen, dass es eigentlich in dem Sinne künstliche Intelligenz gar nicht gibt. Nämlich aus dem Grund, weil sozusagen genau aus dieser Kulturgeschichte heraus eigentlich jede Intelligenz immer schon künstlich war. Also, wenn wir sozusagen die Schrift erfunden haben, ob wir irgendwie Papier entwickelt haben, ob wir das Telefon entwickelt haben, das Internet und so weiter, wir waren ja immer auf Technologien angewiesen, um sowas wie Intelligenz überhaupt erstmal hervorzubringen. Und das hat auch deswegen einen politischen Grund, weil wir sind in einer politischen Talkshow-Sendung auch. Sobald ich impliziere, dass sowas wie künstliche Intelligenz existiert, sage ich ja, dass auch sowas wie natürliche Intelligenz existieren muss, die ich ja dann in irgendeiner Weise simuliere. Und da komme ich aber relativ schnell dann in sowas wie Biologismen, Rassismen und so weiter hinein, weil dann kommt es wiederum in die Frage hinein, wie kann ich das überhaupt quantifizieren und wie stecke ich das dann in Maschine? Und der zweite Punkt, der, glaube ich, wichtig ist, ist gerade diese Ambivalenz, die so spannend ist, die, glaube ich, uns schon immer begleitet hat, ist auch die Frage sozusagen, ist es tatsächlich nur so, dass die Maschinen menschlicher werden oder ist es nicht seit Jahrzehnten auch so, dass die Menschen immer maschinenlicher geworden sind? Also der Journalismus wäre jetzt ein Beispiel, nicht diese Sendung oder andere, aber es gibt ja sehr viele Phrasendrescherei. Es gibt einfach sehr viel so Formularhaftes einfach, wie das funktioniert und im Endeffekt ChatGPT, wie der Herr Strauß schon gesagt hat, eignet sich ja sozusagen diese Phrasendrescherei an und führt die einfach weiter. Aber an einem gewissen Zeitpunkt, sagen wir mal nach 10 Minuten, 20 Minuten, wird es relativ klar, dass hier sozusagen Wiederholungsmechanismen oder Simulationen stattfinden. Und das ist, glaube ich, etwas, auf das man eingehen könnte. Also inwieweit sind wir schon viel länger schon maschinisch geworden und jetzt ist sozusagen der Umkehrschluss da, wie die Maschine das eben lernen kann. Ja, finde ich sehr, sehr spannend. Wäre total dabei im Grunde. Das Problem, das finde ich sehr, sehr spannend. Ich wäre total dabei im Grunde. Das Problem, das wir haben, ist, dass das KI wahnsinnig viel Daten braucht und Daten über Menschen. Und KI ist ja per Definition sozusagen, will ja imitieren. Das ist ja schon im Turing-Test so definiert eigentlich. Das ist auch so eine Diskussion, die man führen könnte. Dass es sowas wie künstliche Intelligenz nicht gibt, unterschreibe ich sofort, das stimmt. Nur im öffentlichen Diskurs haben wir das Problem, dass das so noch nicht angekommen ist, sondern da wird immer teilweise fantasiert, die Menschen übernehmen, die Maschinen übernehmen die Menschen und von der Superintelligenz wird geredet oder geschrieben und das ist halt, das kann man philosophisch diskutieren, das kann man auch biologisch diskutieren. Die Frage ist, was Intelligenz eigentlich ist, auch noch nicht so richtig geklärt, soweit ich da informiert bin bei den Neurowissenschaften. Also da gibt es ganz viele verschiedene Ebenen. Und das Aspekt, über den man zu wenig diskutiert, oder gesellschaftlich aus meiner Sicht, ist, dass es sehr stark um neue Automatisierungsformen geht mit künstlicher Intelligenz. Und Sie haben es angesprochen, es geht sehr stark um das Schablonenhafte. Das hat natürlich damit zu tun, dass eine Maschine ja immer Schablonen sozusagen auch braucht, um Dinge replizieren zu können. Und ein Algorithmus kann einfach menschliche Fähigkeiten nicht imitieren. Beispiel Intuition oder sowas, das wird nie möglich sein. Das hat Joseph Weizenbaum schon gesagt. Da kann man auch darüber diskutieren. Man kann es imitieren in irgendeiner Form, aber echte Intuition wird man wahrscheinlich nicht hinkriegen. diskutieren, man kann es imitieren in irgendeiner Form, aber echte Intuition wird man wahrscheinlich nicht hinkriegen. Aber je mehr man quasi die Menschheit versucht zu automatisieren, desto mehr reduziert man es dann bis zu einem gewissen Grad. Und das ist dann tatsächlich genau ein bisschen ein Einfallstor für die Problematiken, die Sie angesprochen haben. Ich will ja dieser Problematik eigentlich auf den Grund gehen. Also jetzt zugespitzt formuliert, Herr Abrecht, was Sie gemeint haben, naja, das war eh immer schon so. Kön man sich eigentlich schon zusammenpacken, hier die Diskussion und nach Hause gehen oder in den Gaskarten. Das werden wir natürlich nicht tun, denn tatsächlich, das hat ja auch einen Grund, dass die künstliche Intelligenz, so wie sie sich aktuell entwickelt, ja jetzt auch in breiteren Kreisen debattiert wird, zunehmend natürlich, ich habe es schon angesprochen, ängstlich, in Furcht und Sorge, aber auch sehr aufgeregt. Man hat ja fast Sehnsucht, da jetzt auch mal die ein oder andere differenzier da bin ich jetzt mal bei Ihnen. Erklären Sie uns mal ganz kurz, warum künstliche Intelligenz aktuell dennoch eine kritische Auseinandersetzung finden muss. Also ich glaube, der Punkt ist, was man bei dem Internet für die älteren Zuseherinnen tatsächlich weiß, ist ja, dass das auch länger schon in der Entwicklung war und dann kam so eine sogenannte Killer-Applikation, nämlich mit dem World Wide Web, was im Endeffekt eine Applikation ist, die auf der ganzen Technologie beruft. Und wir haben wahrscheinlich sowas mit Chat-GPT gesehen, eine Killer-Applikation, das ist natürlich mehr, da steckt ein Unternehmen dahinter, oder sie behaupten, dass es ein wir sagen immer ein Unternehmen dahinter steckt. Mit dem sind sehr viele Menschen mit in Berührung gekommen. Aber es ist dieselbe Logik dahinter, dass das Ganze schon viel, viel länger in Diskussion und viel länger in Verhandlung war. Und diese existenzielle Bedrohung, die wir haben, war schon im Golem-Mythos tatsächlich da. Also irgendetwas, was uns aus dem Ruder läuft und was uns sozusagen übernehmen könnte. Text zu Computing, Machinery and Intelligence geschrieben hat. Es geht nicht um die Frage, was jetzt Intelligenz ist, weil das werden wir nie definieren können. Das ist tatsächlich ein unmögliches Ding. Für ihn geht es nicht um die Frage, was ist jetzt die künstliche Intelligenz, sondern kann eine Maschine lernen oder nicht? Und wenn man sozusagen da fokussiert, kommt man sozusagen, kann man sich auch ein bisschen das Terrain sozusagen eingrenzen und sich doch ein bisschen weiter bewegen, würde ich sagen, anstatt immer sozusagen von den Großen werden wir übernommen von den Maschinen, haben wir eine Terminator-Situation und so weiter. Und wenn man dann da drinnen ist, und ich will jetzt gar nicht zu viel in diese ganzen Detailfragen gehen, aber das ist, glaube ich, spannend. Seit den 50er Jahren oder seit dem Zweiten Weltkrieg bis vor kurzem war die Antwort, wie Maschinen lernen können oder nicht, eher eine deduktive Herangehensweise. Das kennen wir aus der Schule. Das ist das klassische Programmieren. Ich habe quasi ein Programm, das ist durchprogrammiert. Dann gebe ich den Daten hinein, dann wird das durchgerechnet und dann kommt ein Output raus. Ganz klassisch. Was wir aber sozusagen in der Umstellung auf diese induktiven Verfahren haben, ist, ich habe ganz viele Daten, wie schon gesagt wurde, und induziere aus denen heraus sozusagen die Regeln, die ich dann auf nicht gesehene Daten bisher wieder anwende. Das ist natürlich ein extrem spannendes Verfahren, geht aber nur mit extrem viel Daten. Das heißt, das können auch nur ganz spezifische Organisationen, Unternehmer machen. Deswegen sehen wir auch gerade wieder den Hype oder sozusagen die Möglichkeit, vor allem im Silicon Valley, weil die natürlich dieselben Firmen sind, die auch Social Media, die Daten bekommen. Das war eine Frage, die wir diskutieren müssen, was passiert eigentlich mit unseren Daten? Der AI-Act eben angesprochen, war ja schon so eine Möglichkeit, das einzuschränken. Und zum Abschluss ist es am das Spannende, wenn ich dann in diesen Hardcore-Induktiven Verfahren bin, gibt es ein riesengroßes Problem, politisch gesehen, was ich nämlich in Wahrheit mache, ich induziere diese Muster aus der Vergangenheit und wende es in die Zukunft an, damit Zukunft eben nicht passiert. Das heißt, was wir haben, wir haben einen ständigen Feedback-Loop, wo ich die Daten aus der Vergangenheit und wende sie in die Zukunft an, damit Zukunft eben nicht passiert. Das heißt, was wir haben, wir haben einen ständigen Feedback-Loop, wo ich die Daten aus der Vergangenheit habe, aus denen die Muster berechne und dann so tue, als ob das die Zukunft ist, aber in Wahrheit verschließe ich die Zukunft damit, weil sie sich nicht mehr öffnen kann. Spannend, Herr Strauß. Die Frage, die sich mir in dem Zusammenhang gleich mal ganz groß stellt, ist, wer hat denn eigentlich das Recht und die Macht, diese Entwicklung zu steuern? Wer hat das Recht und die Macht zu sagen, wohin die Reise geht? Das ist eine sehr gute Frage. Ich habe keine Antwort darauf. Wir haben jetzt gerade die Diskussion über den AI-Act, das erste quasi hypernationale Regulatorium, der versucht, das irgendwie in den Griff zu bekommen. Also die kurze Antwort wäre, die Politik muss es irgendwie lösen, nur die Frage ist, was ist Politik eigentlich? Aber die Politik treibt die technologische Entwicklung nicht voran, sondern die Politik kann sich am besten nur defensiv verhalten. Genau, das würde ich so nicht sehen. Sie kann sich schon ein bisschen offensiver verhalten oder könnte es tun, aber natürlich ist das eine lange Diskussion. Wir sind im Prinzip an einem Punkt momentan in der KI-Entwicklung angekommen, wo wir lernen müssen zu verstehen, was diese Systeme eigentlich bedeuten, was sie tun können und vor allem ganz wichtig, was sie nicht tun können. Das ist viel zu wenig diskutiert aus meiner Sicht. Wir reden sehr viel so, es wird sehr viel über Innovationspotenzial gesprochen, das auch unbestritten da ist, keine Frage, aber es wird relativ wenig darüber gesprochen, was bedeutet es eigentlich, wenn jetzt bestimmte Bereiche so weit automatisiert, wenn man jetzt mit induktiven Verfahren, wenn man davon jetzt ausgeht, dass das ist, eine Induktion ist ja immer ein Fehlschluss eigentlich rein philosophisch, weil man kann nicht vom Einzelfall auf die Allgemeinheit schließen, das ist auch ein Grund, warum JGPD immer ihr Fehler produzieren wird. Da kann man vielleicht jetzt wetten abschließen in den nächsten Jahren, aber das ist ein Grundproblem dahinter. Das wird zu wenig diskutiert und zu wenig beachtet, dass eine gewisse Fehlerhaftigkeit in diesen Systemen ist. Das ist quasi in den Systemen drinnen. Und das Problem, das wir mit KI generell haben, ist, wir haben es nicht mehr mit einem regelbasierten System zu tun, sondern wir haben es mit einem regelbasierten System, also Sie haben ein Auto, das hat einen Motor, das funktioniert, das ist komplex, Sie können lernen, wie das funktioniert und das funktioniert immer gleich, außer Sie haben ein Problem oder es fehlt Öl oder so, als simples Beispiel. Wenn das jetzt ein KI-System ist, dann haben Sie das Problem, dass sich das System selber dynamisch verändern kann. Das heißt, der Motor können Sie zum Beispiel selber in irgendeiner Form weiterentwickeln, irgendwie adaptieren, können durch Sensornetzwerke irgendwas dazulernen, wenn man von Lernen reden will. Und dadurch können Sie schwer kontrollieren, wie dieses System funktioniert. Und das ist der Knackpunkt bei den Regulatorien. Wie soll man so etwas wie ein TÜV-Modell, ein Standardisierungsmodell, ein Überprüfungsmodell schaffen, um diese Systeme so, um diese Anforderungen überhaupt so zu regulieren, dass man sagt, das sind Mindestanforderungen, das müssen diese Systeme können, so müssen die designed sein, so dürfen sie sich verhalten, so nicht, das ist total schwer, das überhaupt fassen zu können. Und an dem Punkt sind wir gerade. Und das ist, glaube ich, ein gesellschaftlicher Lernprozess. Die Politik alleine kann es nicht lösen, die Bürgerinnen und Bürger können es allein nicht lösen, die Wirtschaft kann es auch nicht lösen, also alle gemeinsam sozusagen. Aber ich glaube, das wird ein langer Diskussionsprozess. Aber Herr Abrecht, was soll mich glauben machen, dass uns dieser Prozess gelingen wird, jetzt wo wir gemeinsam lernen, die Wirtschaft, die Zivilgesellschaft, die Politik, wenn wir etwa zurückblicken und ich greife jetzt willkürlich heraus, die Anfänge der Social Media, da waren ja anfänglich alle begeistert und dann hat man gesehen, was da eigentlich für ein unglaublich intransparentes System von Algorithmen dahinter steckt, das ja quasi Machtverhältnisse völlig verschiebt und monopolisiert und letztendlich zu wahnsinnig großen und starken Exklusionsmechanismen führen. Das ist ja auch schon ein Phänomen von künstlicher Intelligenz gewesen, die mittlerweile schon deutlich weit zurückliegt. Und ich kann mich nicht erinnern, dass es da ein weltweites Aufbäumen einer kollektiven Intelligenz gegeben hat, dem da auch entgegenzutreten und mehr Transparenz, mehr Vielfalt zu fordern. Was soll mich glauben machen, dass mir das jetzt besser gelingt? Also erstens mal glaube ich, könnten wir ziemlich angefressen sein tatsächlich in dem Fall, weil wir sind aus jenem Auge wieder mal in dasselbe Problem hineingerannt. Also wir haben ja dieselben Mechanismen, das ist politisch gesehen oder auch wirtschaftlich gesehen, die wir ebenso mit Social Media hatten. Nämlich, dass einige wenige Konzerne die Möglichkeit bekommen haben, tatsächlich die ganzen Daten abzusaugen und damit Profit zu machen. Und das ist sozusagen eine Kontinuität, die man da sieht. Also wenn wir von GPT sprechen und dahinter eben OpenAI, ist das sozusagen die Firma, die das lizenziert, hauptsächlich Microsoft zum Beispiel. Der andere große Player ist natürlich Google. Es kommt nicht von ungefähr, dass die alle aus dem Social-Media-Bereich kommen, weil sie direkten Zugang zu den Daten haben. Und da hätte man natürlich schon ein bisschen sozusagen proaktiv auch politisch einsteuern können. Es gibt jetzt natürlich mit der EU sozusagen diesen AI-Act, was natürlich ein erster Schritt wäre, auch sozusagen zu fragen, wem gehören eigentlich die Daten? Es gab ja mehrere Versuche auch sozusagen mit der Datenschutzgrundverordnung und so gewisse Dinge. Dann gibt es diesen Service Act und so weiter. Es gibt ja mehrere Pfeile, die eingesteckt worden sind, um zumindest irgendwie in die Regulation zu kommen. Ich glaube, damit mache ich mich wahrscheinlich in Linz ein bisschen unbeliebt tatsächlich. Ich frage mich einfach nur, ob wir sozusagen jetzt aus dieser europäischen Perspektive heraus, österreichischer Perspektive, Linzer Perspektive, tatsächlich diesen Trends einfach hinterherlaufen sollen. Also bringt es uns denn tatsächlich etwas jetzt sozusagen JetGPT nochmal nachzumodellieren und manche hier behaupten, es ist ja ein besseres System. Fair enough. Aber trotzdem hat der Silicon Valley ganz andere Möglichkeiten, das zu tun. Wäre nicht unsere Möglichkeit dazu zu sagen, vielleicht können wir darüber hinausdenken und vielleicht sozusagen diese Ambivalenz zwischen Technologie und Mensch zu denken. Könnte man vielleicht doch, da könnte man darüber streiten natürlich, auch über Systeme spekulieren, die möglicherweise doch abduktiv, das wäre nämlich die dritte Möglichkeit, so etwas wie Hypothesen, Intentionen entwickelt und mit dem künstlerisch zum Beispiel forschen, auf kleinerem Niveau. Also gäbe es hier Möglichkeiten, wo wir sozusagen tatsächlich auch, sowohl im zivilgesellschaftlichen Bereich, als auch im politischen Bereich, nicht sozusagen dem hinterherhächeln, sondern ein neues Feld zum Beispiel setzen, und wäre das nicht sozusagen eine bessere Investition unserer Ressourcen? Herr Strauß, auch um den Zuseherinnen und Zusehern das ein bisschen deutlicher zu machen, auch wo manche oder sehr viele kritische Stimmen, um genau zu sein, auch eine Gefahr sehen. Und das spiegelt sich ja auch wieder in diesem Artificial Intelligence Act der EU wieder, die diese Entwicklung ja in vier Risikostufen, Risikogruppen eingeteilt hat. Und was die EU auf alle Fälle ausschließen möchte, was interessanterweise ja schon auch in China längst gang und gäbe ist, das ist sozusagen diese biometrische Erfassung, Gesichtserkennung, dass beispielsweise, und das ist eine Realität etwa in China, dass im öffentlichen Raum irgendeine Form von Fehlverhalten quasi gespeichert wird und sich dann, wenn sich das summiert, negativ auswirkt, etwa bei dem Bezug von Sozialleistungen bis hin, dass das bei sogenannten Wiederholungstäterinnen und Wiederholungstätern dann ganz zur Streichung führt. Das will die EU zur Gänze ausschließen. Jetzt stehe aber ich vor dem Problem, das ich gerade heute gelesen habe, das wurde veröffentlicht, dass bei der Fußball-Weltmeisterschaft im Dezember, November, Dezember letzten Jahres auch die FIFA, der Weltfußballverband, eine künstliche Intelligenz- Applikation angewendet hat, die unter den Fans, auch wo sie sich veröffentlicht haben, wo sie auf Social Media geschrieben haben, irgendwie unflätig, beleidigend über irgendwen gesprochen haben, das wurde alles erfasst und wird aktuell den jeweiligen nationalen Strafverfolgungsbehörden zugewiesen. Das ist ja doch eine Form von kognitiver Dissonanz, dass die EU etwas ausschließen will, was längst in der Praxis Anwendung findet. Ja, das ist ein wichtiger Punkt. Ausgeschlossen wäre eine biometrische Echtzeitüberwachung. Und dann ist die Frage, was ist Echtzeitüberwachung? Was macht das System, das jetzt vier Sekunden Zeit versetzt, das tut? Was de facto überhaupt kein Problem ist, das zu programmieren. Also das wäre dann möglich und ich sehe es ähnlich. Es ist sehr problematisch. Es gibt auch den Plan auf EU-Ebene, dass man bei den Grenzkontrollen biometrische Fernidentifikationen nutzen wird. Das ist auch ein totaler Widerspruch zu diesem Entwurf, den wir da gerade sehen. Da bin ich auch gespannt, wie das dann aufgelöst werden soll. Und jetzt vielleicht kurz zu den Überwachungsproblematiken bei den Groß-Events. Das ist auch empirisch belegt, dass immer, wenn WM's sind, wenn Olympische Spiele sind, dass da Technologien im großen Stil getestet werden, weil da gibt es immer so Ausnahmeregulatorien, wo man dann Dinge, die man sonst im normalen Leben so nicht tun kann, dann macht, Stadien überwacht mit Gesichtserkennung, das gibt es schon lange, das gibt es schon seit, ich weiß nicht, wann das erste Mal war, aber das ist schon eine Weile her. Und die Dinge werden auch weiterhin gemacht und sie werden auch weiterhin wachsen. Deswegen ist die Frage, wie soll das Regulatorium eigentlich greifen? Wie wird das eigentlich exekutiert? Da bin ich auch sehr gespannt drauf. Aus meiner Sicht ist dieser Risikoansatz auch ein bisschen zu diskutieren, weil wie will man definieren, was ein Hochrisiko ist und was nicht? Wie will man jetzt verhindern, dass man ein Deep Learning System, das man im Auto hat, dann für autonomes Waffensystem einsetzt oder so. Das kann man ja zweckentfremden. Das ist ein großes Problem, das Sie angesprochen haben mit dem Thema Datenschutz. Das Problem, das wir haben, ist oder vielleicht umgekehrt, ein Problem hätten wir weniger, wenn wir weniger personenbezogene Daten hätten, die in AI-Systeme reinfließen. Dann hätten wir zumindest der Datenschutz und der Demokratieproblem weniger. Das heißt, man könnte hergehen und sagen, man hat eine Mindestanforderung an KI-Systemen, nämlich die müssen wirklich hart anonymisiert sein. Und das ist die Voraussetzung, dass überhaupt das Trainingsdatum verwendet ist. Das wäre eine Voraussetzung, die aus Datenschutzperspektive wichtig finden würde. Und dann könnte man ein paar Probleme sukzessive angehen. So ist es so, man hat Risiken, keiner weiß, was das Risiko, welche Risikoklasse ist, das ist die Anwendung XY Risiko oder nicht, gibt es eine Ausnahme für Strafverfolgungsbehörden, die gibt es de facto wieder, also das wirkt alles so ein bisschen wie ein Feigenblattsystem im Endeffekt oder Feigenblattregulatorium. Aber wir sehen, ich will jetzt nicht vorwegnehmen, dass es ein schlechter Ansatz ist. Ich glaube schon, dass es sehr wichtig ist, aber ich glaube, es gibt noch sehr viel Bedarf, danach zu schärfen, um eben genau diese Probleme, die Sie da ansprechen, eher zu verhindern oder zu verringern zumindest. Weil China ist natürlich ein Beispiel, das Social Scoring System haben Sie angesprochen, das wieder auch gezielt missbraucht oder eingesetzt vom System, um Uiguren zum Beispiel rauszufiltern, also unerwünschte Personengruppen. Das kann nicht das Ziel sein, dass wir das in Europa wollen. Das müssen wir aber auch diskutieren. Da gibt es ja sozusagen, weil wir auf einer Kunstuni sind und so, ich habe kurz den Zuseher, der wahrscheinlich bekannt ist, auch die Person Hito Steilem getroffen, die hat ein schönes Projekt gehabt, schön, eigentlich ein sehr erschreckendes Projekt, das die Perversion noch so ein bisschen zeigt. Weil das eine ist natürlich sozusagen die massenhafte, das Abgreifen jetzt über die FIFA, aber auch sozusagen über Social Media. Das andere sind auch tatsächlich ernst und auch sozusagen gut gemeinte Versuche, auch diese Datensätze zu diversifizieren. Ich meine, eine KI zum Beispiel jetzt eben gerade im Bereich Gesichtserkennung hätte bei uns dreien als weiße männliche Teilnehmerinnen wenigsten Probleme tatsächlich, weil sie darauf geeicht sind. Und da war immer das Problem zum Beispiel, dass nicht-weiße Männer sehr schlecht erkannt werden. Was war natürlich die Lösung? Dass man sagt, man muss die Datensätze diversifizieren. Und Hito Steyerl hat eben gesehen, dass ein, dass ihr Gesicht, also ihr Konterfei quasi, in solche Diversifizierungsdatensätze dann aufgenommen wurde. Und da ist es dann sozusagen in einem forscherischen Prozess nachgegangen und ist draufgekommen, dass ihr Gesicht mit diesem Datenset genau bei der chinesischen Regierung gelandet ist, um die Uiguren besser zu überwachen in diesen Dingen. Und ich sage dir, das Feld ist einfach so groß, wie man die sozusagen auch in die Diagnose gehen kann und auch die Tools einsetzen kann, um sowas wie diagnostische Tools vorzunehmen, um, wie der Herr Strauß auch gesagt hat, überhaupt mal zu verstehen, was passiert da gerade und nicht ständig in die Zukunft sehen muss. Also ich würde gerne ein bisschen wettgehen von dieser ständigen Digitalisierung, also ob das irgendwas in der Zukunft wäre, hin zu wir stecken schon längst drinnen, wir stecken wahrscheinlich schon immer drinnen, wo ist das Problem jetzt gerade und wie kann man das angehen? Vielleicht zum besseren Verständnis der Zuseherinnen und Zuseher muss man kurz erläutern. Hito Steyerl ist nicht nur eine weltberühmte Künstlerin auf sehr hohem kritischen Niveau, sondern Hito Steyerl hat auch eine japanische Mutter und einen deutschen Vater. Daher wahrscheinlich ist ausgerechnet ihr Konterfeind auch in diesem Datenbestand aufgetaucht. Aber die Frage jetzt an Sie beide, ich beginne mal mit Ihnen, aber man hat jetzt immer den Eindruck, da ist jetzt der Geist aus der Flasche. Wir haben unglaubliche Datenmengen, die sind teilweise in privater Hand, entziehen sich eigentlich öffentlicher Kontrolle, sind auch quasi in totalitären Systemen im Einsatz. Gibt es da irgendeine Form von Idee oder Vorstellung, ich sage jetzt gar nicht Hoffnung, sondern irgendwie einen Ansatz, wie man diesen Geist ansatzweise überhaupt wieder in die Flasche zurückbekommen kann, um da sowas zu erreichen, was uns ja offensichtlich ein großer Wunsch ist, nämlich darüber eine Kontrolle zu behalten. Ja, spannender Punkt. Über die regulatorische Perspektive haben wir eh schon geredet, aber es trennt sich die Spreu vom Weizen auch. Man müsste ja auch genauer ansehen, was von dem, was alles versprochen wird, was die Technologie leisten kann, tatsächlich haltbar ist. Ich würde der Prognose abgeben, wenn ich das darf, natürlich unseriös, ich weiß total, aber ich würde schätzen, dass der Hype um Chachibiti ist enden wollend, aus mehreren Gründen. Einerseits die Fehleranfälligkeit, das hat sich schon ein bisschen rumgesprochen mittlerweile, dann gibt es das Problem, dass KI-Systeme ja halluzinieren, das ist ein bekanntes Problem. Dann gibt es das BIOS-Problem, das jetzt auch schon angesprochen wurde. Und dann gibt es das Problem, was ist die Killer-Anwendung dahinter? Wer will wirklich generative KI und wer bedient die dann und was fällt den Usern sozusagen ein? Mehr als ein Kochrezept, da gibt es immer diese Beispiele, da kann man dann ein Kochrezept zusammenstellen lassen. Vielleicht bin ich zu fantasielos, aber wenn ich mir jetzt vorstelle, dass der klassische Internet- User dann mit dieser Art von Interface Suche betreibt, glaube ich, das ist zu komplex, um das zu bedienen, weil es ist voraussetzungsreich. Man muss irgendwie einen Satz formulieren und man gibt dann einfach ein Keyword ein. Und die Killer-Anwendung von Google ist ja, dass man einfach ein Keyword eingibt und dann bekommt man eine ganze Liste von Ergebnissen und sucht es dann selber raus. Also da geht es schon eher in eine Richtung, dass man vielleicht als Unterstützungsleistung vom Expertensystem ein Wissensarbeit, das ist etwas, was mich gerade umgreift, das ist eine Unterstützung, aber vom großen Use Case für die gesamtgesellschaftliche Dimension sind wir, glaube ich, noch weit entfernt. Das ist jetzt gerade so eine Art Prototyp, würde ich das fast schon nennen wollen. Das ist jetzt vielleicht ein bisschen verkürzt, aber ich weiß nicht, wie Sie das sehen. Na zwei Dinge, also dadurch, dass ich auf einer Kunstuni arbeite und wir auch hier sind, ich glaube, es gibt schon eine gewisse Hoffnung, jetzt im Kleineren, so ex-negativ, dass man sagen könnte, dass mit diesen Systemen halt automatisiert wird, was ich vorher meinte, was eh schon lange im Kommen war mit dieser Phrasendrescherei, was wir alle kennen in einer gewissen Weise. In der Fotografie oder in der sozusagen Bildenden Kunst haben wir gesehen, dass die Fotografie viel des Ballastes Realismus sozusagen weggenommen hat von der Bildenden Kunst. Ich hoffe, dass sowas ähnliches passieren wird mit der Textarbeit tatsächlich. Upper-Meldungen, was über Copy-Editing, Werbe und so weiter Geschichten passiert, dann halt automatisiert wird, weil es einfach da ist und dadurch aber viel auch Kreativität wieder freigesetzt wird, um sich auch sozusagen überhaupt mit diesem, wie soll man sagen, mit diesem Vergleich sozusagen wiederum in eine Form hineinzugehen, dass man tatsächlich am Text arbeitet, mit der Sprache arbeitet und so weiter. Und der zweite politische Aspekt, wo ich es tatsächlich schon in der Hoffnung sehe, ist auch sowas wie, es ist ein bisschen komisch, weil in den 90ern haben wir noch immer gesagt, so etwas Eigentum ist Diebstahl. Also in der Form, dass das natürlich aus der klassischen Form, auch mit Anti-Copyright und so weiter, die Bewegungen. Heute muss man fast schon sagen, dass Diebstahl Eigentum ist, nämlich die Daten wurden einfach gestohlen und sind jetzt sozusagen von einigen wegen das Eigentum geworden. Ich glaube, eine Möglichkeit, die ist so ein bisschen eingeschlafen, aber kommt wieder aus der Debatte, wäre sowas wie Data Trusts. Also gibt es irgendwelche Formen, das kann in verschiedensten Formen aussehen, das ist nicht ständig in der individuellen Verantwortung zu klicken, ob ich da jetzt irgendwie den Cookie-Bestimmungen zustimme oder der Daten Verordnung quasi auch zustimmen will, sondern gibt es eine Möglichkeit sozusagen auch das kollektiv zu lösen, da gibt es jetzt unterschiedliche Modelle, dass ich sozusagen auch meine, wie soll ich sagen, meine Verantwortung dieses Datenschutzes gegenüber an andere abgeben kann und die dann ja durchaus die Daten teilen können, auch mit Unternehmen, von mir aus aber genauso gut mit Universitäten und immer sozusagen ein größeres Kollektiv im Auge haben. Also meine Vision wäre sowas wie eine Sozialversicherung für Daten tatsächlich in der Form, relativ banal und irgendwie langweilig, aber genau sowas wäre eine Sozialversicherung für Daten tatsächlich eine Form. Relativ banal und irgendwie langweilig, aber genau sowas wäre irgendwie eine Möglichkeit, das irgendwie zu sehen. Ja, da würde ich jetzt einhalten, dass das Problem ja schon bekannt ist, dass man der informed consent, also quasi die informierte Zustimmung im Datenschutzrecht sehr hohl ist. Man muss ja quasi zustimmen, um einen Service zu nutzen. Und das wäre dann sozusagen das gleiche Problem, das man dann halt überträgt auf die KI-Systeme. Deswegen wäre ich da skeptisch, dass das funktionieren kann. Natürlich diese Modelle mit Data Trust, das ist interessant. Aber ich glaube, da bräuchte man auch so etwas wie eine neue institutionelle Ebene, die wird ja auch schon diskutiert, dass es so etwas wie eigene Behörden geben soll oder geben könnte, die das in irgendeiner Form dann auch greifen, auch die, die die Systeme sozusagen dann in irgendeiner Form vorchecken oder wo es regelmäßige Lifecycle, also Lebenszyklusüberprüfungen gibt, dass man diese Systeme auch wirklich nicht nur einmal prüft, sondern halt laufend. Und das wird da ein bisschen reinspielen, das sehe ich durchaus auch. Müssen wir da das Rad neu erfinden oder gibt es nicht institutionelle? Naja, Rad neu erfinden, glaube ich, muss man sowieso nie. Das ist, glaube ich, die kulturelle Perspektive. Das geht ja gar nicht mehr. Aber in gewisser Weise glaube ich schon, dass man ich glaube, was sich geändert hat, ist, dass man mit dieser neuen Art der Dynamik der Technologie lernen muss, umzugehen. Deswegen wäre ich auch, das wäre auch mein Ansatz, den ich dann sozusagen der wichtig wäre auf allen Ebenen, auf der politischen Ebene genauso wie auf der Individualebene, dass man so etwas wie eine kritische Medienkompetenz braucht, auch bei den Entscheidungsträgern, die sozusagen beschließen, dass man solche Systeme nutzt. Wenn das ein guter Kontext ist, wenn klar ist, wie das System funktioniert, wenn klar ist, was das System nicht können soll und nicht darf, dann kommt man viel leichter zu einer sinnvollen Anwendung, als zu sagen, man nimmt eine Generative AI, die kann alles, ich weiß zwar nicht, was sie tut, aber klingt halt irgendwie super und jetzt nehmen wir alle GGBT, das ist irgendwie so ein bisschen der Bombenwurf-Ansatz. Gut, um über die Medienkompetenz zu reden, ist mir jetzt noch ein bisschen zu früh, ich habe mir das fix vorgenommen. Nein, ich komme nochmal auf den Punkt zurück, weil ich das dem Clemens Abrech jetzt so nicht ganz abnehmen möchte, dass quasi diese Entwicklung irgendwie zu einem neuen Formen von Kreativitätsschüben führt. Das kann ich mir alleine deshalb auch nicht vorstellen, weil wir ja quasi uns selbst ja quasi viel weiter fassen müssen. Es gibt ja nicht nur uns hier in den reichen Wohlfahrtsstaaten des technologisch entwickelten Nordens, sondern es gibt ja auch Menschen in der südlichen Hemisphäre, die unter ganz anderen Bedingungen leben müssen. Auch da ist ja mit der KI-Entwicklung die Sorge groß, dass die ja quasi dann, quasi so wie man früher Menschen auch zum Latrineputzen herangezogen hat, die quasi dann die Daten bereinigen müssen. Das passiert ja auch schon längst bei Facebook und vielen anderen, dass da quasi eine völlig neue Mehrklassengesellschaft auch geschaffen wird, wir die quasi dann sagen, okay, diese Entwicklung, da stehen wir drüber und so weiter und da machen wir viel Geld damit. Das ist ja nur ein Teil der Realität. Aber die andere Realität ist ja das, dass ja quasi da völlig neue Mechanismen und Methoden auch der Unterwerfung, Unterdrückung auch entstehen. Diese Frage nochmal mit der Kreativität, da muss ich schon nochmal wirklich nachhaken, weil ich kann mir das nicht vorstellen und vielleicht ist das auch ein Missverständnis, wirklich nachhaken, weil ich kann mir das nicht vorstellen. Und vielleicht ist es auch ein Missverständnis, denn nur weil der Journalismus, dessen Schablonenhaftigkeit wir ja ohnehin schon seit vielen, vielen Jahren entlarven, der kann tatsächlich etwa in der Chronikberichterstattung über den Unfall und ich weiß nicht was, Skiunfall, da ist jemand gegen den Baum gekracht, das kann schon mal eine KI schreiben. Aber ich sehe jetzt noch nicht die Schlussfolgerung, dass da tatsächlich in unserer Gesellschaft mehr Kreativität entsteht, mehr Inspiration entsteht, weil wir haben das auch in vielen anderen Facetten der Medienentwicklung gesehen, bei der Liberalisierung des Rundfunkmarkts beispielsweise, auch mit der Internetentwicklung. Wir haben ja bei dem reichhaltiger gewordenen Content-Angebot ja letztendlich nicht eine neue Vielfalt vorgefunden, sondern eigentlich immer mehr Einfalt auf vielen Kanälen. Aber war das, ich meine jetzt mal wirklich hart runtergebrochen, ist das ein Problem sozusagen der Technologie selbst, die eingeführt wurde, oder ist das das Problem des Marktes, was halt den Kapitalismus betrifft, das sozusagen dazugespitzt wurde? Das ist ein Kapitalismus-Problem. Genau. Weil ich würde halt sagen, ich meine die Idee wäre natürlich, das war immer ex negativo gedacht, dass sozusagen, wenn gewisse Automatisierungsprozesse da sind, könnte Potenzial freigesetzt werden, sozusagen in einem künstlerischen, kreativen Prozess. Das ist natürlich sehr speziell, da gebe ich Ihnen total recht. Was man natürlich irgendwie mit dem Hinterkopf behalten muss, dass auch Kreation und so weiter ja nicht ein arbeitsloser Prozess ist. Also nicht, dass sozusagen was nur in der Freizeit passiert und so weiter. Weil jede Form sozusagen der Transformation, die wir gesehen haben, über die letzten Jahrzehnte vielleicht sogar schon viel länger, gerade im Automatisierungsverg, hat vor allem Frauen in den Arbeitsmarkt hineingespült, um dann sozusagen die Arbeit da wiederum abschöpfen zu können. Und da sieht man das ganz stark. So im Journalismus sehe ich halt irgendwie in einer Form, vielleicht spielt man da mit diesen Systemen mehr, das wäre sozusagen die nicht so schöne Version. Und wahrscheinlich müssen dann Journalistinnen in Zukunft einfach viel mehr von so einer Art Care-Arbeit leisten. Also wie kann man sozusagen seine, wie sagt man, Readership, also seine quasi Leserinnen sozusagen dazu bringen, auch was zu teilen und weiterzuführen, in Diskussionen zu gehen. Und das ist ganz stark, soziale Beziehungen zu führen. Also der Text, die Textproduktion ist dann gar nicht mehr vielleicht so wichtig, sondern sozusagen das Ganze rundherum, was wir stärker sehen werden. Und ein sehr gutes Beispiel natürlich auch gebracht, wenn man es gesamt irgendwie sehen will, diese Systeme funktionieren natürlich nicht irgendwie so Plug and Play. Also gerade die Datenreinigung und da wird der Kollege natürlich auch mehr wissen dazu, aber ich meine fast 80% dieser Systeme oder dieser Arbeitsschritte, die man braucht, um die Systeme arbeiten zu lassen, ist diese beinharte Datenbereinigungsarbeit und die wird meistens eben outgesourced und das nicht in den westlichen Ländern. Und das ist eines der Riesenprobleme, dass wir sehen, dass der Kapitalismus diese ganze Technologieentwicklung antreibt und dadurch dieselben Probleme wieder und wieder produziert. Ja, ist da nicht ein bisschen ein Widerspruch? Ich sehe das auch schon ein bisschen so. Ich bin total dabei zu sagen, es gibt da Kreativitätspotenzial, das sieht man auch. Das ist ja, glaube ich, kein Zufall, dass die KI-Systeme aus der Kunst eigentlich ein bisschen kommen, oder? Das ist ja schon, zumindest in der Medienkunst, da wird schon länger damit experimentiert, da gibt es viele spannende Dinge. Jetzt gibt es die Diskussion in der Musikbranche, oder dass jetzt KI auch Lieder produziert, dass Bilder produziert werden, da gibt es die Diskussion nach dem Urheberrecht, das ist jetzt neu, wurde vorher schon, glaube ich, angesprochen. Das ist also schon spannend. Und da sehe ich auch irgendwie so ein bisschen Potenzial aus ein bisschen einer Außenperspektive, dass sich da Kunstschaffende ein bisschen neu definieren. Das finde ich schon sehr spannend. Aber ich wäre jetzt auch skeptisch zu sagen, der Journalismus wird da jetzt kreativer, weil da steht ja die kapitalistische Logik tatsächlich dagegen, weil es ist schon sehr prekär teilweise und warum soll es nicht mehr prekär werden dann? Wie kann man das lösen? Also ich wäre es ein Idealvorstellender, das wäre schön, aber wie kommt man dorthin? Ich meine, der Widerspruch entsteht, weil wir in einer widersprüchlichen Zeit leben, was das betrifft, aber die Idee wäre natürlich sozusagen auf der einen Seite natürlich diese Zuspitzung der ständigen Profit generiert werden muss, widerspricht natürlich fundamental so etwas wie Kreationsprozessen. Und ich meine jetzt nicht nur Künstlerinnen, ich meine genau so, und nicht nur Journalistinnen, sondern eine Form wäre doch schön, wenn wir Systeme verwenden können, das was Sie sehen, was ich eingangs meinte. Sie verändern möglicherweise unsere Form zu lernen und vielleicht könnten wir das System endlich mal anerkennen, dass wir eben nicht individualistisch lernen, sondern immer kollektiv gelernt haben. Und dann könnten wir quasi austesten, das sieht man immer öfter, also Design, jetzt ist es schon wieder ein Bereich, aber das ist eine Anwendung, das sieht man so oft, ich könnte verschiedene sozusagen Design-Entwürfe erstmal ausprobieren und sozusagen hin und her spielen und dann auch wieder dieses Zusammenspiel quasi denken, weil ich sozusagen immer, das ist spannend, ich spreche nicht mit der Maschine als ein Individuum, sondern die Maschine repräsentiert das Gesamtkollektiv dahinter, also nur kollektive Daten verhandelt werden. Da ist schon eine Spannung drinnen, die ich durchaus produktiv denken könnte. Das ist eine starke These, finde ich, dass es so eine Repräsentation des Kollektiven ist, weil das hängt auch wieder davon ab, was da für Daten drin sind, oder? Also wenn man jetzt ChattD wieder nimmt, das ja von Clickworkern in Kenia produziert wird, die sich dann teilweise wirklich widerliche Dinge ansehen müssen und unterbezahlt sind, total prekär und alles mögliche, ist dann die Frage, wie weit bildet das dann tatsächlich ab? Das ist ja auch wieder so eine bereinigte Version von, also das ist, glaube ich, das kann man wahrscheinlich in einem kleinen Rahmen machen, das glaube ich schon, aber ich glaube, in einem so großen Rahmen wird es umso schwieriger. Das ist eine Grundsatzfrage, was ist eigentlich, also wie repräsentiert man eigentlich, was ist kollektiv eigentlich und wie repräsentiert man das eigentlich oder kann man das überhaupt repräsentieren? Aber ich muss ein bisschen auf die Zeit achten und möchte auf einen Punkt jetzt kommen, das ist, weil wir uns ja vorgenommen haben, auch so differenzierend wie möglich an das Thema heranzugehen, dem Ganzen auch etwas Positives abzugewinnen. Ich stelle mir da jetzt ein ganz banales Beispiel vor, das sehr wohl aus dem Alltag, aus dem realen Leben gegriffen sein kann. Ich weiß nicht, eine kleine Unternehmerin, die hat so mehr schlecht als recht ihr Unternehmen und versucht quasi Kunden, Kundinnenkontakte aufrechtzuerhalten, zu informieren, Angebote zu schreiben und steht aber vor dem Problem, dass sie, ich weiß nicht, irgendwie legasthenische Schwierigkeiten hat und so weiter. Und da gibt es natürlich über KI auch die Möglichkeit, dass man ihr durchaus erfolgreich Unterstützung anbietet, dass sie das nicht selber schreiben muss, sondern die Maschine schreibt es für sie. Was ist dagegen einzuwenden? Nix ist dagegen einzuwenden. Es gibt eine Masse an großartigen Anwendungen, das ist überhaupt keine Frage. Das ist nicht der Punkt. Der Punkt ist eher, wie das so gesamtgesellschaftlich verändert wird, wie die Transformation sozusagen stattfindet und wie man dann als Gesellschaft lernt, welche Bereiche tatsächlich sinnvoll sind. Auf einer kleineren ebene also spracherkennung ist eine super anwendung oder bilder die sind alles tolle dinge die man oder übersetzung also sprache ist toll es ist ein wahnsinns unterstützungsleistung ist überhaupt keine frage nur es ist immer immer auch wichtig zu wissen für welchen kontext setzt sich das ein also was wenn man bei der unternehmerin bleiben die muss halt auch wissen warum sie das tut und wie es funktioniert was sie tatsächlich was bringt und dass es auch nichts Falsches dabei rauskommt oder sowas. Und das ist natürlich auch, das wird sie dann schon lernen, kann man jetzt sagen. Aber es macht einen Unterschied, ob das eine kleine Unternehmerin macht oder ob das jetzt ein Riesenkonzern macht, der macht es dann einfach. Und das ist wieder so ein Hierarchieproblem im Endeffekt. Und ja, also keine Frage, es gibt sehr viele positive Anwendungen. Ein Riesenpotenzial gibt es in der Medizin, bildgebende Verfahren. Also da gibt es Wahnsinnspotenziale oder bei der Diagnostik. Aber auch da ist wieder der Zugang. Da wird mit Vorsicht irgendwie, werden diese Systeme erprobt und man geht nicht rein und sagt, die nehmen uns die Arbeit ab. Weil das ist so ein bisschen ein falscher Zugang. Und den sieht man aber manchmal in der Diskussion einfach so, also in der Gesellschaft im Diskurs sozusagen. Und von dem müsste man, glaube ich, ein bisschen wegkommen, dass man diese Potenziale, die unumstreitbar vorhanden sind, auch wirklich sinnvoller nutzen kann. Jetzt haben Sie es ja auch schon angesprochen, Habrich, mit dem Begriff sozusagen der sozialen Beziehung. Das führt mich ja auch an den Punkt, und da habe ich bei meinen Recherchen sehr oft auch diese Kritik gefunden, dass KI, man kann ja wirklich das Ganze auch mit Faszination beobachten, dass das für alle möglichen Bereiche entwickelt und weiterentwickelt wird, aber letztendlich für die wirklich brennenden Fragen unserer Zeit, die großen Herausforderungen, dass da eigentlich kaum KI-Anwendungen denkbar sind. Woran mangelt es in unserer Zeit? An Solidarität, an Gerechtigkeit, an dem Kommunalen, dass wir sozusagen auch mehr wieder auch gemeinschaftlich denken müssen, leben müssen und so weiter. Da gibt es ja keine Anwendungsmöglichkeit für künstliche Intelligenz, sondern das ist erst etwas urtypisch Menschliches. Und das hat natürlich wieder viel mit dem kapitalistischen System zu tun, das uns da letztendlich diese großen Missstände und Versäumnisse auch aufgebrochen hat. Was kann man da sagen, wenn man aus dieser Perspektive diese Entwicklung der Technologie betrachtet, man eigentlich das Thema Künstliche Intelligenz schon wieder fast für beendet erklären kann? Man kann es zumindest in einer großen Reihe von diesen Technologie-Illusionen irgendwie einordnen. Ich glaube auch, dass wir uns wahrscheinlich in zehn Jahren ein bisschen leid sein werden, wenn man vielleicht schon viel früher quasi, was diese ganzen Modelle betrifft, so wie wir es vorher auch waren bei vielen Dingen. Ich glaube, was man ganz schon viel früher quasi, was diese ganzen Modelle betrifft, so wie es vorher auch war bei vielen Dingen. Ich glaube, was man ganz stark sieht, ist, das ist eine Banalität geradezu, aber es gibt natürlich keine technischen Lösungen auf gesellschaftliche Probleme. Das Problem ist nur, dass wir das im Diskurs ein bisschen verwischt haben. Also das ist sozusagen auf der einen Seite eine komplette Auslöschung der Menschheit oder Zukunftshoffnung schlechthin. Aber ich gebe ein Beispiel, wie man das eben sieht, was diese induktiven Verfahren betrifft, weil wir stecken so stark in diesem speziellen Denklogik drinnen und setzen das mit KI gleich. Wie gesagt, das war früher anders und ich bin mir ziemlich sicher, dass das in Zukunft auch anders aussehen wird. Aber Induktion heißt im Endeffekt eben, ich nehme die Vergangenheit oder Daten aus der Vergangenheit, errechne mir ein Modell und wende das auf die Zukunft an. Wir tun aber so, als ob dieses Modell der Zukunft sich immer wieder bestätigt, sobald es eintrifft. Also es ist sozusagen eine sich selbst erfüllende Prophezeiung, wenn man so will. Es gibt ein Gegenmodell, wo wir das schon länger tun, nämlich bei zum Beispiel Klimamodellen. Ein Klimamodell extrapoliert genauso aus vergangenen Daten, berechnet ein Zukunftsmodell, um was zu tun. Hoffentlich, dass irgendjemand politisch sozusagen eingreift, dass diese Zukunft nicht eintritt. Und da müssten wir nachdenken. Wir könnten diese Technologien und so weiter wirklich verwenden, um sozusagen die ganzen Probleme auch gesellschaftlich zu analysieren, die da sind im Datensatz, von Rassismen, Sexismen und so weiter angesehen, um dann eine Grundlage, eine empirische Basis tatsächlich zu haben, um da zu intervenieren. Aber nicht sozusagen die empirische Basis oder das Modell zu nehmen, um dann die Vergangenheit wiederum in der Zukunft immer wieder und wieder auftreten zu lassen. Das ist, glaube ich, eins von diesen großen Problemen. Und wenn man da so ein bisschen, da sind wir uns, glaube ich, einig, wenn man ein bisschen runterkommt von diesen Heilsversprechen oder ich weiß nicht, Terminator-Visionen, sondern sozusagen diese Tools auch darin erkennt, was sie tun können und da könnten sie viel machen, dann wäre schon ein wichtiger Schritt getan. Da habe ich eigentlich für diese Sendung heute ein bisschen den Titel falsch gewählt, weil der lautet, wer behält Kontrolle über die Zukunft, sondern müsste eigentlich die Frage stellen, wer befreit die Zukunft von der künstlichen Intelligenz? Von der Vergangenheit. Ja. Ja. Genau, also die Zeit schreitet voran. Wir haben jetzt gar nicht mehr so viel auf unserer Uhr. Zum Stichwort Medienkompetenz. Auch wir bei DorfTV haben natürlich Medienkompetenzvermittlung ganz groß auf unsere Fragen erfahren geschrieben. Ich habe selber jetzt schon seit vielen Jahren mit diesem Thema zu tun. Die Schwierigkeit, die ich mittlerweile sehe, ist fast eine inflationäre Anwendung. Für alles muss jetzt Medienkompetenz her, also sei es im Umgang für die kleinen Kinder, dass sie nicht auf alle Werbetricks reinfallen, dass sie nicht zu viel fernsehen, dass sie wissen, wie die Computerindustrie, die Spielindustrie funktioniert, Social Media sowieso und jetzt natürlich auch noch die künstliche Intelligenz. Vielleicht können Sie, Herr Strauß, das ein bisschen eingrenzen, was Medienkompetenzentwicklung tatsächlich erfordern sollte, da greife ich jetzt mal einen kleinen Ausschnitt heraus, in welche Richtung sollen Menschen durch Medienkompetenzvermittlung befähigt werden, die Entwicklung von Machine Learning differenzierter zu betrachten und welche persönlichen Schlussfolgerungen kann denn der, die Einzelne daraus ziehen? Das ist eine gute Frage natürlich. Also mit kritischer KI-Kompetenz, wie man es so nennen will, meine ich, dass man differenzieren soll erstens einmal die Ebene. Es muss natürlich nicht der Mensch, der interagiert mit einem System, wissen wie Machine Learning oder was ein Deep Learning Modell ist. Das macht keinen Sinn auf der Ebene. Was schon wichtig wäre zu wissen, dass Machine Learning nichts mit menschlichem Lernen zu tun hat, dass KI nicht intelligent ist. Das wären so Basics, die man sich schon vermitteln kann. Und wenn man gesellschaftlich einmal ein Grundwissen hat, dass KI eigentlich ein Marketing-Schlagwort ist, dann hätte man schon viel gewonnen auf der Ebene. Und wenn man dann noch hergeht und sagt, okay, es macht einen Unterschied, AI eigentlich ein Marketing-Schlagwort ist, dann hätte man schon viel gewonnen auf der Ebene. Und wenn man dann noch hergeht und sagt, okay, es macht einen Unterschied, ob ich jetzt ein Deep-Learning-Verfahren habe, ob ich ein klassisches Supervised-Machine-Learning-Verfahren habe, also trainierte Datensätze, oder ob ich ein Sensornetzwerk habe, das heißt, wo ich ein hochdynamisches System habe, wo ich nie kontrollieren kann, welche Daten da drinnen sind, und dass das Bewusstsein da ist, dass diese Dynamisierung was mit dem Systemverhalten verändert und dass es dadurch schwieriger zu kontrollieren ist und man deswegen auch andere Kontrollmechanismen braucht. Wenn man dieses Basiswissen hätte, dann würde man schon ein bisschen weiterkommen. Und bei den EndanwenderInnen, die jetzt mit JGPT interagieren, wäre so ein Basic, okay, da gibt es keine Quellenangabe, das ist kein guter Stil, das Ding ist, potenziell wird das falsch sein, was da drin entsteht, da wird ein Fehler drin sein, also quasi so vermitteln, suche den Fehler, so ungefähr, also das könnte man dann in der Schule beispielsweise in der Bildung einbauen, nicht, jetzt schreibt sie auch in Seminararbeiten oder was auch immer, produziert Texte einfach mit JGPT, sondern produziert Texte, prüft sie auf Fehler und macht dann das Gegenteil davon oder lernt so. Bin ich beim Kreativen dann im Endeffekt. Man könnte es als Kreativitätsstimulanz in irgendeiner Form sehen und das wäre so ein Aspekt der Medienkompetenz. Gut, aber die Fehlersuche könnte man auch bezüglich Wikipedia in den Schulunterricht einbauen. Ja, natürlich. Das ist ein verschiedenes Anwendungsmittel. Natürlich, nur das Beispiel. Aber Wikipedia ist wenigstens eine Quelle drinnen und es ist jetzt nicht KI generiert, zumindest soweit ich informiert bin. Aber darf ich mich erinnern, wie am Anfang, wie Wikipedia quasi eingeführt wurde, wie viele Diskussionen es gab, ob man dem jetzt trauen darf oder nicht. Und es gab wirklich sozusagen auch eine Möglichkeit, es gab erst sozusagen über die Zeit ein gemeinsames Lernen. Das meine ich ernsthaft auch mit dieser Webseite gemeinsam, mit sozusagen dem Kollektiv dahinter. Darum geht es mir tatsächlich, dass die Technologien im Endeffekt Kollektive repräsentieren, wie man es sozusagen gewissen Quellen trauen kann. Natürlich wird die Qualität unter Anführungszeichen besser in der Form, aber es wurde auch unser Umgang mit Wikipedia einfach geschult. Und sowas sehe ich bei Machine Learning auch. Ich würde so leicht widersprechen, weil es mir tatsächlich am Eingangsmeite gar nicht darum geht, ist die Maschine jetzt intelligent oder nicht? Also weil ich die Frage aufwerfe, müsste ich fragen, ist der Mensch intelligent oder nicht? Also, das wäre sozusagen ein Standardding, wo ich sagen würde, ich glaube, wir werden alle als Maschinen oder mit Technologien haben wir immer schon gelernt und wir sind alle Machine Learners, wenn man so will. Wir hatten schon immer Technologie. Ich meine, dieser Raum ist ein gutes Beispiel dafür, wie wir das gemeinsam machen und Technologie werden eingesetzt. Da würde ich ein bisschen widersprechen. Das ist natürlich die Frage, was Lernen überhaupt ist. Aber wenn, so würde ich wenn sozusagen der Laie hört, das Ding ist intelligent, dann glaubt der Laie, das Ding kann das Gleiche machen wie ich und das ist falsch. Und das meine ich mit dem Grundwissen. Das Ding ist automatisiert, das Ding kann Bilder erkennen, schneller als ein Mensch. Das kann aber auch falsch sein. Nebenbei bemerkt man, man sieht auch die Bildgeneratoren, die es gibt, die schauen immer wieder gruselig aus teilweise, wenn man sie ausprobiert. Also da ist schon noch sehr viel dazwischen. Generatoren, die es gibt, die schauen immer wieder gruselig aus teilweise, wenn man sie ausprobiert. Also, da ist schon noch sehr viel dazwischen. Auch wenn es perfekt imitiert, sei es Bilderkennung, sei es Spracherkennung, sei es Sprachsynthese, was auch immer, dann ist es immer noch ein automatisierter Vorgang und keiner, der funktioniert wie ein menschliches Hirn oder sowas. Aber intelligente Tennisspieler zum Beispiel, lernen auch über Automatismen. Mir geht es nur darum, können wir wegkommen von dieser Frage, ist es intelligent oder nicht, zu fragen, wie lernen wir alle gemeinsam tatsächlich. Da bin ich völlig dabei. Wegkommen von dieser Grundsatzfrage, weil die ist jetzt nicht irrelevant, wo wir dann beim Touring wieder wären. Das wäre so ein Basiswissen. Aber nochmal zurückzukommen, Medienkompetenz oder deren Vermittlung. Also ich darf hier gestehen, vor laufender Kamera, ich hatte meine erste Begegnung mit einem Schachcomputer in den frühen 80er Jahren. Da war ich selber noch ein Kind, habe gegen den Schachcomputer gespielt und verloren. Was nicht unwesentlich dazu beigetragen hat, dass ich in weiterer Folge die Lust am Schachspielen verloren habe, aber was zurückgeblieben ist, ein unglaublicher Respekt auch vor der Maschine, weil ich glaubte damals, die sei unbesiegbar und das ist ja etwas, was ja ganz wesentlich auch ist in unserer Wahrnehmung von Technologie und das hat dann auch mit Medienkompetenzvermittlung zu tun, zu sagen, lass es mit dem Respekt sein, glaub an dich selber, ich weiß es nicht, was da dann genau sein kann. Das ist das Problem des Automation Bias, das ist jetzt ein bisschen zu weit ausgegangen, aber im Prinzip geht es darum zu lernen, dass man dieses Ding nicht respektvoll behandeln soll und auch nicht muss, weil es eben keine Person ist, sondern man soll eher misstrauen, was das Ding tut, auch wenn es respekteinflößend ist, dass es toll schnell Dinge produzieren kann. Aber es ist kein Mensch in dem Sinn, wo man quasi sowas wie Empathie vermitteln muss. Und das ist auch was, da kann man die Diskussion mit der Robotik, da gibt es ja die Robotik-Diskussion in Japan, wo die ja bewusst sehr vermenschlicht werden. In Europa gibt es ja Studien dazu, die wollen das bewusst nicht, weil es irgendwie ja Grusel auslöst. Und das ist nochmal eine interessante Ebene der ganzen Diskussion. Man muss quasi lernen, ein gesundes Misstrauen zu haben und verstehen lernen, wo die Systemgrenzen auch sind. Letztlich entsteht das Problem, da gibt es den Elisa-Effekt, dass man zu viel Vertrauen in diese Systeme hat. Und dadurch begünstigt man dann auch, dass man irgendwie was falsch versteht, wo das Fehler einfach nicht erkannt werden. Da ist man auch bei der self-fulfilling prophecy im Endeffekt. Das hängt natürlich von der Anwendung ab. Also da müsste man hinkommen, dass man das versteht und dass man das vermittelt. Das wäre so ein wichtiger Aspekt von Medienkompetenz. Was kann die Lehre an einer Universität dazu beitragen? Also in unserem speziellen Fall haben wir auch eine Kunstpädagogik, also an der Universität für angewandte Kunst Wien, wie auch andere Kunstszenen ist tatsächlich. Wir haben gerade sozusagen, also das kann ich als Beispiel nennen, ein Projekt, das beschäftigt sich mit digitalen Spielgaben und die Idee dahinter ist, wie komme ich eigentlich sozusagen weg davon, ständig wie Fische im Wasser das Medium gleich mitzuliefern. Also da geht es speziell um den Primärbereich, Kindergarten, da wird genau das Gut Volksschule und weiter eben funktionieren. Wie kann ich sowas wie Digitalitätsgrundkonzepte, wie Binärcode, Logic Aids, müssen wir jetzt auch nicht zu weit gehen, aber Dinge, die sozusagen zu dem Grundwissen gehören, vermitteln, ohne Screens einzusetzen, ohne gleich eine App mitzuliefern. Und das ist total spannend, weil diese Spielgabe ist ein Konzept von Fröbel, der sozusagen den Kindergarten erfunden hat, unter Anführungszeichen. Wir kennen das alle noch. Das ist diese Scheibe, wo man dann die Kugel durch einen Kreis durchdrücken muss. Das ist eine Spielgabe zum Beispiel, um sowas wie abstrahiertes Wissen zu vermitteln, noch zu lernen und gar nicht mal, dass das jetzt schon direkt eine Anwendung hätte, sondern möglicherweise viel später in irgendeiner Weise brauchbar werden würde. Und da fragen wir uns tatsächlich gerade, wie kann man mit Kindern sozusagen das spielerisch erleben und auch spielerisch begreifen? Weil da ist natürlich eine Form, die ich ganz stark sehe, wie können wir das Ganze auch wieder handgreiflicher machen? Und das meine ich jetzt nicht so als ein liebliches Dahingesagt, sondern wie komme ich weg von diesem ständigen Screen-Kult und schaffe auch wieder sowas in der Anwendung zu haben, dass wir das auch begreiflich bekommen, was wir da eigentlich tun. Und das ist, glaube ich, eine Möglichkeit, wo zum Beispiel die Pädagogik auch in die Richtung gehen könnte. Ja, wie gesagt, wir haben jetzt nicht mehr so viel Zeit. Ich muss jetzt allmählich eine Schlussrunde kommen. Ich beginne da mit Ihnen, Herr Strauß, und dann hat der Clemens Abrechter das Schlusswort. Also ich glaube, wir haben jetzt schon einen Punkt erreicht, doch ein bisschen differenziert, diese Entwicklung abzustecken, diese Technologie. Sie, das habe ich versucht rauszuhören, sind ja nicht verzweifelt oder gar allzu skeptisch, sondern Sie haben eine gewisse Zuversicht mir gegenüber erkennen lassen. Jetzt ist die Frage, was können Sie eigentlich in Ihrer wissenschaftlichen Arbeit tun? Wo setzen Sie eigentlich jetzt auch Ihre Schwerpunkte? Wo stellen Sie sich hin, um zu sagen, okay, aus dieser Perspektive möchte ich jetzt künstliche Intelligenz und ihre Weiterentwicklung beobachten und beforschen, beziehungsweise, was mich natürlich auch noch interessiert, ihre Einschätzung, was können wir als kritische Medien dazu beitragen? Ja, aktuell forsche ich gerade eben genauso kritischer Medienkompetenz quasi im Umgang mit AI, im Projekt SAIL, das heißt Critical AI Literacy für die Arbeiterkammer. Da geht es um die Frage, wie sich die Wissensarbeit verändert mit künstlicher Intelligenz und genau darum, sozusagen sowas wie ein Leitfaden zu entwickeln auch, wie man das in irgendeiner Form vermitteln kann. Da geht es eher um die ArbeitnehmerInnen-Perspektive, um die betriebliche Perspektive und da ist sehr stark die Bildungsfrage im Endeffekt drin und das ist ein anderes Projekt, das quasi kommt und das ist sehr stark die Bildungsfrage im Endeffekt drin und das ist ein anderes Projekt, das quasi kommt und das ist eine generelle Frage. Ich glaube, dass wir in der Forschung vor allem auch diesen Bildungsaspekt sehr stark machen müssen, weil da ist sozusagen, das ist so eine Art Knackpunkt. Da gibt es sehr wichtige Dinge, die man untersuchen muss und die man untersuchen muss und die man neu lernen muss. Da bin ich völlig beim Kollegen. Man muss sozusagen weg von dieser App-Kultartigkeit. Es gibt ja auch, auch wenn man die Förderprogramme ansieht, da gibt es ja teilweise auch, es muss immer neue Technologie entwickelt werden. Da ist aber die Frage, wenn ich jetzt die These unterschreibe, dass man kritische Medienkompetenz stärken muss, warum brauche ich da sofort wieder Technologie? Dann müsste ich eigentlich einmal anfangen, dass ich sozusagen auch das rationale, kritische Denken in irgendeiner Form so weit adaptiere, dass ich diese Technologie neu und besser verstehen kann, damit ich dann besser und innovativere Anwendungen entwickeln kann und sie auch sinnvoll anwenden kann. Das wären so Dinge. Und nach wie vor treibt mich auch um die grundrechtliche Frage. Also wie verändert sich mit der Technologie das Wertesystem, das gesellschaftliche Wertesystem? Was macht das mit unseren Normen? Da sind wir auch wieder bei der Automatisierung. Wenn man soziale oder gesellschaftspolitische Prozesse automatisiert, dann ist es auch eine ethische Frage im Endeffekt. Das sind spannende Fragen, die auch ein bisschen mit der Bildungsfrage im Endeffekt zusammenhängen, weil man auch so etwas wie Ethik sozusagen praktikabel handhabbar machen muss. Also es reicht jetzt nicht, dass man jetzt sagt, okay, wir brauchen eine vertrauenswürdige KI. Das wäre auch wieder so ein bisschen ein Widerspruch, den ihr da sehen würdet, die Sprachkombination, also die Wortkombination vertrauenswürdig und die Technologie. Also kann eine Technologie vertrauenswürdig sein? Das sind so Fragen, die mich da auch umtreiben aktuell. Das sind so Fragen, die mich da auch umtreiben aktuell. Jetzt noch ganz kurz nachgefragt, wenn hier quasi auch öffentliche Verantwortung auf den Plan treten muss, sei es regulativ, aber auch quasi neue Modelle oder Konzepte, Ansätze zu verfolgen im Bereich der Medienkompetenzvermittlung, dann wird das Geld kosten. Was wird denn das in etwa kosten? Das kann ich nicht beantworten. Das müssen die Politiker fragen. Aber haben Sie den Eindruck, dass in Österreich dafür ausreichend getan wird? Schwierig, würde ich sagen. Ich glaube, Medienkompetenz wird so verstanden, es geht halt um Tablets an Schulen. Das ist so meine Wahrnehmung, wenn ich das Thema in Kontext Bildung höre. Da könnte man, glaube ich, noch einiges verbessern. Oder ein Besuch mit den Schulklassen im Ars Electronica-Sektor in zwei Stunden. Ja, genau. Und bei den Medien vielleicht noch die Frage, was die Medien tun. Die Medien könnten zum Beispiel sehr viel tun, nämlich auch weg von diesen dystopischen Berichten drüber, beziehungsweise auch von diesen Potenzial- Jubelmeldungen, von diesem Hype. Also bei JGPT wäre schon so eine Frage. Am Anfang kam das, das wurde ja nicht zufällig von Microsoft quasi querfinanziert, die haben Milliarden in die Hand genommen, weil das natürlich eine klare Technologie-Push ist. Alle reden drüber, alle schreiben drüber und der Journalismus greift das dann auf und dann zirkuliert das, geht dann quasi viral und das ist mit ein Grund, warum wir so einen großen JGPT-Hype gerade haben. Und da redet keiner mehr drüber, was kann das Ding eigentlich, sondern das Ding kann halt alles. Also es bleibt dann hängen. Nicht jeden Startup gleich hochjubeln, sondern einfach ein bisschen kritischer hinschauen, also wenn es ja gut ist, also warum nicht, aber differenziert das sozusagen. Alles klar, Herr Abrech, Sie haben jetzt das Schlusswort, eineinhalb Minuten dafür. Wir haben schon gehört, was sich hier in dieser Entwicklung der künstlichen Intelligenz widerspiegelt, sind eigentlich viele Aspekte auch des realen Lebens. Wir haben schon gehört, Rassismus ist im Zusammenhang mit KI genauso ein Thema wie Sexismus. Wir haben hier verschiedenste Problemstellungen. verschiedenste Problemstellungen. Aus der realen Welt kennen wir quasi das, was wir gerne auch als Widerstand oder Widerständigkeit bezeichnen. Wie können denn wir Widerstandsaktivität in die Entwicklung der KI hineintragen? Ich meine, eine ganz einfache Form wäre natürlich, sozusagen die Finger davon zu lassen, aber das ist auch nicht sozusagen die Empfehlung, die ich da aussprechen würde. Ich finde es spannend, tatsächlich wiederum in die Geschichte zu gehen und deswegen hilft die uns ja wirklich sozusagen zu lassen, aber das ist auch nicht sozusagen die Empfehlung, die ich da aussprechen würde. Ich finde es spannend tatsächlich wiederum in die Geschichte zu gehen und deswegen hilft die uns ja wirklich sozusagen zu sehen, um diesen Hype auch ein bisschen abzudämpfen, dass die Dinge sich schon immer gewandelt haben und wir immer mit denselben Problemen so ein bisschen kämpfen und Technologie ist tatsächlich auch sowas wie ein Spiegelbild unserer eigenen selbst. Also in der Technologie erkennen wir unsere Probleme wieder und können, wie ich das mehrmals schon betont habe, aus so einer Diagnose im Moment quasi heraus entstehen. Und ganz konkret würde ich sagen, tatsächlich, wenn man wegkommt von dieser Frage, was ist denn jetzt KI und so weiter und sich eher fokussiert auf die Frage maschinelles Lernen oder was heißt Lernen, wäre das genauso für mich eine Reflexion, wie wollen wir eigentlich lernen? Wollen wir mit Technologie lernen zum Beispiel? Ist das etwas, was wir genuin haben? Ich würde sagen, die Menschheit hat das immer schon in einer gewissen Weise gemacht. Wollen wir diese Tools einsetzen? Dann noch wie? Was gerade angesprochen wird, und das gibt ja in Österreich mittlerweile jetzt eine digitale Grundbildung, heißt es ja sozusagen, in den Schulklassen. Aber muss das immer dieses eine sozusagen pädagogische Konzept sein, dass es sozusagen nur individuell funktioniert? Oder wollen wir das gemeinsam machen? Und das ist, glaube ich, die Frage, wo wir uns nachdenken könnten. Ja, wir bei DörfTV oder auch ich in meinem Politikprogramm werden das ohnehin weiterhin im Auge behalten. Ich sage vielen herzlichen Dank Ihnen beiden, Stefan Strauß, Institut für Technikfolgenabschätzung an der Österreichischen Akademie der Wissenschaften, sowie Clemens Aperich, Leiter der Abteilung Medientheorie an der Universität für Angewandte Kunst in Wien, eine Schwesteruniversität, der Kunstuniversität hier in Linz. Ja, vielen Dank natürlich wie immer den Zuseherinnen und Zusehern, die mit Interesse dabei waren. Spannende Diskussion, die wahrscheinlich auch viel weiter zum Nachdenken angeboten hat beziehungsweise auch Anregungen hatte. Ich darf mich verabschieden wie immer mit meinem Ersuchen zum Abschluss. Bleiben Sie dem Senderes Vertrauens, nämlich DorfTV, auch weiterhin gewogen. In diesem Sinne noch einen schönen Abend und auf Wiedersehen.