The Intelligenz ist irgendwie eine Eigenschaft, die du brauchst, um Probleme zu lösen. Und damit ist eigentlich schon das meiste gesagt, glaube ich. Ich würde eher dazu tendieren, von Intelligenz im Fugger als von Fett. Hallo, this is TestTubeLab number 3. Intelligence is the reason of our success, our problems, and our understanding. Without, we would not even know that we exist. Or would we actually exist without? Intelligenz scheint mir eine Art Umbrella-Term zu sein, der eigentlich aus unterschiedlichen Arten oder Facetten zumindest besteht. unterschiedlichen Arten oder Facetten zumindest besteht. Ich glaube, die bekannteste Form oder eine der bekanntesten Formen von Intelligenz, auf die wir häufig implizit referieren, wenn wir den Begriff Intelligenz gebrauchen, ist die Erkennung von Mustern. Aber natürlich spielen auch andere Bereiche mit hinein wie emotionale Intelligenz. Also ja, auch da eine Form von Sensibilisierung, glaube ich, aber eben auf einer anderen Ebene als die Sensibilität für Abstraktes oder die Sensibilität für Muster. Deswegen, ich glaube, es ist eher aus meiner Sicht klüger, von unterschiedlichen Formen von Intelligenz oder Facetten oder Spielarten von Intelligenz zu sprechen, als das Ganze auf eine Definition runterzubrechen. Weil ich glaube, das ist eben nur reduktionistisch, macht es auf der anderen Seite aber eben auch leicht, den Intelligenzbegriff in unterschiedlichen Disziplinen zu benutzen. Er wird ja viel in der Robotik auch gebraucht und in der KI-Forschung. Und wir müssen, glaube ich, aufpassen, wenn wir das machen, also von Intelligenz in verschiedenen Bereichen sprechen, dass wir immer klar spezifizieren, was wir hier genau mit Intelligenz meinen. so ¶¶ Torsdagsbladet Fertilisering 1.5 kg demeritante demeritante demeritante Kjell Krona Wie macht man dem Menschen Tiere ein Gedächtnis? Wie prägt man diesem teils stumpfen, teils farseligen Augenblicksverstande, dieser leibhaften Vergesslichkeit etwas so ein, dass es gegenwärtig bleibt. Dies uralte Problem ist, wie man denken kann, nicht gerade mit zarten Antworten und Mitteln gelöst worden. Vielleicht ist sogar nichts furchtbarer und unheimlicher an der ganzen Vorgeschichte des Menschen als seinem Nemotechnik. Man brennt etwas ein, damit es im Gedächtnis bleibt. Nur was nicht aufhört, weh zu tun, bleibt im Gedächtnis. Das ist ein Hauptsatz aus der allerältesten, leider auch allerlängsten Psychologie auf Erden. Man möchte selbst sagen, dass es überall, wo es jetzt noch auf Erden Feierlichkeit, Ernst, Geheimnis, düstere Farben im Leben von Mensch und Volk gibt, etwas von der Schrecklichkeit nachwirkt, mit der ehemals überall auf Erden versprochen, verpfändet, gelobt worden ist. Die Vergangenheit, die längste, tiefste, härteste Vergangenheit haucht uns an und quillt in uns herauf, wenn wir ernst werden. Es ging niemals ohne Blut Martern Opfer ab, wenn der Mensch es nötig hielt, sich ein Gedächtnis zu machen. Die schauerlichsten Opfer und Pfänder, wohin die Erstlingsopfer gehören, die widerlichsten Verstümmelungen, zum Beispiel die Kastrationen, die grausamsten Ritualformen aller religiösen Kulte. Und alle Religionen sind auf dem untersten Grunde Systeme von Grausamkeiten. Alles das hat in jenem Instinkt seinen Ursprung, welcher im Schmerz das mächtigste Hilfsmittel der Mnemonik erriet. Gedächtnis ist die Grundlage der Intelligenz. Ich würde mal behaupten, dass ohne Gedächtnis eigentlich gar nichts, zumindest nicht im Sinne unserer Beschreibung der Welt existiert. Wenn man mal einen Unfall gehabt hat und eine Gedächtnislücke hat, dann ist das, was da passiert, einfach nicht. Und ich werde jetzt schon langsam älter, da beginnt man irgendwie Dinge zu vergessen und sucht nach den Dingen und erinnert sich möglicherweise an Dinge, die viel später waren, aber das Gedächtnis ist, wie gesagt, meiner Meinung nach die Grundlage der Intelligenz, um nicht weiter zu gehen, überhaupt des Seins. Auf jeden Fall ist es die Grundlage des bewussten Seins und wir haben ja hier auch so eine Art Gedächtnis- und Feedbackschleife mit unserem Chat. Isabella, du hast ja in die Zukunft gefragt sozusagen, wenn wir uns jetzt die Zeitlinie oder den Zeitkreis, wie auch immer, vorstellen, was quasi Neues entstehen kann und ob das nicht mit Kreativität zu tun hat. Christoph, du bist ja fleißig am Kommunizieren. Wie ist die Frage genau, beziehungsweise was gibt es zu dem Thema? Die Frage war, ob Intelligenz sich nicht genau vor allem dadurch auszeichnet, dass sie Neues kreiert. Und das ist allerdings dann im Chat diskutiert worden, ob das nicht eher Kreativität ist und ob sozusagen Intelligenz überhaupt etwas Neues bringt oder nicht vielmehr die Verarbeitung auch von dem, was schon da ist und in welchen Bezug das dann auch zur künstlichen Intelligenz beziehungsweise auch Kunst und künstlerischer Leistung steht. Also kreieren und Intelligenz. Aber was schon da ist, ist gut. Das ist ja eben das Gedächtnis. Es ist ja nur da, was quasi abgespeichert ist. Christian, du arbeitest ja auf dem Feld. Es ist ja etwas schwierig, mit Dingen zu arbeiten, künstlerisch wie auch in der Forschung oder in der Wissenschaft, dass nicht aufgezeichnet ist oder dass man sich nicht erinnern kann. Ja, sagen wir mal, ein grundlegendes Problem wäre, wie man überhaupt Neues erkennt. Und insofern wäre eben schon das Erkennen von etwas Neuem möglicherweise eine Fähigkeit, die Intelligenz erfordert. Ja, ja, aber was heißt neu? Genau, was heißt neu? Und das ist tatsächlich, wenn man sich mit autonomen Systemen beschäftigt, eine sehr relevante Frage. Weil wann schreibe ich was zum Beispiel neu ein? Also wann lohnt es, weil Gedächtnis, ja vielleicht ist Gedächtnis eine zwingende Voraussetzung für Intelligenz, aber die Frage ist natürlich, wann merke ich mir was neu? Wenn ich das alte ja schon kenne. Das ist ja schon mal so keine einfache Antwort drauf und irgendwie kriegen wir das ständig hin. Wir wissen, wenn ich jetzt den Thomas, muss ich mir nicht neu merken. Den kenne ich ja schon oder glaube ich zu kennen. Gleichzeitig ist der natürlich auch immer wieder ein anderer. Naja, aber das ist ja genau die Frage, für wen es neu ist. Also das Neue kann ja nicht abstrakt einfach so formuliert werden, sondern für wen ist es neu und wer kennt das schon und wer definiert, was alt und neu ist. Richtig, aber mein Auge zum Beispiel, für mein Auge ist eigentlich alles immer neu. Und das ist ja an sich schon verrückt genug, oder? Und um Energie zu sparen, versucht es die ganze Zeit, Altes wiederzuerkennen. Ja. Ja, das sind dann eben die berühmten Muster und Vorurteile und was es alles da gibt. Heißt das jetzt, wer ist witzig? Ist das jetzt intelligent, das Alte, Erkannte wiederzufinden? Ist es eine intelligente Vorgehensweise? Ja, das ist eben die Frage, wie man Intelligenz definiert. Sich überhaupt etwas merken zu können, kann man als intelligent bezeichnen. Ich würde aber so weit gehen, um zu sagen, dass eigentlich alles ein Gedächtnis hat. Fast alles zumindest. Aber eigentlich ist das ein Riesen... Wir leben in einem riesigen Speicher, auf einer riesigen Speicherplatte. Die Dinge merken sich ja auch Dinge. Also es ist leichter, ich glaube es ist quasi ins Gesamtsystem eingeschrieben oder es ist quasi die Grundfunktion des Gesamtsystems basiert darauf, dass Dinge gespeichert werden. Also man kann ja zum Beispiel sagen, dass Erdöl ein Informationsspeicher ist. Also da ist die gesamte Information von Milliarden von Bäumen und alles, was denen widerfahren ist, ist quasi da hineingespeichert. und alles, was denen widerfahren ist, ist quasi da hineingespeichert. Wir können es nur nicht auslesen. Möglicherweise ist das Erdöl eine Speicherplatte, also quasi so etwas wie eine Speicherplatte. Und die Idioten verbrennen jetzt gerade das Archiv. Aber im Chat wird gerade gesagt, dass das Gedächtnis als Bedingung für Intelligenz schwierig ist, weil es ein zu enger Begriff dann von Intelligenz wäre. Weil das würde wiederum eine Trennung von zwei Substanzen bringen, geistig nur materielle. Also die Frage, was gespeichert ist, was nur gespeichert ist. Was heißt nur gespeichert? Die Definition von Kreativitätität nicht das Neue zu schaffen, sondern Neues neu zusammenzufügen. Also die Frage ist natürlich, was ein Speicher ist. Also ist Speichern, muss man sich das als aktiven Prozess vorstellen, oder ist das ein Prozess, der sozusagen irgendwie was passiviert und sagen wir mal in der Psychologie und auch in den Neurowissenschaften wird eben auch unterschieden zwischen dem, was man als Kurzzeit- oder Arbeitsgedächtnis bezeichnet und dem, was das Langzeitgedächtnis ist. was das Langzeitgedächtnis ist. Und die sind wiederum beide, wenn es die denn so gibt, auf jeden Fall in Wechselwirkung zu denken. Und das Arbeitsgedächtnis, das steckt quasi schon im Namen dieses Gedächtnisses, das muss die ganze Zeit arbeiten. Wenn es nicht arbeitet, ist es futsch. Und das ist auch was, wenn ich das eine mit dem anderen vergleichen will, dann muss ich mir, weil ich es eigentlich gleichzeitig nicht unbedingt auf der Retina haben kann, dann muss ich mir das eben kurzzeitig mal merken. Und dann kann ich sagen, das ist was anderes oder das sieht gleich aus. Das ist also schon ein Prozess. Anna, ich frage dich jetzt auf Deutsch, das Buch mit den Sicht, also das hat sowas von Demenz, wenn die Wörter rausfallen und die Seiten wieder leer werden, dann löscht sich dann die Erinnerung. Das war ja aber ein großer kreativer Prozess, das zu machen. Gedächtnis beschreiben. Also wie arbeitest du mit dem Gedächtnis? Weil deine Sachen sind ja, deine Arbeiten sind ja oft sehr assoziativ und referieren auf sehr viele Dinge. Sonst würde man deine Arbeit nicht verstehen und mir gefällt das eben sehr, dass du quasi, du hast ein großes Netzwerk an Assoziationen und die Grundlage ist ja Gedächtnis. Nein, nein, das stimmt nicht. Mein Gedächtnis ist minimal. Ich vergesse immer alles. Und ja, ich erinnere mich an diese Geschichte von dem Oktopus. Ich weiß nicht, ob ihr das wisst. Ein Freund, der ist Biologe, hat mir das gesagt. Es gibt Probleme bei Oktopus, weil die sind superintelligente Kreaturen. Die können sehr komplexe Probleme lösen. Und die Wissenshaftler sind sehr begeistert. Wir haben auch acht Hirne. Ja, aber das Problem ist, dass wenn die Mutter den neuen Oktopus macht, sie stirbt sofort. Sie kann nicht übergeben, ihr Wissen. Die Oktopusen müssen immer von Anfang an von Null anfangen. Und immer alles neu entdecken. Es gibt keine Generations Wissenübertragung. Und das ist auch bei mir. Jeder Projekt fängt von Null an liebe diese octopus unentwickelte intelligente kreatur und muss alles von null lernen und anfangen so nah alles bei mir liegt nicht in meiner intelligenz oder in meinen beobachtungen. Ich liebe Sachen zu sehen und zu beobachten. Und ich versuche das immer mit nackten Augen, wie diese neugeborenen Oktavien. Das ist super spannend, weil ich würde jetzt mal behaupten, also wie heißt das? Langzeitgedächtnis. Wie? Altsam. Nein, nicht Altsam. Kärleksfond There is a beautiful historical piece, kind of myth, the Golem story, where the Golem is made from clay, so earth, and the way to animate, so bring this thing that is formed out of dead matter is written words. And this is precisely here the metric relation that I see in your quote, and I'm absolutely on the same page in seeing here the parallel to how we communicate with machines, for example. And I find it very interesting that you bring the machinic aspect to groups of people. And then maybe to make it more clear, to give a more clear example, there's one sentence that I use in teaching also. It's, you see the difference between the human is riding the horse and the horse is allowing the human to sit on his back while running. So either or, both sentences produce a totally different machine thinking if you put it into machine. And this is where you give, I don't know, conscious or less conscious power systems into so-called intelligent machine systems and they will reproduce it. It's like a really clear example of it, of the same. I think this relates to a question that's running through my head. I want to ask to the round whether, when you, because as I understand it, one of your points is to kind of like work with these robots or work with this technology to artistically find different ways of dealing with technology. And one of the issues I think at play is that whenever you use some technology, you are also subscribing to the logics of that very technology and how the logics of the technology you are using is kind of like shaping your thought. It's also a question I wonder, Stefan, you have done this project with Margaret Wie können wir uns ein künstliches neuronales Netz vorstellen? Also im Grunde genommen beruht es darauf, dass du praktisch sagst, du hast mehrere Schichten, die so ineinander gestapelt sind. Und von einer Schicht zur nächsten gibt es Verbindungen, die diese Informationen dann da weitertragen. Und in einer Schicht, da hast du sowas wie zum Beispiel bei einer Kamera, wo du eben verschiedene Pixel hast, die Sachen aufnehmen. Du hast da bei einer Kamera blo wo du eben verschiedene Pixel hast, die Sachen aufnehmen. Du hast ja bei einer Kamera auch bloß eine begrenzte Anzahl von Pixeln. Jedes Pixel hat irgendwie eine bestimmte Helligkeit und damit arbeitest du jetzt. Und genauso arbeitet das neuronale Netz auch. Ein Pixel hat eine einzige Helligkeit und das wird dann praktisch verarbeitet und zur nächsten Schicht weitergegeben. Und der Trick ist praktisch eigentlich dabei, dass du viele von diesen Schichten aufeinander stellst. Du hast praktisch eine ganze Menge von solchen Schichten. Jede Schicht arbeitet im Grunde genommen mit ganz ähnlichen Prinzipien. Du hast immer dieses eine Pixel, das eine bestimmte Helligkeit sozusagen hat, du kannst dir vorstellen, oder eine Amplitude hat oder was, und die verknüpfst du dann geschickt von einer Schicht zur nächsten und hinten kommt dann irgendwas raus. Und jetzt ist Deep Learning Sachen sozusagen das Wichtige, wie mache ich es jetzt, dass da hinten das Richtige rauskommt. Also das ist sozusagen eigentlich der entscheidende Schritt. Die Idee war schon längst da, aber sozusagen die nötige Mathematik beziehungsweise die Algorithmen, die dann dafür sorgen, dass ich auch diese Gewichte zwischen den Schichten, also was ich praktisch von einer Schicht zunächst machen muss, Gewichte zwischen den Schichten, also was ich praktisch von einer Schicht zunächst machen muss, dass ich das lernen kann aus irgendwelchen Eingangsdaten und irgendwelchen vorgegebenen Ausgangsdaten. Das ist der eigentliche Schritt gewesen, der wichtig war, der extrem wichtig war. überraschend nah dran an dem, was so ein biologisches Gehirn macht. Auf der anderen Seite ist es unglaublich weit weg. Es gibt Ähnlichkeiten, diese Schichten zum Beispiel, die einzelnen Elemente, dass so eine Schicht aus vielen kleinen Elementen zusammengesetzt ist, die nennen wir jetzt im Gehirn sind es die Nervenzellen. In dem Netz nennen wir es halt ebenfalls Neuronen, künstliche. In Wirklichkeit ist es nichts anderes wie so ein einzel verarbeitet und noch einmal. Und irgendwann einmal ist da vorne angekommen und dann mache ich eine Augenbewegung. Dann habe ich irgendwie eine Entscheidung getroffen, ich will jetzt schauen, ob das Recording noch läuft oder irgend so was. Das hat dann diese ganze Verarbeitung für mich gemacht. Aber es gibt auch wahnsinnig viele Unterschiede. Zum Beispiel sind die meisten neuronalen Netze einfach so aufgebaut, dass die Information von einer Schicht zur nächsten einfach so weitergegeben wird und fertig. In unserem Gehirn funktioniert es nicht so. Da gibt es mehr an Rückkopplung innerhalb des Gehirns als an Vorwärtskopplung. Was ich erlebt habe, ist, als ich ein bisschen mit der Programmierung mit tiefen Neural Network Strukturen von Google überwacht habe, und was ich finde, ist, dass es tatsächlich, zum Beispiel, in dem ganzen System kein Feedback-Loop gibt, oder ich es nicht sehe. Es ist wie ein straightforwardes, feed-forward system. And I wonder, so how is that possible? I tried to bring in some recursion into this thing, and if there is recursion, it's very, very local, but the whole system is kind of like always conceived in a way of classification. And I think it's, I would like to know how you relate to that, to not getting trapped in those. I think it's a kind of like feed forward information processing, for example, you put some data in and then you have kind of like an electronic data machine that does something with it. And at the end you have one decision. That is a very strong paradigm in computer science and it's kind of like, I would say it corrupts, it may corrupt your thinking and I would like to ask in the round how you think one can or should deal with that. So at least in the kind of traditional deep networks, they are totally feed-forward. And the only feedback is the backpropagation during learning. And that feedback, that kind of learning, while you are learning the network, the information, the errors which the network makes, they basically go back and therefore for you learn the weights of the feed forward stuff. But then you switch off, you switch off the learning. You basically, your network is ready and that's it. That makes of course a big difference to biological systems. So our brain is never switched off learning. So we learn all the time. While we are here, we are learning. Our synapses are changing all the time. The weights, which are the weights in the network. And I think it would be a big mistake to kind of mix up these deep networks with anything that happens in our brain so there are some similarities of course but otherwise it's totally different we also know that in our brain actually the feedback connections are often much more important than the feed-forward connections. So there's a lot of information going back. Everything is kind of hooked up to recursive feedback. And that's a total difference to what the networks, at least the traditional ones, do. I think in the last couple of years, there have been a couple of attempts to make, to build in some some kind of feedback loops. I don't completely follow that. That's why it makes sense to speak about a neuroscience inspired AI and not to take it as the same so it's really different. Just let me add this one sentence and then please Christian. That's why we also in this installation that we did now at the added that the system we were scrambling the weights so we started to scramble the weights the connections among the layers in order to destroy the system more or less which had a double meaning it is also a political message if you scramble the weights, the connections of the different dimensions of layers of calculation, so to say, and that was on purpose as part of a performance. And this is an important message. It doesn't shape your thinking. If you are shaping the technology, that's only what you can do when you intervene as early adopter into emerging technologies, even if you don't understand it. You can sort of open the engine and try to intervene here. And this is an important move, only to get a move, this act. So not to use technology to intervene into technology in certain moments. So yeah, but sorry, I don't know if I answered, but it was important for me to add. When you start dealing with this technology, the technology starts to shape the way you're thinking and I think one of the dangers would be that because all these networks actually when they are functioning are working in a feed- forward way that you start thinking about stuff really working like that although if you ask someone like Stefan he will tell you no it's not and the very fact that we are that our whole perception is actually a total construction and that's basically because our brain is constructing kind of like contingencies and all of that. We have all these kind of strange I think also strange metaphors which are also basically dictated by our technology very often. I have like I had one thought when some I can't remember who was talking about maybe what like how our neural system is not the same like a machine and we shouldn't like mix it up. And then I was thinking like, ah, you know the sentence with the horse and the human and the power system that is in the language. I would always say like never tell this a machine, but actually the same happens if you tell it to a human. It's like what i'm teaching to design students and architecture students is like the the the image of of the human being and the mindset you have while constructing words and while telling and narrating words will feed back on every machine or person that gets this as input. And maybe it's like the same damage that is produced by saying the human is riding the horse, because actually the horse is part of it, and there's a feedback connection and a relation between those two entities that are coming up with the decision of moving in this way together. And maybe it's like really the same damage that is happening to all the human brains that we input or that we are like less sensible what we input into our brains I mean that's really clear like psychological spam with advertisement and all this but maybe we can see it again see it the other way around and think of all the humans as machine learning systems and then see what we input there and see all the damage we we give to the world by this serendipity would be the the term that i would use here or even the cybernetic serendipity. It is this lucky chance, der glückliche Zufall, which we are often missing like in rounds as we are here with these virtual meetings where everything is much more structured. That's what I noticed and what really plays often a role in the biological systems. And also it plays a role in the work of Anna Vasov, who also is a part of this dream, as I learned from Thomas. And she's not present here as speaker, but with some of her artwork that is then visible on the stream. Right. And it's the right moment also to talk about her because she also just finished her artistic PhD, or her arts-based PhD at the Angewandte as well, with some of the work that we are showing in the stream as well. So it was just in, so last year, autumn last year, and I also was one of her, I was in her exam jury as well after artistic PhD there so I'm happy that we see some of her work where she plays a lot with the elements of time time loops as Thomas safety for and also with serendipity as a to file which role does it play in her art as material also for discussing, for making discourse objects, for developing such epistemic things or epistemic objects that is quite relevant here. related to a kind of, let's call it system. It's never standing alone, this intelligent, it's always related to something. Therefore there is not an intelligence, but it's an intelligence in relation. intelligence in relation. I can live with that, yes. I'm not surprised that you can live with a systemic approach that Michael is also presenting to us, but there is a positive thing also about it, this relational aspect um and and i wonder if there is one point also um i see also from katia the term intuition on her drawings and if we couple this is quite interesting also need the face recognitions with the emotion recognition so is there a plan? I made plan A for iMotions. What is about affective computing, emotional affective computing that is connected to them to this systemic approach of simulating systems also? I'm not sure who wants to say something to that. I think this, what affects us, the machines like us now i am a machine i also read her as a key was the the mc ian mcgian has machines like us and described beautifully in his book and also a topic there how we affect how do we connect with these emotional aspects in these stimulating systems i also think that affect and emotions are very complex phenomena. So, from one side we have computers trying to understand emotions by learning, by using huge databases, depending whether it's facial expressions or even body language but I don't think the technology that we have currently can also include all the rest of the information that you need when you're interacting with someone for example in order to understand what the other person is feeling. Because it's not very straightforward. In chess, you have one move, and then there are finite numbers of moves that you can have from that step on. And in emotions, there are so many things that happen. There is also context. There is also so many things involved within the interaction. So I also think that at this stage where we are now, that this is something that machines cannot do and won't be able to do. Terima kasih telah menonton. ¦ ¦ © transcript Emily Beynon Bye. you