'Artificial Intelligence needs a body to gather an understanding of the world' with Florian Röhrbein – Permeable Subjects: A column – Text in English + Deutsch

++++ Siehe unten die deutsche Version ++++

As living beings, we are born into a body. We are not asked and therefore can't give our consent in the moment of being embodied. We as humanity haven't been able to come to an agreement about the specific moment when an embryonic cell heap is granted human rights or a status of consciousness. Is the brain the matrix of our consciousness, or how does that work? Could it be transplanted from one body into another and then, subsequently start to reanimate and reconstruct the previous personality, taking a reference to "Ghost in the Shell"? Lots and lots of questions not being easy to clarify – unfortunately not at this point in this column – but what is possible here, is an approximation to the relationship of consciousness and corporeality from the perspective of robotics. Robotics defined as a science about technical bodies serving people - and therewith it fuels imaginations and fears of the servants rising to change seats with their masters. Nowadays, however, builders can (still) quite control how and if the robots can access their environment. So what is the significance of a body for a robot, and his builder? Especially if it comes to an intelligent robot? Meaning a mechanical body that is connected to an artificial intelligence? Here a few insights and experiences from Florian Röhrbein, senior lecturer at the research group Robotics and Embedded Systems in the Informatics Department of the Technical University Munich. Röhrbein is also managing director of Neurorobotics, a platform of the Human Brain Project, one of the largest scientific research projects in the disciplines of neuroscience, computing and brain-related medicine funded by the European Union:

'Research in robotics is knowledge-driven. Our working approach is to build things in order to understand how they function. It is also possible to notice then what we have not yet understood and where we must continue to search for solutions. So, we build artifacts because we thrive to learn about living beings as well as about ourselves as humans. Among these artifacts, we have a particular interest in artificial neural networks that are connected to a body: so-called "embodied cognitive systems". We demand that such systems would be more than just software that we communicate to via a computer, for example, by voice control or keyboard. They have to be physically in the world and be able to manipulatively affect it. An example of a pure software system is Deep Blue, the chess computer. He can do his job very well, even better than the best person in this discipline, but he can only play chess, and not even move the game pieces himself. The computer parts don´t count as a body here, they are only a "container" of the software and very unlike to what we call a body in robotics, which needs to have actuators, mechanisms enabled to grab or manipulate objects.

But if we want to build a truly intelligent system - intelligent in the sense that this system can have its own subjective understanding of the world – there is a need of a body, in our view. Because only a body, and thus a physical "being-in-the-world", causes the symbols that a system uses, in order to connect to something outside of the world. For example the color "red". We can type this word into a search engine and we will get search results for it. But very few people would claim that a search engine knows what "red" means. Such a meaning only becomes consistent when we are physically part of this world and have sensors. There are small individual differences, but on the whole, what we call "red" is linked to a particular wavelength that we perceive through our eyes. And so it is with other sensory modalities. It is quite similar to the motoric performance, also. An artificial system that doesn´t have a body, can store information, of course, like: what makes an object a chair? But it does not know what it feels like to sit in a chair. It certainly feels in a certain way when we have our articulations in certain positions. We can perceive this in a sensorial manner.

But the body is so much more than an interface between the brain and the physical world. There is, and this has come into focus in recent years, not just a dependency of cognitive abilities on the body - which we can see from expressing emotions with our bodies - but this dependency also exists reversely. There are experiments that show that when facial muscles are activated the same way as they would be for a grin, a person is going to feel measurably better. The body thus has an effect on emotional well-being and also on cognitive performance.

My work in robotics and artificial intelligence made me realize how difficult it is to fulfill cognitive tasks that we, as humans, do not perceive as such. For example, to recognize a chair as such. Let's take a look over there: this chair identifies to us as a chair because of its back. This back is just a bright wooden board. It is a bit curved, has an irregular shape, but we immediately recognize that as part of a chair. Even if we have never seen this specimen or even a chair from this production series. Why? Because it is standing around with similar objects around another object, which we recognize as a table. The context of "I am in a room" feeds our expectations that certain objects will be there, too and that other objects will not. And all that is something we are not aware in the moment that we look at a chair.

Nevertheless, many people are afraid that robots will someday replace them or even dominate them. But I do not think, that robots - and they will be more and more around us in the near future - will cause a radical break in our society. For many, many years, we have surrounded ourselves with ever more complex tools that always have lead to certain representations in the brain that were not there before, thus changing it. It started with the production of stone knives back in the Stone Age, and it continues with ever more sophisticated tools where we can count on certain robots. They are an extension of our body, a potentiation of possibilities, through the appropriation of materials in the world around us. And this is not a new development, but one that we humans deal with from the very beginning.'

  • protocolled by Veronika Dräxler

Als Lebewesen werden wir in einen Körper hineingeboren. Ob wir diesen nun wollen, gut finden oder auch gar nicht leiden können (werden), darüber können wir in dem Moment, in dem wir ins Leben treten wohl herzlich wenig bewusst verfügen. Zudem sind wir uns als Menschheit auch noch nicht einig, wann denn einem embryonalen Zellhaufen Menschenrechte bzw. ein Bewusstsein zugestanden wird. Und wenn es um Bewusstsein geht, ist hier nun das Gehirn das Zentrum, oder wie ist hier die taxonomische Ordnung? Könnte es für sich alleine in einen anderen Körper verpflanzt werden und dann die zuvor belebte Persönlichkeit rekonstruieren, siehe „Ghost in the shell“? Fragen über Fragen, die an dieser Stelle, in dieser Kolumne natürlich auch nicht einfach so geklärt werden können, aber was möglich ist, ist eine Annäherung an die Beziehung von Bewusstsein und Körperlichkeit aus der Perspektive der Robotik. Robotik im Sinne der Wissenschaft der technischen Körper die den Menschen dienen – und damit auch einhergehend die Urangst, dass sich die Diener über ihre Herren erheben könnten. Aber bei einem Roboter können die Erbauer (noch) recht genau kontrollieren, wie und ob der Roboter sich seine Umwelt erschließen kann. Welche Bedeutung hat dann also ein Körper für einen Roboter und seinen Erbauer? Vor allem für einen intelligenten Roboter? Also einen mechanischen Körper, der mit einer künstlichen Intelligenz verbunden wird? Ein paar Einblicke und Erfahrungen hierzu von Dr. Florian Röhrbein, Privatdozent am Lehrstuhl für Echtzeitsysteme und Robotik an der Technischen Universität München, sowie Leiter von Neurorobotics, einem Unterbereich des Human Brain Projects - eines der größten wissenschaftlichen Forschungsvorhaben der übergreifenden Disziplinen Neurowissenschaft, Computer und Gehirn-bezogener Medizin, dass von Mitteln der Europäischen Union gefördert wird:

„Die Forschung an der Robotik ist erkenntnisgetrieben. Der Arbeitsansatz dabei ist, dass wir dann etwas gut verstehen, wenn wir es gebaut haben. Dann merken wir vor allem auch, was wir alles noch nicht verstanden haben, und wo wir weiter nach Lösungen suchen müssen. Also bauen wir Artefakte, um etwas über Lebewesen an sich, aber auch über uns selbst als Menschen zu erfahren. Unter diesen Artefakten sind für uns besonders künstliche neuronale Netze interessant, die mit einem Körper verbunden werden: sogenannte „Embodied Cognitive Systems“. Von solchen Systemen fordern wir, dass sie mehr sind als reine Software, mit der zum Beispiel per Sprachsteuerung oder Tastatur über einen Computer kommuniziert wird. Sie sind physisch in der Welt und können auch manipulatorisch auf diese einwirken. Ein reines Softwaresystem hingegen ist beispielsweise Deep Blue, der Schachcomputer. Der kann seine Sache sehr gut, sogar besser als der beste Mensch in dieser Disziplin, aber er kann nur Schachspielen, und dabei noch nicht einmal selbst die Spielfiguren bewegen. Der Computer zählt hier übrigens nicht als Körper, er ist nur ein „Behälter“ der Software, denn er hat im Unterschied zu dem was wir in der Robotik als Körper bezeichnen keine Aktuatoren, also Antriebselemente, die Gegenstände greifen oder bearbeiten können.

Wenn wir aber ein wirklich intelligentes System bauen wollen – also intelligent in dem Sinne, dass dieses System sich selbst ein Verständnis über die Welt aufbauen kann - dann braucht es unserer Ansicht nach einen Körper. Denn nur ein Körper und damit ein physisches „in-der-Welt-sein“ führt dazu, dass die Symbole, mit denen ein System umgeht, an etwas in der Welt draußen angekoppelt sind. Zum Beispiel: die Farbe „rot“. Wir können dieses Wort in eine Suchmaschine eingeben und wir werden hierfür Suchergebnisse erhalten. Aber die wenigsten Menschen würden behaupten, dass die Suchmaschine weiß, was „rot“ bedeutet. So eine Bedeutung kommt ja erst dadurch zustande, dass wir physisch Teil dieser Welt sind und Sensoren haben. Es gibt kleine individuelle Unterschiede, aber im Großen und Ganzen ist eben das, was wir als „rot“ bezeichnen, mit einer ganz bestimmten Wellenlänge verknüpft, die wir über unsere Augen wahrnehmen. Und so ist das auch mit anderen Sinnesmodalitäten. Ganz ähnlich auch von der motorischen Seite. Ein künstliches System, das keinen Körper hat, das kann natürlich Information speichern. Wie: Was macht ein Objekt zu einem Stuhl? Aber es kann nicht wissen, wie es sich anfühlt, auf einem Stuhl zu sitzen. Es fühlt sich ja in einer gewissen Art und Weise an, wenn wir unsere Gelenke in bestimmten Positionen haben. Das können wir sensorisch wahrnehmen. Wie auch Zustände unseres Körpers.

Der Körper ist aber sehr viel mehr als ein Interface zwischen dem Gehirn und der physischen Welt. Es gibt, und das kam auch erst so in den letzten Jahren in den Fokus, nicht nur eine Abhängigkeit der kognitiven Fähigkeiten zum Körper - was wir etwa daran sehen, dass wir mit unserem Körper Emotionen ausdrücken - sondern diese Abhängigkeit existiert auch andersherum. Es gibt Versuche, die zeigen, dass wenn Gesichtsmuskeln so angespannt werden, wie sie für ein Grinsen angespannt würden, dann geht es den Menschen messbar besser. Der Körper wirkt somit auf emotionales Befinden und auch kognitive Leistungen ein.

Meine Arbeit in der Robotik und mit künstlicher Intelligenz hat mich erst darauf aufmerksam gemacht, wie schwierig kognitive Aufgaben zu erfüllen sind, die wir als Menschen gar nicht als solche wahrnehmen. Eben zum Beispiel einen Stuhl als solchen zu erkennen. Sehen wir zum Beispiel dort hin: Diesen Stuhl macht nur seine Lehne zu einem Stuhl. Diese Lehne ist zunächst ein Mal ein helles Brett. Welches ein bisschen gebogen ist, eine unregelmäßige Form hat, aber wir erkennen das sofort als Teil eines Stuhls. Auch wenn wir dieses Exemplar oder auch einen Stuhl aus dieser Produktionsserie noch nie gesehen haben. Warum? Weil er zusammen mit ähnlichen Objekten an einem anderen Objekt herumsteht, welches wir als Tisch erkennen. Durch den Kontext „Ich befinde mich in einem Zimmer“, entsteht die Erwartungshaltung, dass es dort gewisse Objekte gibt, sowie, dass es andere Objekte nicht gibt. Dann werden Objekte vermutet, die hier mit Wahrscheinlichkeit anzutreffen sind. Zu denen gehören eben Stühle, Tische, Lampen und so weiter. Und all das ist etwas, dessen wir uns gar nicht bewusst sind, während wir einen Stuhl ansehen.

Trotzdem haben viele Menschen Angst davor, dass Roboter sie irgendwann ersetzen oder wir gar von ihnen beherrscht werden. Das sehe ich aber so nicht, dass es durch Roboter - und sie werden in naher Zukunft immer mehr um uns herum sein – in unserer Gesellschaft zu einem radikalen Bruch kommen wird. Wir umgeben uns schon seit vielen, vielen Jahren mit immer komplexeren Werkzeugen, die im Gehirn immer zu bestimmten Repräsentationen führen, die davor nicht da waren und es somit verändern. Das hat damals in der Steinzeit mit der Herstellung von Steinmessern angefangen und das setzt sich immer weiter fort durch immer ausgefeiltere Werkzeuge, zu denen wir auch bestimmte Roboter zählen können. Sie sind eine Erweiterung unseres Körpers, eine Potenzierung der Möglichkeiten, durch das Nutzbarmachen von Materialien in der uns umgebenden Welt. Und das ist keine neue Entwicklung, sondern eine mit der wir Menschen uns von Anbeginn beschäftigen.“

  • protokolliert von Veronika Dräxler.