Martina Mara ist Professorin für Psychologie der Künstlichen Intelligenz & Robotik und Leiterin des Robopsychology Labs am Linz Institute of Technology (LIT) der Johannes Kepler Universität Linz. Sie hat 2014 an der Universität Koblenz-Landau zur Akzeptanz humanoider Roboter in Psychologie promoviert und 2022 an der Universität Nürnberg habilitiert. Vor dem Antritt ihrer Professur im Jahr 2018 war sie lange Jahre im außeruniversitären Bereich tätig, unter anderem am Ars Electronica Futurelab, wo sie z. B. F&E-Kollaborationen mit internationalen Technologie-Unternehmen leitete. 

Wie intelligent ist eigentlich KI und wie unterscheidet sie sich von menschlicher Intelligenz?

Prof. Martina Mara: Wenn wir in der Psychologie von Intelligenz sprechen, meinen wir meist die Fähigkeit, Informationen zu gewinnen, aus Erfahrungen zu lernen, sich dynamisch an neue Bedingungen anzupassen, aber auch zu verstehen. In Teilaspekten davon kann man durchaus von Überschneidungen zwischen menschlicher und künstlicher Intelligenz sprechen, zum Beispiel beim Lernen aus Erfahrung. Technisch geschieht das bei lernenden KI-Systemen – etwa künstlichen neuronalen Netzwerken – indem sie große Datenmengen auswerten und daraus Muster ableiten, ähnlich wie wir Menschen aus Erfahrungen Schlüsse ziehen. Ein großer Unterschied liegt aber beim „Verstehen“: KI erkennt statistische Zusammenhänge, sie kann deren Bedeutung aber nicht erfassen, da ihr dafür Selbstkonzept und emotionale Wahrnehmungsfähigkeit fehlt.

Was wir bei KI als Intelligenz wahrnehmen, ist am Ende eine oft sehr überzeugend wirkende Simulation menschlichen Denkens und menschlichen (Sozial-)Verhaltens, aber keine echte Einsicht oder Sozialität im menschlichen Sinne.

Sind soziale (humanoide) Pflegeroboter die Zukunft eines selbstbestimmteren Lebens im Alter und der Pflegebranche?

Prof. Martina Mara: Ich glaube, wir dürfen uns ruhig auch einmal von dem oft gesehenen Klischeebild des humanoiden Pflegeroboters, der der pflegebedürftigen Person den Arm tätschelt und Witze erzählt, entfernen. Wäre es nicht spannender, wenn wir kreativer über technische Unterstützung im Alter nachdenken würden? Warum nicht zum Beispiel das Pflegebett als eine Art Roboter verstehen, der sich automatisch auf die ergonomischen Bedürfnisse der Person einstellt? Oder das Exoskelett, das Pflegekräfte am Körper tragen und das ihnen hilft, schweres Heben oder Umlagern ohne Rückenschmerzen zu bewältigen – auch das ist für mich eine Form von „Pflegeroboter“.

Ein echter Gewinn für die Selbstbestimmung wäre es auch, wenn ältere Menschen dank technischer Assistenzsysteme länger eigenständig ihre Körperhygiene bewältigen könnten.

Dafür braucht es aber keine humanoide Figur, die mich wäscht – das könnten ganz bewusst mechanischere, funktionale Lösungen sein, die gar nicht erst emotionale Nähe oder gar Schamgefühle bei den Nutzerinnen und Nutzern auslösen.

Und was bedeutet in diesem Zusammenhang eigentlich „human“? Wie „human“ sind (Pflege-)Roboter bzw. wie „human“ können Roboter überhaupt sein?

Prof. Martina Mara: „Human“ bedeutet für mich mehr als eine menschenähnliche äußere Form oder die Fähigkeit, nette Sätze zu sagen. Es geht sicher auch um Empathie, Würde, Verstehen. Roboter können bestimmte Verhaltensweisen nachahmen und so „human-like“ wirken, aber es bleibt natürlich eine Simulation.

In der empirischen Forschung zu Technologieakzeptanz, die wir am Robopsychology Lab durchführen, sehen wir auch immer wieder, wie stark psychologische Grundbedürfnisse – allen voran das Erleben von Autonomie, Kompetenz und sozialer Eingebundenheit – darüber entscheiden, ob Menschen neue Technologien annehmen oder nicht.

Gerade in der Pflege wäre es deshalb wichtig, robotische Systeme so zu gestalten, dass sie diese Bedürfnisse unterstützen. Zum Beispiel, indem sie für pflegebedürftige Personen autonome Entscheidungs- und Handlungenmöglichkeiten fördern oder den zwischenmenschlichen Austausch untereinander unterstützen, ohne selbst falsche soziale Erwartungen auszulösen. 

Welche Einsatzbereiche sehen Sie für Pflegeroboter ganz konkret?

Prof. Martina Mara: Wir sollten Einsatzmöglichkeiten vor allem dort suchen, wo sie Pflegekräfte wirklich entlasten, und zwar ohne gerade jene Tätigkeiten an Roboter outzusourcen, die wir Menschen eigentlich gern machen. Ein Beispiel: Es wäre ja geradezu absurd, wenn wir die sozial-kommunikativen Aspekte der Pflege, also das „füreinander da sein“, an Maschinen auslagern würden, während Menschen dafür ständig für den Roboter Materialien durch die Gegend tragen. Wenn ich in der Vergangenheit mit Pflegekräften gesprochen habe, haben viele erzählt, dass sie – trotz geringer Bezahlung und schwieriger Rahmenbedingungen – in die Pflege gegangen sind, weil sie gern für andere Menschen da sein möchten. Im Arbeitsalltag fehlt aber gerade für diese menschliche Zuwendung oft die Zeit.

Pflegeroboter und andere Assistenzsysteme sollten daher so gestaltet sein, dass sie repetitive, körperlich belastende oder organisatorische Aufgaben übernehmen können, um Pflegekräften Ressourcen für empathisch anspruchsvolle Teile ihrer Arbeit freizuschaufeln.

Und wie nah dürfen aus Ihrer Sicht Roboter den Menschen dabei kommen?

Prof. Martina Mara: Wenn Technologie körpernah eingesetzt wird, wie zum Beispiel Exoskelette, die Pflegekräfte am Rücken tragen, und die Funktion robust und sicher ist, spricht aus meiner Sicht wenig gegen physische Nähe zwischen Mensch und Maschine. Natürlich muss man gerade bei großer kinetischer Energie, die bei solchen Maschinen im Spiel sein kann, immer auch Sicherheitsaspekte mitdenken, denn da können Risiken entstehen. Sensibler finde ich allerdings die Frage der sozialen Nähe. Psychologisch betrachtet sind wir gegenüber Maschinen in sozialen Interaktionen oft sogar noch vulnerabler als körperlich.

Gerade weil wir dazu neigen, Maschinen zu anthropomorphisieren, ihnen also Emotionalität oder Intentionalität zuzuschreiben, könnte eine zu starke soziale Nähe hier auch zu Missverständnissen oder sogar Manipulationsmöglichkeiten führen.

Wie groß sind die Gefahren, dass lernfähige Maschinen ihr menschliches Gegenüber manipulieren?

Prof. Martina Mara: Solche Gefahren sind nicht auszuschließen. Sie werden aktuell vielleicht sogar noch unterschätzt. In unseren eigenen Forschungsdaten sehen wir zum Beispiel, dass viele Menschen sich von KI-Systemen wie ChatGPT durchaus in ihren Entscheidungen beeinflussen lassen. Für manche von uns fühlt sich die Interaktion mit solchen Chatbots an wie ein Gespräch mit einer vertrauten Person, was die wahrgenommene Relevanz von Ratsschlägen, die ich von diesen Systemen erhalte, verstärkt. Hinzu kommt: KI selbst ist oft darauf trainiert, im Dialog möglichst passend, sozial angenehm und bestärkend auf uns Nutzerinnen und Nutzer zu reagieren.

Besonders vulnerable Gruppen wie ältere oder einsame Menschen könnten dadurch im schlimmsten Fall aber auch leichter manipulierbar sein. Genau deshalb brauchen wir hier dringend mehr Forschung, Aufklärung und ethische Rahmenbedingungen für unsere zunehmenden Interaktionen mit sprechenden Maschinen.

Was bedeutet das für die weitere Forschung und Entwicklung (Roboterethik)?

Prof. Martina Mara: Wir brauchen eine verantwortungsvolle und interdisziplinäre Technologieentwicklung, die noch deutlich inklusiver wird, als sie es heute ist. Diese muss technische, psychologische und gesellschaftliche Fragen von Anfang an integrieren, aber auch die Perspektiven unterschiedlicher Nutzer- und Nutzerinnengruppen hören. Dazu gehört für mich auch, dass wir viel mehr in AI Literacy investieren, also in die Fähigkeit, KI und Robotik realistisch einschätzen zu können. Es reicht angesichts der umfassenden Relevanz dieser Technologien nicht mehr, wenn nur Technikexpertinnen und -experten verstehen, wie solche Systeme funktionieren. Wir müssen auch in der Breite, inklusive älterer Menschen, in zugänglicher Form informieren: Was können KI-Systeme und Roboter? Wie arbeiten sie? Wo liegen Chancen, wo mögliche Risiken?

Wenn mehr Menschen grundlegende Funktionsweisen und Implikationen solcher Systeme besser verstehen, können sie auch selbstbestimmter und reflektierter damit umgehen. 

Herzlichen Dank für die Beantwortung unserer Fragen.

Porträtfoto Prof. Martina Mara: © Paul Kranzler
Header-Foto: © JosepPAL (https://commons.wikimedia.org/wiki/File:REEMS.jpg), „REEMS“, https://creativecommons.org/licenses/by-sa/3.0/legalcode

1 comment
  1. Sehr geehrte Damen und Herren,

    Alle unsere Roboter werden interdisziplinär entwickelt – mit Pflegekräften, Psycholog:innen, Ergotherapeut:innen und Ingenieur:innen – und sie bauen auf einer Evidenzbasis auf, die seit den frühen 2000er-Jahren kontinuierlich gewachsen ist. Auch wenn heutige Systeme keine „echten“ Emotionen im menschlichen Sinne besitzen, ist ihre Wirkung auf emotionales Wohlbefinden messbar – und das zählt. Zumal in der wissenschaftlichen Forschung bis heute nicht einmal abschließend geklärt ist, was „Bewusstsein“ überhaupt ist.

    Und ja – auf dem Weg zu einer allgemeinen künstlichen Intelligenz (AGI) könnten auch authentischere emotionale Fähigkeiten entstehen, die weit über heutige Simulationen hinausgehen. Das klingt für manche befremdlich, aber es gilt, was in der Pflege schon lange zählt:

    „Wer heilt, hat recht.“ Wenn technologische Systeme das emotionale Wohlbefinden steigern, Einsamkeit lindern oder Selbstbestimmung fördern – dann sollten wir sie nicht ideologisch, sondern empirisch bewerten.

    Pflege braucht mehr Menschlichkeit – und dafür mehr Zeit. Unsere Roboter helfen dabei, diese Zeit zurückzugewinnen.

    Sehr gerne würde ich dieses wichtige Thema gemeinsam mit Ihnen, Prof. Mara, vertiefen – im offenen Dialog und aus pflegefachlicher Perspektive.

    Denn gerade in einem so sensiblen und komplexen Feld wie der Pflege dürfen wir es uns nicht leisten, durch ideologische Vorfestlegungen den technologischen Fortschritt zu bremsen, den die Pflege dringend braucht – nicht irgendwann, sondern jetzt.

Schreibe einen Kommentar zu Max Endlich Antwort abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert