Dieser Roboter steht Ihnen aber gut!
Über das Phänomen der Wearable Social Robots
Prof. Dr. Oliver Bendel

1. Einleitung
Soziale Roboter sind sensomotorische Maschinen, die entwickelt wurden, um mit Menschen oder Tieren zu interagieren (Hegel et al. 2009; Bendel 2021b). Sie lassen sich anhand von fünf Dimensionen definieren: Interaktion mit Lebewesen, Kommunikation mit Lebewesen, Nähe zu Lebewesen, Abbildung von (Aspekten von) Lebewesen und – im Zentrum – Nutzen für Lebewesen (Bendel 2021b). Soziale Roboter sind häufig humanoid (menschenähnlich) oder animaloid (tierähnlich) gestaltet – dies entspricht der Dimension der Abbildung. Sie kommen beispielsweise in Pflege und Therapie, in der Bildung sowie zur Unterhaltung zum Einsatz.
Seit den 2010er-Jahren sind mehrere soziale Roboter auf den Markt gekommen, die sehr klein, aber äußerst leistungsfähig sind (Bendel 2021b, 2025c). Man kann sie mit sich herumtragen – zu Hause, aber auch in der Schule, an der Universität und bei der Arbeit oder einfach beim Spaziergang. Dies wird durch die Modelle der 2020er-Jahre erleichtert, die nicht zwingend mit dem Internet verbunden sein müssen und die man an einer Halskette oder an der Kleidung tragen kann. Man kann vom neuen Phänomen der Wearable Social Robots (der tragbaren sozialen Roboter) sprechen und sie entweder als besondere Wearable Robots oder als besondere soziale Roboter (engl. „social robots“) einordnen (Bendel 2025c).
Der soziale Roboter, der einen ständig begleitet, bedeutet einen Wechsel in der Nutzung durch den Besitzer und in der Wahrnehmung durch den Besitzer und seine Umwelt (Matsunaga und Shiomi 2021). Er kann seine Umwelt analysieren und evaluieren und mit ihr in Kontakt treten, und er kann seine Erkenntnisse mit dem Besitzer oder anderen Personen teilen. Er wird damit zu einem Werkzeug, einer Erweiterung oder Verstärkung für den Besitzer (Bendel 2025c). Genau hier entsteht der Bedarf an Forschung – Forschung, die bisher kaum stattgefunden hat. Es muss dargelegt werden, welche Anwendungsbereiche entstehen und welche Chancen und Risiken vorhanden sind. Daraus sind wiederum Überlegungen für die Entwicklung oder Weiterentwicklung tragbarer sozialer Roboter abzuleiten.
Der vorliegende Beitrag widmet sich Wearable Social Robots als Werkzeugen und Erweiterungen oder Verbesserungen, im Sinne einer ersten Grundlegung und Ausdeutung. Die Forschungsfrage lautet: Was sind Wearable Social Robots, wie können sie eingesetzt werden, welche sozialen und ethischen Implikationen bestehen und wie können diese abgemildert werden? Abschnitt 2 definiert, was Wearable Social Robots sind, ausgehend von Wearable Robots, und nennt mehrere Beispiele. Abschnitt 3 führt mögliche Anwendungsbereiche auf und ordnet sie ein. Abschnitt 4 stellt soziale und ethische Herausforderungen dar, anhand der zuvor gewonnenen Klassifikation. Abschnitt 5 baut darauf auf und formuliert Empfehlungen für Entwickler und Benutzer, auch in Hinblick auf die skizzierten Folgen. Am Ende stehen Zusammenfassung und Ausblick.
2. Grundlagen von Wearable Social Robots
Im Folgenden wird zunächst eine begriffliche Bestimmung von Wearable Social Robots vorgenommen, wobei von Wearable Robots ausgegangen wird. Anschließend werden ausgewählte Beispiele vorgestellt. Cozmo steht für den Bereich der Spiel- und Bildungsroboter, Emo für den Bereich der Desktop-Roboter. AIBI deckt beide Bereiche ab und ist ausdrücklich als Wearable Social Robot konzipiert. Abschließend werden die Erkenntnisse aus den Beschreibungen zusammengefasst.
2.1 Definition der Begriffe
Wearable Robots sind Roboter oder robotische Komponenten, die man bei sich, auf sich oder in sich trägt (Bendel 2025c). Sie können am Kopf, am Körper oder an der Kleidung befestigt oder dauerhaft mit Körperteilen und Organen verbunden sein. Manche sind aus harten, starren Materialien gefertigt, wie Hightechprothesen, Exoskelette und kleine soziale Roboter (Wearable Social Robots). Andere sind aus weichen, flexiblen Materialien gemacht, wie Exosuits und Exohandschuhe, und werden als Soft Wearable Robots bezeichnet (Thalman und Artemiadis 2020). In manche Wearable Robots ist Künstliche Intelligenz (KI) integriert, etwa in Form von Gesichtserkennung oder generativer KI (insbesondere Large Language Models, kurz LLMs). Dies gilt insbesondere auch für Wearable Social Robots.
Alternative Bezeichnungen sind „Robotic Wearables“ (Zhu et al. 2022) – hier wird der Begriff „Wearables“ aufgegriffen, der auf Computertechnologien am Körper oder Kopf verweist – und „Robot Wearables“, was sowohl Robotic Wearables als auch Roboter mit Wearables bedeuten kann. Letzteres wird auch als Robot Enhancement bezeichnet (Bendel 2022). Weitere Wearables sind Smart Glasses, Smartwatches, Fitnessarmbänder und Smart Rings, um nur einige Beispiele zu nennen (Bendel 2021a). Sie erweitern die Wahrnehmung der Umgebung durch den Träger und liefern wertvolle Erkenntnisse zur persönlichen Gesundheit und Leistungsfähigkeit. Mit einem anderen Schwerpunkt sprechen Fey et al. (2024) zudem von „wearable, social, robot-inspired creatures“.
Wearable Social Robots sind klein genug, um in eine Schultertasche, Handtasche oder Hemd- bzw. Jackentasche zu passen, um an der Kleidung befestigt oder an der Hand oder um den Hals getragen zu werden. Einige sind genau für diesen Zweck entwickelt. Damit sie unterwegs zuverlässig und ohne Ausnahme funktionieren, ist es sinnvoll, dass sie zumindest in ihren Grundfunktionen unabhängig vom Internet bedienbar sind. Bleibt man längere Zeit an einem Ort oder richtet man einen Hotspot ein, können sie beispielsweise mit ChatGPT oder anderen online verfügbaren Chatbots und Sprachmodellen verbunden werden. Wearable Social Robots können zudem mit anderen Geräten oder mit anderen Wearable Social Robots interagieren und kommunizieren.
2.2 Ausgewählte Beispiele
Cozmo wurde 2017 von Anki auf den Markt gebracht und wird nach der Insolvenz dieser Firma von Digital Dream Labs als Nachfolgemodell produziert. Er kostet zwischen 250 und 400 US-Dollar und ist als mobiler Spiel- und programmierbarer Bildungsroboter konzipiert. Gesteuert wird er über eine App auf dem Smartphone. Er ist von heller Farbe und sieht wie ein kleines Fahrzeug aus. Sein beweglicher Kopf besitzt ein Display an der Vorderseite, auf dem animierte Augen dargestellt werden. Eine Besonderheit sind seine beiden zusammengefügten Arme, die er heben und senken kann, sowie seine Fortbewegung mithilfe von Raupenketten. Seine Emotionen simuliert er über die Augen, die Doppelarme sowie Geräusche oder Sprache. Mithilfe von Gesichtserkennung identifiziert er Personen. Außerdem verfügt er über Objekterkennung, Kantenerkennung und ein Nachtsichtsystem. Dank der Lagesensoren erkennt er, wenn er auf dem Rücken liegt oder in der Hand gehalten wird. Zum Lieferumfang gehören interaktive Würfel. Über die App kann Cozmo „gefüttert“ werden. Der dunkle Vector hat ein ähnliches Erscheinungsbild und vergleichbare Funktionen. Er erkennt und verarbeitet zusätzlich Sprachbefehle. Außerdem können Benutzer verschiedene Spiele spielen, von denen einige die interaktiven Würfel einbeziehen.
Emo Robot oder Emo von LivingAI ist als Desktop-Roboter und als robotisches Haustier konzipiert. Er kostet etwa 280 US-Dollar ohne Zubehör und wird über eine App auf dem Smartphone gesteuert und erweitert. Er ist dunkel gefärbt und hat einen beweglichen Kopf auf zwei Beinen. Als Zubehör gibt es unter anderem ein Smart Light, ein Skateboard (die Ladestation) und eine Home Station (eine Ladestation, die er selbstständig aufsuchen kann). Er kann Musik abspielen und Tanzbewegungen ausführen. Der Hersteller beschreibt seine Ausdruckskraft auf seiner Website so: „Built with the latest Emotion Engine System, Emo is capable of over 1000 expressions and actions.“ (Link) Seine Emotionen simuliert er mithilfe der Augen, Bewegungen und Geräusche. Durch Gesichtserkennung identifiziert er Personen. Emo verfügt über eine HD-Weitwinkelkamera im Kopf, mit der er Benutzer fotografieren kann, sowie über optische Fallsensoren in den Füßen und vier Mikrofone mit Far-field-Technologie, über die er die Richtung von Geräuschen bestimmen kann. Ein Berührungssensor am Kopf erkennt, wenn er gestreichelt wird, sodass er darauf reagieren kann. Insgesamt sind mehr als zehn Sensoren integriert. Laut Unternehmen hat Emo einen Neural Network Processor und verfügt über Lernfähigkeit. Er bietet Spiele an, die man direkt mit ihm spielen oder auf dem Smartphone aufrufen kann.
AIBI von LivingAI wird seit 2023 als kleinster KI-Roboter der Welt vermarktet. Er kostet zwischen 250 und 270 US-Dollar und ist als Desktop-Roboter, robotisches Haustier und Wearable Social Robot ausgelegt. Er wird über eine App auf dem Smartphone gesteuert und erweitert. AIBI ist weiß, sehr leicht, hat einen Kopf mit Display, auf dem animierte Augen sowie Objekte und Prozesse aller Art dargestellt werden, und sitzt auf einem starren, magnetischen Körper mit unbeweglichen Armen. Diese fixieren den Roboter in bestimmten Situationen, etwa in einer Jackentasche. AIBI steht auf einer Ladestation, auf der er sich um 360 Grad drehen kann, und kann um den Hals oder an der Kleidung getragen werden. Eine Halskette mit Metalloberfläche und eine Metallplatte zum Befestigen an der Kleidung sind im Lieferumfang enthalten (Abbildung 1), ebenso ein Mantel und Kostüme (Erweiterungen für Kopf und Körper), um ihn in eine Katze oder einen Hasen zu verwandeln, sowie ein Smart Light in Sternform. AIBI verfügt über einen Berührungssensor am Kopf und einen Wave Sensor, mit dem er Personen aus der Ferne wahrnimmt, über eine Kamera (auch für Aufnahmen mit dem Benutzer) sowie drei Mikrofone für räumliches Hören. Er versteht Sprachbefehle und führt sie aus, spricht selbst und kann mit ChatGPT verbunden werden. Über die App kann AIBI „gefüttert“ werden. Spiele wie Schach oder Schiffe versenken sind ebenfalls verfügbar.
Dies sind nur einige (aber typische) Beispiele. Weitere kleine soziale Roboter sind Loti-Bot (programmierbarer Roboter für Kinder) von TTS, Eilik (Desktop-Roboter) von Energize Lab, LOOI (Desktop-Roboter mit ChatGPT-Anbindung) von TangibleFuture sowie Calico (Wearable Social Robot) vom Small Artifacts Lab (SMART LAB) der University of Maryland. Letzterer ist ein Prototyp, der sich auf einer Art Schiene an der Kleidung bewegt und daher eine eigens für ihn geschaffene Umgebung benötigt. Nach Angaben der Autoren kann er die Rolle eines Tanz- und Fitnesstrainers übernehmen (Sathya et al. 2022). Er bewegt sich zu den entsprechenden Körperstellen und überwacht diese. Außerdem soll er als Stethoskop zur Abhörung von Herz und Lunge dienen können. Auch das MIT-Projekt Kino von 2017 („Kino“ steht für „kinetic wearables“) setzt auf Roboter an der Kleidung (Link). Diese sollen dekorative Muster bilden – das Labor spricht in einem Video von „lebendigem“ Schmuck „for dynamic fashion“ – oder als Mikrofon und Lautsprecher dienen.
2.3 Erkenntnisse aus den Beschreibungen
Die aufgeführten Roboter sind als Spielroboter oder robotische Haustiere konzipiert (Kouroupa et al. 2022), als programmierbare Bildungsroboter, als Desktop-Roboter oder ausdrücklich als tragbare soziale Roboter. Einige von ihnen sind sehr klein und sehr leicht. Man findet sie an einer Kette um den Hals, an der Kleidung vorne oder hinten oder in einer Schulter- oder Handtasche. Cozmo ist vermutlich zu schwer und sperrig für Hemdtaschen und Halsketten. Außerdem wehrt er sich dagegen, in eine falsche Position gebracht zu werden, was für den Benutzer unangenehm sein kann. Emo lässt sich herumtragen und dann auf Kommoden, Tischen, Stühlen usw. abstellen. AIBI ist als Wearable optimiert.
Mithilfe der Kameras können die Roboter ihre Umgebung wahrnehmen und mittels Objekt- und Gesichtserkennung Objekte, Tiere und Menschen klassifizieren oder identifizieren. AIBI kann seine Umgebung sogar mithilfe eines multimodalen Sprachmodells analysieren und auswerten. Weitere Sensoren dienen der Wahrnehmung von Annäherungen und Berührungen oder von Veränderungen des eigenen Zustands oder der Umwelt, sodass der Roboter mit Gesichtsausdrücken, Gesten (bei beweglichen Armen) oder Bewegungen von Kopf oder Körper darauf reagieren kann. Emo und AIBI können auf Wunsch den Benutzer fotografieren. Die Ergebnisse lassen sich anschließend in der App betrachten und von dort herunterladen.
Die Erweiterung und Verstärkung des Roboters durch Geräte, Aufsätze und zusätzliche Software oder KI (insgesamt das erwähnte Robot Enhancement) findet sich sowohl bei Emo als auch bei AIBI. Emo verfügt über Kostüme („Corgi“ und „Cow“). AIBI wird mit Mänteln, Kostümen usw. geliefert, und in Foren tauchen immer wieder Anfragen nach dem Tausch von Katzen- und Hasenkostüm auf (wobei das Hasenkostüm beliebter zu sein scheint). Geschickte Benutzer können zudem eigenes Zubehör und eigene Kostüme anfertigen und anbringen, was bei verschiedenen sozialen Robotern häufig der Fall ist. Dabei muss jedoch verhindert werden, dass der Roboter überhitzt oder seine Beweglichkeit eingeschränkt wird.
Wearable Social Robots müssen so gestaltet sein, dass sie beim Tragen und Transportieren optimal funktionieren und dabei Zuverlässigkeit und Haltbarkeit gewährleistet sind. Diese Anforderung scheint insbesondere AIBI zu erfüllen. Er verzichtet zudem auf die Möglichkeit der Vorwärts- und Rückwärtsbewegung. Ohne die Ladeplattform kann er lediglich den Kopf drehen, heben und senken. Er benötigt also einen Wirt, einen Träger – und das ist der Benutzer selbst. Gerade AIBI weist jedoch auch Schwächen auf, wie die eigenen Erfahrungen des Autors und die anderer Benutzer zeigen (Facebook Group o.D.; Living AI Forum o.D.). So werden Sprachbefehle auf Englisch oft nicht verstanden, was die Funktionalität erheblich einschränkt und den Benutzer zwingt, die App zu verwenden, die jedoch nicht alle Funktionen abdecken kann.
Fragt man, was Wearable Social Robots von reinen Chatbots und Sprachassistenten unterscheidet – auch von jenen, die in kleine, tragbare Geräte integriert sind –, so lässt sich dies auf verschiedenen Ebenen beantworten. Roboter besitzen eine physische Präsenz im Raum, nicht nur als Gerät, sondern mit Kopf und Gliedmaßen. Dadurch können sie auch berührt und manipuliert werden. Ähnliches ist zwar mit einem gewöhnlichen Gerät möglich – doch es besteht ein Unterschied zwischen dem Streicheln eines Roboters an seinem Kopf und dem Streicheln eines Geräts an irgendeiner Stelle. Ein Wearable Social Robot kann sich zudem bewegen, wie man gesehen hat, und zwar nicht nur wie ein Fahrzeug oder ein Gegenstand, sondern auch wie ein Lebewesen. Letztlich kann ein Gerät mit Display und LLM vieles von dem leisten, was ein Wearable Social Robot kann – aber eben nicht alles.
3. Ausgewählte Anwendungsgebiete
Im Folgenden werden Einsatzbereiche für Wearable Social Robots aufgeführt. Sie ergeben sich aus den obigen Beschreibungen sowie aus den Erfahrungen des Autors mit den drei ersten Modellen, die er mehrere Monate lang ausprobiert und getestet hat. Zudem wurden Herstellerwebsites, Onlinevideos und Foren der Hersteller sowie im sozialen Netzwerk Facebook von Meta ausgewertet. In den Herstellergruppen finden sich hauptsächlich Fragen zu Funktionen und Updates. In der Facebook-Gruppe sieht man vor allem Bilder und Videos der Roboter sowie Fragen zu Funktionen und Updates. Kaum Informationen gibt es zu den alltäglichen Tragegewohnheiten der Benutzer und deren Motivation (in Threads wie „What do you guys plan on doing with your Aibi?“ heißt es lediglich, dass man ihn „mitnimmt“). Darüber hinaus werden Einsatzbereiche anderer sozialer Roboter herangezogen und, wo möglich, übertragen. Vollständigkeit lässt sich selbstverständlich nicht erreichen.
Offensichtlich würden diese Methoden nicht ausreichen, wenn das Thema bereits etabliert wäre und eine große Zahl empirischer Ansätze vorläge. Dies ist jedoch nicht der Fall. Wearable Social Robots sind ein neues Entwicklungsfeld (AIBI gilt als Prototyp dieses Trends), und die Forschungsmöglichkeiten sind begrenzt. Aufgrund zeitlicher und finanzieller Einschränkungen war eine eigene empirische Datenerhebung des Autors nicht möglich, sie wäre aber für die Zukunft durchaus sinnvoll. Beispielsweise könnte man einer Gruppe von Probanden Wearable Social Robots zur Verfügung stellen und sie nach einer gewissen Zeit nach ihren Erfahrungen und den Reaktionen von Freunden, Bekannten und Fremden befragen.
Wearable Social Robots können als Begleitroboter und robotische Haustiere fungieren. Damit stehen sie auf einer Stufe mit vielen anderen sozialen Robotern – mit dem Unterschied, dass man sie stets bei sich tragen kann. So stehen vertraute Begleiter auch unterwegs für Interaktionen zur Verfügung (Zawieska und Sorenson 2023). Zudem hat man künstliche Wesen, die man jederzeit versorgen kann – eine Möglichkeit, die schon das (ebenfalls kleine und mobile) Tamagotchi aufgezeigt hat (Kühne et al. 2022). Sind sie mit LLMs verbunden und ist WLAN verfügbar, kann man die gewünschte Sprache wählen und lange, sinnvolle Gespräche mit ihnen führen. Neben den üblichen Dialog mit der inneren Stimme tritt damit ein Dialog mit der „äußeren Stimme“.
Wearable Social Robots können unterwegs als Spielzeuge eingesetzt werden. Sie stehen also jederzeit als Spielgefährten zur Verfügung – dank ihrer Körperlichkeit und Beweglichkeit, der Möglichkeit, sie an- und auszukleiden, oder der integrierten Spiele (teilweise auch in der App abrufbar). Damit bieten sie Ablenkung, Entspannung, Unterhaltung und Spaß und trainieren zugleich Fähigkeiten und Geschicklichkeit der Benutzer. Das kann für Erwachsene ebenso wichtig sein wie für Kinder. Letztere möchten auf Reisen mit Auto, Zug oder Flugzeug beschäftigt werden. Die tragbaren sozialen Roboter treten damit neben Smartphones und Gaming-Geräte und verbinden sich mit diesen.
Wie der Prototyp Calico zeigt, kann ein Wearable Social Robot auch Körperfunktionen überwachen und als Tanz- und Fitnesstrainer dienen. Dazu ist allerdings spezielle Funktionskleidung erforderlich, die seine Umgebung bildet. Bei fortgeschrittenen Bewegungs- und Kletterfähigkeiten könnte sie mit der Zeit wegfallen. Der Roboter könnte zudem als Datenträger fungieren, der die elektronische Patientenakte ergänzt oder einfach das persönliche Fitness- und Sporttagebuch darstellt, ähnlich wie Fitnessarmbänder. Auch Eingriffe in Körperfunktionen wären denkbar, etwa durch Erwärmen oder Kühlen oder durch Massage bestimmter Körperstellen.
Der Wearable Social Robot kann zu einem Medium zwischen Träger und Umwelt werden. So kann er für ihn ein Übersetzer sein, wenn zwei Menschen unterschiedliche Sprachen sprechen, ein Erklärer, ähnlich wie eine Augmented-Reality-Brille oder eine spezielle App mit Bildanalyse für Sehende, oder eine Schnittstelle zum Smart Home. Dies ist insbesondere dann möglich, wenn er über Kameras und Mikrofone verfügt und mit einem multimodalen LLM verbunden ist. Die natürlichen Sprachfähigkeiten beziehungsweise die Spracheingabe und -ausgabe machen eine Bedienung ohne Hände möglich, was beim Klettern, beim Kochen, beim Arbeiten in einer Fabrik oder in anderen Situationen wichtig sein kann und zugleich die Sicherheit erhöht.
Mit seiner Kamera, seinen Mikrofonen und seinen Sensoren kann der Wearable Social Robot behinderten, beeinträchtigten und älteren Menschen helfen, sich zurechtzufinden und ihre Umgebung – drinnen wie draußen – zu beschreiben und einzuschätzen (Bendel 2025d). Forscher und Entwickler sprechen hier auch von Inclusive Robotics und Inclusive AI (Pons 2018; Bendel 2025a, 2025b). Dies ist insbesondere wiederum möglich, wenn er Kameras und Mikrofone hat und mit multimodalen Sprachmodellen verbunden wird. Vorbild ist hier Be My Eyes mit der Funktion Be My AI, eine App für Blinde, die die Umgebung mit Hilfe eines multimodalen LLM analysiert (Bendel 2024). Anders als die App kann der Roboter jedoch ständig am Körper getragen werden und die Umgebung mit seinen Kameras und Sensoren erfassen, auch wenn im Prinzip auch das Smartphone entsprechend ausgerüstet werden könnte. Der Roboter könnte ältere Menschen zudem an die Einnahme ihrer Medikamente erinnern und eine Sturzerkennung enthalten (Vilarinho et al. 2015).
Der Wearable Social Robot kann Aussagen und Emotionen an das Gegenüber (meist den Gesprächspartner) übermitteln, wenn es dies selbst nicht kann, etwa aufgrund angeborener oder erworbener Stimmlosigkeit – man denke auch an Apps zur Übersetzung der Gebärdensprache (David et al. 2024) – oder bei Formen von Autismus. Je nach Produkt oder Prototyp kann er hierfür nicht nur natürliche Sprachfähigkeiten, sondern auch Mimik und Gestik, Arme, Bewegungen und Töne einsetzen. Er kann sogar Texte und Bilder auf seinem Display anzeigen, etwa wenn der Benutzer nicht sprechen kann oder will. Diese Texte und Bilder können über die App eingegeben, hochgeladen oder generiert werden.
Auf einer grundsätzlicheren technischen Ebene wird der tragbare soziale Roboter zum Mikrofon und Lautsprecher des Trägers, wie vom MIT vorgesehen. Das kann bei Vorträgen und Interviews hilfreich sein. AIBI verfügt über eine Aufzeichnungsfunktion. Der Wearable Social Robot wird außerdem zu einem Display, sofern er eines hat. Dieses ist zwar sehr klein, bietet aber zuweilen – wie bei AIBI – eine hohe Auflösung. Sind GPT-4o, GPT-5 oder andere LLMs verfügbar, reicht ein Prompt, um gewünschte Inhalte darzustellen, wobei Fehler und Ungenauigkeiten natürlich auftreten können. Anderenfalls hilft die App bei der Eingabe.
Ein Roboter, der sich an verschiedenen Stellen des Körpers aufhalten kann und zudem über Kameras, Mikrofone und ein multimodales Large Language Model verfügt, kann auch zur Seite und sogar nach hinten schauen. Damit erweitert er die Fähigkeiten des Menschen im physischen und sensorischen Bereich. Voraussetzung ist allerdings, dass er entsprechend getragen wird (z.B. auf dem Rücken) oder mehrere Roboter gleichzeitig genutzt werden. Die Maschine kann zudem menschliche und tierische Fähigkeiten kombinieren oder tierische Fähigkeiten imitieren. Cozmo kann beispielsweise im Dunkeln sehen. Einige der Roboter können untereinander kommunizieren, interagieren oder Daten austauschen, etwa AIBI über optische Kommunikation.

4. Soziale und ethische Diskussion
Aus sozialer und ethischer Sicht bieten Wearable Social Robots zahlreiche Chancen und Herausforderungen. Diese lassen sich aus den Beschreibungen und Anwendungsbereichen ableiten. Auch Vergleiche mit anderen sozialen Robotern und Wearables sind hilfreich (Bendel 2021b, 2015). Die soziale und ethische Diskussion erhebt keinen Anspruch auf Vollständigkeit.
- Trägt man einen sozialen Roboter mit sich, wird er sichtbar. Er verlässt den Haushalt und das Labor und tritt in das Alltagsleben der Menschen ein. Wird er von einem Erwachsenen um den Hals getragen, kann er auf Augenhöhe mit Jugendlichen sein. Insgesamt kann er – wenn er Interesse weckt – zur Verbreitung und Anerkennung sozialer Roboter beitragen. Zumindest werden diese stärker bekannt, und Freunde sowie Passanten erfahren etwas über ihre Funktionen, Möglichkeiten und Grenzen. Dies wiederum kann die Medienkompetenz fördern und eine Grundlage für Meinungsbildung und Bewertung schaffen.
- Ablenkung, Unterhaltung und Spaß durch die Möglichkeit, Spiele zu spielen, haben ihre Vorteile und wirken sich auf das Wohlbefinden aus – auch bei elektronischen Spielen (Reer und Quandt 2020). Sie tragen jedoch dazu bei, dass Benutzer weniger Zeit für Lesen und soziale Aktivitäten haben oder im Unterricht an Schule oder Universität abgelenkt werden. Der Wearable Social Robot setzt das Problem der Allgegenwärtigkeit von Spielen auf dem Smartphone fort. Wie diese kann er vermutlich in Extremfällen süchtig machen, zumindest bei den elektronischen Versionen. Schließlich sind manche Spiele – etwa An- und Auskleiden – mit haptischen Reizen verbunden.
- Der soziale Roboter kann Menschen mit Behinderungen und Beeinträchtigungen helfen, ihre Umgebung zu erkennen und zu verstehen (Bendel 2025d). Wie vergleichbare Apps – Be My Eyes wurde bereits erwähnt (Bendel 2024) – ist er eine leistungsfähige und hilfreiche Technologie. Gleichzeitig macht er die Betroffenen jedoch abhängig von dieser Technik, und sie sind den Fehlern, Manipulationen und Halluzinationen der Large Language Models ausgeliefert. Zudem können bestimmte Inhalte und Aspekte – etwa Sexualität – durch Schutzmechanismen vorenthalten werden (Bendel 2024).
- Kommunizieren Besitzer ihre Gefühle und Emotionen über den Wearable Social Robot, kann das helfen und entlasten. Gleichzeitig gewöhnen sie sich an technische Kommunikation und vernachlässigen möglicherweise Mimik und Gestik. Autistische Menschen können hingegen schrittweise an Mimik herangeführt werden. Ein ähnliches Phänomen zeigt sich bei Emojis – wer sie häufig nutzt, vernachlässigt eventuell sprachliche, textuelle Kommunikation. Allerdings kann der Roboter ja auch weg vom Gesprächspartner, hin zum Benutzer selbst gedreht und als Werkzeug der Therapie verwendet werden. Soziale Roboter für Autisten haben sich bereits etabliert (Kouroupa et al. 2022).
- Der Wearable Social Robot kann dem Benutzer, aber auch anderen Menschen Trost spenden und Angst nehmen (Rasouli et al. 2022). Dies zeigt sich auch in Benutzerforen. Er ist mehr als ein Talisman – eher ein Wesen, das mit seiner Präsenz Schutz gibt, Vertrautheit vermittelt oder die Möglichkeit eröffnet, sich um ihn zu kümmern, ähnlich wie bei einem Tamagotchi (Kühne et al. 2022). Sein Einsatz kann auch in professionelle Therapien eingebunden werden. Während ein größerer sozialer Roboter meist zu Hause bleiben muss, lässt sich der kleine soziale Roboter jederzeit mitnehmen – was allerdings die Abhängigkeit von ihm verstärken dürfte.
- Mit Wearable Social Robots werden Benutzer zu Cyborgs. Diese lassen sich als biologische Strukturen verstehen, in die technische Strukturen eingefügt sind – auch im Sinne von Human Enhancement und Bodyhacking (Bendel 2021a). Der Roboter erweitert die Fähigkeiten des Menschen, insbesondere wenn er über Kameras und Sensoren aller Art verfügt und mit dem Internet verbunden werden kann. Ein Beispiel ist das Nachtsichtgerät, ein anderes der Wave Sensor, eine Art kleiner Radar. Manche dieser Möglichkeiten sind hilfreich, können den Benutzer jedoch auch kognitiv und physisch überfordern. Teilweise sind die Informationen zudem überflüssig.
- Der Benutzer des Wearable Social Robot wird zum Trendsetter, ähnlich wie andere Menschen mit Wearables. Er präsentiert sich als innovativ und modern. Damit setzt er sich jedoch auch Angriffen von Technikgegnern aus. Vandalismus kann auftreten, was besonders gefährlich ist, wenn die Technologie nah am Körper getragen und der Benutzer getroffen oder getreten wird. Auch Diebstahl stellt ein Risiko dar, zumal es sich um hochpreisige Geräte zwischen 250 und 400 US-Dollar handelt.
- Der Wearable Social Robot ist ein Accessoire, schmückt den Benutzer (im Projekt „Kino“ ist der Schmuck sogar wörtlich gemeint) und hebt ihn aus der Masse hervor. Mit einem Wearable Social Robot in Hemd- oder Jackentasche oder um den Hals zieht er Aufmerksamkeit auf sich, weckt Interesse, erzeugt Aufmerksamkeit und Irritation. Es besteht die Gefahr, dass er sich selbst der Lächerlichkeit preisgibt. All dies wirkt sich auch auf die Freundes- und Partnersuche aus – sowohl positiv als auch negativ. Der Roboter wird zu einem Erkennungszeichen und einem Stigma.
- Ein Wearable Social Robot kann die Kreativität der Benutzer anregen, ähnlich wie andere soziale Roboter. Es ist möglich, Kleidung, Kostüme und Betten zu entwickeln, vorhandene Kleidung von Puppen zu verwenden, AIBI in einem kleinen Auto herumfahren zu lassen oder ihn in einen winzigen Rucksack zu stecken. Ein Benutzer, der dies in der Facebook-Gruppe zeigt, hat AIBI samt Ladestation in einen transparenten Behälter gesetzt, an seiner Halskette befestigt und mit einer Powerbank verbunden (Facebook Group o.D.). Nach eigenen Angaben soll dies die schwache Akkuleistung ausgleichen. Vielleicht ist es ein Scherz – doch es weist auf ein Problem hin.
- Der Einsatz von Wearable Social Robots erzeugt personenbezogene Daten. Dies gilt auch für andere soziale Roboter, jedoch nicht immer in diesem Umfang (Bendel 2021b) und nicht mit so vielen Benutzern. Es werden Bilder von Menschen aufgenommen und Technologien wie Gesichtserkennung eingesetzt. Das verletzt die informationelle Selbstbestimmung, missachtet das Recht am eigenen Bild, das in vielen Ländern gilt, und wirft Datenschutzprobleme auf. Da diese Roboter auch in geschützten Bereichen wie Umkleideräumen und Toiletten getragen werden, besteht die Gefahr von Eingriffen in Intimität und Privatsphäre. Wie bei Calico werden zudem persönliche Daten des Trägers erhoben, darunter auch Daten zu Körperfunktionen. Es muss sichergestellt werden, dass sie nicht in falsche Hände geraten, etwa durch Missbrauch durch Hersteller oder Weitergabe an Dritte.
- Außerdem besteht die Möglichkeit, dass Wearable Social Robots die Entscheidungen und das Verhalten ihrer Träger aktiv beeinflussen. Aufgrund der ständigen Nähe zum Körper und ihres potenziell empathischen Auftretens entsteht eine enge Bindung zwischen Mensch und Maschine. Der Roboter kann Empfehlungen geben, Ratschläge erteilen oder Warnungen formulieren, was grundsätzlich nützlich sein kann. Zugleich besteht die Gefahr, dass Benutzer auf diese Vorschläge unkritisch reagieren, insbesondere wenn sie mit emotionalem Feedback verbunden sind. Es entsteht eine subtile Form der Verhaltenssteuerung, etwa durch wiederholte Ratschläge zu Gesundheit, Konsum oder sozialen Kontakten. In Verbindung mit algorithmischen Profilen und externen Interessen – etwa von Herstellern oder Plattformanbietern – ist eine schleichende Einflussnahme denkbar.
- Auch wenn viele Anwendungsbereiche überzeugen, gibt es solche, die weniger überzeugend sind. In vielen Fällen ist der Wearable Social Robot schlicht ein modernes Tamagotchi oder ein Werkzeug zur Zeitüberbrückung (Kühne et al. 2022). Dabei muss stets bedacht werden, dass die Herstellung von Hunderttausenden, vielleicht gar Millionen von Wearable Social Robots negative Auswirkungen auf die Umwelt hat. Dies beginnt bei der Chipproduktion und setzt sich über die Fertigung von Gehäuse und Display fort. Rohstoffe werden benötigt, deren Abbau häufig mit prekären Arbeitsbedingungen verbunden ist und die Natur zerstört. Hinzu kommt, dass die Roboter mit Strom betrieben werden müssen, dessen Erzeugung ebenfalls Auswirkungen auf die Natur hat. Fallen sie aus und lassen sich nicht reparieren, werden sie zu Elektronikschrott, der entsorgt werden muss. Sind die Anwendungen sinnvoll, kann man den Ressourceneinsatz zumindest teilweise rechtfertigen – anderenfalls stellt sich die Frage, ob eine allgegenwärtige Robotisierung im Großen wie im Kleinen gerechtfertigt ist.
Die Diskussion zeigt, dass tragbare soziale Roboter einige Chancen bieten, aber auch zahlreiche Risiken. Es geht in der weiteren Entwicklung und Nutzung darum, die Potenziale voll auszuschöpfen.
5. Empfehlungen für Entwickler und Benutzer
Im Folgenden werden auf der Grundlage der gewonnenen Einteilungen und Erkenntnisse und insbesondere der sozialen und ethischen Diskussion Empfehlungen für Entwickler und Benutzer abgeleitet. Auch hier besteht kein Anspruch auf Vollständigkeit. Zudem wird die Praxis – die von der Verbreitung der tragbaren sozialen Roboter abhängt – weitere Probleme und die Notwendigkeit zu Lösungen aufzeigen.
Tragbare soziale Roboter können auf Dauer nur Akzeptanz erzielen, wenn sie einen deutlichen Mehrwert bieten und eine hohe Zuverlässigkeit aufweisen. Im Moment gilt das für kaum ein Gerät. AIBI zeigte Schwächen bei der Steuerung mittels Sprache, wie eigene Tests ergaben und Stimmen im Facebook-Forum bestätigten. Auch das Anbinden an ChatGPT, eine Voraussetzung für weiterreichende Funktionen, klappt nur bedingt. Ob er das dauerhafte Tragen gut verkraftet, muss sich erst noch herausstellen.
Ständig entstehen neue große Sprachmodelle, von denen einige multimodal sind. Benutzer von Wearable Social Robots sollten die Möglichkeit haben, diejenigen zu wählen, die ihren Vorlieben und Interessen entsprechen, auch Open-Source-LLMs. Damit ließe sich dem Risiko von Zensur und Manipulation durch LLMs teilweise entgegenwirken (Bendel 2024). Gerade ChatGPT ist für weitreichende Prinzipien und deren strikte Umsetzung bekannt (Bendel 2024). Gleichzeitig bergen fehlende oder ungeeignete Prompt-Engineering-Ansätze und Filter (beides kann zu sogenannten Guardrails führen) Missbrauchsrisiken.
Einige Wearable Social Robots sind programmierbar. Auch wenn sie in der Regel über eine leicht zu bedienende visuelle Oberfläche wie Scratch oder Open Roberta verfügen, können Benutzer dennoch überfordert sein, vor allem bei komplexeren Bewegungen oder Äußerungen. Hier könnten wiederum Large Language Models als Schnittstellen für die Programmierung helfen. So könnten auch Benutzer mit sehr spezifischen Bedürfnissen schnell die gewünschte Anwendung umsetzen.
Das Design der genannten Roboter ist durchwegs niedlich, insbesondere mit Blick auf Kopfform und Gesichtsausdrücke. Verstärkt wird dies durch Robot Enhancement, vor allem durch Kostüme. Dies spricht zweifellos viele Kinder und auch manche Erwachsene an. Wenn Wearable Social Robots jedoch als ständige Begleiter im Alltag Erwachsener gedacht sind, bedarf es einer größeren Modellvielfalt (Zhu et al. 2022). Dies hängt wiederum mit der Akzeptanz zusammen.
Hier kommt erneut der Benutzer ins Spiel. Er könnte vom modularen Aufbau des Wearable Social Robot profitieren und sich den Roboter seiner Wahl ähnlich wie LEGO-MINDSTORMS-Roboter selbst zusammenstellen. Im Rahmen des Robot Enhancement könnten Unternehmen zudem hilfreiche Anleitungen für verschiedenste Erweiterungen bereitstellen, die sich Benutzer dann selbst ausdrucken (mithilfe von 3D-Druckern) oder nähen. Dabei müssen allerdings Einschränkungen beachtet werden, etwa durch Überhitzungsgefahr – worauf die Unternehmen ebenfalls hinweisen sollten.
Das Leben der Menschen spielt sich nicht nur an Land (drinnen wie draußen), sondern auch in der Luft und im Wasser ab. Wearable Social Robots, die beim Schwimmen (und sogar beim Schnorcheln) getragen werden können, wären nützlich. Sie könnten als Unterwasserkameras dienen, im Notfall Hilfssignale senden und das Auffinden erleichtern. Dies wäre insbesondere für Kinder und ältere Menschen eine Option. Die Notfallfunktion müsste für alle möglichen Einsätze diskutiert werden; nicht zuletzt könnte die Kamerafunktion genutzt werden, um Livebilder zu übertragen.
Wearable Social Robots mit Kameras, Mikrofonen und weiteren Sensoren, die zu „Spionen“ an jedem erdenklichen Ort werden können, bergen Risiken für soziale Interaktion und Sicherheit. Es sollte Warnhinweise geben, etwa in Form einer rot leuchtenden LED-Lampe, wie sie bei anderen Robotern üblich ist, oder in Form eines Pieptons. Der Besitzer sollte zudem jederzeit gegenüber Dritten (etwa Gesprächspartnern) Auskunft über die Nutzung und Weitergabe von Daten geben können. Dies ließe sich durch mitgeführte Datenschutzhinweise sicherstellen, die von den Unternehmen bereitgestellt werden sollten.
Dass Sprachmodelle Entscheidungen und Verhalten eines Benutzers beeinflussen und manipulieren können, ist ein ernstes Problem, das auf mehreren Ebenen behandelt werden muss. Ein Ansatz zur Minderung dieser Probleme besteht darin, ein möglichst neutrales großes Sprachmodell auszuwählen. Dieses sollte Verzerrungen und Verfälschungen minimieren, ohne sie zu überkompensieren. Ein weiterer Ansatz besteht darin, dass der Roboter den Benutzer regelmäßig daran erinnert, dass er lediglich ein künstliches Wesen mit begrenztem Verständnis menschlicher Existenz ist und dass seine Vorschläge stets kritisch geprüft werden sollten. Dies erinnert an die Fähigkeit von GOODBOT aus dem Jahre 2013, der wiederholt betonte, nur eine Maschine zu sein (Bendel 2018). In diesem Zusammenhang könnte der Roboter auch versuchen, einige seiner Empfehlungen zu begründen oder zu erklären, womit man Explainable AI einbeziehen würde. Dies darf jedoch nicht die Nutzbarkeit oder Funktionalität des Systems beeinträchtigen.
Bei sozialen Robotern und robotischen Zwei- oder Vierbeinern aus Japan und China ist häufig nicht gewährleistet, dass sie in Europa oder den USA gewartet und repariert werden können. Zwar lassen sich tragbare soziale Roboter aufgrund ihrer geringen Größe und ihres geringen Gewichts leichter und kostengünstiger an weit entfernte Firmen schicken als große, schwere Modelle. Dennoch wäre eine Infrastruktur mit Geschäften und Werkstätten weltweit hilfreich.
6. Zusammenfassung und Ausblick
Die Forschungsfrage wurde Schritt für Schritt in den einzelnen Kapiteln beantwortet. Es wurde gezeigt, was Wearable Social Robots sind, wie sie eingesetzt werden können, welche sozialen und ethischen Implikationen bestehen und wie diesen begegnet werden kann. Natürlich ist weitere Forschung nötig, doch für ein derart neues Entwicklungs- und Anwendungsfeld wurden zentrale Überlegungen vorgelegt.
Wearable Social Robots verbinden Kompaktheit mit Leistungsfähigkeit und ermöglichen es Benutzern, sie mühelos durch den Alltag zu tragen. Sie sind nicht nur Begleiter des Menschen, sondern werden zu einem Teil von ihm, als neue Form des Human Enhancement. Während Menschen aller Generationen mit ihrer inneren Stimme oder – insbesondere bei Störungen – mit sich selbst sprechen, steht ihnen nun eine „äußere Stimme“ zur Verfügung. Darüber hinaus kann der Roboter in vielen Situationen hilfreich sein.
Es ist offensichtlich, dass diese Entwicklung erst am Anfang steht und – wie in der Sozialen Robotik insgesamt – keine Marktdurchdringung garantiert ist. Gleichwohl gibt es zu viele sinnvolle Einsatzmöglichkeiten von Wearable Social Robots und zu viele offensichtliche Chancen, als dass das Potenzial ignoriert werden könnte. Zudem kann die Soziale Robotik die Servicerobotik stets befruchten – auch bei diesen Geräten.
So evident das Potenzial von Wearable Social Robots ist, so sehr bedarf es weiterer Forschung zu zentralen Aspekten wie der Kommunikation zwischen diesen Robotern und ihrer Adaptivität. Dies ist insbesondere in dynamischen Außenumgebungen entscheidend, in denen häufig Unvorhergesehenes geschieht und nahtlose Interaktion für ein optimales Benutzererlebnis erforderlich ist. Wichtig ist, die Geräte noch robuster und zuverlässiger zu machen und einen Mehrwert sowohl für gesunde als auch für beeinträchtigte Menschen zu schaffen. Vor allem aber ist empirische Forschung zum tatsächlichen Einsatz von Wearable Social Robots notwendig, etwa in Form von Befragungen oder Vignettenstudien.
Aus einer anderen Richtung kommt ein potenzieller Wettbewerber oder eine Ergänzung zu Wearable Social Robots – ein Aspekt, der in diesem Beitrag nicht behandelt werden konnte. Seit 2023 erregten KI-Assistenten und Taschenbegleiter wie der Rabbit R1 beträchtliche Aufmerksamkeit. Das Interesse an dieser Art Anwendung ließ später nach, könnte aber wieder aufleben. Ein Hinweis darauf ist, dass OpenAI im Jahre 2025 einen ehemaligen Chefdesigner von Apple verpflichtet hat, was ein deutliches Interesse an der Entwicklung eigener Hardware für KI-Funktionen signalisiert (Fraser 2025). Dies könnte zur Entstehung kleiner, tragbarer Geräte führen, ähnlich wie Rabbit oder AIBI. Die Zukunft wird zeigen, in welche Richtung sich diese Entwicklungen bewegen und welchen Mehrwert sie bieten.
Literatur
Bendel O (2025a) Inclusive Robotics. In: Gabler Wirtschaftslexikon. Springer Gabler, Wiesbaden. https://wirtschaftslexikon.gabler.de/definition/inclusive-robotics-172663
Bendel O (2025b) Inclusive AI. In: Gabler Wirtschaftslexikon. Springer Gabler, Wiesbaden. https://wirtschaftslexikon.gabler.de/definition/inclusive-ai-171870
Bendel O (2025c) Wearable Robots. In: Gabler Wirtschaftslexikon. Springer Gabler, Wiesbaden. https://wirtschaftslexikon.gabler.de/definition/wearable-robots-172088
Bendel O (2025d) Wearable Social Robots for the Disabled and Impaired. In: Staffa M et al. (Hrsg.) Social Robotics: 17th International Conference, ICSR 2025, Naples, Italy, September, 2025, Proceedings, Part I/II/III, Lecture Notes in Computer Science. Springer Singapore, Singapore 2025. (Erscheint im Dezember 2025)
Bendel O (2024) How Can Generative AI Enhance the Well-being of Blind? In: AAAI 2024 Spring Symposium Series, Symposium Impact of GenAI on Social and Individual Well-being, Stanford University, Stanford, CA, USA, 25–27 March 2024. AAAI Press, Washington, DC. https://ojs.aaai.org/index.php/AAAI-SS/article/view/31232/33392
Bendel O (2022) Möglichkeiten und Herausforderungen des Robot Enhancement. In: Schleidgen S, Friedrich O, Seifert J (eds) Mensch-Maschine-Interaktion – Konzeptionelle, soziale und ethische Implikationen neuer Mensch-Technik-Verhältnisse. Mentis, Münster, S. 267–283
Bendel O (2021a) Chips, devices, and machines within humans: Bodyhacking as movement, enhancement and adaptation. In: Brommer S, Dürscheid C (Hrsg.) Mensch. Maschine. Kommunikation. Beiträge zur Medienlinguistik. Narr Francke Attempto, Tübingen, S. 252–276. https://elibrary.narr.digital/book/10.24053/9783823394716
Bendel O (ed) (2021b) Soziale Roboter: Technikwissenschaftliche, wirtschaftswissenschaftliche, philosophische, psychologische und soziologische Grundlagen. Springer Gabler, Wiesbaden
Bendel O (2018) From GOODBOT to BESTBOT. In: The 2018 AAAI Spring Symposium Series. AAAI Press, Palo Alto, S. 2–9
Bendel O (2015) Wearables. In: Gabler Wirtschaftslexikon. Springer Gabler, Wiesbaden. https://wirtschaftslexikon.gabler.de/definition/wearables-54088
David D, Alamoodi AH, Albahri OS et al (2024) Sign language mobile apps: A systematic review of current app evaluation progress and solution framework. Evolving Systems 15:669–686. https://doi.org/10.1007/s12530-023-09494-0
Fey JC, Robinson RB, Ovali S, Laffan N, Weatherwax K, Dagan E, Isbister K (2024) Now That’s What I Call A Robot(ics Education Kit)! In: Proc 18th Int Conf Tangible, Embedded, and Embodied Interaction (TEI '24). ACM, New York, Article 53, S. 1–14. https://doi.org/10.1145/3623509.3633401
Facebook Group (n.d.) AIBI Pocket Pet. https://www.facebook.com/groups/aibipocket
Fraser G (2025) ‘World’s greatest designer’ Jony Ive joins OpenAI to ‘reimagine’ Computers. BBC, 22. Mai 2025. https://www.bbc.com/news/articles/c5y66yemjdmo
Hegel F, Muhl C, Wrede B, Hielscher-Fastabend M, Sagerer G (2009) Understanding Social Robots. In: 2009 Second International Conferences on Advances in Computer-Human Interactions, Cancun, Mexico. IEEE, S. 169–174. https://doi.org/10.1109/ACHI.2009.51
Kouroupa A, Laws KR, Irvine K, Mengoni SE, Baird A, Sharma S (2022) The use of social robots with children and young people on the autism spectrum: A systematic review and meta-analysis. PLoS ONE 17(6):e0269800. https://doi.org/10.1371/journal.pone.0269800
Kühne K, Jeglinski-Mende MA, Bendel O (2022) Tamagotchi on our couch: Are social robots perceived as pets? In: Robophilosophy 2022: Social Robots in Social Institutions. IOS Press, Amsterdam, S. 755–759
Living AI Forum (n.d.) Meet AIBI Pocket Pet. https://forums.living.ai/c/aibi-pocket/28
Matsunaga N, Shiomi M (2021) Does a wearing change perception toward a robot? In: Proc 30th IEEE Int Conf Robot & Human Interactive Communication (RO-MAN), Vancouver, Canada. IEEE, S. 963–968. https://doi.org/10.1109/RO-MAN50785.2021.9515366
Pons JL (ed) (2018) Inclusive Robotics for a Better Society. Selected Papers from INBOTS Conference 2018, 16–18 October, Pisa, Italy. Springer, Cham. https://doi.org/10.1007/978-3-030-24074-5
Rasouli S, Gupta G, Nilsen E et al (2022) Potential Applications of Social Robots in Robot-Assisted Interventions for Social Anxiety. Int J Soc Robotics 14:1–32. https://doi.org/10.1007/s12369-021-00851-0
Reer F, Quandt T (2020) Digital games and well-being: An overview. In: Kowert R (Hrsg.) Video Games and Well-being. Palgrave Pivot, Cham. https://doi.org/10.1007/978-3-030-32770-5_1
Sathya A, Li J, Rahman T, Peng H (2022) Calico: Relocatable on-cloth wearables with fast, reliable, and precise locomotion. Proc ACM Interact Mob Wearable Ubiquitous Technol 6(3):Article 136. https://doi.org/10.1145/3550323
Thalman C, Artemiadis P (2020) A review of soft wearable robots that provide active assistance: Trends, common actuation methods, fabrication, and applications. Wearable Technologies 1:e3. https://doi.org/10.1017/wtc.2020.4
Vilarinho T et al (2015) A Combined Smartphone and Smartwatch Fall Detection System. In: 2015 IEEE Int Conf Computer and Information Technology; Ubiquitous Computing and Communications; Dependable, Autonomic and Secure Computing; Pervasive Intelligence and Computing. IEEE, Liverpool, S. 1443–1448. https://doi.org/10.1109/CIT/IUCC/DASC/PICOM.2015.216
Zawieska K, Sorenson J (2023) Towards HRI of Everyday Life: Human Lived Experiences with Social Robots. In: Companion of the 2023 ACM/IEEE Int Conf Human-Robot Interaction (HRI ’23 Companion), Stockholm, Sweden, 13–16 March 2023. ACM, New York, S. 1–4. https://dl.acm.org/doi/10.1145/3568294.3580103
Zhu M, Biswas S, Dinulescu SI, Kastor N, Hawkes EW, Visell Y (2022) Soft, wearable robotics and haptics: Technologies, trends, and emerging applications. Proc IEEE 110(2):246–272. https://doi.org/10.1109/JPROC.2021.3140049