Direkt zum Inhalt

Smart Living: Wer hat die Datenhoheit in unserem Haus?

Hier bin ich Mensch, hier darf ich’s sein: In den eigenen vier Wänden fühlen wir uns zu Hause. Wie sehr uns das künftig noch gelingt, hängt davon ab, wie viel Macht wir unseren neuen digitalen Mitbewohnern geben.
Smart Home

Der Wecker klingelt. Aufstehen. Die intelligente Espressomaschine startet von allein. Heute gibt es für mich nur koffeinfreien Kaffee. Das hat die Maschine eigenmächtig entschieden, weil sie mit meinem Gesundheitsüberwachungssystem vernetzt ist und unter anderem meinen zu hohen Blutdruck kennt. Ein solches Zukunftsszenario fände Petra Grimm, Professorin an der Hochschule der Medien in Stuttgart, nicht wünschenswert, wie sie auf dem Kongress »Die Digitalisierung und ihre Auswirkungen auf Mensch und Gesellschaft« der Nationalen Akademie der Wissenschaften, Leopoldina, im Jahr 2017 darlegte. In ihrem Vortrag »Mensch – Maschine« beleuchtete sie die Chancen und die Risiken der Digitalisierung. Im erwähnten Beispiel würde die Maschine die Kontrolle haben; die Entscheidungsgewalt läge nicht beim Nutzer. »Das wäre kein partnerschaftliches Mensch-Maschine-Modell«, so Grimm. Ein solches wünscht sich die Expertin für Kommunikations- und Medientheorie allerdings. Daher sähe ihre Vision eher folgendermaßen aus: Die Kaffeemaschine empfiehlt auf Grund des zu hohen Blutdrucks, heute einen koffeinfreien Espresso zu trinken.

Gleichwohl: Auch eine solche Empfehlung bleibt, eigenmächtig beschlossen von der Kaffeemaschine, problematisch. Denn entscheidet der Mensch auf dieser Grundlage nun tatsächlich frei? Vermutlich hängt das zum großen Teil von seiner Persönlichkeit ab. In Zukunft könnten allerdings mehr und mehr Faktoren eine Rolle spielen. Man stelle sich beispielsweise vor, die Krankenkasse hätte ebenfalls Zugriff auf die Gesundheitsdaten – und womöglich auch Informationen über den Kaffeekonsum. Technisch wäre das kein Problem. Und schon fände der Mensch sich in einer Situation wieder, in der er zwar noch selbst entscheiden darf, diese Entscheidung aber eventuell negative Konsequenzen nach sich zieht. Petra Grimm lenkt den Blick auf die Risiken, die die Entwicklung mit sich bringen kann: Eine Überwachung und die damit einhergehende eingeschränkte Privatsphäre könnten etwa zu einer sozialen Kontrolle führen und zu einer Normierung des Verhaltens – sowie letztlich gar der Manipulation und der Steuerung der Menschen dienen.

Die Gefahr, dass Menschen anhand persönlicher Daten entsprechend den Interessen beispielsweise von Konzernen oder Regierungen gelenkt und manipuliert werden können, sieht auch der Ingenieurpsychologe Paul Gerber von der Technischen Universität Darmstadt. Er ist Experte für die Gestaltung digitaler Technik, die speziell für den Privatbereich konzipiert ist. Für ihn ist essenziell, dass die Nutzer möglichst informierte Entscheidungen treffen können. Das ist allerdings eine große Herausforderung, wie er einräumt, da die Datenaufzeichnung und -verwendung nur schwierig zu fassen sei: »Welche Daten fallen an? Wer hat Zugriff? Für was werden sie verwendet?« Selten sei das offensichtlich und nachvollziehbar, und darüber hinaus sind die Datenschutzvereinbarungen oft sehr vage formuliert. Wenn es nach Gerber und seinen Kollegen geht, soll sich das in Zukunft ändern. Sie entwickeln Systeme, bei denen der Anwender zumindest die Möglichkeit hat, die Abläufe im Hintergrund zu verstehen und diese einfach selbst zu konfigurieren.

Nur in geschützten Rückzugsräumen können wir frei von sozialem Druck und gesellschaftlichen Erwartungen Stress abbauen und zur Ruhe kommen

Gelingen soll das mit Programmen, die komplexe Informationen aufbereiten, strukturieren und schließlich so visualisieren, dass der Anwender sie rasch erfassen kann – und nach seinen Bedürfnissen nutzen kann. Wie viel Privates jemand öffentlich machen möchte, könnte dann individuell sehr unterschiedlich ausfallen und auch von der Situation und dem Ort abhängen. Zum Beispiel sind für viele die eigenen vier Wände ein besonderer Rückzugsort, oder sie wünschen sich für bestimmte Unterhaltungen einen besser geschützten Rahmen. »Privatsphäre ist also kein starres Konstrukt, sondern hängt vom Individuum und vom Kontext ab«, erklärt Gerber.

Für Psychologen ist zudem klar, dass Privatsphäre für den Menschen kein überflüssiger Luxus ist. Denn »was wäre, wenn wir keine Privatsphäre mehr hätten?«, fragt Petra Grimm in ihrem Vortrag, und zeigt einige wichtige Funktionen der Privatsphäre auf: Sie verhindert, dass wir von anderen manipuliert, dominiert oder bloßgestellt werden. Sie ermöglicht selbstständige Lebensgestaltung und Experimente. Nur in geschützten Rückzugsräumen können wir frei von sozialem Druck und gesellschaftlichen Erwartungen Stress abbauen und zur Ruhe kommen. Privatsphäre gibt uns Raum, unsere Erfahrungen und Eindrücke aus dem Alltag zu reflektieren, einzuordnen, mit vertrauten Personen zu besprechen und Schlüsse daraus zu ziehen. Sie ist somit grundlegend für die Persönlichkeitsentwicklung sowie die seelische Gesundheit und letztlich auch die Basis für eine kreative und pluralistische Gesellschaft. Gerber wie Grimm betonen daher, wie wichtig es sei, die Daten in einer zunehmend digitalisierten Umgebung zu schützen. Nur so können wir uns einen freien, autonomen, selbstbestimmten Lebensstil auch in Zukunft bewahren.

Transparenz der digitalen Geräte

Paul Gerber wünscht sich darüber hinaus den gut informierten Anwender: einen Nutzer, der versteht, welche Prozesse in den Geräten ablaufen und was sie überhaupt machen. Die digitalen Hilfsmittel der Zukunft stellt er sich daher keinesfalls als »unsichtbar« vor, vielmehr »transparent«: Man soll um die Existenz der digitalen Hilfsmittel wissen, um ihre Aufgaben und Funktionsweisen. Gleichzeitig sollen sie aber nicht als störend empfunden werden.

Allerdings ist dieser gut informierte Nutzer bislang eher die Ausnahme: »Unsere Forschungsergebnisse zeigen, dass die meisten Befragten lediglich eine sehr abstrakte Vorstellung davon haben, wie ein Smart Home tatsächlich funktioniert«, erklärt Gerbers Kollegin Verena Zimmermann. Sie und ihre Kollegen haben daher die Entwicklung eines Smart-Home-Konfigurators angestoßen. So sollen Menschen am Bildschirm simulieren können, welche Daten in einem Smart Home ausgetauscht werden und wie das beispielsweise ihre Privatsphäre bei der Nutzung beeinflussen würde. Zunächst soll dieser Konfigurator zu Forschungszwecken genutzt werden. Langfristig könnte er aber standardmäßig zur Verfügung gestellt werden, damit potenzielle Smart-Home-Nutzer ein grundlegendes Verständnis für die Technik entwickeln, ohne dafür viele Ressourcen aufwenden zu müssen. Mit solchen Maßnahmen wolle man aber keinesfalls pauschal die Akzeptanz für Smart Homes steigern, sondern den Menschen eine faktenbasierte Entscheidung ermöglichen, betont die Ingenieurpsychologin. Der Ausgang bleibt damit offen: Der Prozess könnte auch dazu führen, dass sich manche gegen die Technik entscheiden.

Abgesehen von den Privatsphären- und Sicherheitsaspekten versuchen Ingenieurpsychologen aber insbesondere, die Schnittstelle zwischen Mensch und Maschine zu optimieren. Neben der Funktion, die ein Gerät zu erfüllen hat, soll der Anwender vor allem »Joy of Use« verspüren, also Freude beim Verwenden der Technik. Da hilft es, wenn die Geräte emotional ansprechend gestaltet sind und die Bedienung intuitiv erfolgt. Eine »intuitive Interaktion« sei aber keine Eigenschaft eines Geräts, so Gerber: »Wisch- oder Vergrößerungsgesten auf einem Touchscreen kennen mittlerweile fast alle, aber nur, weil sie es gelernt haben.« Eine Regel für das Design der digitalen Geräte sei daher: »Baue auf dem auf, was bereits bekannt ist, und kombiniere das mit Innovativem«, erklärt der Experte. Dadurch soll sich die Technik relativ reibungslos in den Alltag integrieren lassen. Laut Gerber ist dabei erneut die große Herausforderung, die vielen aufgezeichneten Daten sinnvoll aufzubereiten und daraus Handlungsoptionen für den Nutzer abzuleiten.

Und dann? Welche Auswirkungen haben die neuen, durch technische Entwicklungen möglich gemachten Handlungsoptionen für den Nutzer? Sie können auch problematisch sein: Menschen könnten beispielsweise durch allgegenwärtige digitale Hilfsmittel faul in ihrem Tun und Denken werden. Zwar gibt es dazu noch keine Daten, aber Verena Zimmermann weiß aus ihren Forschungsergebnissen, dass eine solche Sorge bereits heute einige der Befragten umtreibt: »Wenn mir Alltagshandlungen abgenommen werden, dann besteht keine Notwendigkeit mehr, diese zu erlernen.« Und gehen länger kaum geübte Fähigkeiten nicht auch verloren – und fehlen uns nicht gelernte oder nicht geübte Fähigkeiten, wenn bei technischen Problemen der manuelle Eingriff des Nutzers erforderlich ist? Als Beispiel nennt Zimmermann etwa die Bedienung der Waschmaschine. Ob digitale Assistenzsysteme körperliche wie kognitive Faulheit fördern, lasse sich momentan noch nicht abschätzen. Da diese Frage jedoch die Nutzer beschäftige und so ihre Wahrnehmung und Realität bestimme, müsse sich die Forschung künftig damit auseinandersetzen, findet Zimmermann.

Der Faulheit gegensteuern

Helge Ritter, Professor für Neuroinformatik an der Universität Bielefeld, meinte diesbezüglich auf dem Leopoldina-Kongress, dass Digitalisierung nicht dazu dienen sollte, die Bequemlichkeit der Menschen zu fördern. Falls das doch so eintreten werde, müsste man gegensteuern und Trainingsmöglichkeiten oder sogar »künstliche Widerstände« in Betracht ziehen. Zu beobachten sei bereits, dass die Interaktion mit digitalen Medien zunehmend andere haptische Interaktionserfahrungen verdränge, so Ritter. Bei Kindern könnte das womöglich dazu führen, dass das sensomotorische System nicht ausreichend ausgebildet wird. Wie sich die Digitalisierung auf die kognitiven Fähigkeiten der Menschen auswirkt, ist weitgehend unklar. Beim Lesen von Internetseiten erkennen Forscher bereits, dass das Gehirn auf die zahlreichen Verzweigungsentscheidungen sensibilisiert wird. »Das sind Veränderungen, die man bis auf die neuronale Aktivitätsebene beobachten kann«, berichtet Ritter. Es könnte also sein, dass dieses stakkatoartige Lesen das herkömmliche tiefere Lesen ablöst. Laut Ritter sei es aber zumindest momentan so, dass beide Leseformen koexistieren.

Die neuen technischen Interaktionsmöglichkeiten verändern zudem, wie Menschen miteinander kommunizieren. »Das ist ein fließender Prozess«, so Zimmermann: Technische Interaktionsmöglichkeiten könnten auf der einen Seite persönliche Gespräche und gemeinsame Aktionen seltener werden lassen, auf der anderen Seite aber beispielsweise neue Möglichkeiten schaffen, mit entfernt lebenden Verwandten oder Freunden Kontakt zu halten. Noch lasse sich nicht abschätzen, ob sich solche Entwicklungen am Ende auf Soft Skills wie Sozialkompetenz oder Empathie auswirken.

Menschen erwarten von Robotern, dass diese freundlich und höflich sind

Spannend wird eine neue Form der Kommunikation: die Interaktion mit künstlichen Intelligenzen. Vermutlich wird sich ein Gespräch mit einer Maschine aber gar nicht so sehr von dem mit einem Menschen unterscheiden: »Menschen erwarten, dass Maschinen sozialen Anforderungen genügen«, sagt Elisabeth André, Professorin für »Human Centered Multimedia« an der Universität Augsburg. Das sei durch empirische Studien belegt. Der verstorbene Clifford Nass, renommierter Professor für Kommunikation an der Stanford University, hatte diesbezüglich eine deutliche These: »Es gibt keinen Unterschied zwischen zwischenmenschlicher Interaktion und Mensch-Maschine-Interaktion.«

Untersuchungen zeigen etwa: Menschen erwarten von Robotern, dass diese freundlich und höflich sind. Wenn beispielsweise ein Prozess länger dauert, bewirkt eine Entschuldigung seitens der Maschine, dass sich der Mensch besser fühlt. Auch Humor und Fehlbarkeit seitens des Roboters kann – je nach Situation – im Allgemeinen gut bei dem menschlichen Gegenüber ankommen.

In Andrés Zukunftsvision sind künftige Maschinen daher in erster Linie inspirierend und nicht unbedingt smart. »Momentan konzentriert sich die Forschung allerdings noch zu sehr darauf, Intelligenz nachzubauen«, so die Wissenschaftlerin. Statt den menschlichen Intellekt zu ersetzen, sollte es jedoch eher darum gehen, ihn zu erweitern. Daneben legt sie großen Wert darauf, dass die Maschinen die Interessen des jeweiligen Nutzers vertreten und nicht etwa diejenigen von Institutionen wie Krankenkassen oder dem Staat. Für das Eingangsbeispiel würde das Folgendes bedeuten: Wenn mein primäres Interesse heute ist, schnell wach zu werden, dann sollte mir die Maschine einen doppelten Espresso anbieten – auch auf die Gefahr hin, dass dann mein Blutdruck durch die Decke geht.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.