Mann tippt auf Tastatur an Computer
ORF
ORF
Chronik

Schutz für Onlinekunden vor Manipulation

Beim Einkaufen im Internet arbeiten die Anbieter immer wieder mit vielen Tricks: von falschen Countdowns bis zur simulierten Knappheit. Mit manipulativen Praktiken soll den Kundinnen und Kunden meist mehr Geld entlockt werden. Die Arbeiterkammer Wien (AK) fordert strengere Regeln.

Verschachtelte Menüs, Psychotricks, Countdowns etc.: Es ist gängige Praxis, Konsumentinnen und Konsumenten durch ausgeklügelte Gestaltungstricks zu bestimmtem Verhalten zu animieren. Besonders alarmiert zeigten sich die AK-Expertinnen und -Experten von der technisch möglichen Emotionserkennung. Technisch könne künstliche Intelligenz etwa durch Mimik- und Spracherkennung den idealen Zeitpunkt für die Bewerbung bestimmter Produkte und Dienstleistungen erkennen. Die AK-Experten befürchten nicht nur eine Verletzung des Konsumentenschutzes, sondern auch der Menschenwürde. Sie fordern „mehr digitale Fairness“, vor allem bezüglich vulnerabler Gruppen.

Verbot von Emotionserkennung gefordert

Die AK erhob in der Analyse „Dark Patterns im Netz: Achtung, verlorene Zeit, verlorenes Geld, verlorene Daten!“ illustrative Webbeispiele und internationale Studien, die sich dem Phänomen widmeten. Durchgeführt wurde die Untersuchung vom Österreichischen Institut für angewandte Telekommunikation (ÖIAT) im Auftrag der Arbeiterkammern Österreich. Demnach findet man vor allem bei Onlineshops unzählige Manipulationsversuche, die in erster Linie darauf ausgelegt sind, mehr preiszugeben und/oder zu kaufen als gewollt.

Die AK fordert einen Schutz sensibler Daten und ein komplettes Verbot von Emotionserkennung. Man begrüße, dass sich die EU mit dem Digitale-Dienste-Gesetz und ihrer Digitalen-Fairness-Initiative nun der Causa widmet, IT und Marketing würden aber „immer öfter eine Allianz mit den Neurowissenschaften und der Psychologie bilden“.

Versteckte Buttons

Die OECD hatte in ihrem jüngsten Bericht „Dark commercial patterns“ (2022) betont, dass Konsumentinnen und Konsumenten im digitalen Raum weniger aufmerksam für Manipulationsversuche sind, außerdem können Unternehmen digital deutlich mehr Information über Verbraucherinnen und Verbraucher sammeln. Auch kann die Wirksamkeit der Tools leicht bei unterschiedlichen Gruppen getestet und graduelle Personalisierungen umgesetzt werden. Dabei handle es sich um ein breit eingesetztes, aber bis dato wenig bekanntes Phänomen. Einer im Vorjahr von der Europäischen Kommission publizierten Studie zufolge setzen 97 Prozent der in der EU populärsten Websites mindestens ein „Dark Pattern“ ein.

Konkret geht es dabei nicht nur um die „Klassiker“ wie die unfreiwillige Akzeptanz aller Cookies, weil eine Ablehnung komplizierter und schlechter erkennbar ist, sondern auch um versteckte Buttons zur Abmeldung von Newslettern etc., um künstliche Verknappung („Nur mehr xy Mal verfügbar“, „Aktion nur für Sie“ etc.) sowie den Abschluss versteckter Abonnements oder anderer Verträge. Meist treten viele Effekte gleichzeitig auf.

Die EU-Kommission habe zwar eine Initiative zur „digitalen Fairness“ gestartet und bereite neue Regeln gegen unfaire Onlinepraktiken vor, die Rahmenbedingungen hinken der Realität aber hinterher. Der Mensch werde zu „Datenquelle und Manipulationsobjekt“, vor allem, wenn Emotionen erkannt und gezielt stimuliert werden, mahnte AK-Konsumentenschutzexpertin Daniela Zimmer. „Anbieter schleichen sich da in die intimste Privatsphäre ein.“ Es brauche eine breite Debatte zur Frage „Was darf Digitalmarketing, und was ist unverantwortliche Manipulation?“

Bild-, Audio- und biometrische Daten

Große Bedenken löse vor allem die Emotionserkennung fürs personalisierte „Gefühlsmarketing“ aus: Die AK fordert ein Verbot von Geschäftspraktiken, die die Menschenwürde berühren. Anbieter hätten heute dank Unmengen an Personendaten, Algorithmen, künstlicher Intelligenz und ausgeklügeltem Webseitendesign besonders machtvolle Mittel, Userverhalten auch völlig unbemerkt zu steuern.

Klassifizierung nach Hunderten individuellen Merkmalen in Kombination mit neuropsychologischen Erkenntnissen und technischen Gestaltungsmöglichkeiten erleichtern Manipulationsversuche und die Schaffung von Abhängigkeiten. Handys, Sprachassistenten und Wearables liefern heute ausreichend Bild-, Audio- und andere biometrische Daten, um Mimik, Sprache und Gestik nach Ausdrücken wie Freude, Wut, Ekel, Furcht, Überraschung usw. zu untersuchen.

Scheinbar „mitfühlende“ KI kann hoch personalisierte Werbebotschaften entwickeln und die emotionale Reaktion auf einen Firmenauftritt etc. prüfen, und Chatbots eruieren Persönlichkeitsmerkmale. Neue Funktionen von Amazon ermöglichen Echo-Geräten zu erkennen, ob jemand krank ist, etwa wenn Stimmprofile auf eine verstopfte Nase hinweisen. Umgehend kann ein Hühnersuppenrezept oder ein Lieferangebot von Hustenbonbons folgen. Bedeutet: Emotionserkennung und Analysen der bisherigen Verhaltens- und Transaktionsdaten ermöglichen es, punktgenau jene (schwächsten) Momente im Leben zu bestimmen, in denen jemand am empfänglichsten für ein bestimmtes Produkt ist. Es folgen Angebote als willkommene Ablenkung, Rettungsanker oder Trost.

Von EU nur Hinweispflichten vorgesehen

Konkret verlangt die AK, einen zulässigen Umfang der Datensammlung zu definieren und den Einsatz von personalisierten Angeboten und Werbung zu begrenzen. Die Verwendung besonders schützenswerter Daten wie Gesundheit, biometrische Merkmale wie Gesichtszüge, Stimme oder Herzfrequenz für Marketingzwecke sei generell zu verbieten. Komplett tabu sollten Emotionserkennung und psychografische Profile sein.

Der EU-Entwurf zu einem KI-Gesetz enthalte bloße Hinweispflichten auf Emotionserkennung. Auch der österreichische Gesetzgeber kann aktiv werden: Eine Öffnungsklausel in der Datenschutzgrundverordnung gestattet es den Mitgliedsstaaten, in Bezug auf die Verarbeitung biometrischer Daten Beschränkungen einzuführen.