Ihr gemeinnütziger Verein für Information, Beratung, Bildung und Interessenvertretung.

Themen: Geld & Versicherungen | Digitale Welt Lebensmittel | Umwelt & Haushalt Gesundheit & Pflege | Energie | Reise & Mobilität | Verträge & Reklamation

Unsere Solidarität gilt den Geflüchteten aus der Ukraine und anderen Ländern dieser Welt. Betroffene und Helfer finden hier Informationen.

Sensible Daten: Warum es schärfere Gesetze und Kontrollen braucht

Stand:
Algorithmen sind immer nur so gut wie die Daten, aus denen sie ihre Entscheidungen errechnen. In manchen Lebensbereichen wirkt sich das riskanter aus als in anderen. Deshalb muss eine abgestufte Kontrolle her.
Jemand hält ein Schlosssymbol in den Händen.

Das Wichtigste in Kürze:

  • Sensible Daten sind persönliche Informationen über Sie.
  • Sie haben das Recht darüber, zu entscheiden, was mit Ihren sensiblen Daten passiert.
  • Algorithmen, die mit sensiblen Daten arbeiten, unterliegen bislang keinem ausreichenden Kontrollsystem. Das muss sich ändern.
Off

Sensible Daten – was ist das?

Sensible Daten sind sehr persönliche Informationen über Sie. Dazu gehören zum Beispiel Daten über Ihren Gesundheitszustand, Ihre sexuelle Orientierung, Ihre Herkunft oder Ihre religiöse Überzeugung. Ihre politische Meinung und die Zugehörigkeit zu einer Gewerkschaft, zum Beispiel, gehören auch dazu. Außerdem zählen zu den sensiblen Daten auch genetische oder biometrische Informationen. Biometrische Daten sind körperliche Merkmale, mit denen Sie eindeutig identifiziert werden können, wie zum Beispiel Ihr Fingerabdruck, Ihre Stimme oder die Augen-Iris.

Wir alle haben verschiedene Grundrechte, darunter auch das Recht auf informationelle Selbstbestimmung. Zugegeben – das klingt etwas kompliziert. Im Kern ist es aber eigentlich ganz einfach: Das Recht auf informationelle Selbstbestimmung gibt Ihnen das Recht, zu bestimmen, wer wie viel private Informationen über Sie erhält. Deshalb muss eine Behörde oder eine Firma, die sensible Daten von Ihnen erhebt, sehr hohe Auflagen bei der Verarbeitung und der Speicherung erfüllen. So will es die Datenschutz-Grundverordnung (DSGVO).

Algorithmen werten sensible Daten aus

Algorithmen sind in unserem Alltag und unserem gesellschaftlichen Zusammenleben nicht mehr wegzudenken. Sie erklären uns, wo wir langfahren sollen. Sie sagen voraus, wer einen Herzinfarkt bekommt, sie suchen Partnerinnen und Partner für uns aus, zeichnen Comics und komponieren Musik. Das bedeutet: Nicht immer, aber immer öfter analysieren und verwenden Algorithmen sensible Daten. Zum Beispiel im Finanzbereich oder im Gesundheitswesen.

Automatisierte Entscheidungssysteme

Algorithmen sortieren und ordnen nicht nur, sie entscheiden. Zum Teil, ohne dass Menschen in den Entscheidungsprozess eingreifen. Das nennt man automatisierte Entscheidung. Wenn Algorithmen entscheiden, beeinflusst das unser Leben - manchmal ganz unmittelbar. Wenn ein großer Onlinehändler Ihnen ein unpassendes Buch oder Kleid empfiehlt, dann hält sich die Auswirkung auf Ihr Leben in Grenzen. Aber Algorithmen entscheiden noch viel mehr. Sie verfügen darüber, ob Sie einen Kredit bekommen. Sie entscheiden mit, ob Sie als tatverdächtig gelten. Sie bestimmen, wie teuer Ihre Versicherung wird. Am Universitätskrankhaus in Stanford (USA) war ein Algorithmus damit betraut, die Reihenfolge der Corona-Impfungen für das Klinikpersonal festzulegen. Das Ergebnis: ein Debakel.

Algorithmen als Blackbox

Wie Algorithmen funktionieren und entscheiden, ist für uns nicht immer nachvollziehbar. Zum einen, weil es – je nach eingesetzter Technik – nicht möglich ist. Das ist zum Beispiel beim Deep Learning der Fall. Bei diesem Verfahren nutzt der Computer neuronale Netze, um Datensätze zu analysieren und selbstständig zu lernen. Zwischen den Informationen, die der Mensch der Maschine „füttert“ und dem Output, den der Computer uns liefert, liegt ein Prozess, den der Mensch nicht kennt. Beim Deep Learning wissen wir nicht, wie der Computer lernt und wie er zu seinem Ergebnis kommt. Deshalb gleichen manche algorithmenbasierte Prozesse einer Blackbox.

Algorithmen als Geschäftsgeheimnis

Es gibt noch einen weiteren Grund, warum wir oft nicht wissen, wie Algorithmen arbeiten: Sie fallen in vielen Fällen unter das Geschäftsgeheimnis. Das bedeutet, dass die Funktionsweise eines bestimmten Algorithmus für Außenstehende prinzipiell nachvollziehbar wäre. Aber weil er durch das Geschäftsgeheimnis besonderen geschützt ist, können Dritte keine Einsicht in den Code nehmen. Ein Beispiel: Sie suchen in einem Vergleichsportal nach günstigen Urlaubsangeboten und bekommen eine Trefferliste. Bei genauerem Hinsehen stellen Sie fest, dass das günstigste Angebot gar nicht an erster Stelle steht. Wie die Ergebnisliste zustande kommt, erfahren Sie nicht – es fällt unter das Geschäftsgeheimnis. Genauso wie der Algorithmus, der online über Ihren Kreditantrag entscheidet. Oder der Algorithmus, der den Monatsbeitrag für Ihre Versicherung berechnet.

Algorithmen machen ihr eigenes Ding

Bei automatisierten Entscheidungen passiert etwas mit unseren Daten, aber wir wissen nicht was und warum. Auch staatliche Stellen haben zum aktuellen Zeitpunkt keine Möglichkeit, Algorithmen einzusehen und zu kontrollieren. Das kann eigentlich nicht sein, finden die Verbraucherzentralen auch. Besonders wenn es um sensible Daten geht. Denn eines wissen wir sicher: Algorithmen sind nicht objektiv oder wissenschaftlich. Sie können genauso fehlerhaft oder diskriminierend sein wie die Menschen, die sie gebaut und mit Daten versorgt haben.

Ein Kontrollsystem muss her!

Die Verbraucherzentralen setzen sich dafür ein, dass Systeme, die auf der Basis von Algorithmen Entscheidungen treffen, viel stärker kontrolliert werden. Besonders streng muss die Kontrolle für Systeme sein, die mit sensiblen Daten arbeiten. Denn schließlich nehmen wir als Einzelne, aber auch als Gesellschaft Schaden, wenn Algorithmen gegen geltendes Gesetz wie zum Beispiel das allgemeine Gleichbehandlungsgesetz verstoßen. Deshalb fordern wir ein mehrstufiges Kontrollsystem auf Bundesebene. Und wir möchten auch, dass Unternehmen verpflichtet werden, Verbraucherinnen und Verbrauchern Auskunft darüber zu erteilen, wie risikobehaftete Entscheidungen zustande kommen.

Im Oktober 2019 hat die Datenethikkommission (DEK) der Bundesregierung die zentralen Handlungsempfehlungen zu den Themen Künstliche Intelligenz, algorithmische Systeme und Datenpolitik vorgestellt. Der Verbraucherzentrale Bundesverband (vzbv) hat daran mitgearbeitet. Mehr über die einzelnen Themen und Empfehlungen können Sie auf der Seite des Verbraucherzentrale Bundesverbands nachlesen.

Auch der Bundesrat fordert mehr Schutz

Mit dem Ruf nach mehr Kontrolle stehen wir nicht allein. Auch der Bundesrat appellierte im Mai 2020 mit einer mehrheitlich gefassten Entscheidung an die Bundesregierung, die geplanten europäischen Leitlinien für eine vertrauenswürdige künstliche Intelligenz so schnell wie möglich umzusetzen. Die Länderkammer setzte sich außerdem dafür ein, dass „grundrechtssensible Algorithmen“ besonders kontrolliert werden. Dazu zählen zum Beispiel Algorithmen, die Gesichtserkennung ermöglichen.