Suchen

Kommentar von Dr. Andrew Jennings, FICO Vier Grundregeln für die Analyse persönlicher Daten

Autor / Redakteur: Dr. Andrew Jennings / Nico Litzel

Das „Internet der Dinge“ ist ohne Zweifel einer der größten Trends unserer heutigen Zeit. Immer mehr Gegenstände sind online, untereinander vernetzt und mit Sensoren ausgestattet, die in Echtzeit Daten übertragen, analysieren und auf deren Basis Entscheidungen treffen. Doch dabei übersehen wir oft, dass nicht nur Gegenstände immer und überall mit dem Internet verbunden sind, sondern auch wir Menschen.

Firmen zum Thema

Der Autor: Dr. Andrew Jennings ist Chief Analytics Officer bei FICO
Der Autor: Dr. Andrew Jennings ist Chief Analytics Officer bei FICO
(Bild: FICO)

Das „Internet der Dinge“ müsste eigentlich „Internet der Menschen“ heißen. Denn all die gesammelten Daten werden auf die eine oder andere Weise dafür genutzt, um in analytischen Prognose-Modellen zu ermitteln, was wir als nächstes tun werden oder sollen. So erschafft moderne Analytik ein digitales Ich oder einen digitalen Avatar, der nicht an unsere Persönlichkeit und unsere Art, Entscheidungen zu treffen, anknüpft. Vielmehr sagt er unser Verhalten voraus, indem die Ergebnisse unterschiedlichster Analysen zu einer digitalen Persönlichkeit zusammengefasst werden. Der Mensch wird so zu einer mathematischen Konstruktion, die mithilfe von Algorithmen und komplexen Modellen analysiert werden kann.

Doch auch wenn wir alle Teil dessen sind, was das „Internet der Menschen“ ausmacht, gibt es weder national noch international ein allgemeingültiges Regelwerk, das festlegt, wie die Daten über uns genutzt werden können und dürfen.

Neben der Einhaltung datenschutzrechtlicher Vorgaben kreist die Debatte vor allem um eine zentrale Frage: Wer profitiert von der Nutzung und Auswertung der Daten? Verbessern sie die Gesellschaft als Ganzes? Oder nutzen wir sie, um auf Basis dieser neuen Informationsquellen zu kritisieren, zu bestrafen und zu diskriminieren?

Persönliches Risiko vs. gesellschaftliches Wohl

Nehmen wir nur einmal folgendes Szenario: Als „Connected Cars“ oder „Smart Cars“ werden Autos zu Datensammlern und -übermittlern. Doch was geschieht, wenn ich ein bisschen zu fest aufs Gas trete und mein Auto diese Information mit der Polizei oder meiner KFZ-Versicherung teilt? Kann ich meinem Auto zumindest eine Genehmigung dafür erteilen? Denn die Versicherung könnte meine Beiträge jedes Mal erhöhen, wenn ich die Geschwindigkeitsbegrenzung nicht einhalte. Will ich diese Kontrolle?

Andererseits ist es aber möglich, dass die Daten, die Autos über uns sammeln, zum gesamtgesellschaftlichen Wohl beitragen. Sie könnten beispielsweise genutzt werden, um effizientere und sicherere Verkehrsführungen zu schaffen, die Position von Zebrastreifen zu optimieren, die Parkplatzsuche zu erleichtern oder Kindern ihren Schulweg sicherer zu gestalten. Als Fahrer muss ich also abwägen: Was ist mir wichtiger – das persönliche Risiko steigender Versicherungsbeiträge und ständiger Überwachung oder der Beitrag zum gesellschaftlichen Wohl?

Heute treffen wir noch selbst die Entscheidung, ob wir Daten über unsere Fahrgewohnheiten an Versicherungen oder Verkehrswissenschaftlicher übermitteln wollen. Aber wie lange wird es noch dauern, bis uns diese Entscheidung abgenommen wird? Denn wenn wir dadurch zu besseren Verkehrsteilnehmern werden und die Sicherheit aller erhöhen können, warum sollte es dann im Ermessen jedes einzelnen Fahrers liegen, wichtige Daten zur Analyse freizugeben?

Wem gehören die Daten?

Im Zentrum der Debatte steht also die Diskrepanz zwischen dem Schutz der Privatsphäre jedes einzelnen Menschen und den Vorteilen einer Datenfreigabe – ein schmaler Grat! Denn wenn es meine Daten sind, gehören sie doch mir? Und sollte ich dann nicht auch derjenige sein, der von ihrer Nutzung am meisten profitiert?

Zahlreiche Datenschützer würden diese Frage mit einem klaren Ja beantworten. Doch manchmal ist die Welt nun einmal nicht nur schwarz oder weiß. Denn wenn ich eine öffentliche Straße nutze, die vom Staat instand gehalten wird, auf der andere Verkehrsteilnehmer unterwegs sind und wo Sekunden über Leben und Tod entscheiden können, dann ist die Einhaltung der Geschwindigkeitsbegrenzungen eben nicht nur „mein Bier“ und die entsprechenden Informationen darüber auch nicht allein mein privates Datengut.

Die Datenschutz-Debatte wird noch ernster, wenn es um sehr viel Persönlicheres wie medizinische Daten geht. Dass sie mit dem eigenen Arzt geteilt werden, ist selbstverständlich, denn nur so kann entsprechende medizinische Hilfe geleistet werden. Darüber hinaus macht es durchaus auch Sinn, die Daten anonymisiert auszuwerten. Schließlich können andere Patienten von den Erfahrungswerten und erfolgreichen Behandlungsmethoden profitieren.

Und doch hat die Medaille auch hier wieder eine Kehrseite. Denn dieselben Daten, die Ärzten bei der Suche nach der richtigen Behandlungsmethode helfen, können Versicherungsunternehmen als Entscheidungsbasis für ihre Beitragssätze dienen. Gerade bei chronischen oder Erbkrankheiten kann das sogar dazu führen, dass bestimmten Patienten der Zutritt zu einer Versicherung verwehrt wird. Ist man also haftbar, wenn man die Daten mit seinem Arzt teilt, nicht aber mit seinem Versicherer?

Predictive Analytics

Das heikelste Thema im Zusammenhang mit dem „Internet der Menschen“ betrifft jedoch Predictive Analytics – also die Vorhersage von bestimmten Trends und Verhaltensmustern auf Grundlage von Daten, die mithilfe bestimmter Vorhersagemodelle analysiert werden. Hier stellt sich die Frage: Wenn Big Data genutzt wird, um Verhalten vorauszusagen, bestrafen wir Menschen dann für Dinge, die sie noch nicht getan haben – und vielleicht niemals getan hätten – oder nehmen wir ihnen die Chance, sie zu tun? Das verletzt die Grundprinzipien jahrhundertealter Rechtsgrundlagen. Und dennoch: Predictive Analytics sind ein stetig wachsender Trend – sei es im Bankwesen, in der Gesundheitsbranche, im Bereich Ver- und Entsorgung oder in der Kriminalistik.

Vier Grundregeln für den Umgang mit Big Data

Auch wenn in der Debatte um den Umgang mit Big Data vieles noch unklar ist, steht eines fest: Wir brauchen klare Grundregeln, die festlegen, wie wir die Rechte von Individuen, Unternehmen und Gesellschaft gegeneinander abwägen wollen, wenn es um Datenschutz geht. Die politische und gesellschaftliche Diskussion kreist erst seit einigen Jahren um die zentralen Fragen von Privatsphäre und Datenanalytik – bisher ohne Ergebnis.

Aber als Spezialisten für Big Data und Predictive Analytics denken wir von FICO bereits seit beinahe 60 Jahren darüber nach. Dabei verfolgen wir bei der Speicherung, Nutzung und Analyse von Daten eine Strategie, die sich mit den folgenden vier Grundregeln zusammenfassen lässt:

  • 1. Transparenz: Nach außen hin verständlich machen, welche Daten man besitzt und was man damit macht. Nur so kann gegenüber Kunden und Geschäftspartnern gegenseitiges Vertrauen aufgebaut werden.
  • 2. Mehrwert: Dem Kunden einen nachweisbaren Mehrwert durch Big-Data-Analytik bieten. Für den Kunden muss deutlich werden, welchen persönlichen Nutzen er von der Analyse seiner Daten hat.
  • 3. Dialog – mit Kunden, Geschäftspartnern und der Öffentlichkeit: Wir dürfen uns nicht verstecken, sondern müssen über unsere Arbeit reden und ihre Vorteile – und Herausforderungen – offen kommunizieren.
  • 4. Hilfe: Menschen helfen, die ihr Verhalten ändern möchten. Denn mithilfe von Datenanalyse kann man nicht nur beobachten, berichten und bestrafen, sondern auch einen Teil dazu beitragen, dass Menschen besser Auto fahren, gesünder leben oder ihr Geld vernünftiger anlegen.

Selbstverständlich sind diese vier Grundprinzipien nur die Basis eines umfassenden Regelwerks, das das „Internet der Menschen“ braucht. Es liegt in der Natur neuer Technologien und innovativer Erfindungen, dass nicht sofort eine Antwort auf alle Fragen gefunden werden kann. Doch wenn die Branche zumindest diese vier Grundregeln befolgt, ist bereits ein großer Schritt getan, damit das „Internet der Menschen“ auch das Internet VON Menschen FÜR Menschen werden kann.

Artikelfiles und Artikellinks

(ID:43575229)