Advertisement

Big Data: Chancen und Risiken aus Sicht der Bürger

  • Susanne KnorreEmail author
  • Horst Müller-Peters
  • Fred Wagner
Open Access
Chapter

Zusammenfassung

Ausgehend von den vorangegangenen Teilen beschreibt dieses Kapitel auf einer Basis von 1000 Befragten das Verhältnis der deutschen Bevölkerung zu digitaler Vernetzung, Big Data und Künstlicher Intelligenz. Aufbauend darauf wird das Potenzial für einen möglichen Paradigmenwandel eruiert – in der Datenpolitik, in den medialen und gesellschaftlichen Narrativen und schließlich – beispielhaft für eine Branche – in der Versicherungswirtschaft.

3.1 Einleitung

Ausgehend von den vorangegangenen Teilen beschreibt dieses Kapitel auf einer Basis von 1000 Befragten das Verhältnis der deutschen Bevölkerung zu digitaler Vernetzung, Big Data und Künstlicher Intelligenz. Der Aufbau folgt der Logik
  1. a)

    vom ‚Wissen‘ und ‚Können‘ als Randbedingungen souveränen Entscheidens …

     
  2. b)

    über das ‚Wollen‘ in Form von Einstellungen und Bewertungen zu Technikfolgen, Anwendungsfeldern und Datenschutz …

     
  3. c)

    zum tatsächlichen ‚Handeln‘ in Onlinenutzung und Datenschutz.

     

Aufbauend darauf wird das Potenzial für einen möglichen Paradigmenwandel eruiert – in der Datenpolitik, in den medialen und gesellschaftlichen Narrativen und schließlich – beispielhaft für eine Branche – in der Versicherungswirtschaft.

Vernetzung und Big Data, Künstliche Intelligenz und die damit verbundenen Algorithmen bestimmen zunehmend die Lebenswelt der Bürger, sind bisher aber erst wenig in den Köpfen angekommen. Bisherige Umfragen zeigen einen meist geringen Informationsgrad und eine tendenziell skeptische Haltung, aber zugleich eine umfassende, oft wenig bewusste Nutzung der Potenziale.

Aufbauend auf den vorliegenden Studien, theoretischen Grundüberlegungen sowie den vorangegangenen Ausführungen soll im Folgenden das Verhältnis der deutschen Bevölkerung in Bezug auf Daten und Algorithmen erfasst und analysiert werden. Dabei werden einerseits ‚Wissen‘ (Abschn. 3.2) und ‚Können‘ (Abschn. 3.3) als Voraussetzung souveränen Handels beschrieben. Dies wird in Form von Folgeabschätzungen, die Bewertung von Anwendungsfeldern (mit besonderem Schwerpunkt auf den drei Lebenswelten ‚Mobilität‘, ‚Wohnen‘ und ‚Gesundheit‘) sowie durch die Erfassung von Einstellungen zum Datenschutz das ‚Wollen‘ der Bürger abgebildet (Abschn. 3.4). Dem Wollen, Wissen und Können wird in Abschn. 3.5 das tatsächliche ‚Handeln‘ gegenübergestellt: Wie verhalten sich die Bürger? In welchem Umfang werden Geräte und Dienste genutzt und welche aktiven Maßnahmen zum Schutz der persönlichen Daten werden tatsächlich ergriffen? Anschließend werden die in Kap.  1 thematisierten Paradigmen zu Datenpolitik und Datenethik aus Sicht der Bürger beleuchtet (Abschn. 3.6) sowie die Frage, inwieweit den zu beobachtenden und weitgehend negativ besetzten Narrativen rund um Big Data auch positive ‚Erzählungen‘ gegenüberstehen (Abschn. 3.7). Abschließend werden in Abschn. 3.8 am Beispiel der Versicherungswirtschaft Erwartungen an neue Rollen von Marktteilnehmern dargestellt.

Die Auswertung basiert auf einer Befragung von 1000 Bürgern ab 18 Jahren. Diese Gesamtstichprobe wurde in zwei Teilstichproben mit unterschiedlicher Erhebungsform aufgeteilt (siehe Abb. 3.1). Dieser sogenannte Mixed-Mode-Ansatz hat den Vorteil, dass sowohl Personengruppen, die in Telefoninterviews schwer zu erreichen sind, als auch solche, die durch Online-Erhebungen nicht ansprechbar sind, in der Gesamtstichprobe ausreichend abgebildet sind, und dass sich auch Effekte der Interviewsituation in der Gesamtstichprobe ausgleichen.
Abb. 3.1

Methodisches Vorgehen

Um Reihenfolgeeffekte zu vermeiden, wurden die Items innerhalb einer Frage nach dem Zufallsprinzip rotiert. Zudem wurde ein Teil der Fragen jeweils nur der (zufällig ausgewählten) Hälfte der Befragten gestellt um die Gesamtlänge des Fragebogens zu verkürzen (‚split half‘)1. Die realisierte Stichprobe wurde auf Basis der aktuellen Verbraucheranalyse „best 4 planning 2018 I“ (best 4 planning 2018) mit der Struktur der deutschen Wohnbevölkerung abgeglichen. Auf eine nachträgliche Gewichtung der Antworten wurde aufgrund der insgesamt hohen Übereinstimmung verzichtet.

Fazit

Im Ergebnis liefert die Erhebung ein weitgehend ‚repräsentatives‘ Abbild der deutschen Bevölkerung beziehungsweise – soweit die Fragen sich nur auf Internetnutzung beziehen, der online-aktiven Bevölkerung2.

3.2 Datenwissen

Voraussetzung eines mündigen Umgangs mit den eigenen digitalen Daten ist zuerst einmal eine grundlegende Kenntnis des Themas (zur Relevanz von Fähigkeit und Motivation für überlegte Entscheidungen siehe z. B. Petty und Cacioppo 1986). Um das Wissen um Big Data und Künstliche Intelligenz in der Bevölkerung zu erfassen, wurden eine Liste von Begriffen erstellt und die Interviewpartner befragt, inwieweit sie diese einem Bekannten erklären könnten. Die Stichworte umfassten sowohl Fachbegriffe als auch umgangssprachliche Formulierungen zu technischen Grundlagen und deren Anwendungen, zur Gesetzgebung und schließlich zu einigen Daten-Skandalen, die in den Medien breite Aufmerksamkeit erhalten haben.3

Neben dem Wissensstand ist auch die (gefühlte) Wahlfreiheit eine Bedingung für Souveränität im Umgang mit Daten. Einerseits haben auf der rechtlichen Seite die EU-Datenschutz-Grundverordnung sowie in Folge das Bundesdatenschutzgesetz weitgehende Schutz- und Verfügungsrechte für die Bürger sowie umfassende Zustimmungspflichten installiert. Andererseits schränken Informationslücken, die Komplexität von Datenschutzerklärungen, digitale Ökosysteme und monopolähnliche Marktstrukturen die faktische Handlungsfreiheit in hohem Maße ein.

Wie die Befragungsergebnisse (siehe Abb. 3.2) zeigen, sind wesentliche Grundbegriffe der Digitalisierung bereits in das Allgemeinwissen eingegangen. Das betrifft vor allem weitverbreitete Anwendungen (wie GPS-Ortung oder Cookies) sowie plakative Begriffe aus der öffentlichen Diskussion (wie Selbstfahrendes Auto, Künstliche Intelligenz, aber auch der Name Edward Snowden). Bemerkenswert ist, wie schnell auch neue Angebote den Weg in die Köpfe gefunden haben (wie Smart Home, Smart Watch oder Alexa).
Abb. 3.2

Datenwissen als Bedingung für Souveränität (n = 449–496; alle Befragten [split half])

Weitere Begriffe sind zumindest einer Mehrheit bekannt, z. B. aktuelle politische Themen wie der Facebook-Datenskandal oder die Europäische Datenschutzgrundverordnung, aber auch Termini wie Tracking oder Algorithmus (was nicht immer auch ein genaueres Verständnis beinhaltet).

Schließlich gibt es Begriffe, die nur einer Minderheit vertraut sind. Das sind vor allem Anwendungen, die relativ neu sind (wie Chatbot oder e-Call), aber auch grundlegende Begriffe digitaler Vernetzung, die eher im Hintergrund hinter sicht- und erlebbareren Anwendungen stehen (wie Big Data, Telematik, Internet of Things). Bezüglich des ‚Schlusslichtes‘ e-Privacy-Verordnung ist anzumerken, dass sich diese zum Befragungszeitraum politisch noch im Vorbereitungsstadium befand.

Entsprechend der Prägung der Generationen durch digitale Techniken ist der Wissensstand der jüngeren Alterskohorte höher, wobei selbst die Gruppe 70+ noch annähernd jeden zweiten Begriff erklären kann. Ebenso steigt das Wissen mit dem Bildungsgrad und ist bei Männern im Durchschnitt etwas höher als bei Frauen (siehe Abb. 3.3 sowie Tab. 3.1).
Abb. 3.3

Datenwissen als Bedingung für Souveränität nach Alter und Bildung

Tab. 3.1

Selbsteinschätzung zum Datenwissen (n = 441)

Ich glaube, ich kenne mich mit dem Internet gut aus

Ja (%)

Teils/teils (%)

Nein (%)

43

47

10

Fazit

Die digitale Welt ist kein ‚Neuland‘ mehr: Grundbegriffe der Digitalisierung sind angekommen, und ein Großteil der Bevölkerung fühlt sich zumindest in Teilen kompetent. Wissensdefizite bestehen aber gerade in Themen, die die Vernetzung von Daten behandeln und damit den souveränen Umgang mit den eigenen Daten besonders tangieren (z. B. Big Data, Telematik, IOT und e-Privacy).

3.3 Handlungsfreiheit

Der empfundene Freiheitsspielraum (‚Können‘) wurde durch eine Reihe von Fragen gemessen, die sowohl objektive als auch subjektive Hürden der Handlungsfreiheit berücksichtigen – denen also sowohl die Marktsituation als auch Grenzen durch Nichtwissen oder Bequemlichkeit der Nutzer zugrunde liegt.

In den Antworten (siehe Abb. 3.4) wird deutlich, dass die Handlungsfreiheit als eher gering eingeschätzt wird, respektive einem wesentlichen Teil der Bevölkerung, der sich den Marktstrukturen ‚ausgeliefert‘ sieht. Ergänzend dazu misstraut eine leichte Mehrheit der Einhaltung von Datenschutzvorschriften durch die Unternehmen. Am ehesten erscheint den Befragten noch die individuelle Datenfreigabe beeinflussbar. Einer Ausschöpfung dieser Spielräume steht allerdings die empfundene Komplexität der jeweiligen Datenschutzbestimmungen entgegen, durch die sich eine Mehrheit überfordert fühlt.
Abb. 3.4

Wahrgenommene Handlungsfreiheit (‚Können‘): Gesamtbevölkerung

Die Unterschiede nach Geschlecht, Alter und selbst nach Schulbildung sind eher gering: So sind Akademiker genauso der Meinung wie andere Bildungsschichten, dass man „die Datenschutzbedingungen gar nicht alle lesen“ könne, und sehen auch kaum mehr Einflussmöglichkeit auf die eigene Datenspur. Erst mit steigendem digitalem Wissen werden tendenziell etwas höhere Handlungsspielräume gesehen (siehe beispielhaft Abb. 3.5).
Abb. 3.5

Wahrgenommene Handlungsfreiheit (‚Können‘): Internetnutzer

Fazit

Es besteht ein hohes Abhängigkeitspotenzial: Die Bürger fühlen sich – quer durch alle Bevölkerungsgruppen – aufgrund von Komplexität und Marktstrukturen nur sehr bedingt handlungsfrei oder souverän. Regelungen wie z. B. aus der Europäischen Datenschutzgrundverordnung, die ausgehend vom Ideal eines mündigen und kritischen Bürgers Verbraucherinteressen über Information- und Zustimmungspflichten sichern wollen (siehe Kap.  1), drohen damit ‚ins Leere‘ zu laufen.

3.4 Folgeabschätzungen, Bewertung von Anwendungsfeldern und Einstellungen zu Datenschutz und Technologie (‚Wollen‘)

Die affektive Bewertung von Big Data, Vernetzung und Co., also das ‚Wollen‘, bezieht sich auf die generelle Einschätzung möglicher Technikfolgen, auf die Bewertung konkreter Anwendungsfelder sowie schließlich auf die generelle Einstellung zu Datenschutz einerseits und neuen Technologien andererseits.

3.4.1 Folgeabschätzungen

Um mögliche positive und negative Folgen von Big Data zu erfassen, wurde betrachtet, welche menschlichen Grundmotive dadurch erfüllt oder gefährdet werden können (zu Grundlagen menschlicher Motivation siehe z. B. McClelland 1985, Heckhausen & Heckhausen 2010). Auf Basis der Motive Sicherheit, sozialer Zugehörigkeit, Aktivierung, Kontrolle, Komfort und Effizienz wurden Chancen und Risiken für den Einzelnen abgeleitet und durch die Befragten bewertet.

Ergänzend dazu wurden je vier allgemeine Folgeeinschätzungen zum Thema Wirtschaft und Gesellschaft erfasst:
  • Wirtschaft: Während in der politischen Diskussion derzeit die Frage im Vordergrund steht, wie Daten als ‚das neue Öl‘, also als Ressource der Zukunft, ideal zu er schließen und zu nutzen sind, steht in der öffentlichen Diskussion vielfach die Frage nach Arbeitsplätzen im Vordergrund.

  • Medien und Gesellschaft: Hier werden insbesondere die Wirkung von Vernetzung, Big Data und Künstlicher Intelligenz auf die Aufklärung und die demokratische Grundordnung diskutiert: Einerseits, ob das Wissen der Bürger durch die bessere Verfügbarkeit von Informationen steigt oder durch oberflächliche, falsche, manipulierte oder vorselektierte Informationen (sog. ‚Filterblase‘) eher abnimmt. Andererseits, ob infolgedessen die Demokratie eher gefördert oder geschwächt wird.

Auf Basis dieser insgesamt 24 Einschätzungen wurde ein Optimismus-Index gebildet und anhand dessen drei Typen unterschieden. Ergänzend gaben die Befragten eine Gesamteinschätzung an, ob eher die Risiken oder die Chancen von Big Data überwiegen.

Überwiegen die Risiken oder die Chancen? Ein erster Blick auf die Verteilungen in Tab. 3.2 und 3.3 (eine genauere Auswertung nach Themenfeldern erfolgt auf den Folgeseiten) zeigt, dass eine recht differenzierte Sicht zu den einzelnen Risiken und Chancen vorliegt – also keinesfalls pauschal Risiken oder Chancen gesehen werden, aber zugleich die Risiken (Tab. 3.3) insgesamt eher bejaht werden als die Chancen (Tab. 3.2).
Tab. 3.2

Folgeabschätzungen im Überblick: Chancen (n = 440–490, die ungekürzten Fragetexte finden sich im Anhang)

Die Erfassung und automatische Verarbeitung großer Datenmengen über den Einzelnen wird …

Stimme zu (%)

Teils/teils (%)

Stimme nicht zu (%)

… uns Dinge ermöglichen, von denen wir früher nur zu träumen wagten

53

37

10

… uns helfen, Dinge schneller zu erledigen

51

36

13

… den Kontakt mit Freunden und Familie erleichtern

42

32

26

… dem Einzelnen viele neue Möglichkeiten eröffnen, sein Leben zu gestalten

41

40

19

… unser Leben deutlich bequemer machen

39

43

18

… uns Spaß und neue Anregungen geben, zum Beispiel durch neue Spiele

39

39

22

… den Menschen helfen, besser und günstiger einkaufen zu können

36

41

22

… für mehr Wissen und Aufklärung bei den Menschen sorgen

34

43

23

.. unser Leben in Zukunft deutlich sicherer machen (z. B. Verkehr, Gesundheit, Eigentum)

31

41

28

… uns helfen, Energie zu sparen

25

36

38

… auf lange Sicht Geld sparen

24

35

41

… die Welt durch mehr Meinungsvielfalt demokratischer machen

21

37

42

… insgesamt mehr Wohlstand schaffen

15

37

48

Tab. 3.3

Folgeabschätzungen im Überblick: Risiken (n = 440–490, die ungekürzten Fragetexte finden sich im Anhang)

Die Erfassung und automatische Verarbeitung großer Datenmengen über den Einzelnen wird …

Stimme zu (%)

Teils/teils (%)

Stimme nicht zu (%)

… den Schutz unserer Privatsphäre immer schwieriger machen

80

16

4

… neue Gefahren schaffen (z. B. durch Fehler in der Technik, Datenmissbrauch …)

78

19

4

… dazu führen, dass manche Menschen aufgrund ihrer Daten ungerecht behandelt werden

57

34

9

… uns abhängig machen von Entscheidungen, die …Computer für uns treffen

50

32

18

… das Leben zunehmend stressiger machen

49

34

17

… die Menschen immer mehr vereinsamen lassen

49

34

17

… dem Einzelnen immer mehr Wahlfreiheit nehmen

47

35

19

… dafür sorgen, dass unser Wissen immer oberflächlicher wird

46

32

22

… viele Dinge des Alltags noch komplizierter und undurchschaubarer machen

44

36

20

… für eine zunehmende Entdemokratisierung sorgen

35

38

27

… die Arbeitslosigkeit erhöhen

30

33

37

Die gleiche Tendenz zeigt sich auch in der Gesamtbeurteilung: Unabhängig davon, ob wir die Frage positiv oder negativ formuliert haben, überwiegten jeweils die Risiken gegenüber den Chancen, mit jeweils einem hohen Anteil an ‚neutralen‘ Urteilen (siehe Abb. 3.6).
Abb. 3.6

Folgeabschätzung Gesamteindruck („Alles in Allem glaube ich ...“)

Als Zwischenfazit lässt sich festhalten: Chancen und Risiken werden durchaus einzeln und differenziert wahrgenommen, wobei jedoch der Blick auf die Risiken der Digitalisierung und Vernetzung überwiegt (‚Negativitäts-Dominanz‘).

Diese Negativitätsdominanz gilt auch bei der Betrachtung der einzelnen Motivfelder (siehe Tab. 3.4) und unterscheidet sich damit vielfach von den optimistischen Erwartungen der Experten (siehe dazu Kap.  2):
Tab. 3.4

Folgeabschätzungen für den Einzelnen, sortiert nach Motivfeldern (n = 472–490; alle Befragten [split half]. Die ungekürzten Fragetexte finden sich im Anhang.)

Motivfeld

Die Erfassung und automatische Verarbeitung großer Datenmengen über den Einzelnen wird …

Stimme zu (%)

Teils/teils (%)

Stimme nicht zu (%)

Sicherheit

… neue Gefahren schaffen (z. B. durch Fehler in der Technik, Datenmissbrauch/-Verlust …)

78

19

4

… unser Leben in Zukunft deutlich sicherer machen (z. B. Verkehr, Gesundheit, Eigentum)

31

41

28

Zugehörigkeit

… die Menschen immer mehr

vereinsamen lassen

49

34

17

… den Kontakt mit Freunden und Familie erleichtern

42

32

26

Aktivierung

… das Leben zunehmend stressiger machen

49

34

17

… uns Spaß und neue Anregungen geben, z. B. durch neue Spiele oder Unterhaltungsangebote

39

39

22

Kontrolle

… den Schutz unserer Privatsphäre immer schwieriger machen

80

16

4

… uns abhängig machen von Entscheidungen, die Maschinen und Computer für uns treffen

50

32

18

… dem Einzelnen immer mehr Wahlfreiheit nehmen

47

35

19

… uns Dinge ermöglichen, von denen wir früher nur zu träumen wagten

53

37

10

… dem Einzelnen viele neue Möglichkeiten eröffnen, sein Leben zu gestalten

41

40

19

Komfort

…viele Dinge des Alltags noch komplizierter und undurchschaubarer machen

44

36

20

…unser Leben deutlich bequemer machen

39

43

18

Effizienz

… uns helfen, Dinge schneller zu erledigen

51

36

13

… uns helfen, Energie zu sparen

25

36

38

… auf lange Sicht Geld sparen

24

35

41

  • Sicherheit: Eine große Mehrheit erwartet neue, digitale Risiken, während nur knapp jeder Dritte glaubt, dass die Welt durch Big Data insgesamt an Sicherheit gewinnt.

  • Soziale Zugehörigkeit: Hier findet die Befürchtung, dass die Menschen durch die neue Technik weiter vereinsamen, als auch die Chance, dass sich der Kontakt zu Freunden und Familie vereinfacht, moderate Zustimmung. Aber auch in diesem Bereich liegt das Risiko (mit 49 %) vor der Chance (mit 42 %). Noch deutlicher wird die Tendenz bei den Ablehnungen (Risiko 17 %, Chance 26 %).

  • Aktivierung: Selbst zu diesem Thema dominiert die Erwartung zusätzlichen Stresses gegenüber der Hoffnung auf „Spaß und neue Anregungen“.

  • Kontrolle: Dass neue Spielräume und zusätzliche Möglichkeiten der Lebensgestaltung gewonnen werden, wird von immerhin etwa der Hälfte der Befragten bejaht. Dem steht allerdings in gleichem Umfang die Befürchtung entgegen, in Abhängigkeit von computergenerierten Entscheidungen zu geraten und in seinen Wahlfreiheiten beschnitten zu werden. Hinzu kommt – mit der insgesamt höchsten Zustimmungsquote aller Fragen – die Gefährdung der Privatsphäre.

Etwas ausgeglichener ist das Verhältnis von erwarteten Chancen und Risiken in den beiden übrigen Motivfeldern:
  • Komfort: Hier gleichen sich die Erwartungen eines bequemeren Lebens und die Befürchtung zunehmender Komplexität annähernd aus.

  • Effizienz: Während eine knappe Mehrheit erwartet, dass „Dinge schneller zu erledigen“ seien, bleiben die Hoffnungen auf finanzielle Einsparungen sowie höhere Energieeffizienz sehr verhalten.

Bezogen auf die Gesellschaft hatten wir bewusst gegensätzliche Formulierungen gesucht und – wie die vorhergehenden Fragen auch – jeweils der Hälfte der Stichprobe vorgelegt. In beiden Fällen fällt das Saldo der Antworten leicht pessimistisch aus: also eher Entdemokratisierung statt Demokratiegewinn durch Meinungsvielfalt sowie oberflächlicheres Wissen anstelle von „mehr Wissen und Aufklärung“ (siehe Tab. 3.5).
Tab. 3.5

Folgeabschätzungen für Wirtschaft und Gesellschaft (n = 450–485, alle [split half] Befragten)

Feld

Risiken/Chancen

Die Erfassung und automatische Verarbeitung großer Datenmengen über den Einzelnen wird …

Stimme zu (%)

Teils/teils (%)

Stimme nicht zu (%)

Gesellschaft

Risiken

… dafür sorgen, dass unser Wissen immer oberflächlicher wird

46

32

22

… für eine zunehmende Entdemokratisierung sorgen

35

38

27

Chancen

… für mehr Wissen und Aufklärung bei den Menschen sorgen

34

43

23

… die Welt durch mehr Meinungsvielfalt demokratischer machen

21

37

42

Wirtschaft

Risiken

… dazu führen, dass manche Menschen aufgrund ihrer Daten ungerecht behandelt werden

57

34

9

… die Arbeitslosigkeit erhöhen

30

33

37

Chancen

… den Menschen helfen, besser und günstiger einkaufen zu können

36

41

22

… insgesamt mehr Wohlstand schaffen

15

37

48

Auch in Bezug auf die Volkswirtschaft erwarten nur 15 % der Befragten positive Wohlstandseffekte, doppelt so viele befürchten dagegen einen Anstieg der Arbeitslosigkeit (die Wahrnehmung marktwirtschaftlicher Zusammenhänge durch Laien ist in vielen Fällen pessimistisch verzerrt, siehe dazu Caplan 2007 sowie Enste et al. 2009). Daneben sehen deutlich mehr als die Hälfte der Befragten das Risiko der Diskriminierung Einzelner, während immerhin 36 % Vorteile für Konsumenten sehen („besser und günstiger einkaufen“).

Auf Basis der Bewertung der von uns vorgegebenen 13 Chancen und 11 Risiken haben wir die Befragten in drei Gruppen klassifiziert (siehe Abb. 3.7):
Abb. 3.7

Typen nach Chancen und Risiken

  1. 1.

    ‚Optimisten‘, die primär die Chancen sehen,

     
  2. 2.

    ‚Indifferente‘, bei denen weder die Chancen noch die Risiken deutlich überwiegen,

     
  3. 3.

    ‚Pessimisten‘, bei denen die negativen Einschätzungen dominieren.

     

Als Optimist wurden Befragte klassifiziert, wenn sie bei ihren insgesamt 12 Folgeeinschätzungen mindestens drei Chancen mehr bejahten (oder analog Risiken verneinten) als umgekehrt. Analog wurden Befragte als Pessimist klassifiziert, wenn sie bei ihren insgesamt 12 Folgeeinschätzungen mindestens drei Risiken mehr bejahten (oder analog Chancen verneinten) als umgekehrt.

Chancen, die bei höherem Informationsstand stärker gesehen werden (siehe Abb. 3.8), betreffen vor allem die neuen Möglichkeiten der Lebensgestaltung (Kontrolle) und damit verbunden die zeitliche Effizienz sowie Spaß und Anregung (Aktivierung). Aber auch bei den übrigen Chancen ist tendenziell ein Anstieg zu erkennen.
Abb. 3.8

Folgeabschätzungen: Typen und Einfluss digitalen Wissens

Sorgen lassen tendenziell mit zunehmender Kenntnis nach (siehe Abb. 3.8). Manche Befürchtungen könnten sich also durchaus als ‚Scheinriesen‘ (im Sinne von Michael Endes bekannter Figur aus dem Kinderbuch „Jim Knopf und Lukas der Lokomotivführer“) erweisen, die bei näherer Betrachtung immer kleiner werden und sich somit durch Aufklärung zumindest in Teilen entkräften lassen. Das betrifft besonders die Sorge vor Verkomplizierung des Alltags, in wirtschaftlicher Hinsicht die Zunahme der Arbeitslosigkeit und aus gesellschaftlicher Perspektive die Gefahr zunehmender Vereinsamung. Einige Erwartungen werden aber nicht durch Aufklärung beeinflusst (z. B. Sorge vor Entdemokratisierung) oder werden sogar durch zusätzliche Informationen noch pessimistischer (z. B. bezüglich Meinungsvielfalt).

Fazit

Befürchtungen überwiegen. Aufklärung ‚hilft‘, aber einzelne Sorgen nehmen mit zunehmendem digitalen Wissen noch zu.

3.4.2 Bewertung von Anwendungsfeldern

Aufbauend auf der Einschätzung von Nutzen und Risiken haben die Befragten unterschiedliche Einsatzbereiche von Daten, die im Internet oder durch vernetzte Geräte gewonnenen werden, bewertet. Diese wurden untergliedert in
  1. a)

    gesamtgesellschaftliche Fragestellungen,

     
  2. b)

    Anwendungsfelder in Marketing und Konsum,

     
  3. c)

    Anwendungen in der Lebenswelt Mobilität,

     
  4. d)

    Anwendungen in der Lebenswelt Wohnen,

     
  5. e)

    Anwendungen in der Lebenswelt Gesundheit4.

     

Bezogen auf Gesellschaft und Konsum wurden einige der verbreitetsten oder der derzeit meistdiskutierten Anwendungen vorgestellt.

Die Ergebnisse (siehe Tab. 3.6 und 3.7) sind eindeutig: Überwachung im Sinne der Strafverfolgung oder öffentlichen Ordnung erfährt weitgehend Zustimmung (die grundgesetzlich bedingten rechtlichen Bedenken hierzu scheinen nicht weit in das Bewusstsein der Bevölkerung vorgedrungen zu sein). Auch spielt die Schwere des Deliktes nur eine nachrangige Rolle: Geht es anstelle von schweren Gewaltverbrechen wie Mord, Totschlag oder Terrorismus nur um Eigentumsdelikte, sinkt die Zustimmung lediglich von 59 % auf 45 %, und die Ablehnenden bleiben deutlich in der Minderheit. Überwiegend negativ werden dagegen die übrigen gesellschaftlichen Anwendungsfelder bewertet. Weder die Vorauswahl von Nachrichten (zur Problematik von ‚Filterblasen‘ siehe Pariser 2011) noch die von Stellenbewerbern findet Zustimmung.
Tab. 3.6

Anwendungsfelder in der Gesellschaft (n = 461–504, alle Befragten [split half])

Anwendungsfeld

Das finde ich gut (%)

Neutral (%)

Das finde ich schlecht (%)

Überwachung von öffentlichen Plätzen

60

27

13

Einleitung einer polizeilichen Überwachung bei Verdacht auf ein schweres Verbrechen (z. B. Mord, Totschlag, Terrorismus)

59

26

15

Einleitung einer polizeilichen Überwachung bei Verdacht auf ein Eigentumsdelikt (z. B. Einbruch, Diebstahl, Betrug)

45

34

21

Vorauswahl von Nachrichten, die den Interessen des Einzelnen entsprechen

21

33

45

Vorauswahl von Bewerbern in Unternehmen

17

30

54

‚Social Scoring‘a

10

22

68

aFragetext zu Social Scoring: „Erstellung eines Punktewertes, bei dem die einzelnen Bürger nach ihrer Leistung für die Gesellschaft bewertet werden. Bürger, die viel für die Gemeinschaft leisten, würden beispielsweise bei Wartezeiten in Ämtern oder bei der Wohnungssuche bevorzugt, während andere entsprechend länger warten müssten“

Tab. 3.7

Anwendungsfelder in Marketing/Konsum (n = 461–504, alle Befragten [split half])

Anwendungsfeld

Das finde ich gut (%)

Neutral (%)

Das finde ich schlecht (%)

Prüfung der Kreditwürdigkeit

26

35

39

Festsetzung von Preisen bei Onlinekäufen, abhängig von der Tageszeit oder Situation des Käufers

20

30

50

Bearbeitung von Kundenanfragen durch einen Sprachcomputer

20

30

50

Auswahl von Werbung, die zu den Interessen des Einzelnen passt

18

31

51

Festsetzung von Preisen bei Onlinekäufen, abhängig von der Person des Käufers

14

25

61

Diese Ablehnung gilt erst recht für das Social Scoring. Ein solches Aufsichtssystem (siehe Kap.  1) findet hierzulande lediglich 10 % Zustimmung. Wenn allerdings berücksichtigt wird, wie weitreichend ein solches Instrument tatsächlich in das Leben eingreift, erscheint dieser Anteil gar nicht mehr wenig, sondern erstaunlich hoch, erst recht, wenn nach Hinzunahme der neutralen Bewertungen immerhin ein Drittel der Bevölkerung ein solches System zumindest nicht ablehnt.

Eines der Haupteinsatzfelder von Scorings und Künstlicher Intelligenz liegt bereits heute im Bereich des Marketings oder – breiter definiert – des Kundenmanagements von Unternehmen. Auch diesbezüglich überwiegt die Skepsis. Selbst wenn die neutrale Mittelkategorie als Akzeptanz gewertet wird (schließlich erfährt der Kunde ja meist keinen unmittelbaren Nutzen aus den gewählten Anwendungen), beträgt die Ablehnung 50 % und mehr. Ausnahme ist die Kreditprüfung, bei der die Legitimität des Anbieters, Absicherung zu suchen, auch am ehesten nachzuvollziehen ist. ‚Mikrotargeting‘, ‚Dynamic Pricing‘ (vor allem auf Basis von Personenprofilen) und auch der Einsatz von Sprachcomputern basierend auf Künstlicher Intelligenz (sog. Chatbots) stoßen dagegen auf breite Kritik.

Anhand der Bewertung exemplarischer Anwendungen aus den Lebenswelten (siehe Tab. 3.8, 3.9 und 3.10) sind grundlegende Tendenzen zur Akzeptanz des Einsatzes von Big Data und Algorithmen im Alltag zu erkennen:
Tab. 3.8

Anwendungsfelder in der Lebenswelt Mobilität (n = 464–504, alle Befragten [split half])

Anwendungsfeld

Das finde ich gut (%)

Neutral (%)

Das finde ich schlecht (%)

Verkehrsabhängige Navigation im Auto

72

21

7

Bereitstellung von öffentlichen Verkehrsmitteln in Abhängigkeit vom momentanen Bedarf

62

29

9

Überwachung der Einhaltung von Verkehrsregeln

51

32

17

Steuerung eines selbstfahrenden Autos

30

32

38

Tab. 3.9

Anwendungsfelder in der Lebenswelt Wohnen (n = 464–504, alle Befragten [split half])

Anwendungsfeld

Das finde ich gut (%)

Neutral (%)

Das finde ich schlecht (%)

Überwachung der Wohnung gegen Einbrecher

53

33

15

Automatische Übernahme von Tätigkeiten im Haushalt wie Staubsaugen oder Fensterputzen

49

27

24

Auf die Gewohnheiten der Bewohner angepasste automatische Steuerung der Wohnungsheizung

42

32

26

Auf die Nutzer einer Wohnung angepasste automatische Steuerung der Raumbeleuchtung

27

39

33

Intelligenter Kühlschrank, der meldet, wenn etwas fehlt, oder auf Wunsch sogar selbst nachbestellt

17

28

55

Tab. 3.10

Anwendungsfelder in der Lebenswelt Gesundheit (n = 464–504, alle Befragten [split half])

Anwendungsfeld

Das finde ich gut (%)

Neutral (%)

Das finde ich schlecht (%)

Überprüfung der Medikamenteneinnahme bei älteren Menschen

62

23

14

Überwachung von Herzschlag und Blutdruck, um vor einem möglichen Herzinfarkt zu warnen

62

27

11

Verbesserte Diagnose/zielgenauere Behandlung von Krankheiten aufgrund der Auswertung aller gesundheitsrelevanten Daten der Bevölkerung

55

30

15

Zusammenführung aller Gesundheitsinformationen einer Person für eine bessere Gesundheitsvorsorge

43

36

21

Einsatz von Automaten, die einfache Aufgaben in der Altenpflege übernehmen können

36

27

37

Überwachung von Bewegung/sportlicher Aktivität, um Empfehlungen für eine gesündere Lebensweise zu geben

27

37

36

Überprüfung des Lebensstils, um bei einem gesunden Lebensstil Preisnachlässe in der Krankenversicherung zu erhalten

24

31

45

  • Hohe Akzeptanz: Ein Großteil der Befragten kann sich die meisten beschriebenen Anwendungen in allen drei Lebenswelten Mobilität, Wohnen und Gesundheit durchaus vorstellen. Die zuvor beschriebene Grundskepsis kippt, wenn konkrete, nutzenstiftende Anwendungen genannt werden.

  • Sicherheit geht vor: Analog zu den gesellschaftlichen Einsatzfeldern ist die Akzeptanz besonders dann hoch, wenn es um die Abwendung von Gefahren geht – sei es im Feld der Gesundheit, im Einbrecherschutz oder selbst zur Überwachung der Verkehrsregeln.

  • Unterstützung ja, Automatisierung „ja, aber“: Anwendungsfelder werden in der Tendenz negativer bewertet, je mehr sie den Alltag nicht nur unterstützen, sondern auch gefühlt „die Kontrolle übernehmen“ (vergleiche z. B. die geringe Akzeptanz von intelligenten Kühlschränken, selbstfahrenden Autos oder der automatisierten Raumbeleuchtung).

  • Die Roboter können kommen: Werden aber keine als wesentlich empfundenen Handlungsspielräume eingeschränkt und ist der Nutzen offensichtlich (z. B. beim Staubsaugen, Fensterputzen oder bei der Heizungssteuerung), ist die Akzeptanz automatischer Steuerung hoch. Selbst für sogenannte ‚Pflegeroboter‘ in der Altenpflege finden sich ebenso viele Befürworter wie Ablehner.

  • Wenig Angst vor Überwachung: Viele der Anwendungen (zum Beispiel im Gesundheitsmonitoring, der Verkehrssteuerung oder auch im Smart Home) erfordern eine weitgehende Überwachung des Einzelnen. In den Antworten lässt sich aber kein klarer Zusammenhang zwischen Überwachungsgrad und Akzeptanz feststellen, vielmehr scheint alleine der empfundene Nutzen der Anwendung über Befürwortung und Ablehnung zu entscheiden.

Einige Bewertungen variieren deutlich mit dem Alter der Befragten. So werden Einsätze zu ‚Recht und Ordnung‘ vermehrt von Älteren befürwortet, Smart Home oder das selbstfahrende Auto dagegen deutlich mehr von jüngeren Menschen.

3.4.3 Einstellungen zu Datenschutz und Technologien

Neben Folgeabschätzungen und der Bewertung von Anwendungsfeldern stellt die grundsätzliche Einstellung zum Datenschutz einerseits und zum Umgang neuen Techniken andererseits ein wesentliches Element der Motivation, also des ‚Wollens‘ von Big Data dar. Um die Einstellung der Befragten gegenüber dem Datenschutz zu erfassen, wurde nach der persönlichen Relevanz gefragt sowie als Gegensatz dazu die Zustimmung zur viel zitierten Meinung, man „habe nichts zu verbergen“. Dies wurde ergänzt um eine Frage zur empfundenen Valenz der Beschäftigung – also der individuellen Freude an neuen Technologien.

In den Antworten zur persönlichen Bedeutung des Datenschutzes zeigt sich dessen unverändert hoher Stellenwert für die meisten Bürger (siehe Abb. 3.9). Ob der bei den unter 30-Jährigen zu beobachtende ‚Einbruch‘ ein Kohorteneffekt ist (in dem Sinne, dass nachwachsende Generationen weniger Datenschutzbedenken haben) oder lediglich ein Alterseffekt (d. h. junge Menschen haben weniger Erfahrung oder weniger schützenswerte Daten, was sich aber mit zunehmendem Alter wieder ändert), lässt sich durch die vorliegende Studie leider nicht abschließend klären. Umgekehrt findet der viel zitierte Spruch „ich habe nichts zu verbergen“ als Argument für einen freizügigen Umfang mit Daten nur bedingte Zustimmung – dies am ehesten noch in der älteren Generation, auch dort zeigt sich also ein tendenziell hohes Datenbewusstsein.
Abb. 3.9

Einstellung zu Datenschutz und Technologien

Ungeachtet möglicher Datenschutzbedenken einerseits und Nutzenversprechen andererseits ist der Spaß oder das persönliche ‚Involvement‘ ein wesentlicher Faktor, der zur Akzeptanz oder Ablehnung von Innovationen beitragen kann. Dass die neuen Techniken für einen großen Teil der Bevölkerung nicht nur ein notwendiges Übel, sondern – entweder vorrangig oder zumindest auch – eine positive Erfahrung darstellen, zeigt der untere Teil der Abb. 3.9, wobei die Zustimmung erwartungsgemäß in den jüngeren Altersklassen noch höher ist.

3.5 Verhalten (‚Handeln‘)

In den bisherigen Ergebnissen zeigen sich eine Reihe von Konflikten. Die Folgeabschätzungen sind eher negativ, und das Datenschutzbewusstsein ist hoch. Andererseits ist das digitale Wissen rund um Schlüsselbegriffe von Vernetzung und Big Data eher gering und die empfundene Handlungsfreiheit begrenzt. Zudem werden konkrete Anwendungsfelder von Vernetzung und Big Data durchaus als positiv und nutzenstiftend gesehen.

Folgt das Verhalten nun den grundsätzlichen Einstellungen und Befürchtungen oder eher den konkreten Nutzenversprechen? Zu dieser Frage werden im Folgenden sowohl die generelle Onlinenutzung als auch konkrete Maßnahmen der User zum Schutz ihrer Daten erfasst.

3.5.1 Umfang der Online-Nutzung

Die Daten zum Nutzerverhalten (siehe Abb. 3.10) zeigen: Der Alltag der Bevölkerung ist bereits heute in hohem Maße digitalisiert und vernetzt:
Abb. 3.10

Verhalten: Umfang der Online-Nutzung

  • Nicht nur Computer und Smartphone, sondern auch Tablets und internetfähige Fernseher werden von einer Mehrheit genutzt. Autocomputer, Fitnessarmbänder und Homeboxes (wie Alexa) erweitern bereits heute die Vernetzung. Im Schnitt verwenden unsere Befragten 3,6 der aufgeführten ‚Devices‘.

  • Ähnlich verbreitet sind führende Onlinedienste: Google, WhatsApp, YouTube und Facebook werden jeweils von einem Großteil der Bevölkerung genutzt. Und auch Dienste wie Amazon Prime, Netflix oder Instagram erreichen bereits wesentliche Teile der Gesellschaft.

  • Die große Mehrheit verfügt über einen eigenen Account bei Amazon, Google und eBay (hinzu kommen die oben schon erfassten Social-Media-Dienste WhatsApp und Co.). Ein Drittel der Befragten schätzt, über 20 eigene Accounts zu haben.

  • Lediglich die Verbreitung des Internets der Dinge (Internet of Things) hinkt, mit Ausnahme des bereits erwähnten interaktiven TV und des Autocomputers, noch deutlich hinterher. Nur einer von sechs Befragten nutzte zum Befragungszeitpunkt ein vernetztes Gerät aus dem Kontext ‚Smart Home‘.

Fazit

Die Bevölkerung ist im Netz, und zwar in doppeltem Sinne: Das Internet wird intensiv und über unterschiedlichste Geräte genutzt. Zugleich sind die Nutzer über zahlreiche Dienste und Geräte ‚im Netz‘ der Dienste und hinterlassen so umfangreiche Datenspuren. Dabei dominieren US-amerikanische Internetgiganten (siehe Kap.  1), die zumindest bis zur Inkraftsetzung der EU-Datenschutzgrundverordnung im Mai 2018 niedrigeren Datenschutzstandards unterlagen als ihre deutschen Wettbewerber. Reichweite und Nutzenumfang der globalen Player dominiert offenbar gegenüber Nähe und Datenschutz, wie auch eine Gegenüberstellung unmittelbarer Wettbewerber wie booking.com versus HRS oder mit gewissen Einschränkungen Amazon versus Otto und Zalando zeigt.

3.5.2 Selbst- und Fremdeinschätzung

Eine Gegenüberstellung der großen Skepsis zum Thema Big Data und der hohen empfundenen Relevanz des Themas Datenschutz auf der einen Seite und der breiten und anscheinend weitgehend unkritischen Nutzung von Diensten und Devices auf der anderer Seite lässt bereits den tief greifenden Einstellungs-Verhaltenskonflikt rund um den Datenschutz erkennen: Angebote werden ungeachtet von Werthaltungen und Einstellung genutzt, sofern sich daraus ein unmittelbarer persönlicher Vorteil ergibt. Die meisten der auf der vorhergehenden Seite beschriebenen Verhaltensweisen zeigen dabei kaum einen Zusammenhang mit der persönlichen Bedeutung, die dem Datenschutz zugemessen wird. Das Bewusstsein der Nutzer zu dieser Diskrepanz zeigt Abb. 3.11.
Abb. 3.11

Verhalten: Selbst und Fremdeinschätzung

Da Menschen zur Selbstüberschätzungen neigen (Kahneman 2011) und bei der Einschätzung ‚anderer‘ Menschen oft objektiver und damit zutreffender urteilen (und dabei oft unbewusst ihr eigenes Verhalten auf die ‚Allgemeinheit‘ projizieren), haben wir die Stichprobe geteilt und die eine Hälfte der Befragten um eine Einschätzung des Verhaltens der ‚meisten Menschen‘ gebeten, die andere Hälfte um eine Selbsteinschätzung.

In der projektiven Frage wird ‚den meisten Menschen‘ ganz überwiegend ein zu sorgloser Umgang mit den persönlichen Daten attestiert. Bezogen auf die eigene Person fällt das Urteil erwartungsgemäß deutlich positiver aus: Fast 40 % verneinen dies für sich selbst, aber auch hier gestehen mehr als 60 % zumindest in Teilen Handlungsdefizite ein.

Fazit:

Besorgte Bürger, aber sorglose Verbraucher – das Nutzer-Paradoxon findet weitgehend Bestätigung. Datenschutzbedenken, generelle Sorge vor Big Data oder auch vor der Übermacht einzelner Anbieter halten die Nutzer kaum davon ab, „nützliche“ oder „notwendige“ Dienste zu nutzen. Die Mehrzahl der Verbraucher ist sich des Konfliktes durchaus bewusst.

3.5.3 Maßnahmen zum Datenschutz

Auch wenn die Dienste und Devices umfassend genutzt werden, hat der Einzelne zahlreiche Handlungsoptionen zur eigenen Datensicherheit. Die in den Tab. 3.11 und 3.12 abgebildeten Antworten zeigen, dass durchaus Maßnahmen ergriffen werden, allerdings nicht in dem von Experten immer wieder empfohlenen Umfang (so ändert nur jeder Zweite regelmäßig seine Passwörter).
Tab. 3.11

Verhalten: Konkrete Maßnahmen zum Datenschutz – Faktor 1: Passive Abwehr

Faktor 1: Passive Abwehr

Anteil (%)

Faktorladunga

Wenn eine App auf meine Fotos oder Kontakte zugreifen will, lehne ich das meistens ab.

77

,666

Ich habe schon einmal auf die Nutzung einer Webseite oder einer App verzichtet, weil ich dem Datenschutz nicht vertraut habe.

71

,705

(Ich lösche regelmäßig die Cookies von meinen Geräten.)

68

(,390)

Ich habe schon einmal eine Website verlassen, weil ich den Cookie nicht zulassen wollte.

66

,675

(Ich habe die Kamera an meinem Computer oder Tablet abgeklebt.)

38

(,280)

aDie Faktorladung gibt an, wie hoch das jeweilige Merkmal mit der jeweiligen Dimension korreliert. Geringe Faktorladungen (in Klammern) zeigen, dass sich ein Merkmal nicht eindeutig einem Faktor zuordnen lässt

Tab. 3.12

Verhalten: Konkrete Maßnahmen zum Datenschutz – Faktor 2: Aktiver Datenschutz

Faktor 2: Aktiver Datenschutz

Anteil (%)

Faktorladung

Ich ändere meine Passwörter regelmäßig.

50

,508

Ich verschlüssele meine E-Mails.

34

,564

Ich nutze Funktionen, um im Internet anonym zu bleiben (bspw. einen privaten VPN).

33

,620

Ich nutze eine Suchmaschine, die keine persönlichen Daten sammelt.

32

,491

Ich habe schon einmal ein Unternehmen aufgefordert, meine Daten zu löschen.

29

,447

Ich nutze einen datengeschützten Messenger Dienst, z. B. Threema, Signal oder SIMSme.

19

,570

Da die einzelnen Schutzmaßnahmen nicht unabhängig voneinander sind, sondern gehäuft in bestimmten Kombinationen auftreten, haben wir zur Identifikation typischer Schutzstrategien eine Faktorenanalyse durchgeführt und damit die Mehrheit der Maßnahmen auf wenige, dahinterliegende Dimensionen verdichtet:
  • Passive Abwehr umfasst niederschwellige und damit weitverbreitete Aktivitäten wie das Ablehnen von Zustimmungen oder den Verzicht auf die Nutzung einer Website (siehe Tab. 3.11).

  • Aktiver Datenschutz umfasst hingegen Handlungen, die eine explizite Entscheidung und einen gewissen Aufwand in der Umsetzung erfordern. Sie werden von einem deutlich geringeren Teil der Nutzer eingesetzt (siehe Tab. 3.12).

  • Laissez-faire beinhaltet eine weitgehend unreflektierte Übernahme bzw. Akzeptanz von Voreinstellungen oder Abfragen. Die hohen Zustimmungsraten zum Beispiel zum „Überlesen“ von Datenschutzbestimmungen zeigen, dass gesetzlich vorgegebene Regeln zur Aufklärung und Einholung von Zustimmungen zumindest in der derzeitigen Form vielfach ‚ins Leere laufen‘ (siehe Tab. 3.13).
    Tab. 3.13

    Verhalten: Konkrete Maßnahmen zum Datenschutz – Faktor 3: Lasisez Fair

    Faktor 3: Laissez Faire

    Anteil (%)

    Faktorladung

    Ich habe mindestens eine Payback- oder Kundenkarte, für deren Benutzung ich Rabatte oder andere Vorteile erhalte

    67

    ,479

    Ich lese mir die Datenschutzbestimmungen von Websites oder Online-Anbietern eigentlich nie richtig durch

    64

    ,532

    Wenn bei einem Kauf das Einverständnis zur Nutzung meiner Daten erfragt wird, stimme ich meist zu

    55

    ,582

    Ich akzeptiere Cookies auf Websites, ohne groß darüber nachzudenken

    48

    ,560

    Ich nutze die Cloud, um zum Beispiel Fotos, Daten oder Backups zu speichern

    36

    ,538

    Die Ortungsfunktion an meinem Handy ist eigentlich immer aktiviert

    34

    ,491

Die Löschung von Cookies und das Abkleben der Kamera liegen an der Grenze zwischen passiver Abwehr (höchste Übereinstimmung) und aktivem Datenschutz und lassen sich den Faktoren daher nicht ganz eindeutig zuordnen.

Eine Einteilung der Nutzer nach Zahl der getroffenen Maßnahmen zeigt, dass sich der typische ‚pragmatische‘ Nutzer in ca. der Hälfte der abgefragten Handlungsfelder datenbewusst verhält. Jeder Fünfte verhält sich ‚datenschutzphlegmatisch‘, weniger als jeder Zehnte wirklich konsistent ‚aktiv‘ (Abb. 3.12).
Abb. 3.12

Verhalten: Konkrete Maßnahmen zum Datenschutz

Die in den Tab. 3.14, 3.15 und 3.16 abgebildeten Fragen zeigen den Anteil der Befragten, die die Maßnahmen bejahten, in Abhängigkeit davon, wie ihre Einstellung zum Datenschutz ist. Die gleichen Zahlen finden sich zur Übersicht nochmals in Abb. 3.13.
Tab. 3.14

Maßnahmen in Abhängigkeit der Einstellung: Passiver Datenschutz

 

Passiver Datenschutz

„Das Thema Datenschutz ist mir wichtig.“

Ja (%)

Teils/teils (%)

Nein (%)

P1

Wenn eine App auf meine Fotos oder Kontakte zugreifen will, lehne ich das meistens ab

82a

65

78

P2

Ich habe schon einmal auf die Nutzung einer Webseite oder einer App verzichtet, weil ich dem Datenschutz nicht vertraut habe

76

60

41

P3

Ich lösche regelmäßig die Cookies von meinen Geräten

71

61

53

P4

Ich habe schon einmal eine Website verlassen, weil ich den Cookie nicht zulassen wollte

73

53

40

P5

Ich habe die Kamera an meinem Computer oder Tablet abgeklebt

42

30

26

aLesebeispiel: 82 % der Datenschutzbewussten lehnen es meist ab, Fotos den Zugriff auf Fotos oder Kontakte zu gewähren, aber nur 78 % derjenigen, denen der Datenschutz nicht wichtig ist

Tab. 3.15

Maßnahmen in Abhängigkeit der Einstellung: Aktiver Datenschutz

 

Aktiver Datenschutz

„Das Thema Datenschutz ist mir wichtig.“

Ja (%)

Teils/teils (%)

Nein (%)

A1

Ich ändere meine Passwörter regelmäßig

55

39

24

A2

Ich verschlüssele meine E-Mails

39

25

2

A3

Ich nutze Funktionen, um im Internet anonym zu bleiben (bspw. einen privaten VPN)

38

26

12

A4

Ich nutze eine Suchmaschine, die keine persönlichen Daten sammelt

36

20

25

A5

Ich habe schon einmal ein Unternehmen aufgefordert, meine Daten zu löschen

31

23

24

A6

Ich nutze einen datengeschützten Messenger Dienst, z. B. Threema, Signal oder SIMSme

21

15

10

Tab. 3.16

Maßnahmen in Abhängigkeit der Einstellung: Laissez Faire

 

Laissez Faire

„Das Thema Datenschutz ist mir wichtig.“

Ja (%)

Teils/teils (%)

Nein (%)

LF1

Ich habe mindestens eine Payback- oder Kundenkarte, für deren Benutzung ich Rabatte oder andere Vorteile erhalte

65

71

69

LF2

Ich lese mir die Datenschutzbestimmungen von Websites oder Online-Anbietern eigentlich nie richtig durch

60

76

78

LF3

Wenn bei einem Kauf das Einverständnis zur Nutzung meiner Daten erfragt wird, stimme ich meist zu

50

67

77

LF4

Ich akzeptiere Cookies auf Websites, ohne groß darüber nachzudenken

40

66

68

LF5

Ich nutze die Cloud, um zum Beispiel Fotos, Daten oder Backups zu speichern

34

44

34

LF6

Die Ortungsfunktion an meinem Handy ist eigentlich immer aktiviert

33

38

40

Abb. 3.13

Datenschutz-Verhalten in Abhängigkeit von der Datenschutz-Einstellung

Viele der konkreten Schutzmaßnahmen korrelieren durchaus mit der Einstellung zum Datenschutz – anders, als dies bei der Nutzung der Dienste der Fall war. So geben Menschen, die Datenschutz für wichtig erachten, mehr als doppelt so häufig an, ihre Passwörter regelmäßig zu aktualisieren, als Datenschutzunbewusste (siehe A1 in Tab. 3.15). E-Mail-Verschlüsselung wird von Datenschutzunbewussten sogar so gut wie gar nicht genannt.

Interessant sind dabei wieder die Ausnahmen: Denn die Nutzung einiger essenzieller Funktionen, die die Datenspur erheblich verbreitern, hängt nicht oder nur wenig mit dem Datenschutzbewusstsein zusammen. Dazu gehören insbesondere die Nutzung einer Cloud sowie in der ‚analogen‘ Welt der Besitz von Rabatt- oder Kundenkarten. Aber auch die datenschutzrechtlich besonders sensible Freigabe von Fotos oder Adressen in Apps sowie die Daueraktivierung der Ortungsfunktion unterscheidet sich nur wenig zwischen den beiden Gruppen.

Fazit

Die in der Bevölkerung weitverbreiteten Datenschutzbedenken haben wenig Einfluss auf den Umfang und die Inhalte der Onlinenutzung. Dennoch beeinflussen sie das Verhalten im Kleinen – in Form konkreter Schutzmaßnahmen, die jeder einzelne Nutzer vornehmen kann. Aber auch dabei ist nur eine kleine Minderheit wirklich konsequent.

3.6 Datenpolitik und Datenethik (‚Neue Paradigmen‘)

Wie die bisherigen Auswertungen zeigen, befürchtet eine Mehrheit der Bürger negative Auswirkungen einer vernetzten ‚Datengesellschaft‘, befürwortet Datenschutz und ist sich dabei der Divergenz der eigenen Ansprüche und des eigenen Verhaltens im (digitalen) Alltag sehr wohl bewusst. Im ersten Kapitel dieses Buches wurden bereites Lösungsansätze diskutiert, wie die Gesellschaft dem nicht zuletzt daraus resultierenden Konflikt zwischen Datennutzen und Datenschutz, zwischen Wettbewerb und zunehmend monopolistischen Marktstrukturen und schließlich zwischen (langsamer) Gesetzgebung und (rasanter) Entwicklung in Technik und Wirtschaft begegnen kann.

Im Folgenden werden einige wesentliche Punkte dieser Diskussion aus Sicht der Bürger beleuchtet, nämlich
  1. a)

    Grundannahmen zum Daten-Eigentum, zu computergenerierten Entscheidungen und zur Wettbewerbsfähigkeit,

     
  2. b)

    der Rolle von Fairness bei der Verwendung von Big Data für Scorings und automatisierte Entscheidungen,

     
  3. c)

    ein möglicher Paradigmenwechsel in der Datenpolitik und damit verbunden

     
  4. d)

    die gezielte Bereitstellung persönlicher Daten gegen Vorteile, gegen Bezahlung oder im Sinne des Gemeinwohls.

     

3.6.1 Datenpolitik aus Sicht der Bevölkerung

Ein wesentlicher Punkt in der öffentlichen Diskussion ist das mögliche Eigentum an den Daten: Gehören die Daten dem Nutzer (also bspw. dem Autofahrer oder dem Mitglied eines sozialen Mediums) oder aber dem Anbieter des jeweiligen Dienstes (also z. B. BMW oder Facebook)? Ungeachtet der offenen rechtlichen Problematik (siehe Kap.  1) geben die Befragten ein klares Plädoyer, indem sie die Daten mit großer Mehrheit dem Nutzer zusprechen (siehe Tab. 3.17).
Tab. 3.17

Datenpolitik: Bewertungen aus Sicht der Bevölkerung (n = 469–481; alle Befragten [split half])

Diskussionspunkt

These

Zustimmung der Bevölkerung

Ja (%)

Teils/teils (%)

Nein (%)

Dateneigentum

Personenbezogene Daten, die im Internet anfallen, sollten dem jeweiligen Nutzer gehören

86

9

5

Vertrauen

Entscheidungen sind gerechter, wenn sie von einem Computer getroffen werden als wenn Sie von einem Menschen getroffen werden

10

32

58

Wettbewerbsfähigkeit

Damit Deutschland im internationalen Wettbewerb nicht zurückfällt, ist es wichtig, dass es keine zu strengen Datenschutzregeln gibt

17

34

50

Eine Frage, die mit der zunehmenden Verbreitung von Künstlicher Intelligenz noch wesentlich an Bedeutung gewinnen wird, ist die nach automatisierten Entscheidungen, die auf Basis von Big Data und (zunehmend selbstlernenden) Algorithmen durch ‚den Computer‘ getroffen werden. In welchem Maß können wir diesen Entscheidungen vertrauen? Auch wenn es mittlerweile eine umfassende psychologische Forschung zur Fehleranfälligkeit menschlichen Urteilens und Entscheidens gibt (von persönlichen Interessen menschlicher Entscheider ganz abgesehen): Das Urteil der Befragten fällt hier deutlich zugunsten des Menschen und contra ‚Computer‘ aus (siehe Tab. 3.17).

Schließlich spielt die Wettbewerbsfähigkeit der deutschen oder europäischen Wirtschaft im politischen Diskurs eine zentrale Rolle als Argument für einen liberalen Umgang mit Big Data. Schon bei den oben dargestellten Folgeabschätzungen deutete sich an, dass solche gesamtwirtschaftlichen Zusammenhänge in der Einstellung der Bevölkerung wenig Beachtung finden. Entsprechend wird auch das Wettbewerbsargument von den Befragten nur sehr begrenzt angenommen (siehe Tab. 3.17).

3.6.2 Fairness als Mindestanforderung an Big Data

Werden Daten gesammelt und durch Algorithmen für Scorings oder sogar automatisierte Entscheidungen genutzt, ist der Einzelne dem in hohem Maße ausgeliefert. Wesentlich dafür, dass solche Verfahren akzeptiert werden, ist die Gerechtigkeit der zugrunde liegenden Prozesse.

Leventhal (1980) hat sechs Kriterien formuliert, die der wahrgenommen Fairness von solchen Prozessen zugrunde liegen:
  1. 1.

    Konsistenz, also gleiche Regeln für Alle,

     
  2. 2.

    Neutralität, also Freiheit von persönlichen Interessen oder Voreingenommenheit des Entscheiders,

     
  3. 3.

    Genauigkeit der zugrunde liegenden Informationen,

     
  4. 4.

    Repräsentativität der Daten, auf deren Basis Entscheidungen gefällt werden,

     
  5. 5.

    Revidierbarkeit fehlerhafter oder unangemessener Urteile,

     
  6. 6.

    Ethik, also Übereinstimmung mit übergeordneten moralischen Standards.

     

Damit der Nutzer erkennen kann, inwieweit diese Kriterien erfüllt sind, bedarf es als Randbedingung der Transparenz, des Vertrauens in den Entscheider und/oder der Kontrolle durch eine übergeordnete Instanz. Zusätzlich ist die Sicherheit der Daten ein relevanter Faktor.

Dass Big-Data-basierte Computerentscheidungen derzeit keinesfalls als gerechter gesehen werden, das Vertrauen in die Einhaltung von Vorschriften zum Datenschutz gering ist und mit der Anwendung von Big Data die Sorge vor ungerechtfertigter Diskriminierung verbunden ist, zeigte sich schon in den bisherigen Ergebnissen. Ergänzend haben wir in Tab. 3.18 Antworten zu einigen der genannten Bedingungen zusammengefasst: Durchweg hohe Zustimmungswerte – selbst zur Frage einer staatlichen Algorithmenaufsicht (‚Algorithmenpolizei‘) – verdeutlichen die große Bedeutung, die den Kriterien der Gerechtigkeit für eine breite gesellschaftliche Akzeptanz von Big Data und Künstlicher Intelligenz zukommt.
Tab. 3.18

Datenpolitik: Fairness als Mindestanforderung an Big Data (n = 479–501; alle Befragten [split half])

These

Zustimmung der Bevölkerung

Ja (%)

Teils/teils (%)

Nein (%)

Jeder muss die Möglichkeit haben, Entscheidungen anzufechten, die von einem Computer auf Basis von verknüpften Daten getroffen wurden

86

12

2

Computerprogramme, die auf Basis von Nutzerdaten Entscheidungen fällen, sollten von einer staatlichen Instanz geprüft werden

62

27

11

Ich habe große Zweifel, ob Daten im Internet sicher sind vor dem Zugriff Unbefugter

69

25

6

Es stört mich sehr, wenn ich nicht weiß, ob ich am Telefon oder im Internet mit einem Menschen oder einem Computer spreche

64

21

15

Mir ist wichtig, dass ich weiß, für welche Zwecke meine Daten genutzt werden

80

15

5

Während sich kein deutlicher Zusammenhang mit Bildung oder Geschlecht zeigt, nimmt die Zustimmung zu den in Tab. 3.18 abgebildeten Thesen ab, je jünger die Befragten sind (ohne Abbildung). Möglicherweise deutet sich hier ein allmählicher Einstellungswandel an. Allerdings liegen die Erwartungen auch bei den Jüngeren noch auf einem hohen Niveau.

3.6.3 Bewertung von Paradigmen in der Datenpolitik

In der Analyse der politischen Diskussion wurde in Kap.  1 ein vorsichtiger Wandel der Paradigmen, die von politischen Entscheidungsträgern für den gesellschaftlichen Umgang mit Big Data und Künstlicher Intelligenz formuliert werden, gezeigt. Da diese abstrakten Leitbilder die meisten Befragten überfordern würden, haben wir konkretere Aussagen bewerten lassen, die aus den jeweiligen Anschauungen abgeleitet wurden (siehe Tab. 3.19).
Tab. 3.19

Datenpolitik: Ein Wechsel in den Paradigmen?

Paradigma

These

Zustimmung der Bevölkerung

Paradigma

These

Zustimmung der Bevölkerung

Ja (%)

Teils/teils (%)

Nein (%)

Ja (%)

Teils/teils (%)

Nein (%)

Datenschutz und Regulierung

Jeder sollte genau wissen, was mit seinen persönlichen Daten im Internet geschieht

89

10

1

Datensouveränität

Am Ende muss jeder selbst entscheiden, wie er mit seinen persönlichen Daten umgeht

84

14

1

Die Erfassung von persönlichen Daten durch Unternehmen sollte nur so viel wie nötig und nur solange wie nötig erfolgen dürfen

89

8

3

Ich finde, jeder ist selbst für den Umgang mit seinen Daten im Internet verantwortlich

56

38

6

Den Umgang mit Daten von Kunden und Internetnutzern sollte der Staat durch detaillierte rechtliche Vorgaben regeln

69

25

6

Datenethik

Anstelle von gesetzlichen Vorgaben, sollten die Unternehmen sich freiwillig auf verbindliche Regeln einigen, wie mit personenbezogenen Daten umzugehen ist

45

23

32

Alle, die mit den Daten von Nutzern arbeiten, sollten laufend eng kontrolliert werden

76

20

5

Wettbewerbsrecht

Der Staat sollte die Macht der großen Internetkonzerne beschränken

57

32

10

Open Data

Datenströme aus dem Internet sollten innerhalb bestimmter Regeln der Allgemeinheit zur Verfügung stehenso wie das auch bei Straßen, Schienen oder Stromleitungen der Fall ist

43

33

24

Vom Datenschutz zur Datensouveränität?

Während das Datenschutzkonzept neben Regulierung auf Aufklärung, Transparenz und Zustimmungsvorbehalte setzt, steht Datensouveränität (im Sinne einer aktiv ausgeübten Datenhoheit der Nutzer) für eine gezielte Verwendung der eigenen Daten. In den Antworten der Befragten werden beide Positionen (etwas mehr die ‚Datenschutz‘-Position) eher zustimmend bewertet. Das Selbstbild der Befragten widerspricht also nicht notwendigerweise einem Ideal des Bürgers als ein aktiver, aber selektiver Datengeber (wie auch im Folgenden deutlich wird), auch wenn dieses Ideal vor dem Hintergrund des zu beobachtenden Nutzerparadoxons zumindest derzeit wenig realistisch erscheint.

Von der Regulierung zur Daten-Ethik?

Die Gegenüberstellung enger Regulierung durch den Gesetzgeber versus subsidiär gestalteter, innerhalb eines flexiblen Handlungsrahmens auf Abwägungen und Selbstverpflichtungen beruhender Datenethik fällt eindeutig zugunsten der gesetzlichen Regulierung aus. Dennoch findet auch der Gedanke freiwilliger Selbstverpflichtungen eine recht breite Zustimmung, ein Hinweis darauf, dass solche Unternehmen oder Branchen, die ein hohes Vertrauen in der Öffentlichkeit genießen, hier einen Wettbewerbsvorteil erlangen könnten.

Vom Wettbewerbsrecht zu Open Data?

Vielfach wird ein kartellrechtliches Eingreifen des Staates gegen die Marktmacht der ‚Internetgiganten‘ diskutiert. Diese Forderung wird von der Bevölkerung mehrheitlich unterstützt. Dabei findet auch das recht neue Modell ‚offener Daten‘, bei dem der Wettbewerbsvorsprung von ‚Monopolisten‘ durch erzwungenes Data-Sharing beschnitten wird, um Innovation und Wettbewerb zu stärken, ebenfalls mehr Zustimmung als Ablehnung – und könnte bei intensiverer Kommunikation durchaus ‚mehrheitsfähig‘ werden.

3.6.4 ‚Rohstoff‘ Daten

Das Konzept der Datensouveränität und insbesondere der Datenethik als Alternative zu einem engen, regulativen Datenschutzkonzept bedingt in seinem Kern ein bewusstes Abwägen der Bürger oder Kunden, für welche Gegenleistung und für welche Zweckbestimmung sie ihre Daten freigeben. Gerade auch in Zusammenhang mit der Eigentumsdiskussion um die Daten könnten das sein
  1. a)

    der unentgeltliche Tausch der Daten gegen das Nutzenversprechen einer Anwendung,

     
  2. b)

    ein Verkauf der Daten, also das Bereitstellen des ‚Rohstoffs‘ der eigenen Daten gegen Vergütung, sowie

     
  3. c)

    die gezielte ‚Spende‘, also die kostenfreie Bereitstellung für gesellschaftliche Zwecke.

     

Letzteres würde beispielsweise Anwendungen zur Verbesserung von Verkehrsflüssen oder der medizinischen Versorgung ermöglichen, welche derzeit aufgrund der gesetzlich verankerten Zweckgebundenheit und Datensparsamkeit nur sehr begrenzt möglich sind (vgl. Kap.  2).

Der Datentausch – also faktisch das ‚Bezahlen‘ von Diensten durch die Bereitstellung von Daten, ist bereits breite gesellschaftliche Realität. Entsprechend wird unsere Frage (die allerdings auch die Bezahlung durch Werbung miteinschließt) von den Befragten mehrheitlich bejaht oder zumindest nicht abgelehnt (siehe Tab. 3.20).
Tab. 3.20

‚Rohstoff‘ Daten – Datentausch, Datenhandel und Datenspende

Konzept

These

Zustimmung der Bevölkerung

Anzahl und Art der Befragten

Ja (%)

Teils/teils (%)

Nein (%)

Daten im Tausch

Für Apps oder Onlinedienste bezahlte ich nur ungern. Dann nehme ich lieber Werbung in Kauf oder dass meine Daten für andere Zwecke genutzt werden

26

40

34

n = 214 (nur telefonisch Befragte, die zumindest mehrmals im Monat das Internet nutzen [split half])

Daten als Ware

Ich könnte mir vorstellen, gegen eine attraktive Bezahlung meine Internetaktivitäten von einem Unternehmen aufzeichnen zu lassen

11

11

78

n = 221 (nur telefonisch Befragte, die zumindest mehrmals im Monat das Internet nutzen [split half])

Daten als Spende

Ich könnte mir gut vorstellen, meine Handydaten zur Verfügung zu stellen, wenn sie für die Weiterentwicklung von Onlinediensten genutzt werden würden

10

15

75

n = 249 (nur telefonisch Befragte [split half])

Ich könnte mir gut vorstellen, meine Handydaten zur Verfügung zu stellen, wenn sie für medizinische Forschungszwecke genutzt würden

29

20

51

n = 241 (nur telefonisch Befragte [split half])

In unseren Fragen zu Verkauf und Spende wurde der Datenzugriff bewusst recht weitgehend formuliert. Im Ergebnis zeigt sich, dass sowohl der Verkauf als auch die bewusste Spende solch umfassender Daten von einer Mehrheit abgelehnt wird (siehe Tab. 3.20). Die im Vergleich deutlich höhere Zustimmung zur medizinischen Spende zeigt aber, dass Datenspende nicht pauschal verneint wird, sondern bei nachvollziehbar wichtigen Zwecken durchaus abgewogen wird.5

3.7 Alte und neue Narrative

Narrative sind ‚sinnstiftende Erzählungen‘ innerhalb einer Kultur, die in hohem Maße das öffentliche Bild und damit auch die Bewertung der zugrunde liegenden Themen prägen. Im Rahmen einer aktuellen Medienanalyse wurde in Kap.  1 gezeigt, dass Big Data und Algorithmen ganz überwiegend mit negativen Narrativen verbunden sind. Positive Deutungen, die den möglichen Nutzen von Big Data thematisieren und in den gesellschaftlichen Vorstellungen verankern, sind bislang dagegen kaum zu erkennen.

Wir haben die Befragten daher um Auskunft gebeten, wie weit sie die vorherrschenden kritischen ‚Erzählungen‘ für zutreffend halten (siehe Tab. 3.21). Zugleich haben wir mögliche ‚Narrative‘ oder ‚Bilder‘ beschrieben, die die positive Seite der Datennutzung repräsentieren könnten und so möglicherweise ein Potenzial hätten, auch die Nutzenseite der neuen Techniken zu verankern.
Tab. 3.21

Bewertung von Narrativen

Konnotation

Wenn Sie einmal insgesamt an Nutzen und Risiken bei der Erfassung und Verarbeitung persönlicher Daten denken, welcher der folgenden Vergleiche erscheint Ihnen dabei treffend? Ist das wie ein …

Bewertung der Bevölkerung

Trifft zu (%)

Teils/teils (%)

Trifft nicht zu (%)

Negativ

Spion – der uns ausspäht und viel von uns preisgibt

54

34

12

Ein Überwachungsapparat, der einen immer im Blick hat

51

28

21

Verführer – der einen erst kennenlernt und dann damit beeinflussen will

44

30

26

Eine Droge – die die Menschen erst lockt und dann von den großen Internetkonzernen anhängig macht

39

32

29

Diktator – der erst hilfreich ist und dann die Kontrolle übernimmt

37

35

29

Zensor – der Informationen nur gefiltert weitergibt und einem damit wichtige Dinge vorenthält

31

41

28

Positiv

Forscher und Entwickler – die für einen stetigen Fortschritt sorgt

32

51

18

Persönlicher Assistent – der schnell da ist wenn man ihn braucht

32

36

33

Heinzelmännchen – das viel Arbeit für uns erledigt

23

41

36

Einkaufsberater – der Kunden hilft, zu finden, was gut zu ihnen passt

23

39

38

Wünscheerfüller – der Dinge möglich macht, die sonst gar nicht erreichbar wären

18

36

47

Schutzengel – der aufpasst und uns vor vielen Risiken bewahren kann

14

33

53

Die Befragungsergebnisse zeigen ein analoges Bild zur Negativitäts-Dominanz in der Medienanalyse (und auch in der Folgenabschätzung, siehe Abschn. 3.3): Auch bei der Beurteilung der Narrative überwiegt die Zustimmung zu den negativen Positionen deutlich. Besonders die Bilder der Ausspähung und der Überwachung werden von einer Mehrheit geteilt. Aber auch andere gewählte Metaphern – Verführer, Droge, Diktator und (in etwas geringerem Ausmaß) Zensor, welche auf die zuvor dargestellten Aspekte wie Kontrollverlust, Monopolismus oder die Filterblase referieren, finden mehr Zustimmung als Ablehnung.

Deutlich differenzierter zeigt sich das Bild auf Seite der positiven Analogien: Die höchste Zustimmung findet sich bezüglich des Forschers und des persönlichen Assistenten. Weitergehende Rollen wie Heinzelmännchen, Einkaufsberater, Wünscheerfüller oder auch Schutzengel, die direkt auf Motive wie Bequemlichkeit, Sicherheit, Kontrolle oder Effizienz abzielen und damit die Mehrheit neuer Dienste und Geschäftsmodelle (siehe Kap.  2) repräsentieren, haben bislang kaum den Weg in die Vorstellungswelt der Menschen gefunden. Ähnliche Tendenzen hatten sich schon bei den Folgeabschätzungen gezeigt (siehe Abschn. 3.3).

Abb. 3.14 verdeutlicht noch einmal in Form eines ‚Waagen-Modells‘ die Gewichtung zwischen positiven und negativen Narrativen (die Zahlen sind identisch zu Tab. 3.21). Nur durchschnittlich 24 % stimmen den positiven Vergleichen zu (weitere 39 % zumindest teilweise). Den negativen Vergleichen stimmen im Mittel 43 % zu (weitere 33 % teilweise). Eine Mehrheit finden lediglich die negativen Analogien „Überwachungsapparat“ und „Spion“, während keines der positiven Bilder mehrheitsfähig ist.
Abb. 3.14

Bürgerschreck oder Hoffnungsträger? Negative Narrative wiegen schwerer

Fazit

Anwendungen auf Basis von Big Data haben aus technischer Sicht ein hohes Potenzial, grundlegende Motive zu bedienen und somit einen hohen direkten Nutzen für die Bürger zu generieren. Positive mit Assoziationen aufgeladene Codes könnten diese Seiten von Big Data in der Vorstellungswelt der Menschen verankern und so helfen, ein etwas balancierteres Bild der neuen Datenwelt zu schaffen. Bisher dominiert aber vor allem das Big-Brother-Narrativ, begleitet von weiteren Bedrohungsszenarien, neben denen optimistische Schilderungen bisher allenfalls eine Nebenrolle einnehmen konnten. Zur gesellschaftlichen Konstruktion positiver ‚sinnstiftender Erzählungen‘ ist es also noch ein weiter Weg.

3.8 Neue Rollen am Beispiel der Versicherungswirtschaft

Vernetzung, Big Data und Künstliche Intelligenz führen nicht nur zu zahlreichen Gründungen und Innovationen in techniknahen Branchen, sondern ändern auch die Rolle, die etablierte Branchen für Kunden und die Gesellschaft spielen. In Kap.  2 wird am Beispiel der Assekuranz aufgezeigt, wie sich die Rolle einer ganzen Branche auf Basis von Vernetzung und intelligenten Algorithmen wandeln kann. Darauf abgestimmt werden im Folgenden Erwartungen der Bürger an die Versicherungswirtschaft auf empirischer Basis beschrieben.

3.8.1 Anwendungsfelder von Big Data

Zu den wesentlichen Anwendungsfeldern von Big Data in der Versicherung gehören bereits heute
  1. a)

    Betrugserkennung,

     
  2. b)

    Flexibilisierung der Produkte, z. B. durch situative Deckungen,

     
  3. c)

    Tarifierung6,

     
  4. d)

    Individualisierung des Angebots entsprechend dem Kundenprofil.

     
Bei der Beurteilung entsprechender Anwendungen (siehe Tab. 3.22) wiederholt sich das Muster, das schon in Abschn. 3.4 zu den Anwendungsfeldern zu erkennen war: Wenn es um die Kriminalitätsbekämpfung geht, überwiegt die Zustimmung bei Weitem. Scorings und Selektionen im Marketing, hier also Preissetzung sowie flexible oder individualisierte Produkte, werden dagegen eher skeptisch aufgenommen, wenngleich auch nicht mehrheitlich abgelehnt.
Tab. 3.22

Anwendungsfelder von Big Data in der Versicherungswirtschaft

These

Bewertung der Bevölkerung

Anwendungsfeld

Das finde ich gut (%)

Neutral (%)

Das finde ich schlecht (%)

Aufdeckung von Versicherungsbetrug

67

25

8

„Kriminalitätsbekämpfung“

Eine Versicherung, die automatisch eine Erweiterung anbietet, wenn neue Risiken dazukommen (z. B. ein neuer Sport, ein zuvor nicht versicherter Fahrer im Auto oder eine lange Auslandsreise)

29

35

37

„Marketing“

Ermittlung von Versicherungsprämien anhand des individuellen Risikos eines Kunden

22

35

43

„Marketing“

Vorschlag eines passenden Versicherungsvertrages

22

41

37

3.8.2 Akzeptanz neuer Rollen

Damit ist aber erst ein Teil möglicher Anwendungsfelder von Big Data und intelligenter Algorithmen im Kontext der Versicherungswirtschaft erfasst. Wenn es um neue und erweiterte Funktionen geht, die die Assekuranz dank Daten und Vernetzung übernehmen kann, dann ist vor allem über folgende Rollenbilder nachzudenken (siehe auch Kap.  2):
  1. 1.

    ‚Retter‘ oder ‚Schadenmanager‘: Ist ein Schaden eingetreten, tritt neben den eigentlichen finanziellen Schadenausgleich immer mehr das ‚Management‘ des Schadens, also z. B. die Unterstützung bei oder auch weitgehende Organisation von Reparaturen oder medizinischen Therapien. Mit zunehmender Vernetzung ergeben sich hier weitergehende Möglichkeiten, sowohl die Schäden zu erkennen als auch die Maßnahmen zu koordinieren und zu begleiten.

     
  2. 2.

    ‚Coach‘ oder ‚Schadenverhüter‘: Ebenso ermöglichen Vernetzung und die Analyse großer Datenbestände den Versicherern zunehmend, schon vorab mögliche Risiken zu erkennen und durch Aufklärung, Verhaltensfeedbacks oder konkrete Präventionsmaßnahmen zu minimieren. Aufklärung und Feedback erfolgt beispielsweise im Rahmen von telematischen Kfz-Policen oder im Kontext des Vitality-Programms der Generali Versicherung. Weitere Präventionsmaßnahmen sind zum Beispiel die Installation von Sensoren im Haushalt, regelmäßige Gesundheitschecks oder auch ein laufendes Gesundheitsmonitoring per Smartwatch oder Fitness-Tracker.

     
  3. 3.

    ‚Kontrolleur‘ oder ‚Motivator‘: Wenn Risiken gemessen und erkannt werden, dann ist auch eine unmittelbare Einflussnahme auf das Verhalten des Versicherungsnehmers durch positive oder negative Sanktionen nicht mehr weit. Dies kann zum Beispiel über die Bepreisung erfolgen (wie in Kfz-Telematik-Tarifen oder im „Vitality-Modell“ der Generali Versicherung bereits gegeben), aber auch in weitergehenden konkreten Handlungsvorschriften oder Verboten, welche wiederum durch Sensoren und Vernetzung überprüft werden können.

     
Die Befragten zeigen sich den neuen Rollen gegenüber differenziert, aber vielfach durchaus aufgeschlossen (siehe Tab. 3.23, 3.24 und 3.25). Inwieweit eine Rolle im Einzelfall befürwortet oder zumindest akzeptiert wird, hängt dabei mehr von der konkreten Ausgestaltung des Beispiels als von der Rolle selbst ab. So findet die gewählte Beschreibung des Schadenverhüters ausgerechnet im Kfz-Beispiel, in dem die Vernetzung faktisch ja schon weit fortgeschritten ist, die geringste Akzeptanz, im deutlich sensibleren Gesundheitsbereich dagegen die höchste. Ähnlich verhält es sich mit der Rolle des Schadenmanagers, während Kontrolle und Sanktionen in der Autoversicherung den meisten Zuspruch erfahren.
Tab. 3.23

Neue Rolle der Versicherungswirtschaft? Akzeptanz nach Rollen für die Autoversicherung (n = 312–325, alle Befragten)

Rolle der Versicherungswirtschaft

Ein Autoversicherer sollte …

Bewertung der Bevölkerung

Würden Sie dafür auch entsprechende Daten zur Verfügung stellen, zum Beispiel dem Versicherer erlauben, entsprechende Sensoren an Ihrem Auto zu installieren? (Zustimmung in Prozent)

Stimme zu (%)

Teils/teils (%)

Stimme nicht zu (%)

Retter/Schadenmanager

… nicht nur Kosten erstatten, sondern auch helfen, also zum Beispiel einen Unfall erkennen und automatisch die Reparatur des Autos organisieren

32

31

37

26

Coach/Schadenverhüter

… nicht nur Kosten erstatten, sondern mich schon vorab vor Risiken beschützen, zum Beispiel durch die Analyse meines Fahrstils oder die Bereitstellung von Sicherheitszubehör fürs Auto

22

27

51

24

Kontrolleur/Motivator

…. seinen Kunden Rabatte anbieten, wenn sie sich an bestimmte Vorgaben halten, zum Beispiel eine bestimmte Höchstgeschwindigkeit oder ein Alkoholverbot

59

14

27

41

Tab. 3.24

Neue Rolle der Versicherungswirtschaft? Akzeptanz nach Rollen für die Krankenversicherung (n = 312–325, alle Befragten)

Rolle der Versicherungswirtschaft

Ein Krankenversicherer sollte …

Bewertung der Bevölkerung

Würden Sie dafür auch entsprechende Daten zur Verfügung stellen, zum Beispiel Daten aus Arztterminen oder einem Fitnesstracker? (Zustimmung in Prozent)

Stimme zu (%)

Teils/teils (%)

Stimme nicht zu (%)

Retter/Schadenmanager

… nicht nur Kosten erstatten, sondern auch helfen, also zum Beispiel anstehende Behandlungstermine erkennen oder mir einen Termin beim Facharzt anbieten

52

26

22

48

Coach/Schadenverhüter

… nicht nur Kosten erstatten, sondern mich schon vorab vor Risiken schützen, zum Beispiel durch Vorsorgemaßnahmen oder regelmäßige Gesundheitschecks

67

22

11

50

Kontrolleur/Motivator

… seinen Kunden Rabatte anbieten, wenn sie sich an bestimmte Vorgaben halten, zum Beispiel was Alkoholkonsum oder Bewegung betrifft

51

21

28

44

Tab. 3.25

Neue Rolle der Versicherungswirtschaft? Akzeptanz nach Rollen für die Wohnungsversicherung (n = 312–325, alle Befragten)

Rolle der Versicherungswirtschaft

Ein Wohnungsversicherer sollte …

Bewertung der Bevölkerung

Würden Sie dafür auch entsprechende Daten zur Verfügung stellen, zum Beispiel dem Versicherer erlauben, entsprechende Sensoren in ihrer Wohnung zu installieren? (Zustimmung in Prozent)

Stimme zu (%)

Teils/teils (%)

Stimme nicht zu (%)

Retter/Schadenmanager

… nicht nur Kosten erstatten, sondern auch helfen, also zum Beispiel drohende Schäden an Wasserleitungen erkennen und Handwerker für Reparaturen beauftragen

43

33

24

25

Coach/Schadenverhüter

… nicht nur Kosten erstatten, sondern schon vorab für mehr Sicherheit sorgen, zum Beispiel durch eine Risikoanalyse oder durch die Bereitstellung von Sensoren

36

35

29

30

Kontrolleur/Motivator

… seinen Kunden Rabatte anbieten, wenn sie sich an bestimmte Vorgaben halten, zum Beispiel wenn sie bestimmte Sicherungsmaßnahmen in der Wohnung treffen

52

27

21

23

Analog zeigt sich auch kein eindeutiger Unterschied bezüglich der drei Lebenswelten: Die erweiterten Rollen finden in Mobilität, Gesundheit und Wohnen ungefähr in gleichem Ausmaß Akzeptanz, wobei die Zustimmung im Bereich der Gesundheit tendenziell etwas höher ist und im Bereich des Kfz am stärksten je nach beschriebener Maßnahme schwankt.

Deutlich zurückhaltender sind die Befragten aber in der Bereitschaft, sich dafür auch ‚vermessen‘ zu lassen. Je nach Anwendung wäre nur jeder Zweite bis jeder Vierte bereit, Sensoren zu installieren oder anfallende Daten aus Kfz, Arztbesuchen oder Fitnesstracker an den Versicherer weiterzugeben. Interessanterweise liegen hier die Zustimmungsraten im besonders datenschutzsensiblen Bereich der Gesundheit ganz vorne. Unter Berücksichtigung der Tatsache, dass eine solche Vernetzung einen recht weitgehenden Eingriff in die Privatsphäre darstellt, Datenschutz von den Befragten als wichtig erachtet wurde und die Erfahrung der meisten Befragtem mit Sensoren und Trackern gering ist, sind die Zustimmungsquoten dennoch erstaunlich hoch.

Auch wenn die Verbreitung von ‚Wearables‘ sowie von Alexa oder vergleichbaren ‚Smart Speakers‘ noch moderat ist, wachsen die Nutzerzahlen rasant. Ein Blick auf die Nutzer kann also andeuten, inwieweit die Akzeptanz der Datenweitergabe mit einer weiteren fortschreitenden Vernetzung im Alltag steigt. Tatsächlich stimmen die von uns befragten Nutzer von Smartwatch, Alexa & Co. der Datenübertragung weitaus häufiger – in vielen Fällen sogar mehrheitlich – zu (siehe Tab. 3.26). Die Aussage ist wegen der geringen Zahl der Nutzer der Devices allerdings nur als Tendenzwert zu interpretieren. Ebenso steigt die Akzeptanz – wenig verwunderlich – mit dem Optimismus bezüglich Big Data. Keine wesentlichen Unterschiede zeigen sich dagegen in Abhängigkeit vom Lebensalter (ohne Abbildungen).
Tab. 3.26

Akzeptanz der Datenweitergabe an Versicherer nach Grad der Vernetzung des Kunden (Tendenzaussagen, teils geringe Fallzahlen!)

Würden Sie dafür auch entsprechende Daten zur Verfügung stellen, zum Beispiel …

Rolle der Versicherungswirtschaft

Zustimmung der Bevölkerung (n = 312–325) (%)

Zustimmung bei Nutzern von Smartwatches (n = 23–43) (%)

Zustimmung bei Nutzern von Fitnessarmbändern (n = 47–57) (%)

Zustimmung bei Nutzern von Alexa oder einem vergleichbaren Gerät (n = 34–43) (%)

… dem Versicherer erlauben, entsprechende Sensoren an Ihrem Auto installieren?

Retter/Schadenmanager

26

33

32

39

Coach/Schadenverhüter

24

30

31

28

Kontrolleur/Motivator

41

43

52

62

… Daten aus Arztterminen oder einem Fitnesstracker?

Retter/Schadenmanager

48

68

50

64

Coach/Schadenverhüter

50

43

56

68

Kontrolleur/Motivator

44

59

54

51

… dem Versicherer erlauben, entsprechende Sensoren in ihrer Wohnung zu installieren?

Retter/Schadenmanager

25

32

30

38

Coach/Schadenverhüter

30

49

43

48

Kontrolleur/Motivator

23

32

30

28

Ambivalent ist dagegen der Zusammenhang mit dem Datenschutzbewusstsein. Datenschutzbewusste unterscheiden sich in der Akzeptanz der erweiterten Rolle des Versicherers nicht grundsätzlich von wenig Datenschutzbewussten. Deutlichere Effekte zeigen sich zwar bei der Bereitschaft zur Datenweitergabe, aber auch dies gilt keinesfalls für alle beschriebenen Einsatzzwecke (ohne Abbildungen).

Fazit

Aus den Vergleichen lässt sich schließen, dass nicht die Sorge um die Privatsphäre der Haupttreiber für Zustimmung oder Ablehnung ist, sondern auch hier das jeweilige Nutzenversprechen entscheidet. Verbunden mit zunehmender Gewöhnung an laufende Vernetzung und unter der Voraussetzung der in Abschn. 3.7 beschriebenen Kriterien ‚gerechter‘ Systeme (siehe auch Müller-Peters und Wagner 2017) kann eine insgesamt breite Akzeptanz für eine erweiterte Rolle der Versicherer erwartet werden – von der tradierten Funktion als Kostenerstatter hin zum Schadenmanager, zum Schadenverhüter und bis zum aktiven Motivator oder Kontrolleur.

3.9 Fazit

Als Kernergebnisse dieser empirischen Studie lassen sich festhalten:

3.9.1 Wissen – Können – Wollen – Handeln

‚Wissen‘

Die digitale Welt ist für die Menschen in Deutschland kein ‚Neuland‘ mehr. Grundbegriffe der Digitalisierung sind ins Allgemeinwissen eingegangen. Bestehende Wissensdefizite finden sich aber gerade rund um die digitale Vernetzung und Big Data, jene Themen also, die besonders den Umgang mit den eigenen Daten tangieren.

‚Können‘

Die Bürger fühlen sich aufgrund von Informationsüberlastung und monopolistischer Marktstrukturen nur sehr bedingt handlungsfrei oder souverän, und zwar quer durch alle Altersgruppen und Bildungsschichten. Regulierungen wie z. B. aus der Europäischen Datenschutzgrundverordnung, die vom Ideal eines mündigen und kritischen Bürgers ausgehen und die Interessen der Verbraucher daher über umfassende Information- und Zustimmungspflichten absichern wollen, drohen dadurch vielfach ‚ins Leere‘ zu laufen.

‚Wollen‘

Der Schutz der eigenen Daten ist den Menschen unverändert wichtig. Dennoch ergibt sich eine ganz unterschiedliche Wahrnehmung von Big Data, je nach Blickwinkel, aus dem das Thema betrachtet wird:

Das Fernbild von Big Data:
  • Sofern eher abstrakt nach möglichen Folgen gefragt wird, überwiegen aus Sicht der Bürger die Risiken.

  • Nutzenpotenziale der neuen Techniken, wie ein Zugewinn an Sicherheit, Komfort oder Effizienz, werden vielfach nicht erkannt oder wiegen im Vergleich zu den möglichen Nachteilen weniger schwer.

  • Auch bezüglich gesamtgesellschaftlicher und volkswirtschaftlicher Auswirkungen dominieren die Bedenken.

  • In einer Klassifizierung nach Sorgen und Hoffnungen zeigen sich annähernd doppelt so viele Pessimisten (42 % der Befragten) wie Optimisten (22 % der Befragten). Die verbleibenden 36 % geben sich bezüglich der Chancen und Risiken annähernd indifferent.

Das Nahbild von Big Data:
  • Das negative Bild ändert sich, wenn anhand konkreter Anwendungsfelder der Nutzen von Big Data deutlich wird. Zahlreiche der getesteten Anwendungen in den drei Lebenswelten Mobilität, Wohnen und Gesundheit werden mehrheitlich begrüßt.

  • Das gilt besonders, wenn die Sicherheit erhöht wird, wenn lästige Alltagstätigkeiten automatisiert werden oder wenn der Nutzer bei weitergehenden Tätigkeiten unterstützt wird, ohne dabei gleich die die Kontrolle aus der Hand geben zu müssen.

  • Ist der Nutzen der Anwendung ersichtlich, tritt selbst die Sorge vor Überwachung in den Hintergrund. Dies gilt sowohl für eine breite Anzahl von Anwendungen in den eigenen Lebenswelten als auch für eine (politisch derzeit höchst konträr diskutierte) polizeiliche Kriminalitätsbekämpfung mittels Big Data.

  • Dennoch möchte der Bürger nicht zum ‚Objekt‘ der Algorithmen degradiert werden: Klassifizierungen (sog. ‚Scorings‘) oder gar automatisierte Entscheidungen werden mehrheitlich abgelehnt. Anwendungen im Marketing – z. B. durch ‚Mikrotargeting‘, dynamische Preissetzung oder der Kundenbetreuung über Sprachcomputer, wird überwiegend mit Skepsis begegnet.

‚Handeln‘

Die Bevölkerung ist im Netz, und zwar in doppeltem Sinne:
  • Das Internet wird intensiv und über unterschiedlichste Geräte genutzt.

  • Zugleich sind die Nutzer über zahlreiche Dienste und Geräte im ‚Netz‘ der Anbieter und hinterlassen dort umfangreiche Datenspuren. Dabei dominieren – ungeachtet monopolistischer, gesamtwirtschaftlicher und datenschutzrechtlicher Bedenken – die bekannten Internetgiganten. Reichweite und Nutzenumfang der globalen Player überkompensieren ‚Nähe‘ und höhere Datenschutzstandards nationaler Wettbewerber.

  • Besorgte Bürger, aber sorglose Verbraucher – das Nutzer-Paradoxon findet demnach in unseren Daten weitgehende Bestätigung. Die Mehrzahl der Verbraucher ist sich dieses Konfliktes durchaus bewusst.

  • Dennoch sind die Nutzer ‚im Kleinen‘ nicht gänzlich datenschutzpassiv:

    • Datenschutzmaßnahmen an Computer und Smartphone werden – gerade von datenschutzsensiblen Bürgern – durchaus genutzt.

    • Die große Mehrheit verhält sich in Bezug auf Datenschutzmaßnahmen ‚pragmatisch‘ (negativ formuliert ließe sich auch sagen: ‚leicht fahrlässig‘). Jeder fünfte Nutzer zeigt sich ‚datenschutz-phlegmatisch‘, nicht einmal jeder zehnte ist konsequent ‚datenschutz-aktiv‘.

3.9.2 Neue Paradigmen für Politik, Wirtschaft und Gesellschaft?

Bürger befürworten ein persönliches Eigentum an den eigenen Daten, sind skeptisch gegenüber allen Arten automatisierter Entscheidungen und sind nur sehr begrenzt bereit, den Datenschutz zugunsten der internationalen Wettbewerbsfähigkeit der Wirtschaft hintenanzustellen.

Es herrscht breiter Konsens bezüglich der Grundanforderungen an datengestützte Systeme, nämlich Fairness und Nachvollziehbarkeit. Das impliziert Transparenz, Vertrauen oder Kontrolle sowie Diskriminierungsfreiheit, Neutralität, Datenqualität und Datensicherheit. (Die Forderungen nach Datenqualität und Transparenz stellen den Einsatz unstrukturierter Daten und selbstlernender Algorithmen aus technischer Sicht vor eine große Hürde, siehe Kap.  2).

Neue Paradigmen in der politischen Diskussion betonen Datensouveränität statt Datenschutz, freiwillige Datenethik der Unternehmen anstelle strikter Regulierung, sowie Open-Data-Ansätze anstelle oder ergänzend zum klassischen Wettbewerbsrecht.
  • Die Konzepte von Datenschutz versus eigenverantwortlicher Datensouveränität des Einzelnen schließen sich aus Sicht der Befragten nicht aus, sondern werden gleichermaßen geteilt. Dennoch ist den meisten der Gedanke eher fremd, Daten im Sinne einer Ware zu ‚tauschen‘ (auch wenn dies faktisch schon breite gesellschaftliche Realität ist) oder gar zu ‚verkaufen‘ oder zu ‚spenden‘. Ist der gesellschaftliche Nutzen aber offensichtlich (wie im Fall der medizinischen Forschung gegeben), erhöht sich die Bereitschaft zur Datenüberlassung ganz erheblich.

  • Überwiegend fordern die Bürger jedoch eine enge staatliche Regulierung des Umgangs mit Daten. Der eigentlich gegenteilige Gedanke einer weitgehend freiwilligen Selbstverpflichtung der Unternehmen findet zwar ebenfalls eine recht breite Akzeptanz, dürfte aber im Detail stark vom Vertrauen in ebenjene abhängen.

  • Ein Eingreifen des Staates gegen die Marktmacht der ‚Internetgiganten‘ wird in Mehrheit unterstützt. Dabei findet auch das recht neue Modell der ‚Open Data‘, bei dem der Wettbewerbsvorsprung von Monopolisten durch erzwungenes Data-Sharing beschnitten wird, um Innovation und Wettbewerb zu stärken, mehr Zustimmung als Ablehnung – und könnte bei intensiverer Kommunikation durchaus ‚mehrheitsfähig‘ werden.

Spion, Überwachungsapparat, Verführer, Droge und Diktator

Wir haben die Befragten um Auskunft gebeten, wie weit sie positive und negative Analogien zum Einsatz von Big Data für zutreffend halten. Die fünf zuvor genannten Begriffe wurden mit Abstand meistgenannt und verdeutlichen die große Skepsis, die dem Thema aus der ‚Fernsicht‘ entgegenschlägt. Positive Narrative, die den konkreten Nutzen neuer Anwendungen in die Vorstellungswelt der Menschen transportieren könnten, wie Schutzengel, Wünsche-Erfüller oder Heinzelmännchen, folgen erst weit danach.

3.9.3 Rollenwandel für die Versicherungswirtschaft?

Die Versicherungswirtschaft könnte auf Basis von Daten und Vernetzung neue Rollen in der Gesellschaft übernehmen, indem sie sich vom Kostenerstatter wandelt zum ‚Retter‘ oder ‚Schadenmanager‘ zum ‚Coach‘ oder ‚Schadenverhüter‘ sowie zum ‚Kontrolleur‘ oder ‚Motivator‘.
  • In der Summe zeigen sich die Befragten diesen neuen Rollen gegenüber durchaus aufgeschlossen.

  • Deutlich zurückhaltender ist die persönliche Bereitschaft zur laufenden Übermittlung der notwendigen Daten, zum Beispiel durch Sensoren, Wearables oder auch durch den Arzt.

  • Inwieweit ein Angebot – und auch die damit verbundene Weitergabe der Daten – im Einzelfall befürwortet wird, hängt mehr von dessen konkreter Ausgestaltung ab als von der dahinterstehenden Rolle. Gleiches gilt für die Frage, ob der Einsatz eher in der Lebenswelt Mobilität, Wohnen oder Gesundheit vorstellbar ist. Und selbst der Grad der Überwachung, der mit dem jeweiligen Angebot verbunden ist, tritt hinter die Attraktivität des jeweiligen Nutzenversprechens zurück.

In Summe lässt sich eine insgesamt hohe Bereitschaft der Bürger respektive Kunden erkennen, neue, erweiterte Rollen der Versicherer anzunehmen.

3.9.4 Conclusio

Im Gesamtbild zeigt sich in den Ergebnissen ein doppeltes Paradoxon:
  • Die Bürger fordern Datenschutz, beklagen übermächtige Konzerne und fühlen sich in ihrer Freiheit beschränkt – aber handeln nicht danach, sondern folgen ‚brav der Herde‘.

  • Die Bürger fürchten Big Data – aber sind gerne bereit, die aus der Vernetzung resultierenden Potenziale in ihre Lebenswelten einzulassen.

Die Antwort auf die Frage ‚Bürgerschreck oder Hoffnungsträger‘ ist also weder das eine noch das andere, sondern muss lauten:
  • Big Data: Bürgerschreck und Hoffnungsträger!

Angesichts der weiter rasant fortschreitenden Vernetzung und des zunehmenden Einsatzes von künstlicher Intelligenz besteht die Gefahr, dass sich das doppelte Paradoxon nicht etwa auflöst, sondern weiter verfestigt. Dies kann in einer fatalistischen Haltung enden oder darin, dass auf Dauer eine Anpassung der Einstellungen an das eigene Verhalten erfolgt. Beides steht diametral zum Ideal eines ‚souveränen Datenbürgers‘.

Ein politischer Paradigmenwechsel kann in Teilen dazu beitragen, Brücken zwischen den empfundenen Risiken und den erhofften Chancen zu bauen. Ebenso kann die Etablierung positiver gesellschaftlicher ‚Erzählungen‘ helfen, das bisherige Schwarz-Weiß-Bild zu überwinden. Wesentliche Grundbedingungen dazu sind – neben dem eigentlichen Nutzen der Anwendungen – Fairness und Sicherheit der Systeme sowie Transparenz und Vertrauen in die Akteure. Und schließlich bleibt essenziell, die digitale Bildung der Bevölkerung auch in Bezug auf Big Data zu intensivieren, um Akzeptanz zu gewinnen und dem Ideal eines souverän handelnden Bürgers zumindest in Schritten näherzukommen.

Fußnoten

  1. 1.

    Bei der gegebenen Stichprobengröße von 1000 Befragten ist bei Anteilswerten und einem Signifikanzniveau von 95 % mit einer zufälligen Fehlerabweichung von ca. ± 3 % zu rechnen. Sofern Teilstichproben von ca. 500 Befragten vorliegen, erhöht sich der Fehlerbereich auf ca. ± 4 %. Die Stichprobengröße ist jeweils bei der Frage angegeben (n = …).

  2. 2.

    Nichtsdestotrotz ist nicht auszuschließen, dass durch Selektionseffekte (Teilnahmebereitschaft an Telefoninterviews einerseits bzw. an einem Online-Panel andererseits) eine gewisse Verzerrung hin zu höherer Datenkompetenz und zu höherer Akzeptanz von Datenaustausch besteht. Zu den grundsätzlichen Grenzen der Repräsentativität von Befragungen siehe Müller-Peters (2012) sowie Müller-Peters (2018).

  3. 3.

    Es liegen bereits eine Reihe aktueller empirischer Studien vor, in denen der Wissensstand zu Big Data, zu Algorithmen oder zu Künstlicher Intelligenz erfasst wurde (siehe zum Beispiel Fisher und Petersen 2018, GfK 2018, Marsden 2017, PWC 2017 oder YouGov 2018, sowie im Überblick Kap.  1 in diesem Band). Dabei wird aber in der Regel nur auf einzelne Begriffe abgezielt, während hier ein breiter definiertes ‚digitales Wissen‘ der Bevölkerung als Voraussetzung souveränen Handelns gemessen werden sollte.

  4. 4.

    Zu den Lebenswelten siehe Kap.  2.

  5. 5.

    Zu obenstehenden Fragen wurden nur die Antworten aus der telefonischen Stichprobe ausgewertet, da die Mitglieder eines Onlinepanels in diesen Themen erwartungsgemäß aufgeschlossener sind als der Durchschnitt der Bevölkerung.

  6. 6.

    Zur Bewertung datenbasierter Tarife siehe ausführlich Müller-Peters (2017).

Literatur

  1. best 4 planning. (2018). Daten sinnvoll verbinden. I. Bericht. https://gik.media/cms/wp-content/uploads/2018/10/Berichtsband-b4p-2018.pdf. Zugegriffen: 10. Dez. 2018.
  2. Caplan, B. (2007). The myth of the rational voter. Why democracies choose bad policies. Princeton: University Press.Google Scholar
  3. Enste, D., Haferkamp, A., & Fetchenhauer, D. (2009). Unterschiede im Denken zwischen Ökonomen und Laien. Erklärungsansätze zur Verbesserung der wirtschaftspolitischen Beratung. Perspektiven der Wirtschaftspolitik, 10, 60–78.Google Scholar
  4. Fisher, S., & Petersen, T. (2018). Was Deutschland über Algorithmen weiß und denkt. Ergebnisse einer repräsentativen Bevölkerungsumfrage. Gütersloh: Bertelsmann Stiftung.  https://doi.org/10.11586/2018022.CrossRefGoogle Scholar
  5. GfK. (2018). Künstliche Intelligenz (KI). Meinungsumfrage im Auftrag des Bundesverbandes deutscher Banken. Bericht. Bankenverband. https://bankenverband.de/media/files/Umfrage_Kuenstliche_Intelligenz.pdf. Zugegriffen: 28. Aug. 2018.
  6. Heckhausen, J., & Heckhausen, H. (2010). Motivation und Handeln (4. Aufl.). Berlin: Springer.CrossRefGoogle Scholar
  7. Kahneman, D. (2011). Thinking, fast and slow. New York: Farrar, Straus and Giroux.Google Scholar
  8. Leventhal, G. S. (1980). What should be one with equity theory? New approaches to the study of fairness in social relationships. In K. Gergen, M. Greenberg, & R. Willis (Hrsg.), Social exchange: Advances in theory and research (S. 27–55). New York: Plenum Press.CrossRefGoogle Scholar
  9. Marsden, P. (2017). Sex, lies and A.I. Ein SYZYGY Digital Insight Report. Frankfurt: SZG.Google Scholar
  10. McClelland, D. C. (1985). Human motivation. Glenview: Foresman.Google Scholar
  11. Müller-Peters, A. (Hrsg.). (2018). Repräsentativität. Wie hältst Du’s mit der Zufallsstichprobe? https://www.marktforschung.de/dossiers/themendossiers/repraesentativitaet-und-zufallsstichprobe/. Zugegriffen: 8. Okt. 2018.
  12. Müller-Peters, H. (2012). Repräsentativität 2012 – Fakt, Fake oder Fetisch? https://www.marktforschung.de/dossiers/themendossiers/repraesentativitaet-2012/. Zugegriffen: 08. Okt. 2018.
  13. Müller-Peters, H. (2017). Die Wahrnehmung und Bewertung von telematikbasierten Versicherungstarifen. In H. Müller-Peters & F. Wagner (Hrsg.), Geschäft oder Gewissen? Vom Auszug der Versicherung aus der Solidargemeinschaft (S. 21–47). Goslar Institut: Goslar.Google Scholar
  14. Müller-Peters, H., & Wagner, F. (Hrsg.). (2017). Geschäft oder Gewissen? Vom Auszug der Versicherung aus der Solidargemeinschaft. Goslar: Goslar Institut.Google Scholar
  15. Pariser, E. (2011). The filter bubble. What the Internet is hiding from you. London: Penguin Press.Google Scholar
  16. Petty, R., & Cacioppo, J. (1986). Communication and persuasion: Central and peripheral routes to attitude change. New York: Springer.CrossRefGoogle Scholar
  17. PwC. (2017). Bevölkerungsbefragung. Künstliche Intelligenz. https://www.pwc.de/de/consulting/bevoelkerungsbefragung-kuenstliche-intelligenz-2017.pdf. Zugegriffen: 10. Okt. 2018.
  18. YouGov. (2018). Künstliche Intelligenz. Deutsche sehen eher die Risiken als den Nutzen. https://yougov.de/news/2018/09/11/kunstliche-intelligenz-deutsche-sehen-eher-die-ris/. Zugegriffen: 10. Okt. 2018.

Copyright information

© Der/die Herausgeber bzw. der/die Autor(en) 2020

Open Access Dieses Kapitel wird unter der Creative Commons Namensnennung 4.0 International Lizenz (http://creativecommons.org/licenses/by/4.0/deed.de) veröffentlicht, welche die Nutzung, Vervielfältigung, Bearbeitung, Verbreitung und Wiedergabe in jeglichem Medium und Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle ordnungsgemäß nennen, einen Link zur Creative Commons Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden.

Die in diesem Kapitel enthaltenen Bilder und sonstiges Drittmaterial unterliegen ebenfalls der genannten Creative Commons Lizenz, sofern sich aus der Abbildungslegende nichts anderes ergibt. Sofern das betreffende Material nicht unter der genannten Creative Commons Lizenz steht und die betreffende Handlung nicht nach gesetzlichen Vorschriften erlaubt ist, ist für die oben aufgeführten Weiterverwendungen des Materials die Einwilligung des jeweiligen Rechteinhabers einzuholen.

Authors and Affiliations

  • Susanne Knorre
    • 1
    Email author
  • Horst Müller-Peters
    • 2
  • Fred Wagner
    • 3
  1. 1.Institut für KommunikationsmanagementHochschule OsnabrückOsnabrückDeutschland
  2. 2.Institut für VersicherungswesenTechnische Hochschule KölnKölnDeutschland
  3. 3.Institut für VersicherungslehreUniversität LeipzigLeipzigDeutschland

Personalised recommendations