Skip to main content

Daten – Interessen – Ontologien – oder wie Geschäftsmodelle die Wissenschaft verbiegen

  • Chapter
  • First Online:
Book cover Datafizierung und Big Data
  • 2889 Accesses

Zusammenfassung

Die neuen technischen Möglichkeiten der Big-Data-Methodik erlauben es, unerwartete Strukturen und Beziehungen in Datensätzen zu finden, die aus unterschiedlichsten Zusammenhängen und Bereichen stammen können. Dies wird nicht nur aus forschungstaktischen Gründen getan, sondern um gegebenenfalls monetarisierbare Zusammenhänge zu finden, um neue Geschäftsmodelle finden zu können. Das Ergebnis einer Daten-Analyse durch die Methoden der Big-Data-Technologien kann nicht angemessen interpretiert werden, wenn die Forschungsfrage, d. h. die Frage, wonach man eigentlich sucht, nicht vorher gestellt worden ist. Deshalb braucht man ein Modell, das den untersuchten Prozess oder Gegenstandsbereich vorläufig hypothetisch erklärt, d. h. eine Kausal-Vermutung. Ein Modell, das kausale Erklärungen erlaubt, ist allemal besser als ein Modell, das nur Extrapolationen liefert. Es besteht die Tendenz, die wissenschaftliche Methodik durch bloße numerische Prozeduren zu ersetzen. Treiber dieser Entwicklung sind Geschäftsmodelle, die darauf abzielen, eine multifunktionale Verwendung von einmal erhobenen Daten in unterschiedlichsten Kontexten, sprich Ontologien, vermarkten zu können.

Die wirkliche Weisheit, die aus der Reflexion, dem Dialog und der großherzigen Begegnung zwischen Personen hervorgeht, erlangt man nicht mit einer bloßen Anhäufung von Daten, die sättigend und benebelnd in einer Art geistiger Umweltverschmutzung endet.

Papst Franziskus (2015, IV, Sec 47).

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 44.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 59.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Data Mining ist ein Containerbegriff (Kofferwort) für eine Reihe von unterschiedlichen Verfahren der Datenverarbeitung wie das Auffinden von Anomalien, Faktorenanalyse, Clusterbildung, Mustererkennung, Regressionsanalyse, Datenaggregation, Visualisierung etc.; vgl. Palace (1996); Lehrbücher z. B. Witten et al. (2011).

  2. 2.

    Siehe Techopedia (2015).

  3. 3.

    Basierend auf dem MapReduce-Verfahren, das von Google 2004 eingeführt wurde. Hadoop ist ein in Java geschriebenes Programm, das die auf die verschiedenen Rechner verteilte Anwendung dieses Verfahrens managt.

  4. 4.

    Analysemethoden wie Monte Carlo Methode, Exponentielle Glättung, Kalman-Filter und andere waren in der Mathematik schon bekannt, bevor die Rechnerkapazitäten heutiger Tage deren extensive und schnelle Anwendung erlaubten.

  5. 5.

    Reconstructability Analysis benutzt sowohl mengentheoretische Modellbildung wie auch informationstheoretische Modellierung der Häufigkeitsverteilungen aller vorkommenden Systemzustände. Es ist möglich, Strukturen zwischen Variablen unterschiedlicher Kategorien, Dimensionen und Auflösungen zu finden. Für einen Überblick siehe Zwick (2004), einer der ersten Beiträge stammt von Klir (1976); siehe auch Klir (1985). Anwendungen finden sich z. B. in Klir et al. (1988).

  6. 6.

    Peter Schaar, zit. in Rauner (2006), S. 38.

  7. 7.

    Jede Menge sinnloser, eher erheiternder Korrelationen aus öffentlich zugänglichen Daten stellte z. B. Vigen (2015) zusammen. Manche dieser „Korrelationen“ lassen sich durch intermittierende Variablen „wegerklären“, andere wiederum nicht.

  8. 8.

    Vgl. *um & HP (2015).

  9. 9.

    Big-Data-Methoden umfassen Data Mining (siehe Anmerkung 4) und bisher durchaus schon bekannte Verfahren der Datenanalysen und Statistik, die algorithmisch nun so aufbereitet werden, dass ihre Programmierungen auf große, zusammengeführte (merged) Datenmengen und zahlreiche Variablen zugeschnitten sind.

  10. 10.

    So sagt die ISO Technische Daten-Definition (2015, Sektion 2121272) Data is a „reinterpretable representation of information in a formalized manner, suitable for communication, interpretation, or processing… Data can be processed by humans or by automatic means“. Diese Definition ist insofern passend, da Daten an sich noch keine Information sind, sondern erst durch ihre Interpretation resp. Verarbeitung zur Information werden können, welche dann zu Wissen werden kann, sofern sie verstanden wird.

  11. 11.

    Im Falle von Fragebögen verlangt das Bundesdatenschutzgesetz (BDSG) und die Datenschutzverordnung (DSGVO), dass die befragten Personen mit der Weitergabe ihrer (meist anonymisierten Daten) einverstanden sind. Daten, die sich aufgrund von Experimenten und Tests ergeben, „gehören“ nach landläufiger Meinung in der Regel dem entsprechenden Institut oder Unternehmen. Rechtlich spricht man eher davon, dass diese Institutionen Inhaber der Rechte an Daten sind.

  12. 12.

    Besitzer von Daten sind diejenigen, die mittelbar oder unmittelbar tatsächliche Gewalt über die Daten ausüben, also auch verarbeiten und damit auswerten können. Es ist also entscheidend, wer über den Datenträger (Diskette, Speicher etc.), das Passwort, die Zugangsberechtigung etc. wie lange verfügt. Dies könnte man als technische Herrschaft über die Daten bezeichnen.

  13. 13.

    Vgl. Eckert (2017).

  14. 14.

    Richtig übersetzt: Denn auch die Wissenschaft selbst ist Macht. Damit meint Bacon die Wissenschaft, die eine besonderer Art und Weise der Erzeugung von Wissen ist, nicht das Wissen im platonischen Sinne. Vgl. Bacon (1597/1864), S. 79.

  15. 15.

    Vgl. auch Stehr, Adolf (2015). Für das technische Wissen als handlungsanleitendes Regelwissen siehe Poser (2017, Kap. III, S. 117 ff.), Kornwachs (2012, Kap. E, S. 223 ff.), Gaycken (2010).

  16. 16.

    Vgl. Kornwachs (1999, 2001).

  17. 17.

    Dies setzt zunächst voraus, dass man durch die Messeinrichtung oder Erhebungsmethode Muster im Signalangebot des Prozesses erkennen kann. Dies kann man durch die Einführung von vorab definierten Schwellwerten, Intervallen und sogenannten Masken (raum-zeitlich definierte Ausschnitten, „durch“ die man die Daten „anschaut“) erreichen. Dies gilt ganz allgemein, ob es sich um eine physikalische Messung, eine Videobeobachtung, ein Abgreifen von Maschinenzuständen oder eine soziologische oder psychologische Erfassung (Fragbogen, Interview etc.) handelt. Für die Naturwissenschaften siehe z. B. Tal (2015); in der Soziologie und den Standards der empirischen Sozialforschung siehe z. B. Neumann (2005).

  18. 18.

    Für qualitative Methoden siehe Yin (2003) bzw. Keller und Kluge (1999).

  19. 19.

    Programm und Algorithmus werden oftmals gleichgesetzt. Das ist nicht ganz richtig: Man kann ein und denselben Algorithmus, z. B. den Gaußschen Algorithmus zur Lösung von n linearen Gleichungen auf verschieden Weise und in verschiedenen Programmiersprachen programmieren. Der Algorithmus ist das mathematisch bestimmte Verfahren, das dann ein Programm auf einer konkreten Maschine realisiert.

  20. 20.

    Zum Beispiel formatiert, entsprechend einer Maske oder codiert durch einen endlichen Zeichensatz oder als Chart.

  21. 21.

    Vgl. Kant, Immanuel: Kritik der Reinen Vernunft, A50/B74 ff. In: Kant (1956), S. 94 ff.

  22. 22.

    Man unterscheidet im deutschen Recht zwischen Eigentum und Besitz: Besitzer ist derjenige, der über eine Sache tatsächlich verfügen kann, der Begriff bezeichnet ein Faktum. Eigentum an einer Sache ist hingegen ein Recht. Demnach können Signale von einem Prozess durch viele Menschen beobachtet werden und diese Aufzeichnungen können deshalb bei berechtigter Aufzeichnung von vielen besessen werden. Wenn diese Signale durch eine Anstrengung (Arbeit) des Besitzers zu Daten werden, gehen diese Daten in das Eigentum des Bearbeiters über. Durch die Bearbeitung erwirbt er Rechte als Inhaber solcher Daten. Der Eigentümer hat gewisse Rechte an Daten wie Vervielfältigung (Kopie), Verkauf, Vermietung, Gebrauchsleihe, Verpfändung, etc., Veränderung und Vernichtung der Daten, Recht, über den Zugang zu seinen digitalen Daten zu bestimmen und das Recht, über die Nutzung der digitalen Daten zu bestimmen (Datenanalyse).

  23. 23.

    Dieser Begriff wurde durch das Bundesverfassungsgericht in seinem Urteil (sog. Volkszählungsurteil) vom 15. Dezember 1983. Aktenzeichen 1 BvR209, 269, 362, 420, 440, 484/83, eingeführt.

  24. 24.

    Siehe Lehrbücher der Kommunikationstheorie, z. B. Mortensen (2008).

  25. 25.

    Der Kinderbuchautor Janosch drückt diese Unterscheidung (Träger der Information, Verstehen der Information, Wissen) für die Briefausträger so aus: „Ihr dürft die Briefe nicht aufmachen, ihr dürft sie nicht lesen und dürft niemanden weitererzählen, was darin steht.“

  26. 26.

    Vgl. Podesta et al. (2014), S. 15–16. Das Zitat des Kommentars von Barack Obama zu diesem Bericht siehe Obama (2014).

  27. 27.

    Der Text ist zugänglich unter: http://eur-lex.europa.eu/eli/reg/2016/679/oj.

  28. 28.

    Nach Otthein Herzogs Einschätzung, präsentiert vor der Deutschen Akademie für Technikwissenschaften (acatech), Themennetzwerk Informations- und Kommunikationstechnologie, Berlin, 11. November 2014. Nach dem Skandal der Datenweitergabe von Facebook-Daten an Cambridge Analytica werden im April 2018 auch in USA die ersten Stimmen laut, dass Europa in der Regulierung weiter sei als die USA und hier Nachholbedarf bestünde.

  29. 29.

    In Bezug auf den 3rd Sino-German iCity Workshop „Smart Cities and Big Data“, 29.–30. Oktober 2014, Wuhan, China.

  30. 30.

    Siehe Kornwachs (2015).

  31. 31.

    Generell siehe Kühnreich (2014).

  32. 32.

    Siehe Kühnreich (2017).

  33. 33.

    Vgl. Glaser (2017), Reuter (2017) mit Bezug auf Botsmann (2017).

  34. 34.

    Siehe Grzanna (2015).

  35. 35.

    Ein Vergleich solcher Vorstellungen zwischen mittelständischen Familien-Betrieben in Deutschland und China gibt Buder-Han (2014). Zu einem ersten Eindruck Kornwachs (2015).

  36. 36.

    Mayer-Schönberger und Cukier (2013).

  37. 37.

    In der Informatik und den Computerwissenschaften wird der Begriff „Ontologie“ dazu verwendet, alle Objekte, Eigenschaften und Relationen in einem Modell (z. B. zur Simulation) oder auch in einem Datenbanksystem bezüglich eines Gegenstandsbereichs zusammenzufassen. Der Begriff ist eng verwandt mit dem linguistischen Begriff Universe of Discourse oder dem Semantic Universe, welches das verwendete Vokabular, dessen Bedeutung und die bestehenden syntaktischen und semantischen Beziehungen zusammenfasst. Diese Bedeutung von „Ontologie“ sollte nicht mit dem Begriff der Ontologie in der Philosophie verwechselt werden, wo der Begriff sich auf die Lehre vom Sein, Seienden, den Dingen und den Modalitäten der Existenz von Entitäten bezieht.

  38. 38.

    Dies kann in den Naturwissenschaften entweder durch Tabellen, Graphen, Differenz- oder Differenzialgleichungen, Gruppen oder Symmetrien dargestellt werden. Rekursive Gleichungen eröffnen darüber hinaus ein weites Feld, um Algorithmen rekursiv zu definieren und Modelle zu berechnen, die nicht mehr analytisch dargestellt werden können.

  39. 39.

    Zum Unterschied zwischen einem Test in den Technikwissenschaften und der technologischen Praxis einerseits und dem naturwissenschaftlichen Experiment andererseits siehe Kornwachs (2012, S. 123–132) und Kornwachs et al. (2013).

  40. 40.

    Am provokativsten siehe Anderson (2008).

  41. 41.

    Siehe Barthelborth (2016).

  42. 42.

    Eine eher ironisch gemeinte Sammlung von Scheinkorrelationen findet sich in Stolz, Block (2012).

  43. 43.

    Um begriffliche Missverständnisse zu vermeiden: Auch ein Satz von Parametern eines Funktionensystems, z. B. Polynome, mit denen man einen Datensatz wiedergeben kann (z. B. im Rahmen der Methode der Kleinsten Fehlerquadrate) wird in der Literatur Modell genannt. Zur Unterscheidung wird hier von datenbasierten Modellen oder gefitteten Modellen im Gegensatz zu hypotesengeleiteten Modellen gesprochen.

  44. 44.

    Der Titel seines Artikels in der Zeitschrift WIRED scheint programmatisch gemeint zu sein: “The End of Theory: The Data Deluge Makes the Scientific Method Obsolete”. Vgl. Anderson (2008). Die folgenden Ausführungen gehen kritisch auf diesen Artikel ein.

  45. 45.

    Ausführlicher diskutiert in Kornwachs (2016, 2018).

  46. 46.

    Siehe Mattern (2008).

  47. 47.

    “… forces us to view data mathematically first and establish a context for it later”. Vgl. Anderson (2008).

  48. 48.

    Man kann jedoch zeigen, dass man unter bestimmten Umständen immer „etwas“ finden kann. Denn wenn man mit Statistik in einer eher explorativen Weise vorgeht, gleichsam von Frage zu Frage, dann erweist sich die Fehlerwahrscheinlichkeit als kumulativ. Wenn diese methodische Bedingung nicht berücksichtigt wird, ist es immer ein Leichtes, „Effekte“ zu finden. Vgl. Kornwachs (2018), S. 82. Genau dies geschieht vergleichsweise oft, wenn man Daten unkritisch „merged“.

  49. 49.

    Siehe Pietsch, Wernecke (2017).

  50. 50.

    Vgl. Norvig (2008), Google's Research Director Peter Norvig antwortet auf einen Artikel von Anderson (2008). Übers. vom Verf.

  51. 51.

    Vgl. Anderson (2008). Übers. vom Verf.

  52. 52.

    Vgl. Anderson (2008). Übers. Vom Verf.

  53. 53.

    Siehe Kant: Kritik der Reinen Vernunft. B75, A 51. In: Kant (1956), S. 95.

  54. 54.

    Vgl. Techopedia (2015). Übers. vom Verf.

  55. 55.

    Siehe Lütge (2014), Boeing (2015).

  56. 56.

    Die deutschen Automobilfirmen sind bisher noch nicht der Trusted Computing Group (TCG) beigetreten, einer Vereinigung aller führender ICT Firmen und Fahrzeughersteller. Die TCG versucht Sicherheitsstandards für computerisierte oder auch automatisierte Fahrzeuge zu entwickeln; vgl. Schulzki-Hadouti (2015).

  57. 57.

    Rappa (2010). Etwas komplizierter, aber inhaltlich identisch vgl. Wirtz (2013), S. 73. Vgl. auch Nägele (2017).

  58. 58.

    Nach Stähler (2001).

  59. 59.

    Nach Schallmo (2013).

  60. 60.

    Man spricht auch von Geschäftsmodellinnovationen, vgl. Schallmo (2013).

  61. 61.

    Vgl. Kornwachs (2018).

  62. 62.

    Weitere Beispiele finden sich in Mainzer (2014), Hofstetter (2014).

Literatur

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Klaus Kornwachs .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2020 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Kornwachs, K. (2020). Daten – Interessen – Ontologien – oder wie Geschäftsmodelle die Wissenschaft verbiegen. In: Wiegerling, K., Nerurkar, M., Wadephul, C. (eds) Datafizierung und Big Data. Anthropologie – Technikphilosophie – Gesellschaft. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-27149-7_1

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-27149-7_1

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-27148-0

  • Online ISBN: 978-3-658-27149-7

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics