Zusammenfassung
Mit der wachsenden Bedeutung algorithmischer Systeme in gesellschaftlichen Kontexten nimmt die Debatte darüber, wie sie gestaltet werden sollten, zu. Die Wikipedia-Community hat bereits vielfältige Erfahrungen mit der Gestaltung und dem Einsatz algorithmischer Systeme sammeln können. So hat sich in den letzten 15 Jahren eine soziotechnische Assemblage aus menschlichen und algorithmischen Akteuren herausgebildet, die gemeinschaftlich und aufeinander abgestimmt umfangreiche Aufgaben bewältigen. Dieser Artikel beschreibt unterschiedliche Mechanismen dieser Algorithmic Governance, die die Grundlage für Gestaltungsempfehlungen von algorithmischen Systemen bilden. Diese umfassen die eindeutige Identifizierbarkeit nichtmenschlicher Systeme, einen gemeinschaftlich definierten Handlungsrahmen, die Diversität algorithmischer Realisierungen, eine offene Infrastruktur, eine Werteorientierung und Folgenabschätzung sowie die Sicherstellung der menschlichen Handlungsfähigkeit. Dieser Beitrag führt diese Gestaltungsempfehlungen ein und diskutiert sie, um auf einen werteorientierten Umgang mit algorithmischen Systemen hinzuwirken.
Schlüsselwörter
This is a preview of subscription content, log in via an institution.
Buying options
Tax calculation will be finalised at checkout
Purchases are for personal use only
Learn about institutional subscriptionsNotes
- 1.
Es wird hier bewusst auf die Begriffe KI (künstliche Intelligenz) oder ML (Machine Learning) verzichtet, da die hier abgeleiteten Gestaltungsprinzipien nicht auf eine bestimmte Gruppe von Technologien begrenzt werden sollen.
- 2.
Yochai Benkler definiert in seinem wegweisenden Artikel Coase’s Penguin, or, Linux and ‚The Nature of the Firm‘: „Peer production relies on making an unbounded set of resources available to an unbounded set of agents, who can apply themselves towards an unbounded set of projects and outcomes“ (Benkler 2002, S. 414).
- 3.
Danaher (2016) hat hierfür den Begriff der Algocracy verwendet.
- 4.
Die Wikimedia Foundation, Inc. (WMF) ist eine gemeinnützige Gesellschaft zur Förderung von freiem Wissen und Inhalten mit Sitz in San Francisco (USA).
- 5.
Die WMF hat in den letzten Jahren eine Standardisierung über alle Sprachversionen vorangetrieben, um die Wartbarkeit zu verbessern.
- 6.
Um den Vandalismus, den Bots übersehen, effizient zu erkennen, wurde eine Reihe von Werkzeugen entwickelt (z. B. Twinkle, Huggle), um menschliches Urteilsvermögen effizienter in die Vandalismusbekämpfung einzubringen.
- 7.
Die Analyse ist als technischer Report unter https://refubium.fu-berlin.de/handle/fub188/24775 verfügbar.
- 8.
Da die Autorinnen der Wikipedia unter Pseudonymen auftreten, ist ihr Geschlecht nicht erkennbar.
- 9.
Die Bezeichnung AvicBot_11 bezieht sich auf einen Bot mit dem Namen AvicBot und der beantragten Aufgabe 11. Eine vollständige Liste aller hier genannten Genehmigungsanträge für Bots mit den dazugehörigen URLs befindet sich im Anhang.
- 10.
In Deutschland liegt dieses Verhältnis etwa bei 1:100 (vgl. Fanta 2018).
- 11.
Die Methode ist in einem Arbeitspapier veröffentlicht (vgl. Holl et al. 2018).
- 12.
Walsh bezieht sich dabei auf den britischen Red Flag Act aus dem Jahr 1865. Dieses Gesetz sah (unter anderem) vor, dass selbstfahrenden, also nicht von einem Pferd gezogenen Fahrzeugen eine Person mit einer roten Flagge vorauszugehen habe, um die übrigen Verkehrsteilnehmer zu warnen. Durch den Verweis auf den Mathematiker und Informatiker Alan Turing überträgt Walsh das Gesetz auf die heutige Zeit.
- 13.
Dies steht ganz im Gegensatz zu den permanenten Anpassungen der Algorithmen von Google und anderen großen Anbietern, die mit den Daten ihrer Nutzerinnen arbeiten, wodurch sich die Reproduzierbarkeit und also auch die Überprüfbarkeit der Ergebnisse über die Personalisierung hinaus erschwert.
- 14.
Das Netzwerkdurchsetzungsgesetz (NetzDG) ist ein „Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken“, welches darauf abzielt, dass Anbieter von sozialen Plattformen (z. B. Twitter, Facebook) gegen Hasskriminalität und Persönlichkeitsverletzungen auf ihren Plattformen vorgehen.
- 15.
Diese Überlegungen sind sehr stark beeinflusst durch Ausführungen von Alexandra Borchardt von der University of Oxford zum Thema Wie Plattformen den Journalismus prägen: Erkenntnisse aus der Forschung und dem Redaktionsalltag während der Veranstaltung Internet-Plattformen und Algorithmen am 5. und 6. Oktober 2018 an der Universität Wien.
- 16.
Fairness kann entlang philosophischer Fragen des Egalitarismus, sozialwissenschaftlicher Fragen der strukturellen Diskriminierung oder technologischer Fragen der prädiktiven Verzerrung bewertet werden (Binns 2018). Hier wird auf den technischen Begriff der Fairness verwiesen.
Literatur
Benkler Y (2002) Coase’s Penguin, or, Linux and „The nature of the firm“. The Yale Law J 112(3):369–446
Benkler Y, Shaw A, Hill BM (2015) Peer production: a form of collective intelligence. In: Malone TW, Bernstein MS (Hrsg) Handbook of collective intelligence. MIT Press, Cambridge (MA), S 175–205
Beschastnikh I, Kriplean T, McDonald DW (2008) Wikipedian self-governance in action: motivating the policy lens. In: Proceedings of the Second International Conference on Weblogs and Social Media (ICWSM). AAAI Press, Menlo Park, S 27–35
Beuth P (2017) Die Luftpumpen von Cambridge Analytica. In: Zeit Online, 07.03.2017. https://www.zeit.de/digital/internet/2017-03/us-wahl-cambridge-analytica-donald-trump-widerspruch. Zugegriffen: 20. Mai 2019
Binns R (2018) Fairness in machine learning: lessons from political philosophy. In: Proceedings of machine learning research 81: conference on fairness, accountability, and transparency. PMLR, New York, S 149–159
Brauneis R, Goodman EP (2018) Algorithmic transparency for the smart city. Yale J Law Technol 20:103–176
Butler B, Joyce E, Pike J (2008) Don’t look now, but we’ve created a bureaucracy: the nature and roles of policies and rules in Wikipedia. In: Proceedings of the SIGCHI conference on human factors in computing systems. ACM, New York, S 1101–1110
Citron DK, Pasquale F (2014) The scored society: due process for automated predictions. Washington Law Rev 89(1):1–33
Danaher J (2016) The threat of algocracy: reality, resistance and accommodation. Philos & Technol 29(3):245–268
Danaher J et al (2017) Algorithmic governance: developing a research agenda through the power of collective intelligence. Big Data & Soc 4(2):o. S. [1–21]
Ebersbach A, Glaser M, Heigl R (2005) WikiTools. Kooperation im Web. Springer, Berlin
Erickson T (1997) Designing agents as if people mattered. In: Bradshaw JM (Hrsg) Software agents. AAAI & The MIT Press, Menlo Park (CA), S 79–96
Eslami M et al (2016) First I „like“ it, then I hide it: folk theories of social feeds. In: Proceedings of the 2016 CHI conference on human factors in computing systems. ACM, New York, S 2371–2382
Europäische Kommission, Vertretung in Deutschland (2019) Künstliche Intelligenz: EU-Kommission lässt Vorschläge zu ethischen Leitlinien in der Praxis testen. [Pressemitteilung, 08.04.2019.] In: Europäische Kommission. https://ec.europa.eu/germany/news/ki20190408_de. Zugegriffen: 20. Mai 2019
Fanta A (2018) Österreichs Jobcenter richten künftig mit Hilfe von Software über Arbeitslose. In: Netzpolitik.org, 13.10.2018. https://netzpolitik.org/2018/oesterreichs-jobcenter-richten-kuenftig-mit-hilfe-von-software-ueber-arbeitslose/. Zugegriffen: 20. Mai 2019
Ferrara E et al (2016) The rise of social bots. Commun ACM 59(7):96–104
Forte A et al (2012) Coordination and beyond: social functions of groups in open content production. In: Proceedings of the ACM 2012 conference on computer supported cooperative work. ACM, New York, S 417–426
Forte A, Larco V, Bruckman A (2009) Decentralization in Wikipedia governance. J Manage Inform Syst 26(1):49–72
Friedman B (1996) Value-sensitive design. Interactions 3(6):16–23
Geiger RS (2011) The lives of bots. In: Lovink G, Tkacz N (Hrsg) Critical point of view: a Wikipedia reader. Institute of Network Cultures, Amsterdam, S 78–93
Geiger RS (2013) Are computers merely „supporting“ cooperative work: towards an ethnography of bot development. In: Proceedings of the SIGCHI conference on human factors in computing systems. ACM, New York, S 51–56
Geiger RS (2014) Bots, bespoke, code and the materiality of software platforms. Inform, Commun & Soc 17(3):342–356
Geiger RS (2017) Beyond opening up the black box: investigating the role of algorithmic systems in Wikipedian organizational culture. Big Data & Society 4(2):o. S. [1–14]
Geiger RS, Halfaker A (2013) When the levee breaks: without bots, what happens to Wikipedia’s quality control processes? In: Proceedings of the 9th international symposium on open collaboration. ACM, New York, o. S. [Art. No. 6]
Geiger RS, Ribes D (2010) The work of sustaining order in Wikipedia: the banning of a vandal. In: Proceedings of the 2010 ACM conference on computer supported cooperative work. ACM, New York, S 117–126
Gillespie T (2010) The politics of „platforms“. New Media & Society 12(3):347–364
Gunning D (2019) DARPA’s explainable artificial intelligence (XAI) program. In: Proceedings of the 24th international conference on intelligent user interfaces. ACM, New York, S ii
Halfaker A et al (2013) The rise and decline of an open collaboration system: how Wikipedia’s reaction to popularity is causing its decline. Am Behav Sci 57(5):664–688
Halfaker A, Riedl J (2012) Bots and cyborgs: Wikipedia’s immune system. Computer 45(3):79–82
Hargittai E (2002) Second-level digital divide: differences in people’s online skills. In: First Monday 7(4):o. S. https://firstmonday.org/article/view/942/864. Zugegriffen: 20. Mai 2019
Harihareswara S, Paumier G (2012) MediaWiki. In: Brown A, Wilson G (Hrsg) The architecture of open source applications 2: structure, scale, and a few more fearless hacks. Lulu, Raleigh
Holl J, Kernbeiß G, Wagner-Pinter M (2018) Das AMS-Arbeitsmarktchancen-Modell [Wien: Synthesis Forschung Gesellschaft]. AMS Forschungsnetzwerk. http://www.forschungsnetzwerk.at/downloadpub/arbeitsmarktchancen_methode_%20dokumentation.pdf. Zugegriffen: 20. Mai 2019
Hutchins E (1996) Cognition in the wild, 2. Aufl. MIT Press, Cambridge
Latour B (1988) Mixing humans and nonhumans together: the sociology of a door-closer. Soc Probl 35(3):298–310
Kinkeldey C et al (2019) PreCall: a visual interface for threshold optimization in ml model selection. [Zum Human-Centered Machine Learning Perspectives Workshop der ACM Conference on Human Factors in Computing Systems]. Center for Open Science. https://osf.io/42er7/. Zugegriffen: 23. Juni 2019
Kittur A, Kraut RE (2008) Harnessing the wisdom of crowds in Wikipedia: quality through coordination. In: Proceedings of the 2008 ACM conference on computer supported cooperative work. ACM, New York, S 37–46
Kittur A, Lee B, Kraut RE (2009) Coordination in collective intelligence: the role of team structure and task interdependence. In: Proceedings of the SIGCHI conference on human factors in computing systems. ACM, New York, S 1495–1504
Kohli N, Barreto R, Kroll JA (2018) Translation tutorial: a shared lexicon for research and practice in human-centered software systems. In: ACM Conference on Fairness, Accountability, and Transparency (ACM FAT*) [Tutorial auf der ACM FAT* 2018], o. S. [1–7]. https://fatconference.org/static/tutorials/fatconf18_lexicon_tutorial.pdf. Zugegriffen: 24. Juni 2019
Kramer ADI, Guillory JE, Hancock JT (2014) Experimental evidence of massive-scale emotional contagion through social networks. Proc Natl Acad Sci USA 111(24):8788–8790
Leong B, Selinger E (2019) Robot eyes wide shut: understanding dishonest anthropomorphism. In: Proceedings of the conference on fairness, accountability, and transparency. ACM, New York, S 299–308
Lessig L (2000) Code and other laws of cyberspace. Basic Books, New York
Livingstone RM (2016) Population automation: an interview with Wikipedia bot pioneer Ram-Man. In: First Monday 21(1): o. S. https://doi.org/10.5210/fm.v21i1.6027. Zugegriffen: 22. Juni 2019
MediaWiki (2018) API:Main page. In: MediaWiki. https://www.mediawiki.org/wiki/API:Main_page. Zugegriffen: 20. Mai 2019
MediaWiki (2019a) Extension:FlaggedRevs. In: MediaWiki. https://www.mediawiki.org/wiki/Extension:FlaggedRevs. Zugegriffen: 20. Mai 2019
MediaWiki (2019b) Manual:Pywikibot. In: MediaWiki. https://www.mediawiki.org/wiki/Manual:Pywikibot. Zugegriffen: 20. Mai 2019
MediaWiki (2019c) Manual:Pywikibot/Overview. In: MediaWiki. https://www.mediawiki.org/wiki/Manual:Pywikibot/Overview. Zugegriffen: 20. Mai 2019
Müller-Birn C, Dobusch L, Herbsleb JD (2013) Work-to-rule: the emergence of algorithmic governance in Wikipedia. In: Proceedings of the 6th international conference on communities and technologies. ACM, New York, S 80–89
Niederer S, van Dijck J (2010) Wisdom of the crowd or technicity of content? Wikipedia as a sociotechnical system. New Media & Soc 12(8):1368–1387
Pariser E (2011) The filter bubble: what the internet is hiding from you. Penguin, London
Preece A et al (2018) Hows and whys of artificial intelligence for public sector decisions: explanation and evaluation. In: arXiv.org. arXiv:1810.02689, o. S.
Reisman D et al (2018) Algorithmic impact assessments: a practical framework for public agency accountability. AI Now Institute, New York. https://ainowinstitute.org/aiareport2018.pdf. Zugegriffen: 20. Mai 2019
Schroeder A, Wagner C (2012) Governance of open content creation: a conceptualization and analysis of control and guiding mechanisms in the open content domain. J Am Soc Inform Sci Technol 63(10):1947–1959
Silberzahn R et al (2018) Many analysts, one data set: making transparent how variations in analytic choices affect results. Adv Methods Prac Psychol Sci 1(3):337–356
Sunstein CR (2009). Republic.com 2.0. Princeton University Press, Princeton
Tse C (2018) Algodiversity: thoughts on decentralized algorithmic governance. In: Medium. https://medium.com/cardstack/algodiversity-thoughts-on-decentralized-algorithmic-governance-bfe9245bccf8. Zugegriffen: 20. Mai 2019
Verma S, Rubin J (2018) Fairness definitions explained. In: Proceedings of the international workshop on software fairness. ACM, New York, S 1–7
Walsh T (2016) Turing’s red flag. Commun ACM 59(7):34–37
Wikimedia (2019) Our strategic direction: service and equity. In: Meta-Wiki. https://meta.wikimedia.org/w/index.php?title=Strategy/Wikimedia_movement/2018-20&oldid=18938446 [Permanent Link]. Zugegriffen: 20. Mai 2019
Wikipedia (2003) Wikipedia:Bot policy. In: Wikipedia. https://en.wikipedia.org/w/index.php?title=Wikipedia:Bot_policy&oldid=1120817 [Permanent Link]. Zugegriffen: 20. Mai 2019
Wikipedia (2005) Wikipedia:Bot policy. In: Wikipedia. https://en.wikipedia.org/w/index.php?title=Wikipedia:Bot_policy&oldid=33344223 [Permanent Link]. Zugegriffen: 20. Mai 2019
Wikipedia (2006) Wikipedia:Bot policy: difference between revisions. In: Wikipedia. https://en.wikipedia.org/w/index.php?title=Wikipedia:Bot_policy&diff=next&oldid=68625395 [Permanent Link]. Zugegriffen: 20. Mai 2019
Wikipedia (2010) User:ClueBot NG. In: Wikipedia. https://en.wikipedia.org/wiki/User:ClueBot_NG. Zugegriffen: 20. Mai 2019
Wikipedia (2018) Wikipedia:bots. In: Wikipedia. https://en.wikipedia.org/w/index.php?title=Wikipedia:Bots&oldid=875795955 [Permanent Link]. Zugegriffen: 20. Mai 2019
Wikipedia (2019a) Wikipedia:Administrator intervention against vandalism. In: Wikipedia. https://en.wikipedia.org/wiki/Wikipedia:Administrator_intervention_against_vandalism. Zugegriffen: 20. Mai 2019
Wikipedia (2019b) Wikipedia:bot approvals group. In: Wikipedia. https://en.wikipedia.org/wiki/Wikipedia:Bot_Approvals_Group. Zugegriffen: 20. Mai 2019
Wikipedia (2019c) Wikipedia:bots/requests for approval. In: Wikipedia. https://en.wikipedia.org/wiki/Wikipedia:Bots/Requests_for_approval. Zugegriffen: 20. Mai 2019
Wikipedia (2019d) Wikipedia:categories for discussion. In: Wikipedia. https://en.wikipedia.org/wiki/Wikipedia:Categories_for_discussion. Zugegriffen: 20. Mai 2019
Wikipedia (2019e) Wikipedia:Criteria for speedy deletion. In: Wikipedia https://en.wikipedia.org/wiki/Wikipedia:Criteria_for_speedy_deletion. Zugegriffen: 20. Mai 2019
Wikipedia (2019f) Wikipedia:manual of style. In: Wikipedia. (https://en.wikipedia.org/wiki/Wikipedia:Manual_of_Style. Zugegriffen: 23. Juni 2019
Wikipedia (2019g): Wikipedia:policies and guidelines. In: Wikipedia. https://en.wikipedia.org/w/index.php?title=Wikipedia:Policies_and_guidelines&oldid=893669639 [Permanent Link]. Zugegriffen: 20. Mai 2019
Wikipedia (2019h) Wikipedia:signatures. In: Wikipedia. http://en.wikipedia.org/wiki/Wikipedia:Signatures. Zugegriffen: 20. Mai 2019
Wimmer B (2018) AMS-Chef: „Mitarbeiter schätzen Jobchancen pessimistischer ein als der Algorithmus“. In: Futurezone, 12.10.2018. https://futurezone.at/netzpolitik/ams-chef-mitarbeiter-schaetzen-jobchancen-pessimistischer-ein-als-der-algorithmus/400143839. Zugegriffen: 20. Mai 2019
Winner L (1980) Do artifacts have politics? Daedalus 109(1):121–136
Zarsky T (2015) The trouble with algorithmic decisions: an analytic road map to examine efficiency and fairness in automated and opaque decision making. Sci Technol Human Values 41(1):118–132
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Anhang: Bot-Übersicht
Anhang: Bot-Übersicht
Rights and permissions
Copyright information
© 2020 Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Müller-Birn, C. (2020). Algorithmic Governance der Wikipedia. In: Klimczak, P., Petersen, C., Schilling, S. (eds) Maschinen der Kommunikation. ars digitalis. Springer Vieweg, Wiesbaden. https://doi.org/10.1007/978-3-658-27852-6_12
Download citation
DOI: https://doi.org/10.1007/978-3-658-27852-6_12
Published:
Publisher Name: Springer Vieweg, Wiesbaden
Print ISBN: 978-3-658-27851-9
Online ISBN: 978-3-658-27852-6
eBook Packages: Computer Science and Engineering (German Language)