Zusammenfassung
Peer Review zielt auf eine leistungsgerechte Verteilung wissenschaftsrelevanter Mittel (Geld, Publizität, Reputation). Die Professionalisierung von Peer Review erzeugte in Einrichtungen der Forschungsförderung, Redaktionen und Universitäten eine Vielzahl institutioneller Bedingungen, um Reliabilität, Validität und Fairness von Begutachtungen zu gewährleisten. Eine sozialpsychologische Verengung der Peer-Review-Forschung hat diese Bedingungen bislang nur unzureichend bearbeitet. Man muss die organisatorischen Kontexte bei der Analyse berücksichtigen; das wird im Folgenden geschehen.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Die folgenden Ausführungen folgen teilweise einem früheren Text des Verfassers (Neidhardt 2008).
- 2.
Dies trifft auch auf die Zusammenfassung des Forschungsstands in der ansonsten verdienstvollen Studie von Lutz Bornmann zu. Er erwähnt zwar mehrere der varianzerzeugenden Organisationsunterschiede zwischen den zahlreichen PR-Verfahren (Bornmann 2011, S. 201); er geht diesen aber nicht nach, obwohl es auch dazu etwas zu berichten gäbe (siehe unten Kap. Wissenschaftspolitik in Deutschland und Governance der Wissenschaft). Es passt zu dieser Befangenheit, dass Bornmann (2011, S. 225–234) auch bei seinen Vorschlägen zur Verbesserung der PR-Forschung in deren Mainstream, also sozialpsychologisch verengt bleibt.
- 3.
Vgl. zu diesen Varianten auch die Gestaltung von Peer Review im Forschungsrating des Wissenschaftsrats (Neidhardt 2008a).
- 4.
Australische Untersuchungen ergaben, dass sich das Urteil von Gutachtern, die von Antragstellern selber benannt worden waren und ihnen, lässt sich vermuten, persönlich nahestanden, in hohem Maße als „biased, inflated, unreliable, and invalid“ erwiesen (Marsh et al. 2007, S. 33).
- 5.
Uneinheitliche Vorstellungen über Möglichkeiten von „Gegenleistung für die Arbeit als Gutachter“ geben auch die befragten DFG-Fachkollegiaten zu Protokoll (Hornbostel und Olbrecht 2007, S. 19).
- 6.
Ich habe diese am Beispiel des Wissenschaftsrats genauer analysiert (Neidhardt 2012).
- 7.
Literatur
Bornmann, Lutz. 2011. Scientific peer review. Annual Review of Information Science and Technology 45:199–245. Chapter 5.
Bornmann, Lutz, und Hans-Dieter Daniel. 2003. Begutachtung durch Fachkollegen in der Wissenschaft. Stand der Forschung zu Reliabilität, Fairness und Validität des Peer-Review-Verfahrens. In Universität auf dem Prüfstand, Hrsg. Stefanie Schwarz und Ulrich Teichler, 207–225. Frankfurt a. M.: Campus.
Braun, Dietmar. 1997. Die politische Steuerung der Wissenschaft. Ein Beitrag zum „kooperativen Staat“. Frankfurt a. M.: Campus.
Finetti, Marco. 2000. Die überforderten Türhüter. Gegenworte Frühling 2000 5:32–35.
Fröhlich, Gerhard. 2003. Anonyme Kritik: Peer Review auf dem Prüfstand der Wissenschaftsforschung. medizin – bibliothek – information 3:33–39.
Gläser, Jochen. 2006. Wissenschaftliche Produktionsgemeinschaften. Die soziale Ordnung der Forschung. Frankfurt a. M.: Campus.
Gülker, Silke, Dagmar Simon, und Marc Torka. 2013. Externe Kontrolle und kollegiale Rückmeldung. Zu einer konstitutiven Spannung in institutionellen Evaluationen der Wissenschaft. Zeitschrift für Evaluation 12(2): 209–233.
Hargens, Lowell L., und Jerald R. Herting. 2006. Analyzing the association between referees´ recommendations and editors´ decisions. Scientometrics 67:15–26.
Hirschauer, Stefan. 2004. Peer Review Verfahren auf dem Prüfstand. Zeitschrift für Soziologie 33:62–83.
Hornbostel, Stefan. 1977. Wissenschaftsindikatoren. Bewertungen in der Wissenschaft. Opladen: Westdeutscher Verlag.
Hornbostel, Stefan, und Meike Olbrecht. 2007. Peer review in der DFG: Die Fachkollegiaten. iFQ-Working Paper No. 2. Bonn.
Jestaed, Matthias. 2001. Das Geheimnis im Staat der Öffentlichkeit. Archiv des öffentlichen Rechts 126:205–238.
Koch, Stefan. 2006. Das Begutachtungsverfahren der Deutschen Forschungsgemeinschaft nach Einführung der Fachkollegien. In Wie viel (In-)Transparenz ist notwendig? Peer Review revisited, Hrsg. Stefan Hornbostel und Dagmar Simon, 15–26. Bonn: IFQ-Workingpaper, No. 1
Langfeld, Liv. 2006. The policy challenges of peer review: Managing bias, conflict of interest and interdisciplinary assessments. Research Evaluation 15:31–41.
Mannheim, Karl. 1929. Die Bedeutung der Konkurrenz auf dem Gebiet des Geistigen. In Verhandlungen des Sechsten Deutschen Soziologentages vom 17. bis 19. September in Zürich, 35–83. Tübingen: Mohr.
Marsh, Herbert W., Nigel W. Bond, und Upsali W. Jayasinghe. 2007. Peer review process: Assessments by applicant-nominated referees are biased, inflated, unreliable and invalid. Australian Psychologist 42:33–38.
Marsh, Herbert W., Upsali W. Jayasinghe, und Nigel W. Bond. 2008. Improving the peer-review process for grant applications. American Psychologist 62:160–168.
Mulligan, Adrian, Louise Hall, und Ellen Raphael. 2013. Peer review in a changing world: An international study measuring the attitudes of researchers. Journal of the American Society for Information Science and Technology 64(1): 132–161.
Nature Peer Review Debatte. http://www.nature.com/nature/peerreview /debate/index.html Zugegriffen am 27.01.2014.
Neidhardt, Friedhelm. 1986. Kollegialität und Kontrolle am Beispiel der Gutachter der Deutschen Forschungsgemeinschaft (DFG). Kölner Zeitschrift für Soziologie und Sozialpsychologie 38:3–12.
Neidhardt, Friedhelm. 2008a. Fehlerquellen und Fehlerkontrollen in den Begutachtungssystemen der Wissenschaft. In Wie viel (In-)Transparenz ist notwendig. Peer review revisited, Hrsg. Stefan Hornbostel und Dagmar Simon, 7–13. Bonn: iFQ-Working paper, No.1
Neidhardt, Friedhelm. 2008b. Das Forschungsrating des Wissenschaftsrats. Einige Erfahrungen und Befunde. Soziologie 76:421–432.
Neidhardt, Friedhelm. 2012. Institution, Organisation, Interaktion. Funktionsbedingungen des Wissenschaftsrats. Leviathan 40:271–296.
Nickerson, Richard S. 2005. What authors want from journal reviewers and editors. American Psychologist 60:661–662.
Polanyi, Michael. 1962. The republic of science. Its political and economic theory. Minerva 1:54–73.
Pöschl, Ulrich. 2006. Open access & collaborative peer review: Öffentliche Begutachtung und interaktive Diskussion zur Verbesserung von Kommunikation und Qualitätssicherung in Wissenschaft und Gesellschaft. In Wie viel (In-)Transparenz ist notwendig, Hrsg. Stefan Hornbostel und Dagmar Simon. Peer review revisited, 43–46. Bonn: iFQ-Working paper, No.1.
Reinhart, Martin. 2012. Soziologie und Epistemologie des Peer Review. Baden-Baden: Nomos.
Schimank, Uwe. 2005. ‘New Public Management’ and the academic profession: Reflections of the German situation. Minerva 43:361–376.
Schuppert, Gunnar Folke. 2010. Staat als Prozess. Frankfurt a. M.: Campus.
Toulmin, Stephen. 1983. Kritik der kollektiven Vernunft. Frankfurt a. M.: Suhrkamp.
Weingart, Peter. 2005. Das Ritual der Evaluierung und die Verführbarkeit der Zahlen. In: ders.: Die Wissenschaft der Öffentlichkeit, 102–122. Weilerswist: Velbrück.
Weller, Ann. 2001. Editorial peer review. Its strength and weaknesses. Medford: ASIST.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2016 Springer Fachmedien Wiesbaden
About this chapter
Cite this chapter
Neidhardt, F. (2016). Selbststeuerung der Wissenschaft durch Peer-Review-Verfahren. In: Simon, D., Knie, A., Hornbostel, S., Zimmermann, K. (eds) Handbuch Wissenschaftspolitik. Springer Reference Sozialwissenschaften. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-05455-7_22
Download citation
DOI: https://doi.org/10.1007/978-3-658-05455-7_22
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-05454-0
Online ISBN: 978-3-658-05455-7
eBook Packages: Social Science and Law (German Language)