Skip to main content

Selbststeuerung der Wissenschaft durch Peer-Review-Verfahren

  • Chapter
  • First Online:
Handbuch Wissenschaftspolitik

Part of the book series: Springer Reference Sozialwissenschaften ((SRS))

Zusammenfassung

Peer Review zielt auf eine leistungsgerechte Verteilung wissenschaftsrelevanter Mittel (Geld, Publizität, Reputation). Die Professionalisierung von Peer Review erzeugte in Einrichtungen der Forschungsförderung, Redaktionen und Universitäten eine Vielzahl institutioneller Bedingungen, um Reliabilität, Validität und Fairness von Begutachtungen zu gewährleisten. Eine sozialpsychologische Verengung der Peer-Review-Forschung hat diese Bedingungen bislang nur unzureichend bearbeitet. Man muss die organisatorischen Kontexte bei der Analyse berücksichtigen; das wird im Folgenden geschehen.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 149.00
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Hardcover Book
USD 159.99
Price excludes VAT (USA)
  • Durable hardcover edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Die folgenden Ausführungen folgen teilweise einem früheren Text des Verfassers (Neidhardt 2008).

  2. 2.

    Dies trifft auch auf die Zusammenfassung des Forschungsstands in der ansonsten verdienstvollen Studie von Lutz Bornmann zu. Er erwähnt zwar mehrere der varianzerzeugenden Organisationsunterschiede zwischen den zahlreichen PR-Verfahren (Bornmann 2011, S. 201); er geht diesen aber nicht nach, obwohl es auch dazu etwas zu berichten gäbe (siehe unten Kap. Wissenschaftspolitik in Deutschland und Governance der Wissenschaft). Es passt zu dieser Befangenheit, dass Bornmann (2011, S. 225–234) auch bei seinen Vorschlägen zur Verbesserung der PR-Forschung in deren Mainstream, also sozialpsychologisch verengt bleibt.

  3. 3.

    Vgl. zu diesen Varianten auch die Gestaltung von Peer Review im Forschungsrating des Wissenschaftsrats (Neidhardt 2008a).

  4. 4.

    Australische Untersuchungen ergaben, dass sich das Urteil von Gutachtern, die von Antragstellern selber benannt worden waren und ihnen, lässt sich vermuten, persönlich nahestanden, in hohem Maße als „biased, inflated, unreliable, and invalid“ erwiesen (Marsh et al. 2007, S. 33).

  5. 5.

    Uneinheitliche Vorstellungen über Möglichkeiten von „Gegenleistung für die Arbeit als Gutachter“ geben auch die befragten DFG-Fachkollegiaten zu Protokoll (Hornbostel und Olbrecht 2007, S. 19).

  6. 6.

    Ich habe diese am Beispiel des Wissenschaftsrats genauer analysiert (Neidhardt 2012).

  7. 7.

    Die praktischen Erfahrungen mit „open review“ zeigen, dass ein positiver Effekt offenbar von bisher wenig erforschten Randbedingungen abhängig ist (Pöschl 2006, Nature Peer Review Debatte, Hornbostel und Olbrecht 2007); ob diese, wenn bekannt, auch kontrollierbar wären, ist ungewiss.

Literatur

  • Bornmann, Lutz. 2011. Scientific peer review. Annual Review of Information Science and Technology 45:199–245. Chapter 5.

    Article  Google Scholar 

  • Bornmann, Lutz, und Hans-Dieter Daniel. 2003. Begutachtung durch Fachkollegen in der Wissenschaft. Stand der Forschung zu Reliabilität, Fairness und Validität des Peer-Review-Verfahrens. In Universität auf dem Prüfstand, Hrsg. Stefanie Schwarz und Ulrich Teichler, 207–225. Frankfurt a. M.: Campus.

    Google Scholar 

  • Braun, Dietmar. 1997. Die politische Steuerung der Wissenschaft. Ein Beitrag zum „kooperativen Staat“. Frankfurt a. M.: Campus.

    Google Scholar 

  • Finetti, Marco. 2000. Die überforderten Türhüter. Gegenworte Frühling 2000 5:32–35.

    Google Scholar 

  • Fröhlich, Gerhard. 2003. Anonyme Kritik: Peer Review auf dem Prüfstand der Wissenschaftsforschung. medizin – bibliothek – information 3:33–39.

    Google Scholar 

  • Gläser, Jochen. 2006. Wissenschaftliche Produktionsgemeinschaften. Die soziale Ordnung der Forschung. Frankfurt a. M.: Campus.

    Google Scholar 

  • Gülker, Silke, Dagmar Simon, und Marc Torka. 2013. Externe Kontrolle und kollegiale Rückmeldung. Zu einer konstitutiven Spannung in institutionellen Evaluationen der Wissenschaft. Zeitschrift für Evaluation 12(2): 209–233.

    Google Scholar 

  • Hargens, Lowell L., und Jerald R. Herting. 2006. Analyzing the association between referees´ recommendations and editors´ decisions. Scientometrics 67:15–26.

    Article  Google Scholar 

  • Hirschauer, Stefan. 2004. Peer Review Verfahren auf dem Prüfstand. Zeitschrift für Soziologie 33:62–83.

    Article  Google Scholar 

  • Hornbostel, Stefan. 1977. Wissenschaftsindikatoren. Bewertungen in der Wissenschaft. Opladen: Westdeutscher Verlag.

    Google Scholar 

  • Hornbostel, Stefan, und Meike Olbrecht. 2007. Peer review in der DFG: Die Fachkollegiaten. iFQ-Working Paper No. 2. Bonn.

    Google Scholar 

  • Jestaed, Matthias. 2001. Das Geheimnis im Staat der Öffentlichkeit. Archiv des öffentlichen Rechts 126:205–238.

    Google Scholar 

  • Koch, Stefan. 2006. Das Begutachtungsverfahren der Deutschen Forschungsgemeinschaft nach Einführung der Fachkollegien. In Wie viel (In-)Transparenz ist notwendig? Peer Review revisited, Hrsg. Stefan Hornbostel und Dagmar Simon, 15–26. Bonn: IFQ-Workingpaper, No. 1

    Google Scholar 

  • Langfeld, Liv. 2006. The policy challenges of peer review: Managing bias, conflict of interest and interdisciplinary assessments. Research Evaluation 15:31–41.

    Article  Google Scholar 

  • Mannheim, Karl. 1929. Die Bedeutung der Konkurrenz auf dem Gebiet des Geistigen. In Verhandlungen des Sechsten Deutschen Soziologentages vom 17. bis 19. September in Zürich, 35–83. Tübingen: Mohr.

    Google Scholar 

  • Marsh, Herbert W., Nigel W. Bond, und Upsali W. Jayasinghe. 2007. Peer review process: Assessments by applicant-nominated referees are biased, inflated, unreliable and invalid. Australian Psychologist 42:33–38.

    Article  Google Scholar 

  • Marsh, Herbert W., Upsali W. Jayasinghe, und Nigel W. Bond. 2008. Improving the peer-review process for grant applications. American Psychologist 62:160–168.

    Article  Google Scholar 

  • Mulligan, Adrian, Louise Hall, und Ellen Raphael. 2013. Peer review in a changing world: An international study measuring the attitudes of researchers. Journal of the American Society for Information Science and Technology 64(1): 132–161.

    Article  Google Scholar 

  • Nature Peer Review Debatte. http://www.nature.com/nature/peerreview /debate/index.html Zugegriffen am 27.01.2014.

  • Neidhardt, Friedhelm. 1986. Kollegialität und Kontrolle am Beispiel der Gutachter der Deutschen Forschungsgemeinschaft (DFG). Kölner Zeitschrift für Soziologie und Sozialpsychologie 38:3–12.

    Google Scholar 

  • Neidhardt, Friedhelm. 2008a. Fehlerquellen und Fehlerkontrollen in den Begutachtungssystemen der Wissenschaft. In Wie viel (In-)Transparenz ist notwendig. Peer review revisited, Hrsg. Stefan Hornbostel und Dagmar Simon, 7–13. Bonn: iFQ-Working paper, No.1

    Google Scholar 

  • Neidhardt, Friedhelm. 2008b. Das Forschungsrating des Wissenschaftsrats. Einige Erfahrungen und Befunde. Soziologie 76:421–432.

    Google Scholar 

  • Neidhardt, Friedhelm. 2012. Institution, Organisation, Interaktion. Funktionsbedingungen des Wissenschaftsrats. Leviathan 40:271–296.

    Article  Google Scholar 

  • Nickerson, Richard S. 2005. What authors want from journal reviewers and editors. American Psychologist 60:661–662.

    Article  Google Scholar 

  • Polanyi, Michael. 1962. The republic of science. Its political and economic theory. Minerva 1:54–73.

    Article  Google Scholar 

  • Pöschl, Ulrich. 2006. Open access & collaborative peer review: Öffentliche Begutachtung und interaktive Diskussion zur Verbesserung von Kommunikation und Qualitätssicherung in Wissenschaft und Gesellschaft. In Wie viel (In-)Transparenz ist notwendig, Hrsg. Stefan Hornbostel und Dagmar Simon. Peer review revisited, 43–46. Bonn: iFQ-Working paper, No.1.

    Google Scholar 

  • Reinhart, Martin. 2012. Soziologie und Epistemologie des Peer Review. Baden-Baden: Nomos.

    Book  Google Scholar 

  • Schimank, Uwe. 2005. ‘New Public Management’ and the academic profession: Reflections of the German situation. Minerva 43:361–376.

    Article  Google Scholar 

  • Schuppert, Gunnar Folke. 2010. Staat als Prozess. Frankfurt a. M.: Campus.

    Google Scholar 

  • Toulmin, Stephen. 1983. Kritik der kollektiven Vernunft. Frankfurt a. M.: Suhrkamp.

    Google Scholar 

  • Weingart, Peter. 2005. Das Ritual der Evaluierung und die Verführbarkeit der Zahlen. In: ders.: Die Wissenschaft der Öffentlichkeit, 102–122. Weilerswist: Velbrück.

    Google Scholar 

  • Weller, Ann. 2001. Editorial peer review. Its strength and weaknesses. Medford: ASIST.

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Friedhelm Neidhardt .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2016 Springer Fachmedien Wiesbaden

About this chapter

Cite this chapter

Neidhardt, F. (2016). Selbststeuerung der Wissenschaft durch Peer-Review-Verfahren. In: Simon, D., Knie, A., Hornbostel, S., Zimmermann, K. (eds) Handbuch Wissenschaftspolitik. Springer Reference Sozialwissenschaften. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-05455-7_22

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-05455-7_22

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-05454-0

  • Online ISBN: 978-3-658-05455-7

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics