Advertisement

Selbststeuerung der Wissenschaft durch Peer-Review-Verfahren

  • Friedhelm Neidhardt
Chapter
Part of the Springer Reference Sozialwissenschaften book series (SRS)

Zusammenfassung

Peer Review zielt auf eine leistungsgerechte Verteilung wissenschaftsrelevanter Mittel (Geld, Publizität, Reputation). Die Professionalisierung von Peer Review erzeugte in Einrichtungen der Forschungsförderung, Redaktionen und Universitäten eine Vielzahl institutioneller Bedingungen, um Reliabilität, Validität und Fairness von Begutachtungen zu gewährleisten. Eine sozialpsychologische Verengung der Peer-Review-Forschung hat diese Bedingungen bislang nur unzureichend bearbeitet. Man muss die organisatorischen Kontexte bei der Analyse berücksichtigen; das wird im Folgenden geschehen.

Schlüsselwörter

Peer Review Begutachtungssysteme Selbstkontrollmechanismen Partizipation Öffentlichkeit 

Literatur

  1. Bornmann, Lutz. 2011. Scientific peer review. Annual Review of Information Science and Technology 45:199–245. Chapter 5.CrossRefGoogle Scholar
  2. Bornmann, Lutz, und Hans-Dieter Daniel. 2003. Begutachtung durch Fachkollegen in der Wissenschaft. Stand der Forschung zu Reliabilität, Fairness und Validität des Peer-Review-Verfahrens. In Universität auf dem Prüfstand, Hrsg. Stefanie Schwarz und Ulrich Teichler, 207–225. Frankfurt a. M.: Campus.Google Scholar
  3. Braun, Dietmar. 1997. Die politische Steuerung der Wissenschaft. Ein Beitrag zum „kooperativen Staat“. Frankfurt a. M.: Campus.Google Scholar
  4. Finetti, Marco. 2000. Die überforderten Türhüter. Gegenworte Frühling 2000 5:32–35.Google Scholar
  5. Fröhlich, Gerhard. 2003. Anonyme Kritik: Peer Review auf dem Prüfstand der Wissenschaftsforschung. medizin – bibliothek – information 3:33–39.Google Scholar
  6. Gläser, Jochen. 2006. Wissenschaftliche Produktionsgemeinschaften. Die soziale Ordnung der Forschung. Frankfurt a. M.: Campus.Google Scholar
  7. Gülker, Silke, Dagmar Simon, und Marc Torka. 2013. Externe Kontrolle und kollegiale Rückmeldung. Zu einer konstitutiven Spannung in institutionellen Evaluationen der Wissenschaft. Zeitschrift für Evaluation 12(2): 209–233.Google Scholar
  8. Hargens, Lowell L., und Jerald R. Herting. 2006. Analyzing the association between referees´ recommendations and editors´ decisions. Scientometrics 67:15–26.CrossRefGoogle Scholar
  9. Hirschauer, Stefan. 2004. Peer Review Verfahren auf dem Prüfstand. Zeitschrift für Soziologie 33:62–83.CrossRefGoogle Scholar
  10. Hornbostel, Stefan. 1977. Wissenschaftsindikatoren. Bewertungen in der Wissenschaft. Opladen: Westdeutscher Verlag.Google Scholar
  11. Hornbostel, Stefan, und Meike Olbrecht. 2007. Peer review in der DFG: Die Fachkollegiaten. iFQ-Working Paper No. 2. Bonn.Google Scholar
  12. Jestaed, Matthias. 2001. Das Geheimnis im Staat der Öffentlichkeit. Archiv des öffentlichen Rechts 126:205–238.Google Scholar
  13. Koch, Stefan. 2006. Das Begutachtungsverfahren der Deutschen Forschungsgemeinschaft nach Einführung der Fachkollegien. In Wie viel (In-)Transparenz ist notwendig? Peer Review revisited, Hrsg. Stefan Hornbostel und Dagmar Simon, 15–26. Bonn: IFQ-Workingpaper, No. 1Google Scholar
  14. Langfeld, Liv. 2006. The policy challenges of peer review: Managing bias, conflict of interest and interdisciplinary assessments. Research Evaluation 15:31–41.CrossRefGoogle Scholar
  15. Mannheim, Karl. 1929. Die Bedeutung der Konkurrenz auf dem Gebiet des Geistigen. In Verhandlungen des Sechsten Deutschen Soziologentages vom 17. bis 19. September in Zürich, 35–83. Tübingen: Mohr.Google Scholar
  16. Marsh, Herbert W., Nigel W. Bond, und Upsali W. Jayasinghe. 2007. Peer review process: Assessments by applicant-nominated referees are biased, inflated, unreliable and invalid. Australian Psychologist 42:33–38.CrossRefGoogle Scholar
  17. Marsh, Herbert W., Upsali W. Jayasinghe, und Nigel W. Bond. 2008. Improving the peer-review process for grant applications. American Psychologist 62:160–168.CrossRefGoogle Scholar
  18. Mulligan, Adrian, Louise Hall, und Ellen Raphael. 2013. Peer review in a changing world: An international study measuring the attitudes of researchers. Journal of the American Society for Information Science and Technology 64(1): 132–161.CrossRefGoogle Scholar
  19. Nature Peer Review Debatte. http://www.nature.com/nature/peerreview /debate/index.html Zugegriffen am 27.01.2014.
  20. Neidhardt, Friedhelm. 1986. Kollegialität und Kontrolle am Beispiel der Gutachter der Deutschen Forschungsgemeinschaft (DFG). Kölner Zeitschrift für Soziologie und Sozialpsychologie 38:3–12.Google Scholar
  21. Neidhardt, Friedhelm. 2008a. Fehlerquellen und Fehlerkontrollen in den Begutachtungssystemen der Wissenschaft. In Wie viel (In-)Transparenz ist notwendig. Peer review revisited, Hrsg. Stefan Hornbostel und Dagmar Simon, 7–13. Bonn: iFQ-Working paper, No.1Google Scholar
  22. Neidhardt, Friedhelm. 2008b. Das Forschungsrating des Wissenschaftsrats. Einige Erfahrungen und Befunde. Soziologie 76:421–432.Google Scholar
  23. Neidhardt, Friedhelm. 2012. Institution, Organisation, Interaktion. Funktionsbedingungen des Wissenschaftsrats. Leviathan 40:271–296.CrossRefGoogle Scholar
  24. Nickerson, Richard S. 2005. What authors want from journal reviewers and editors. American Psychologist 60:661–662.CrossRefGoogle Scholar
  25. Polanyi, Michael. 1962. The republic of science. Its political and economic theory. Minerva 1:54–73.CrossRefGoogle Scholar
  26. Pöschl, Ulrich. 2006. Open access & collaborative peer review: Öffentliche Begutachtung und interaktive Diskussion zur Verbesserung von Kommunikation und Qualitätssicherung in Wissenschaft und Gesellschaft. In Wie viel (In-)Transparenz ist notwendig, Hrsg. Stefan Hornbostel und Dagmar Simon. Peer review revisited, 43–46. Bonn: iFQ-Working paper, No.1.Google Scholar
  27. Reinhart, Martin. 2012. Soziologie und Epistemologie des Peer Review. Baden-Baden: Nomos.CrossRefGoogle Scholar
  28. Schimank, Uwe. 2005. ‘New Public Management’ and the academic profession: Reflections of the German situation. Minerva 43:361–376.CrossRefGoogle Scholar
  29. Schuppert, Gunnar Folke. 2010. Staat als Prozess. Frankfurt a. M.: Campus.Google Scholar
  30. Toulmin, Stephen. 1983. Kritik der kollektiven Vernunft. Frankfurt a. M.: Suhrkamp.Google Scholar
  31. Weingart, Peter. 2005. Das Ritual der Evaluierung und die Verführbarkeit der Zahlen. In: ders.: Die Wissenschaft der Öffentlichkeit, 102–122. Weilerswist: Velbrück.Google Scholar
  32. Weller, Ann. 2001. Editorial peer review. Its strength and weaknesses. Medford: ASIST.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 2016

Authors and Affiliations

  1. 1.Wissenschaftszentrum Berlin für Sozialforschung (WZB)BerlinDeutschland

Personalised recommendations