Advertisement

Evaluation von Leistungsindikatoren im Hochschulbereich

Chapter
  • 38 Downloads

Zusammenfassung

Nach Trow2 ist der Hochschulbereich “ein vielschichtiges System von Institutionen, formal oder informell, gestaffelt nach Status und Prestige, nach Vermögen, Macht und unterschiedlichem Einfluss”, wobei sich die Grundelemente immer sehr ähnlich sehen, insbesondere was die Gliederung in organisatorische Einheiten wie Departemente oder Fakultäten anbelangt.

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Literatur

  1. 1.
    Kornhuber, H.H.: Mehr Forschungseffizienz durch objektive Beurteilung von Forschungsleistungen, in: Daniel, H.-D./Fisch, R. (Hrsg.): Evaluation von Forschung, Universitätsverlag, Konstanz, 1998, Seite 376.Google Scholar
  2. 2.
    Trow, M.: The Analysis of Status, in: Clark, B.R. (ed.): Perspectives on Higher Education, University of California, Berkeley, 1984, Seite 132 und 137.Google Scholar
  3. 3.
    Goedegebuure, L./Kaiser, F./Maassen, P./Meek, L./Van Vught, F./De Weert, E.: Hochschulpolitik international: Trends-Probleme-Lösungsansätze, Herausgeber: Bertelsmann Sitftung, Gütersloh, 1992, Seite 25.Google Scholar
  4. 4.
    Nach Kerr finden sich unter den Universitäten und Hochschulen einige, die ihre Stabilität und Geschichte geradezu zelebrieren und sich gegen jede Änderung wehren, obwohl gerade die Hochschulen und Universitäten eines Landes immer massgeblich an dessen Fortschritt beteiligt waren. Kerr stellte fest, dass “about 85 institutions in the Western world established by 1520 still exist in recognisable forms, with similar functions and unbroken histories, including the Catholic church, the parliaments of the Isle of Man, of Iceland, of Great Britain, several Swiss cantons, and seventy universities. Kings that rule, feudal lords with vassals, guilds with monopolies are gone. These seventy universities, however, are still in the same locations with some of the same buildings, with professors and students doing much the same things, and with governance carried on in much the same ways.” Kerr, C: The uses of the University, Harvard University, Cambridge, 1982, Seite 152.Google Scholar
  5. 5.
    Van Vught, F.A.: Autonomy and Accountability in Government/University Relationships, Beitrag zum World Bank Senior Policy Seminar on Improvement and Innovation of Higher Education in Developing Countries, Kuala Lumpur, 30. Juni — 4. Juli 1991.Google Scholar
  6. 6.
    Ipsen, K.: Führung und Organisation in Universitäten, in: Carl Bertelsmann-Preis, Symposium 1990, Evolution im Hochschulbereich, Bertelsmann Stiftung, Gütersloh, 1990, Seite 47 ff.Google Scholar
  7. 7.
    Nach den sechziger und siebziger Jahren wird heute vermehrt das Modell des sogenannten “professionellen Management” praktiziert. Nach Goedegebuure, L./Kaiser, F./ Maassen, P./Meek, L./Van Vught, F./De Weert, E., Führung und Organisation in Universitäten, in: Carl Bertelsmann-Preis, Symposium 1990, Evolution im Hochschulbereich, Bertelsmann Stiftung, Gütersloh, 1992, Seite 30.Google Scholar
  8. 8.
    Nach Van Vught, F.: Governmental Strategies in Practice, in: Van Vught, F. (ed.): Governmental Strategies and Innovation in Higher Education, Jessica Kingsley, London, 1989, Seite 114.Google Scholar
  9. 9.
    Tavernier, K.: Strategisches Management in den Universitäten, in: Carl Bertelsmann-Preis, Symposium 1990, Evolution im Hochschulbereich, Bertelsmann Stiftung. Gütersloh, 1990, Seite 59.Google Scholar
  10. 10.
    Simon, D.: Aufgabenverteilung zwischen Staat und Universitäten in der Bundesrepublik Deutschland, in: Carl Bertelsmann-Preis, a.a.O., 1990, Seite 19.Google Scholar
  11. 11.
    Schedler, K.: Marktmechanismen im öffentlichen Sektor, Stand und Erfahrungen mit dem “New Public Management” in Neuseeland und Australien, Referat vom 3. März 1994, Hotel Zürich, Zürich, 1994, Seite 12.Google Scholar
  12. 12.
    vgl. dazu Blümle, E.-B.: Rechnungswesen in Non-Profit-Organisationen, in krp, Heft 3, 1991, Seite 149–151.Google Scholar
  13. 13.
    vgl. dazu Schmidberger, J.: Controlling für öffentliche Verwaltungen, 2. aktualisierte Auflage, Gabler, Wiesbaden, 1994, Seite 374.CrossRefGoogle Scholar
  14. 14.
    Mohn, R.: Evolution im Hochschulbereich, in: Carl Bertelsmann-Preis, a.a.O., 1990, Seite 7.Google Scholar
  15. 15.
    Nach dem Department of the Treasury, Financial Management Service: Performance Measurement Guide, London, November 1993, Seite 3.Google Scholar
  16. 16.
    Da nach Mastronardi der Spielraum, welcher der Exekutive übrigbleibt, um diesen Gesetzesartikel im Sinne des New Public Management Ansatzes zu spezifizieren, eher klein ist, kann aus Art. 2 kein eigentlicher Leistungsauftrag im Sinne des New Public Managements abgeleitet werden. In: Schenker, A./Schedler, K./Mastronardi, Ph./Buschor, E.: Die Parlamentarische Mitwirkung und Aufsicht im ETH-Bereich mit besonderer Gewichtung der Finanzaufsicht, Gutachten zuhanden der Finanzkommission des Ständerates, St. Gallen und Zürich, 1995.Google Scholar
  17. 17.
    Unter wissenschaftlichen Dienstleistungen werden alle Dienstleistungen verstanden, die im Wissenschaftsbereich für Dritte erbracht werden.Google Scholar
  18. 18.
    vgl. auch Fiebiger, N.: Möglichkeiten und Grenzen von Kennzahlen, in: Westdeutsche Rektorenkonferenz, Bonn, 1980, Seite 201 ff.Google Scholar
  19. 19.
    Bramsemann, R.: Handbuch Controlling, 3. durchgesehene Auflage, Carl Hanser, München/Wien, 1993, Seite 90.Google Scholar
  20. 20.
    In der Praxis ist es möglich, dass nicht zu allen Teilaspekten eine Aussage gemacht wird, weil einzelne Bereiche für eine spezifische Hochschule als nicht prioritär eingeschätzt werden.Google Scholar
  21. 21.
    Im Zusammenhang mit relativen Grössen spricht man allerdings eher von Kennzahlen.Google Scholar
  22. 22.
    vgl. Häusermann: Bericht Organisationsstudie ETHZ, Avanti 1, 15.5.86, Seite 3.14,Google Scholar
  23. 23.
    Hummel, T.R.: Kennzahlensysteme zur Hochschulplanung. Ergebnisse einer internationalen Vergleichsstudie, in: Hummel, T.R. (Hrsg.): Leistungsorientierte Kennzahlen im Spannungsfeld von Hochschulen und Staat, Peter Lang, Frankfurt/Bern/New York/Paris, 1988, Seite 34.Google Scholar
  24. 24.
    Gutherie, J.: Performance Indicators in the Australian Public Sector, in: Buschor, E./Schedler, K. (eds.): Perspectives on Performance Measurements and Public Sector Accounting, Paul Haupt, Bern/Stuttgart/Wien, 1994, Seite 272.Google Scholar
  25. 25.
    Arvidsson, G.: Performance Evaluation, in: Kaufmann, F.-X./Majone, G./Ostrum, V./Wirth, W. (eds.): Guidance, Control and Evaluation in the Public Sector, de Gruyter, Berlin, 1986, Seite 625–643.Google Scholar
  26. 26.
    Nach Tavernier kann ein allzu starres Effizienzstreben im Hochschulbereich zu Problemen Anlass geben, da dies der Innovationstheorie widerspricht. Die Innovationstheorie plädiert für ein Maximum an Anreizen und eine Vielfalt sowie dezentrale Machtstrukturen, “sie ist dagegen, Effizienz überzubewerten und befürwortet eine Intensivierung der Aussenkontakte durch jedes Organisationsmitglied.” In: Tavernier, K., a.a.O., 1990, Seite 70.Google Scholar
  27. 27.
    zu den Indikatoren im Hochschulbereich siehe auch Kemmler, W.: Controlling für Hochschulen, Schriftenreihe des Instituts für betriebswirtschaftliche Forschung an der Universität Zürich, Band 64, Paul Haupt, Bern und Zürich, 1990, Seite 311 ff.Google Scholar
  28. 28.
    Bussmann, W.: Evaluationen staatlicher Massnahmen erfolgreich begleiten und nutzen. Ein Leitfaden, Rüegger, Chur/Zürich, 1995, Seite 53.Google Scholar
  29. 29.
    Nach Sen und Biswas in: Schenker-Wicki, A.G.M.: The Conceptual Definition of a Crisis Management Decision Support System CMDSS, Universitätsverlag, Fribourg, 1990, Seite 3.Google Scholar
  30. 30.
    Im Zusammenhang mit dem ursprünglichen Zweck der Peer Review, nämlich der Durchsicht von Artikeln vorgängig einer Publikation in anerkannten Fachzeitschriften, bemängelt Kornhuber, dass Peer Review heute nicht der Wissenschaft sondern in erster Linie dem Prestige der Verlage zu Gute komme. In diesem Sinne erwähnt er das Beispiel von Bednorz und Müller, den Nobelpreisträgern für Physik, die ihre Arbeiten nicht im Nature oder Science, sondern in der relativ unbedeutenden Zeitschrift für Physik publiziert haben, um dem geistigen Diebstahl vorzubeugen. Kornhuber übt ebenfalls heftige Kritik an der Vorausbegutachtung von Projekten, in welchen oft aus Gründen des Selbstschutzes die Forschungsideen nur unvollständig skizziert werden. Nach Kornhuber funktioniert das Peer Review System schon lange nicht mehr, weil in den Forschungsanträgen nicht die besten Ideen Eingang finden, damit diese Ideen nicht gestohlen werden. In: Kornhuber, H.H., a.a.O., Seite 364 ff.Google Scholar
  31. 31.
    So werden zum Beispiel im ETH-Bereich die Leistungen der Hochschulprofessoren im Bereich der Lehre regelmässig von Experten und von der Studentenschaft beurteilt. Diese Beurteilung erfolgt durch das Didaktikzentrum der ETH Zürich. Auch externe Evaluationen werden im ETH-Bereich für den Bereich der Wissenschaft departementsweise vorgenommen, um die Wissenschaftlichkeit und die forschungspolitische Bedeutung auf nationaler und internationaler Ebene zu analysieren.Google Scholar
  32. 32.
    Sizer, J.: Performance Indicators and the Management of Universities in the UK — A Summary of Developments with Commentary, in: Dochy, F.J.R.C./Segers, M.R.S./Wijnen, W.H.F. (eds.): Management Information and Performance Indicators in Higher Education — An International Issue, Van Gorcum, Assen/Maastricht, 1990, Seite 25.Google Scholar
  33. 33.
    Schneider, W.: Grenzen der Standardisierbarkeit bei der Bewertung von Forschungsergebnissen, in: Daniel, H.-D./Fisch, R. (Hrsg.), Management Information and Performance Indicators in Higher Education — An International Issue, 1988, Seite 440.Google Scholar
  34. 34.
    Birnbaum, R.: The Quality Cube: How College Presidents Assess Excellence, in: Quality in the Academy, Proceedings From a National Symposium, National Center for Postsecondary Governance and Finance, Washington, 1989, Seite 24 und 45.Google Scholar
  35. 35.
    Als Ergänzungsliteratur zum Begriff der Qualität: Ball, C: What the hell is quality? in: Ball, C. (ed.): Fitness for Purpose, SRHE, Guildford, 1985.Google Scholar
  36. 35a.
    Mc Clain, C.I./Krueger, D.W./Taylor, T.: Northeast Missouri State University’s Value Added Assessment Programm: A Model for Educational Accountability, in: Kogan, M. (ed.): Evaluating Higher Education, Jessica Kingsley, London, 1989.Google Scholar
  37. 36.
    Harvey, LV Green, D.: Defining Quality, Assessment and Evaluation in Higher Education, Vol. 18, No. 1, 1993, Seite 9 ff.CrossRefGoogle Scholar
  38. 37.
    Vroeijenstijn, A.I.: Improvement and Accountability: Navigating between Scylla and Charybdis, Higher Education Policy, Series 30, Jessica Kingsley, London, 1995, Seite 13 ff.Google Scholar
  39. 38.
    Bussmann unterscheidet beim Evaluationsverfahren zwischen Evaluationsstrategie, Forschungstechnik und Evaluationsdesign. Bei der Evaluationsstrategie muss grundsätzlich festgestellt werden, welcher Fragetypus für eine bestimmte Evaluation entscheidend ist. Dabei handelt es sich um normative, kausalorientierte und deskriptive Fragestellungen. Bei der Beschreibung von Sachverhalten oder Objekten geht es um deskriptive Fragestellungen. Nach Bussmann hat zum Beispiel die Berichterstattung der Verwaltung an die Regierung einen deskriptiven Charakter. Im Gegensatz dazu beschäftigen sich die normativen Fragestellungen vorwiegend mit Soll-Ist-Vergleichen, während die kausalorientierten Fragestellungen die Zusammenhänge zwischen Ursache und Wirkung herzustellen versuchen. In: Bussmann, W., a.a.O., 1995, Seite 54, 60.Google Scholar
  40. 39.
    Meier, U.: Wissenschaftliche Publikationsaktivitäten an Hochschulen — ein Vergleich der volkswirtschaftlichen Abteilungen deutschschweizerischer Hochschulen, in: Schw. Zeitschrift für Volkswirtschaft und Statistik, Vol. 130, No. 2, 1994, Seite 207–232.Google Scholar
  41. 40.
    Seghezzi, H.-D.: Qualitätsmanagement, Ansatz eines St. Galler Konzepts, Entwicklungstendenzen im Management, Band 10, Schäffer-Poeschel, Stuttgart und Zürich, 1994, Seite 17 ff.Google Scholar
  42. 41.
    Dadurch werden auch die von Birnbaum geforderten drei Bewertungen möglich, nämlich: die meritokratische Bewertung als Konformität der Hochschulen mit allgemeinen, fachlichen und akademischen Normen, die soziale als “Ausmass, in dem die Hochschule die Bedürfnisse wichtiger Klientele berücksichtigt und die individualistische als Beitrag, den die Hochschule zur Entfaltung der Persönlichkeit eines Studierenden leistet.” In: Birnbaum, R., Qualitätsmanagement, Ansatz eines St. Galler Konzepts, Entwicklungstendenzen im Management, Band 10, 1989, Seite 25.Google Scholar
  43. 42.
    Vroeijenstijn, A., a.a.O., 1995, Seite 142 ff.Google Scholar
  44. 43.
    vgl. dazu auch Hartenstein, W./Boos, M./Bertl, W.: Entwicklung und Erprobung von Kriterien für die Bewertung der Ergebnisse sozialwissenschaftlicher Forschungsprojekte, in: Daniel, H.-D./Fisch, R.(Hrsg.), Qualitätsmanagement, Ansatz eines St. Galler Konzepts, Entwicklungstendenzen im Management, Band 10, 1988, Seite 397 ff. Die Autoren konnten feststellen, dass unter den Experten bei der Bewertung der theoretischen und methodischen Qualität einer Forschungsleistung ein guter Konsens besteht. Bei der Einschätzung der technologischen oder sozialen Relevanz eines Forschungsprogramms sowie beim Thema Ethik war es jedoch praktisch unmöglich, einen gemeinsamen Nenner zu finden (Seite 405).Google Scholar
  45. 44.
    Für den Finanzierungsbereich müssen Standards geschaffen werden, anhand derer die Güte der verschiedenen Finanzierungs- oder Kostendeckungsgrade beurteilt werden kann. Diese Standards sind stark kontextabhängig und sind daher für einzelne, vergleichbare Hochschulen oder Universitäten individuell zu bestimmen.Google Scholar
  46. 45.
    Definiert als Total Einnahmen/Total Ausgaben. Dies entspricht dem Anteil der Gesamtausgaben, die nicht über Steuergelder finanziert werden. In: Schenker, A./Schedler, K./ Mastronardi, PhV; Buschor, E., Qualitätsmanagement, Ansatz eines St. Galler Konzepts, Entwicklungstendenzen im Management, Band 10, 1995, Seite 32.Google Scholar
  47. 46.
    Schenker, A./Schedler, K./ Mastronardi, PhV; Buschor, E., Qualitätsmanagement, Ansatz eines St. Galler Konzepts, Entwicklungstendenzen im Management, Band 10, 1995, Seite 32: Definiert als gemeinwirtschaftliche Einnahmen/gemeinwirtschaftliche Ausgaben. Gemeinwirtschaftliche Einnahmen sind im wesentlichen Schulgelder, Beiträge von öffentlichen Forschungsförderungsinstitutionen oder gemeinwirtschaftliche Entgelte wie Gebühren. Unter gemeinwirtschaftlichen Ausgaben werden Personalausgaben, Sachausgaben, Leistungen anderer Verwaltungsstellen (z. Bsp. Sozialleistungen) sowie ev. vorhandene Globalkredite subsummiert.Google Scholar
  48. 47.
    Schenker, A./Schedler, K./ Mastronardi, PhV; Buschor, E., Qualitätsmanagement, Ansatz eines St. Galler Konzepts, Entwicklungstendenzen im Management, Band 10, 1995, Seite 32: Definiert als Erlöse aus Dienstleistungen/Kosten für DienstleistungenGoogle Scholar
  49. 48.
    Schenker, A./Schedler, K./ Mastronardi, PhV; Buschor, E., Qualitätsmanagement, Ansatz eines St. Galler Konzepts, Entwicklungstendenzen im Management, Band 10, 1995, Seite 33: Definiert als gemeinwirtschaftliche Ausgaben/Total Ausgaben und entspricht damit dem Anteil der gesamten Ausgaben, die für gemeinwirtschaftliche Aufgaben getätigt werden.Google Scholar
  50. 49.
    vgl. dazu auch Sizer, J.: Resource Management in Universities, in: Pollitt, Ch./Harrison, St. (eds.): Handbook of Public Services Management, Blackwell, Oxford, 1992, Seite 151 ff.Google Scholar
  51. 49a.
    Hartenstein, W./Boos, M./Bertl, W., in: Daniel, H.-D./Fisch, R. (Hrsg.), Handbook of Public Services Management, 1988, Seite 404.Google Scholar
  52. 49b.
    Cole, S./Rubin, L./Cole, J.R.: Peer Review in the National Science Foundation, Phase one of a Study, National Academy, Washington, 1978Google Scholar
  53. 49c.
    Armstrong, J.S.: Research on Scientific Journals: Implications for Editors and Authors, Journal of Forecasting, 1, 1982, Seite 83–104.CrossRefGoogle Scholar
  54. 49d.
    Gutherie, J., in: Buschor, E./Schedler, K. (eds.), Handbook of Public Services Management, 1994, Seite 273.Google Scholar
  55. 49e.
    Hartmann, I.: Fachspezifische Beurteilungskriterien von Gutachtern in der Forschungsförderung — dargestellt am Beispiel des Normalverfahrens in der Deutschen Forschungsgemeinschaft, in: Daniel, H.-D./Fisch, R.(Hrsg.), 1988, Seite 386. ff.Google Scholar
  56. 49f.
    Fiebiger, N.: Möglichkeiten und Grenzen von Kennzahlen, in: Westdeutsche Rektorenkonferenz, Bonn, 1980.Google Scholar
  57. 50.
    Schenker, A./Schedler, K./Mastronardi, Ph./Buschor, E., Fachspezifische Beurteilungskriterien von Gutachtern in der Forschungsförderung — dargestellt am Beispiel des Normalverfahrens in der Deutschen Forschungsgemeinschaft, 1995.Google Scholar
  58. 51.
    Diese Grösse spielte in der Schweiz, ausser in den medizinischen Fächern, bis heute eine eher untergeordnete Rolle. Steigen die Studentenzahlen hingegen weiterhin an, könnte sie auch für die Schweiz relevant werden. Der Indikator “Anzahl Bewerber pro Studienplatz” kann gleichzeitig ein Hinweis dafür sein, wie attraktiv eine Hochschule für die Studierenden ist.Google Scholar
  59. 52.
    Das durchschnittliche Alter der Studenten beim Abschluss kann zwar vom volkswirtschaftlichen Standpunkt aus interessant sein, ist aber für die Hochschule selbst von untergeordneter Bedeutung.Google Scholar
  60. 53.
    Dozentenzahlen müssen immer in Vollzeitpensen umgerechnet werden, da nicht die Anzahl Dozenten interessieren, sondern die tatsächlich geleisteten Pensen, angegeben in Vollzeitpensen.Google Scholar
  61. 54.
    Die Fachwechselquote ist in erster Linie eine interne Planungsgrösse. Sie wirkt sich bei der Studiendauer aus, indem diese bei häufigem Fachwechsel erhöht wird. Da die Studiendauer aussagekräftiger ist als die Fachwechselquote, wird in diesem Beispiel auf die Verwendung eines Indikators “Fachwechselquote” verzichtet. Fachwechselquoten können u.a. dadurch begünstigt werden, dass sich Studenten, die wegen des Numerus clausus zu einem Studium einer bestimmten Fachrichtung noch nicht zugelassen werden, für ein ähnliches Fach einschreiben, das sie jedoch nicht zu Ende studieren wollen. Dies bedeutet, dass bspw. ein Medizinstudent zuerst einige Semester Biologie studiert, obwohl er nie im Sinn hat, in diesem Fach zu diplomieren.Google Scholar
  62. 55.
    Wird als Schlussqualifikation bei den Merkmalen der Absolventen im Anhang 2.2 berücksichtigt und fällt daher an dieser Stelle weg.Google Scholar
  63. 56.
    Diese Grösse wird bereits in den Bewertungsschemata im Anhang 2 berücksichtigt.Google Scholar
  64. 57.
    Interdisziplinarität definiert als fächerübergreifend, indem sowohl geisteswissenschaftliche als auch naturwissenschaftliche Fächer eingebunden werden. Diese Grösse wird bereits bei der Beurteilung der methodischen Qualität eingesetzt und aus diesem Grund an dieser Stelle nicht mehr verwendet.Google Scholar
  65. 58.
    Die Austauschrate — definiert als Zahl der inländischen Studentinnen/Studenten mit Fremdsemestern im Verhältnis zur Zahl der ausländischen Studentinnen/Studenten — enthält bereits einen Aspekt der Qualität, da diese Zahlen im Wettbewerb der Hochschulen untereinander Zustandekommen. Dabei wird davon ausgegangen, dass eine attraktive Hochschule mehr ausländische Studentinnen und Studenten anzieht als eine unattraktive Hochschule.Google Scholar
  66. 59.
    Wobei als Austauschrate das Verhältnis der Anzahl inländischer Dozenten, die an ausländischen Hochschulen tätig sind, zur Anzahl ausländischer Dozenten an der zu evaluie-renden Universität oder Hochschule definiert wird.Google Scholar
  67. 60.
    Da die Gastdoktoranden im allgemeinen nicht in der Lehre, sondern in der Forschung tätig sind, wird die Anzahl Gastdoktoranden an dieser Stelle nicht vertieft behandelt.Google Scholar
  68. 61.
    Dies ist in der Schweiz nicht von Bedeutung, spielt jedoch in Ländern mit beschränktem Hochschulzugang eine grössere Rolle.Google Scholar
  69. 62.
    Die Abbruchquote ist ein Indikator, mit dem keine eigentliche Qualitätsdimension in Verbindung gebracht werden kann. Trotzdem wird dieser Indikator in der Literatur häufig verwendet. Die Abbruchquote ist eine Grösse, welche hochschulintern gewisse Steuerungsmöglichkeiten für die Hochschulleitung offenlässt. Um diese Grösse beurteilen zu können, müssten nationale oder internationale Vergleichsstandards geschaffen werden.Google Scholar
  70. 63.
    Herbst, J.: Lehrleistungen als Kriterium des Hochschulwettbewerbs, die US-amerikanische Erfahrung, in: Webler, W.-D./Otto, H.-W. (Hrsg.): Der Ort der Lehre in der Hochschule, Deutscher Studien Verlag, Weinheim, 1991, Seite 303.Google Scholar
  71. 64.
    Finkenstaedt, T./Fries, M.: Forschungsmessung in der Anglistik, in: Daniel, H.-D./Fisch, R. (Hrsg.), Der Ort der Lehre in der Hochschule, 1988, Seite 161.Google Scholar
  72. 65.
    Webler, W.-D.: Zur Steigerung des Prestiges von Lehrleistungen an deutschen Hochschulen — das Bielefelder Memorandum ..., in: Webler, W.-D./Otto, H.-W.(Hrsg.), Der Ort der Lehre in der Hochschule, 1988 Seite 75 ff.Google Scholar
  73. 66.
    Webler, W.-D./Ottto, H.-U.: Akademische Lehre im Funktionsgeflecht der Hochschule, in: Webler, W.-D./Otto, H.-W.(Hrsg.), Der Ort der Lehre in der Hochschule, 1988, Seite 18.Google Scholar
  74. 67.
    Die Anzahl Projekte sagt isoliert betrachtet nicht viel aus. Aus diesem Grund sollten anstelle der Anzahl Forschungsprojekte, die Gesamtmittel, die aus den Forschungsprojekten an die einzelnen Institute fliessen, berücksichtigt werden.Google Scholar
  75. 68.
    Die Anzahl Publikationen ist ein typischer Output-Indikator, der ohne Qualitätsindex nicht viel aussagt. Die Verknüpfung der Anzahl Publikationen mit einem Qualitätsindex wird in den Bewertungsschemata zur Qualitätssicherung in Anhang 2 vorgenommen. Aus diesem Grund kann auf diesen Indikator an dieser Stelle verzichtet werden.Google Scholar
  76. 69.
    Zum Austausch oder Personaltransfer zwischen Hochschule und Wirtschaft gibt es verschiedene Modelle. Siehe als Ergänzungsliteratur: Bundesministerium für Bildung und Wissenschaft: Personaltransfer zwischen Hochschule und Wirtschaft, Modelle und Programme in Deutschland und im Ausland, Schriftenreihe Studien zu Bildung und Wissenschaft, Nr. 121, Bonn, 1994.Google Scholar
  77. 70.
    Die Projektleitung in internationalen Forschungsprojekten wird nur an renommierte Abteilungen/Fakultäten und Wissenschaftler vergeben. Da die Schweiz zur Zeit kein Abkommen mit der EU hat, fällt diese Dimension weg.Google Scholar
  78. 71.
    Darin enthalten sind die Gesamtmittel für Infrastruktur, Professuren und wissenschaftliches Personal.Google Scholar
  79. 72.
    Hier kann zusätzlich unterschieden werden zwischen hochschuleigenen Projekten, Industrie- oder Verwaltungsprojekten sowie internationalen Projekten. Da aufgrund der knappen Budgetmittel vermehrt Drittmittel beschafft werden müssen, wird ein immer grösserer Prozentsatz der Arbeitszeit mit dem Schreiben und Begutachten von Forschungsanträgen verbracht. Im Bezug auf die grossen internationalen Projekte stellt die Vergabe der Projektleitung in der Regel eine zusätzliche Qualitätsdimension dar. Die Projektleitung für grosse, internationale Projekte wird nur an renommierte Institute und Persönlichkeiten vergeben.Google Scholar
  80. 73.
    Darunter fallen auch Mitgliedschaften in Editorial Boards renommierter Fachzeitschriften oder Berufungen als Fachgutachter sowie Mitgliedschaften in überregionalen Wissenschaftsgremien.Google Scholar
  81. 74.
    Die Qualität der Fachzeitschriften wird bereits beim Publikationsverhalten (Art und Menge der Publikationen in den einzelnen Wissenschaftsbereichen) bewertet und kann übernommen werden (siehe Anhang 2.3).Google Scholar
  82. 75.
    Dabei geht es um eine systematische Evaluation der Reputation nationaler und internationaler Gremien und Kommissionen, in denen die Vertreter der Hochschulen Einsitz haben. Dies bedeutet, dass für jeden Fachbereich eine Rangliste der 5–10 bedeutendsten internationalen Kommissionen erstellt werden muss. Diese Rangliste kann intern in Zusammenarbeit mit allen beteiligten Dozentinnen und Dozenten erarbeitet werden.Google Scholar
  83. 76.
    Ehrungen, Preise und Auszeichnungen sind typische Outcome-Faktoren, die bereits eine Qualitätsdimension enthalten. Da jedoch die Bedeutung der Ehrungen und Preise sehr unterschiedlich sein kann, muss auch für diesen Indikator zur Beurteilung der Qualität eine Rangliste aufgestellt werden.Google Scholar
  84. 77.
    Das Gesetz von Lotka hat nach wie vor Gültigkeit, das besagt, dass die Anzahl der Personen, die n Aufsätze produzieren, proportional ist zu l/n2. Daraus lasst sich ableiten, dass die besonders produktiven Wissenschaftler eines Instituts ungefähr der Quadratwurzel der ansässigen Forscher entsprechen In: Daniel H-D.: Methodische Probleme institutsvergleichender Analysen der Forschungsproduktivität, in: Daniel, H.-D./Fisch, R. (Hrsg.), a.a.O., 1988, Seite 229.Google Scholar
  85. 78.
    Nach Giese sagen Publikationsmasse etwas über die Aktivität, nicht aber über deren Qualität aus. Giese, E, Leistungsmessung Wissenschaftlicher Hochschulen, in der Bundesrepublik Deutschland, in: Daniel, H.-D./Fisch, R. (Hrsg.), a.a.O., 1988, Seite 61Google Scholar
  86. 79.
    Coe R/Weinstock, I.: Evaluating the Management Journals: A Second Look. In: Academy of Management Journal, 27, 1984, Seite 660–666.CrossRefGoogle Scholar
  87. 80.
    Besonders für die Wirtschaftswissenschaften konnten eigentliche Hauszeitschriften eruiert werden In: Backes-Gellner, U./Sadowski, D.: Validität und Verhaltenswirksamkeit aggregierter Masse für Forschungsleistungen, in: Daniel, H.-D./Fisch, R. (Hrsg.), a.a.O., 1988, Seite 263Google Scholar
  88. 81.
    vgl. Finkenstaedt, T./Fries, M., in: Daniel, H.-D./Fisch, R. (Hrsg.),Validität und Verhaltenswirksamkeit aggregierter Masse für Forschungsleistungen, 1988 Seite 182. Daneben gibt es auch noch Untersuchungen von Crane 1965 und Backes 1984, die sich alle mit der Gewichtung von Publikationsarten befassen und auf teilweise unterschiedliche Ergebnisse stossen. In: Backes-Gellner, U./Sadowski, D., in: Daniel, H,D./F,sch, R. (Hrsg.), a.a.O., 1988, Seite 267.Google Scholar
  89. 82.
    Zur Patentanalyse siehe United States General Accounting Office: High-Technology Competitiveness, Trends in U.S. and Foreign Performance, GAO/NSIAD-92–236 September 1992, Seite 32.Google Scholar
  90. 83.
    Van Raan, A.: Neue Entwicklungen in der Bewertung der Leistungen einer Universität, in: Carl Bertelsmann-Preis, a.a.O., 1990, Seite 98.Google Scholar
  91. 84.
    Irvine, J.: Evaluation of Scientific Institutions: Lessons from a Bibliometric Study of UK Technical Universities, in: Evered, D./Harnett S. (eds.): The Evaluation of Scientific Research, CIBA Foundation Conference, Wiley, Chichester, 1989.Google Scholar
  92. 85.
    Finkenstaedt, T./Fries, M., in: Daniel, H.-D./Fisch, R. (Hrsg.), The Evaluation of Scientific Research, 1988, Seite 174.Google Scholar
  93. 86.
    Grosse Unterschiede bestehen in den einzelnen Fachgebieten nicht nur im Publikations-, sondern auch im Zitationsverhalten, ebenso spielt die Halbwertszeit des Wissens eine grosse Rolle. Naturwissenschaftliche Erkenntnisse sind in der Regel schneller überholt als sozialwissenschaftliche Neuerungen. In: Backes-Gellner, U./Sadowski, D., in: Daniel, H.-D./Fisch, R. (Hrsg.), The Evaluation of Scientific Research, 1988, Seite 282, Anmerkung 2.Google Scholar
  94. 87.
    Czerwon H.: Nutzung bibliographischer Datenbanken für die Evaluation von Forschungsleistungen: Möglichkeiten und Grenzen, Nachrichten für Dokumentation, Heft 2, 1992, Seite 101–107.Google Scholar
  95. 88.
    Spiegel-Rösing, LS.: Messung der Forschungsleistung: Kontext der Fragestellung und Stand der Forschung. In: Bundesminister für Bildung und Wissenschaft, Bonn, 1975, Seite 4 ff.Google Scholar
  96. 89.
    Um dieser Situation Herr zu werden, schlägt Kornhuber vor, zusätzlich zum Science Citation Index die “Ausgangslage und die Art der Leistung zu betrachten und Grosse aus Nachbargebieten zu fragen, wie das Nobel-Komitee es tut.” In: Kornhuber, H H a a O 1988, Seite 373.Google Scholar
  97. 90.
    Giese, E.: Leistungsmessung Wissenschaftlicher Hochschulen in der Bundesrepublik Deutschland, in: Daniel, H.-D./Fisch, R. (Hrsg.), Bundesminister für Bildung und Wissenschaft, 1988, Seite 61.Google Scholar
  98. 91.
    Winterhager, M./Weingart, P./Sehringer, R.: Die Cozitationsanalyse als bibliometrisches Verfahren zur Messung der nationalen und institutionellen Forschungsperformanz, in Daniel, H.-D./Fisch, R. (Hrsg.), Bundesminister für Bildung und Wissenschaft, 1998, Seite 324.Google Scholar
  99. 92.
    Forschungsfront definiert als Gesamtheit aller zitierenden Publikationen, die Zitationsbezüge zu einem entsprechenden Clusterkern aufweisen. In: Weingart, P./Sehringer, R./Strate, J./Winterhager, M.: Der Stand der schweizerischen Grundlagenforschung im internationalen Vergleich, Wissenschaftsindikatoren auf der Grundlage biblometrischer Daten, in: Schweizerischer Wissenschaftsrat/Schweizerischer Nationalfonds zur Förderung der wissenschaftlichen Forschung (Hrsg.), Wissenschaftspolitik, Beiheft 44, Bern 1989, Seite 2.Google Scholar
  100. 93.
    Weingart, P./Sehringer, R./Strate, J./Winterhager, M.: Der Stand der schweizerischen Grundlagenforschung im internationalen Vergleich, Wissenschaftsindikatoren auf der Grundlage biblometrischer Daten, in: Schweizerischer Wissenschaftsrat/Schweizerischer Nationalfonds zur Förderung der wissenschaftlichen Forschung (Hrsg.), Wissenschaftspolitik, Beiheft 44, Bern 1989, Seite 2: Gemäss Weingart et al. versteht man unter Zitation das direkte Zitieren einer früher erschienenen Publikation durch eine andere (später veröffentlichte). Nach den gleichen Autoren ist die Clusteranalyse eine Methode zur Gruppierung von Daten aufgrund von Ähnlichkeitsbeziehungen. Bei der Clusteranalyse von Cozitationen werden Publikationen aufgrund der bestehenden Cozitationsbezüge gruppiert.Google Scholar
  101. 94.
    vgl. Weingart, P./Sehringer, R./Strate, J./Winterhager, M.: Der Stand der schweizerischen Grundlagenforschung im internationalen Vergleich, Wissenschaftsindikatoren auf der Grundlage biblometrischer Daten, in: Schweizerischer Wissenschaftsrat/Schweizerischer Nationalfonds zur Förderung der wissenschaftlichen Forschung (Hrsg.), Wissenschaftspolitik, Beiheft 44, Bern 1989, Seite 23, 25, 86. Nach Weingart et al. ist die Schnelligkeit des Zitiertwerdens allerdings direkt von der Entwicklung eines Spezialgebietes abhängig. Gentechnologische Arbeiten machen beispielsweise einen schnelleren Alterungsprozess durch als mathematische Arbeiten.Google Scholar
  102. 95.
    Nach Klingemann ist die Zitationshäufigkeit kongruent zu den Expertenbefragungen und sagt daher über die wissenschaftliche Effektivität mehr aus als das reine Publikationsverhalten. Klingemann, H.-D.: Zitierhäufikgeit als Qualitätsindikator, in: Daniel, H.-D./Fisch, R. (Hrsg.), Wissenschaftspolitik, Beiheft 44, 1988, Seite 207.Google Scholar
  103. 96.
    Für die Ausbildung der Studentinnen und Studenten ist die direkte Betreuung durch die Professoren massgebend und nicht die Anzahl Studenten pro Etatstelle. Für den Staat hingegen sind die Kosten relevant, die in diesem Zusammenhang allerdings besser in einer Kostengrösse, zum Beispiel als Kosten/Student(in), ausgedrückt werden sollten.Google Scholar
  104. 97.
    Werden bereits beim Thema Forschung behandelt und daher an dieser Stelle nicht mehr weiter vertieft.Google Scholar
  105. 98.
    Darin enthalten sind Kosten für Gesundheitsdienst, Berufsberatungsdienst, Bewachungsdienst, Sporteinrichtungen, Mieten, Abgaben für Heizung, Wasser, Elektrizität sowie Wartung und Unterhalt von Mobilien und Gebäuden.Google Scholar
  106. 99.
    Definiert als Total Einnahmen/Total Ausgaben. Dies entspricht dem Anteil der Gesamtausgaben, die nicht über Steuergelder finanziert werden. In: Schenker, A./Schedler, K./Mastronardi, Ph./Buschor, E.: Die Parlamentarische Mitwirkung und Aufsicht im ETH-Bereich mit besonderer Gewichtung der Finanzaufsicht, Gutachten zuhanden der Finanzkommission des Ständerates, St. Gallen und Zürich, 1995, Seite 32.Google Scholar
  107. 100.
    Schenker, A./Schedler, K./Mastronardi, Ph./Buschor, E.: Die Parlamentarische Mitwirkung und Aufsicht im ETH-Bereich mit besonderer Gewichtung der Finanzaufsicht, Gutachten zuhanden der Finanzkommission des Ständerates, St. Gallen und Zürich, 1995, Seite 32: Definiert als gemeinwirtschaftliche Einnahmen/gemeinwirtschaftliche Ausgaben. Gemeinwirtschaftliche Einnahmen sind im wesentlichen Schulgelder, Beiträge von öffentlichen Forschungsförderungsinstitutionen oder gemeinwirtschaftliche Entgelte wie Gebühren. Unter gemeinwirtschaftlichen Ausgaben werden Personalausgaben, Sachausgaben, Leistungen anderer Verwaltungsstellen (z. Bsp. Sozialleistungen) sowie ev. vorhandene Globalkredite subsummiert.Google Scholar
  108. 101.
    Darin ist die Zahl der Studentinnen und Studenten indirekt enthalten.Google Scholar
  109. 102.
    Darunter können auch Grössen wie etwa die Nettonutzfläche pro Student subsummiert werden.Google Scholar
  110. 103.
    Hier muss die Hochschulleitung bestimmen, welche Hochschulen/Universitäten für sie international von Bedeutung sind und von denen eine Anerkennung der eigenen Diplome gewünscht wird. Nur diese Diplome sollten dann bei der Berechnung der Anerkennungsrate berücksichtigt werden.Google Scholar
  111. 104.
    Definiert als Gesamterlöse/Gesamtkosten.Google Scholar
  112. 105.
    Der Kostendeckungsgrad hat per definitionem über den Erlös bereits eine qualitative Dimension, er sagt allerdings isoliert betrachtet nicht viel aus. Aus diesem Grund müssen zur Beurteilung eines Kostendeckungsgrades Vergleichsstandards geschaffen und beurteilt werden.Google Scholar
  113. 106.
    Der Selbstfinanzierungsgrad kann vor allem dann verwendet werden, wenn keine aussagefähige Betriebsrechnung existiert. Im Moment, wo eine Kostenrechnung vorhanden ist, kann auf diesen Indikator weitgehend verzichtet werden.Google Scholar
  114. 107.
    Darin enthalten sind auch alle Leistungen anderer staatlicher Stellen, die für den Hochschulbereich erbracht werden (Bauten, Anlagen, Informatikmittel, Arbeitgeberbeiträge an die Personalvorsorge).Google Scholar
  115. 108.
    Heckhausen, H.: Wozu ortsvergleichende Produktivitäts-Ranglisten von Fachbereichen und wie deshalb vorgegangen werden sollte, in: Daniel, H.-D./Fisch, R. (Hrsg.), a.a.O., 1988, Seite 37.Google Scholar
  116. 109.
    United States General Accounting Office: High-Technology Competitiveness, a.a.O., September 1992, Seite 31.Google Scholar
  117. 110.
    Van Raan, A., in: Carl Bertelsmann-Preis, a.a.O., 1990, Seite 98 ffGoogle Scholar
  118. 111.
    Die theoretische und methodische Qualität der Forschung spiegelt sich indirekt im Publikationsverhalten (bereinigte Datenbasis), sodass an dieser Stelle auf einen Leistungsindikator Basisdisziplinen oder Schwerpunktdisziplinen gekoppelt mit theoretischer und methodischer Qualität verzichtet werden kann.Google Scholar
  119. 112.
    Damit ist die Zahl der Studentinnen und Studenten indirekt enthalten.Google Scholar
  120. 113.
    Vgl Staropoli, A.: Evaluating Universities, in: Orsi Battaglini, A./Lesage, M./Merloni, F. (eds.): Scientific Research in France, Handbook of the Law of Science, Comparative Studies, Vol. 4, Nomos, Baden-Baden, 1992, Seite 68Google Scholar
  121. 113a.
    Sizer, J.: Performance Indicators and the Management of Universities in the UK — A Summary of Developments with Commentary, in: Dochy, F.J.R.C./Segers, M.R.S./Wijnen, W.H.F. (eds.), Scientific Research in France, Handbook of the Law of Science, Comparative Studies, Vol. 4, 1990, Seite 16.Google Scholar
  122. 114.
    Bussmann, W., Performance Indicators and the Management of Universities in the UK — A Summary of Developments with Commentary, in: Dochy, F.J.R.C./Segers, M.R.S./Wijnen, W.H.F. (eds.), Scientific Research in France, Handbook of the Law of Science, Comparative Studies, Vol. 4, 1995, Seite 63.Google Scholar
  123. 115.
    Bussmann, W., Performance Indicators and the Management of Universities in the UK — A Summary of Developments with Commentary, in: Dochy, F.J.R.C./Segers, M.R.S./Wijnen, W.H.F. (eds.), Scientific Research in France, Handbook of the Law of Science, Comparative Studies, Vol. 4, 1995, Seite 54 ff.Google Scholar
  124. 116.
    Aufgrund externer Effekte können sich beispielsweise positive Trends ergeben, ohne dass eine Massnahme eingeführt wurde. Aus diesem Grund müssen bei einer Wirksamkeitsanalyse diese Effekte mittels mathematischer Verfahren eliminiert werden.Google Scholar
  125. 117.
    Da eine Kostensenkung gewünscht wird, muss die Präferenzrichtung beim Qualitätsindex entsprechend angepasst werden, sodass: - internationaler Standard der Ausbildung sehr gut: 0,75 - intenationaler Standard der Ausbildung gut: 1 - internationaler Standard der Ausbildung genügend: 1,5Google Scholar
  126. 118.
    Der im Zusammenhang mit Qualität häufig verwendete Begriff der Effizienz hat nur bedingt etwas mit Qualität zu tun. Es kann beispielsweise sehr effizient sein, eine Vorlesung vor tausend Studenten zu halten. Es ist allerdings fraglich, ob dies ein geeignetes Mittel ist, um die Studenten gut auszubilden.Google Scholar
  127. 119.
    Als Ergänzung siehe Pollitt, Ch./Cave, M./Joss, R.: International Benchmarking as a tool to improve public sector performance: a critical overview, in OECD, 1994, Seite 7–22.Google Scholar
  128. 120.
    The Joint Committee on Standards for Educational Evaluation: The Program Evaluation Standards, 2 nd edition, Sage Publications, California, 1994, Seite 25.Google Scholar

Copyright information

© Springer Fachmedien Wiesbaden 1996

Authors and Affiliations

There are no affiliations available

Personalised recommendations