Als die Deutsche Gesellschaft für Soziologie (DGS) im April dieses Jahres dazu aufrief, die Beteiligung am CHE-Ranking zu beenden, war dies der Schlusspunkt einer ergebnislosen Diskussion, die mit dem Centrum für Hochschulentwicklung über mehrere Monate geführt worden war. Da sich das CHE weigerte, trotz der vielstimmigen Kritik an seinem Ranking methodische Veränderungen anzubringen, blieb der DGS nur der Ausstieg.
Ihm haben sich mittlerweile soziologische Institute an über 30 deutschen Universitäten angeschlossen – darunter viele Institute, die in diversen Rankings zur Spitzengruppe der Soziologie in Deutschland gezählt werden wie die TU Berlin, in Bielefeld, die TU Darmstadt, in Frankfurt, Freiburg, Jena, Mainz, Bremen oder an der LMU München. Der Ausstieg aus dem CHE-Ranking bedeutet nicht, dass die Soziologie Evaluationen an sich ablehnen würde. Im Gegenteil, das Fach hat zum Beispiel beim Rating des Wissenschaftsrats eine Vorreiterrolle übernommen. Aber das CHE-Ranking ist eine mangelhafte Form der Beurteilung wissenschaftlicher Leistungen in Forschung und Lehre – aus mehreren Gründen.
So beruht das CHE-Ranking auf falschen Vergleichen: Um eine "Rangliste" erstellen zu können, misst das CHE Sachverhalte, die sich quantitativ nicht vergleichen lassen. Soziologische Institute haben unterschiedliche Ausrichtungen und Schwerpunkte. Nehmen wir als Beispiel drei verschiedene Soziologie-Institute: Eines ist geisteswissenschaftlich orientiert und verfügt über eine hervorragende Bibliothek, der PC-Pool ist eher klein. Ein anderes Institut ist bekannt für statistische Analysen der Sozialpolitik. Der PC-Pool ist sehr gut, die Theorieausbildung anderswo breiter. Das dritte Institut schließlich ist in der ethnografischen Feldforschung aktiv und hat dafür viele Tutorinnen und Tutoren, aber nicht so viele Computer. Welches Institut ist das beste? Fraglich ist überdies, ob Institute überhaupt eine geeignete Untersuchungseinheit sind. Zumal in den Geistes- und Sozialwissenschaften Professoren die Träger wissenschaftlicher Leistungen sind. Die Bewertung ganzer "Standorte" erzeugt lauter Fehlschlüsse, da sie eher die Homogenität einer Einrichtung misst als die Leistungsfähigkeit der Professoren, bei denen die Studierenden ihr Studium absolvieren.
Das CHE-Ranking hat darüber hinaus methodische Mängel. Bei der Konstruktion von Leistungsindikatoren und der Erhebung der zu Grunde liegenden Daten geht das CHE fehlerhaft vor. Die Studierendenbefragung ist auf Grund geringer Rücklaufquoten, niedriger Fallzahlen und fehlender Repräsentativität Ausdruck unkontrollierter Willkürlichkeit. Untaugliche Indikatoren werden verwendet, wenn etwa die Forschungsleistung einer wissenschaftlichen Einheit durch die Anzahl des Lehrpersonals dividiert wird und somit Hochdeputatstellen mitgezählt werden. Als Kriterium der Studienqualität dient allein die Methodenausbildung – warum nicht auch Sozialstrukturanalyse oder Soziologische Theorie? Zugleich tauchen wichtige Indikatoren der Lehrqualität gar nicht in den Erhebungen des CHE auf wie etwa die Betreuungsrelationen. Auf der Grundlage einer solch irreführenden Datenlage ist die Bildung von "Ranglisten" nicht zu rechtfertigen.
Und schließlich desinformiert das CHE-Ranking. Bei der medialen Darstellung des CHE-Rankings im "ZEIT-Studienführer" werden ohne Begründung nur ein Drittel der zirka 18 erhobenen Indikatoren dargestellt und in eine "Ampelsymbolik" überführt, die viel stärker der Erzeugung medialer Aufmerksamkeit dient als der sinnvollen Information von Studieninteressierten.
Das CHE hat sich den Forderungen aus der Wissenschaft nach substanziellen Veränderungen seines Rankings bisher widersetzt. Unser Ausstieg aus dem Ranking soll bewirken, das Antwortverhalten eines Akteurs in der Wissenschaftspolitik zu verbessern, der als Ableger der Bertelsmann Stiftung dem Wissenschaftssystem selbst nicht angehört. Manchmal müssen Botschaften etwas lauter sein, damit sie von außen gehört werden.

Der Autor ist Dekan des Fachbereichs Gesellschaftswissenschaften der Goethe-Universität Frankfurt am Main und Vorstandsmitglied der Deutschen Gesellschaft für Soziologie (DGS) 
drucken
1. Endlich...
30.01.2013, Uwe Zimmermann, Ph.D.Unsere Fachzeitschriften haben einen "Impact factor", jeder Akademiker, jede Akademikerin bekommt mit ihrem/seinem "h-Index" einen Stempel aufgedrückt, wie gut sie/er ist, beim Peer-Review-Verfahren für gewisse Zeitschriften soll man die Qualität eines Artikels auf einer hundertteiligen Skala bewerten... und kein Ende ist in Sicht.
Dies alles nur um Zahlen zu generieren, die von Statistikern fachunabhängig und -übergreifend verglichen werden können, und die letztendlich über Sein und Nichtsein entscheiden können.
Schon als ich Anfang der 1990er eine Uni für mein Physikstudium auswählen sollte, kursierten die Uni-Bewertungen (damals durch den Spiegel?). Dort wurden als Kriterien u.a. die Anzahl der Fachpublikationen der ansässigen Professoren aufgeführt. Nach 20-jähriger Erfahrung in der Hochschulwelt ist meiner Erfahrung nach gerade dieses Kriterium für die Wahl eines Studienplatzes für das Grundstudium doch wohl absolut unerheblich - aber leicht zu messen.
2. Fragwürdige Form der Beurteilung oder fragwürdige Kritik?
31.01.2013, UliDoch nun zurück zur Inhaltlichen Kritik. Dort wird insbesondere auf die mangelnden Rücklaufquoten der Befragungen der Studenten hingewiesen. Doch in diesem Fall müssen sich die betreffenden Fakultäten wohl eher fragen, warum die Rücklaufquoten so schlecht sind? Liegt es womöglich an mangelndem Interesse der Studenten?
Berechtigt erscheint mir nur die Kritik der Gleichmacherei.
Ich muss meinem Vorkommentator an einer Stelle recht geben, für die Qualität der Lehre eines bestimmten Fachbereichs ist die Menge seiner Fachpublikationen tatsächlich völlig aussagelos. In vielen Diskussionen zum Thema Lehre werden derartige Fehler gemacht.
3. Für wen ist das Ranking eine echte Hilfe?
04.02.2013, Alfred Fuhr