DUZmagazine, 9/2009

Die Herren der Zahlen

Seit Jahrzehnten vergleicht die OECD weltweit die Leistungsfähigkeit ihrer Mitgliedsländer – und spart dabei oft nicht mit Kritik. Nun wird jedoch die Arbeitsweise der internationalen Organisation selbst hinterfragt

Die OECD ist eine mächtige Organisation. Ihre Vorgaben erstrecken sich auf alle Bereiche des Lebens, vom internationalen Steuerrecht bis zur fachgerechten Prüfung von Chemikalien, und haben durch ihre weltweite Anerkennung fast den Status von Gesetzen. In der Pariser Zentrale, untergebracht in einem Palais im edlen 16. Bezirk, werden die Daten aus allen Ecken der Erde zusammengetragen und wiederum in einer Flut von Publikationen ausgewertet und verglichen. Rund 18 000 Regalmeter, so verkündet es die OECD-Website stolz, nehmen die Veröffentlichungen ein, die die OECD jährlich produziert.

Hierzulande ist die OECD wohl am bekanntesten für ihre PISA-Studie, die den Lernleistungen deutscher Schüler eine schlechte Note erteilte und zu einer heftigen Debatte über das deutsche Schulsystem führte. Nicht nur seit PISA wird der OECD jedoch vorgeworfen, mit ungeeignetem Vergleichsmaterial zu arbeiten. Die Statistiken aus den Mitgliedsländern seien einfach zu unterschiedlich, und die Analysen der OECD würden kulturelle Unterschiede ignorieren, lautet die Kritik. Die OECD wehrt sich dagegen: „Die Länder unterscheiden sich natürlich hinsichtlich Größe, Reichtum und Bevölkerungszusammensetzung“, sagt Eric Charbonnier, Statistikexperte bei der Direktion für Bildung. „Es wäre jedoch sehr hinderlich, wenn man davon ausgehen würde, dass dies keinen Vergleich zwischen den OECD-Staaten erlaubt.“ Länder mit ähnlichen Situationen wiesen durchaus große Unterschiede in der Leistung und der Organisation ihrer Bildungssysteme auf.

In der Kritik stehen allerdings auch andere Bildungsstudien der Weltorganisation. So bemängelte kürzlich das deutsche Bundesinstitut für Berufsbildung (BIBB), dass in der OECD-Publikation „Education at a Glance 2008“ ein umfassender Akademikermangel in Deutschland vorausgesagt wurde. Laut der OECD haben hierzulande im Jahr 2006 nur etwas über 21 Prozent der typischen Altersgruppe einen tertiären Ausbildungsgang abgeschlossen, der OECD-Durchschnitt liegt bei über 37 Prozent. Diese niedrige Quote würde Deutschland auf eine Stufe mit Slowenien oder Griechenland stellen, wo sich vor einigen Monaten die Studenten aus Wut über ihre schlechten Ausbildungsbedingungen und den schweren Zugang zur Universität wochenlange Straßenschlachten mit der Polizei lieferten. Solche Zustände wären für eine wissensbasierte Volkswirtschaft wie die deutsche wirklich eine große Gefahr.

Doch die reine Absolventenquote ist dem BIBB zufolge nicht gut geeignet, um die technologische Leistungsfähigkeit eines Landes zu beurteilen. „Es ist zweckmäßiger, den Indikator ‚tertiary attainment‘, also den Anteil an Akademikern in der Erwerbsbevölkerung, heranzuziehen“, sagt Norman Müller vom BIBB. „Hier sind auch Fachhochschulabschlüsse und Fortbildungsabschlüsse wie Meister und Fachwirte bereits eingerechnet, sodass Deutschland in dieser Hinsicht nicht benachteiligt wird.“ Hinsichtlich des „tertiary attainment“ liegt Deutschland mit 24 Prozent auch nur knapp unter dem OECD-Durchschnitt von 27 Prozent. Außerdem ermögliche das gut ausgebaute Aus- und Weiterbildungssystem in Deutschland vielen Fachkräften, mit den Akademikern um Stellen mit hohen Anforderungen zu konkurrieren, so das BIBB. Von einem Akademikermangel über alle Bereiche hinweg könne also keine Rede sein.

Auch der amerikanische Bildungsexperte Arthur Hauptman kritisiert die Hochschuldaten in „Education at a Glance“. Ein großer Teil dieser Daten sei „fehlerhaft oder irreführend“, schrieb er kürzlich in der Fachzeitschrift „International Higher Education“ (IHE). So würden bei der Berechnung der Studierendenquote eines Landes die ausländischen Studenten mitgezählt, die besonders schnellen Studenten (die also noch in die typische Altersgruppe fallen, ihr Studium jedoch schon abgeschlossen haben) dagegen ignoriert. Auch bei den Indikatoren „enrollment“ und „attainment“, also der Zahl der eingeschriebenen Studenten und dem Teil der arbeitenden Bevölkerung, der einen bestimmten Abschluss innehat, gibt es laut Hauptman Probleme. So hat Kanada die höchste „attainment“-Rate für Grundstudiumskurse (sogenannte „sub-bachelor degrees“) unter allen OECD-Staaten; die Anzahl der kanadischen Studenten, die in solchen Studiengängen eingeschrieben sind, könnten jedoch unmöglich diesen hohen Wert generieren. Und schließlich ignoriere „Education at a Glance“ kulturelle Unterschiede bei der Berechnung der Ausgaben pro Student. So besuchen viele eingeschriebene Studenten in Spanien und Portugal nur selten die Uni und lernen zu Hause. Dadurch liegen die Ausgaben dort sehr niedrig, über Effektivität Effektivität und Qualität der Lehre ist laut Hauptman damit jedoch nichts gesagt.

OECD-Statistikexperte Eric Charbonnier hält diese Kritik für unbegründet. So ließe sich etwa die Unvereinbarkeit von „enrollment“ und „attainment“ in Kanada ganz einfach mit den verschiedenen Ausgangspunkten der beiden Statistiken erklären. Während man die eingeschriebenen Studenten nur an Hochschulen zählte, werden bei der Ermittlung der tertiären Abschlüsse in der Erwerbsbevölkerung auch Absolventen anderer Bildungsträger angerechnet. Und auch vom Statistischen Bundesamt, das die deutschen Daten für „Education at a Glance“ liefert, bekommt die OECD Schützenhilfe. „Die internationale Vergleichbarkeit ist in OECD-Statistiken durchaus gegeben“, so Udo Kleinegees vom zuständigen Fachbereich „Bildung und Kultur“. Die von der internationalen Organisation entwickelte Nomenklatur, mit der all die verschiedenen Daten aufeinander abgestimmt werden, werde nun auch beim Vergleich der deutschen Bundesländer angewendet. Dennoch: Befürchtet wird, dass die Datenerhebung ein grundlegendes Problem ist. „Ich kenne mich zwar in anderen Bereichen der OECD-Statistiken nicht aus, doch ich befürchte, dort könnte es ähnliche Fehler geben“, sagt Hauptman.

Welche Folgen die Verzerrungen in OECD-Statistiken mitunter haben, konnte man in Irland sehen. Dort geriet der Steuerhaushalt durch die Finanzkrise ins Trudeln und die Regierung musste neue Schulden aufnehmen. In einem Bericht über die wirtschaftliche Zukunft des Landes zeichnete die OECD jedoch ein düsteres Bild: Der Bankensektor sei extrem aufgeblasen, die vergebenen Kredite fast zehnmal so hoch wie die gesamte Wirtschaftsleistung des Landes. In der Folge fiel Irlands Bonität auf den internationalen Finanzmärkten und die Regierung musste für ihre Staatsanleihen einen Risikoaufschlag hinnehmen, wodurch in Zukunft Mehrausgaben in Höhe von 500 Millionen Euro entstehen könnten. Später stellte sich heraus, dass der größte Teil der irischen Kredite von ausländischen Banken vergeben worden war. Wenn man nur die Darlehen der irischen Institute anrechnet, steht die grüne Insel im EU-Vergleich überdurchschnittlich gut da.

Kein Wunder also, dass das neueste OECD-Projekt, die sogenannte Ahelo-Studie zur Messung der Lernleistungen von Studenten, bei den Hochschulen nur äußerst vorsichtig aufgenommen wird. Die Österreichische Universitätenkonferenz äußerte sich im vergangenen Jahr sogar „mit tiefer Skepsis und weitgehender Ablehnung“. Denn eine schlechte Platzierung aufgrund fehlerhafter Daten könnte die Hochschulen unverschuldet um viel Geld im umkämpften internationalen Bildungsmarkt bringen. Bei aller Kritik: Am Ende will Norman Müller vom BIBB seine Vorwürfe relativieren und betont: „Die OECD liefert außerordentlich hilfreiche Datensammlungen. Dass nicht immer die perfekte internationale Vergleichbarkeit gewährleistet ist, liegt in der Natur der Sache.“

Advertisements