von Sybille Volkholz
Nicht nur testen, sondern auch Schlüsse daraus ziehen und handeln: Diese neue Erwartung haben die deutschen Kultusminister kürzlich an die Bildungsforschung formuliert. Mit der Fülle von Leistungsvergleichen und anderen Tests, mit denen Schüler und Lehrkräfte seit über einem Jahrzehnt konfrontiert sind, sollen „Entwicklungen im Bildungswesen nicht nur beschrieben, sondern auch erklärt werden“. Dies solle „mit möglichst konkreten Hinweisen verbunden werden, was geschehen sollte, um die festgestellten Probleme auch zu lösen“, heißt es in der unlängst von der Kultusministerkonferenz (KMK) beschlossenen „Gesamtstrategie zum Bildungsmonitoring“.
Gab es nicht eine Welle von Schulreformen?
Eltern und andere interessierte Beobachter der Bildungslandschaft mögen sich überrascht die Augen reiben und fragen, wozu denn wohl bislang Schüler von der Grundschulzeit bis nah ans Abitur neben Klassenarbeiten immer wieder landes-, bundesweit oder international vergleichende Tests absolvieren mussten. Warum der ganze Aufwand, wenn es nicht von vornherein darum geht, Defizite zu identifizieren und dann das Schulsystem und den Unterricht gezielt zu verbessern? Und hat nicht die erste, 2001 veröffentlichte Pisa-Studie, bei der 15-Jährige in Deutschland bestenfalls mittelmäßig abgeschnitten haben, eine Welle von Schulreformen ausgelöst – vom Ausbau der Ganztagsschule über die Einführung der Bildungsstandards bis zur Abschaffung der Hauptschule?
Tatsächlich hat die empirische Wende in der Bildungsforschung seit der Jahrtausendwende etliche Leistungstests und -vergleiche wie Timms, Pisa, Iglu und Pearls hervorgebracht, bis hin zu den daran anschließenden Ländervergleichen des Instituts zur Qualitätsentwicklung im Bildungswesen (IQB) und ihren Vera-Tests. Dadurch werden den Länderministerien, aber auch den Schulen Unmengen von Daten zur Verfügung gestellt. Dies steht aber in einem eklatanten Missverhältnis zu ihrer Rezeption und Nutzung durch die Politik, durch Bildungsverwaltungen und Landesinstitute – oder gar durch die Schulen selbst. Zwei große Fragen sind bis heute nicht beantwortet: Wie kommt das empirische Wissen in die Bildungspolitik und wie kommt es in die Schulpraxis?
Nach Pisa: Erklärungen gibt es nur im Ansatz
Zwar sind die Schülerleistungen den Pisa-Studien zufolge sukzessive besser geworden, aber Erklärungen können die Bildungsforscher nur in Ansätzen liefern: So sei die Gruppe der Risikoschüler, die große Schwierigkeiten beim Lesen haben, mit den Jahren kleiner geworden, weil früher und besser gefördert wird. Denselben Effekt hat eine neue, alltagsnähere Aufgabenkultur in der Mathematik. Die meisten Forscher haben vor zu eiligen Schlussfolgerungen gewarnt und betont, dass die Studien lediglich Ergebnisse über Schülerleistungen liefern, aber keine Erklärungen und keine Ursachenforschung. Mit dem jetzt beschlossenen neuen Bildungsmonitoring soll das nachgeholt werden.
Ist also ein „Na endlich!“ die richtige Reaktion auf den KMK-Beschluss? Bedingt, denn vor der verbindlichen Konsequenz aus dieser Zielsetzung sind die Kultusminister dann doch zurückgescheut. Die Bildungspolitiker sehen ihre Klientel mit den Vergleichsarbeiten (Vera) für Primarstufe und Sekundarstufe I schon auf gutem Wege. Die Tests gäben den Schulen Rückmeldungen darüber, ob die neuen, auf den Bildungsstandards basierenden fachlichen und fachdidaktischen Konzepte funktionieren. „Für die Lehrkräfte werden geeignete Unterstützungs- und Fortbildungsangebote bereitgestellt“, heißt es im Papier zum Bildungsmonitoring. Doch das stimmt schlicht nicht. Bislang haben sich die Lehrergewerkschaft GEW und einige Schulen vor allem durch Boykottaufrufe gegen Vera hervorgetan. Nur wenige nutzen die Ergebnisse wirklich, um über die Qualität des Unterrichts nachzudenken.
Warum gibt es zwischen Klassen Unterschiede?
Bislang haben Stiftungen die Aufgabe übernommen, den Schulen hier gezielte Unterstützung anzubieten. „Von Daten zu Taten“ zu kommen, heißt, folgende Fragen zu stellen – und zu beantworten: Warum weichen unsere Ergebnisse von denen anderer Schulen in vergleichbarer sozialer Lage ab? Warum gibt es zwischen den Klassen Unterschiede? Was folgt daraus für notwendige Fortbildung von Lehrkräften? Mit diesen Debatten sind die meisten Schulen überfordert, und genau hier müsste aber die Unterstützung ansetzen – systematisch und flächendeckend.
Dialog zwischen Wissenschaft und Schulen
Die KMK aber will zu wenig, um wirklich Hilfe anzubieten. Es heißt, zunächst solle geprüft werden, „in welchen Arbeitsprozessen und mit welchen Akteuren“ das Forschungswissen so aufbereitet werden könne, dass die Schulpraxis davon profitiert. Die Kultusminister sehen hier vorrangig die Landesinstitute und Qualitätseinrichtungen der Länder in der Pflicht. Außerdem bedürfe es „besonderer Implementations- und Transferstrategien in den Ländern“, heißt es vage.
Eine Strategie, die von den Beschreibungen zu Erklärungen und zu Handlungsvorschlägen kommen will, bedarf aber einer fundierten Analyse der schon vorliegenden Studien. Und einen institutionellen Ort, wo dies fachlich in hoher Qualität geleistet wird. Das wäre Aufgabe eines eigenen bildungswissenschaftlichen Instituts – und zwar nicht dezentral in den einzelnen Ländern, sondern gemeinsam von Bund und Ländern getragen. Es könnte auch zum Dialog zwischen Schulen und Wissenschaft beitragen, in dem Lehrkräfte und Praktiker Wünsche formulieren könnten, an welchen Forschungsthemen sie Interesse haben. Das wäre einmal ein bildungspolitisches Projekt, an dem Bund und KMK gemeinsam fruchtbar arbeiten könnten.
Sybille Volkholz war Soziologin, Lehrerin und Politikerin, Mitglied des Berliner Abgeordnetenhauses für die Grünen, 89/90 Schulsenatorin, 10 Jahre lang bis 2015 leitete sie das Bürgernetzwerk des VBKI, das vor allem durch seine Lesepaten an Schulen bekannt ist.
Sybille Volkholz unterstützt das Projekt Stiftung Bildung von Beginn an und zählt zu unseren ersten Beirätinnen.
Der Beitrag erschien am 6.8.2015 im gedruckten Tagesspiegel und ist online hier abrufbar: www.tagesspiegel.de