New Work N°3 – Flight of the Evaluator!

Um’s an dieser Stelle klar zu sagen: meine Arbeit ist nicht neu. Feldschern gibt’s schon seit langer Zeit; und Lehrer sowieso. Was sich allerdings neuerdings immer schneller ändert ist die Art, wie wir unterrichten. Zum einen technisch: Web-Streams und Online-Unterricht sind nicht erst seit Corona der neue heiße Scheiß in meinem Zweit-Gewerk. Wobei nicht wenige, die sich an Online-Lehre versuchen Methode und Medium verwechseln. Was dabei teilweise qualitativ rum kommt, gruselt mich schon ein bisschen. Zum anderen ist aber auch immer ein gewisser Wandel in den pädagogischen Theorien bemerkbar. Was auch nicht mehr ganz new ist, jedoch auf Grund der Frage nach der Wahrheit in irgendwelchen vollmundigen Qualitäts-Versprechen immer mehr in den Blick kommt, ist das Evaluieren.

Einer Sache einen Wert beimessen, bzw. herausfinden, wie viel etwas wert ist. Ich beschäftige mich momentan auch des Studiums wegen mit solchen Fragen und stoße immer wieder auf den schmalen Grat zwischen deskriptiver Forschung, die nach Erkenntnissen sucht und Evaluation, die fragt, ob der Preis für eine Veranstaltung gerechtfertigt ist – OK, das war nicht nett, aber in der Realität spricht nun mal das Geld und auch Bildung ist heutzutage (zumindest für Kostenstellenverantwortliche) erstmal eine Dienstleistung, die einbringen muss, was sie in der Herstellung kostet…

Nun ist jedem halbwegs akzeptablen Lehrer klar, dass diese Dienstleistung nicht so produziert wird, wie etwa die Arbeit eines KFZ-Mechatronikers. Denn das Auto nimmt üblicherweise nicht als aktiver Mitgestalter am Prozess der Reparatur teil. Der Schüler / Teilnehmer tut dies aber sehr wohl in nicht unerheblichem Maße, so dass man beim Lehrer nicht vom Dienstleister, sondern vom (Dienst)Leistungs-Ermöglicher sprechen sollte. Was das Thema Evaluation dort sehr schwierig macht. Das Auto funktioniert nach der Reparatur wieder, wie es soll (manchmal auch nicht); die Parameter zur Beurteilung des Wertes dieser Dienstleistung sind hingegen leicht zu ermitteln: Funktioniert es wieder wie üblich? Wie lange hat es gedauert? Wie effizient war der Ressourcen-Einsatz? Und schließlich: wie nachhaltig ist der Reparaturerfolg? Auf Grund der beschränkten Komplexität des Systems “Automobil” kann ich das alles relativ leicht feststellen.

Habe ich nun Schüler / Teilnehmer mit stark variierendem Lernerfolg, muss ich versuchen, zu differenzieren, ob der didaktische Ansatz situationsadäquat gewählt war, ob Faktoren in der Unterrichtsumgebung eine Rolle gespielt haben, ob irgendwelche Stör- oder Begünstigungs-Faktoren auf einzelne Teilnehmer, den Lehrer oder die Veranstaltung gewirkt haben, ob das Vorwissen (oder dessen Mangel) korrekt berücksichtigt wurde, ob der Zeitansatz richtig gewählt war, ob die Kommunikation angemessen war, etcpp. Und das ist bei weitem keine erschöpfende Auflistung. Dennoch muss ich mich mit der Frage nach der Qualität der Lehre befassen. Einerseits als Dozent, andererseits als Leiter einer Bildungseinrichtung und schließlich aus Forschungsinteresse.

Denn, ob wir tatsächlich das unterrichten, was zukünftige NotSans brauchen, und falls ja, ob wir es auf sinnvolle Art unterrichten, ist im Moment ehrlicherweise Gegenstand hoch spekulativen Theoretisierens. Wir haben Gedankengebäude, an denen wir uns orientieren. Aber um wieder auf Poppers Vorläufigkeit aller Erkenntnis zu sprechen zu kommen: wir wissen nicht, wie gut oder schlecht diese Theorien tatsächlich sind. Ohne die Arbeit meiner Kolleginnen und Kollegen (oder meine eigene) schlecht reden zu wollen – es mangelt uns einfach an empirisch belastbaren Fakten, an denen wir die Berufsbildung ausrichten können. Ein Punkt, dem wir gerne Abhilfe schaffen wollen. Mal schauen, ob das klappt.

Um aber auf das Evaluieren zurück zu kommen: dessen Apologeten meinen tatsächlich, mit trivialen Methoden (qualitative und quantitative Sozialforschung) Zustandsänderungen in nicht-trivialen Systemen – nämlich Menschen – halbwegs sicher messen zu können; um dann hinterher zu sagen “Maßnahme X ist mit einer Wahrscheinlichkeit von x wirksam.” (Ich weiß, dass dieser Satz da so nirgends steht, es ist eine leicht polemische Überspitzung auf den oft höchst irrationalen Glauben in die Macht der Statistik) Ich staune immer wieder, wie man bei manchen Gelegenheiten auf solche Aussagen kommt, aber ich lasse mich natürlich gerne argumentativ überzeugen.

Ich denke, dass – speziell auf meinen Fachbereich bezogen – gegenwärtig das Evaluieren der Lehrmaßnahmen keinerlei Sinn macht, weil die professionswissenschaftliche Basis fehlt, an Hand derer sich festlegen ließe, was tatsächlich ein Lehrerfolg wäre. Aber wie schon gesagt, es gibt Menschen, die dran sind. Zum Abschluss möchte ich übrigens noch eindringlich davor warnen, echte Evaluation und Qualitätsmanagement in einen Topf zu werfen. Das erstere ist angewandte Wissenschaft, das letztere eine Management-Funktion, die allzu oft einer echten Qualitätsorientierung entbehrt. Denn in der EN ISO 9001 kann ich einen Haufen Scheiße als meine Qualität definieren; wenn man Blattgold draufklebt, stinkt es halt trotzdem noch. In diesem Sinne – Gute Nacht.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.