Feedback an Hochschulen 2007 und 2012

Durch Gabis amüsanten Beitrag über „Dackel, Pudel und Hunde“ bin ich auf den Studienqualitätsmonitor 2012 des HIS-Instituts für Hochschulforschung aufmerksam geworden. Beim Durch“blättern“ bin ich auf den Abschnitt „Qualität der Betreuung durch Lehrende“ gestoßen. Dort heißt es auf Seite 14 zum Thema Feedback:

Einen zentralen Bestandteil von Betreuungsqualität stellen Rückmeldungen/ Feedback zu den Studienleistungen dar. Nur jede(r) zweite Studierende an einer Fachhochschule im Bundesgebiet (50 %) und 45 % der Studierenden an einer Universität bewerten allerdings die Rückmeldungen/ das Feedback der Lehrenden zu Hausarbeiten, Klausuren und Übungen positiv.

Noch interessanter als diese Momentaufnahme finde ich eigentlich die Frage: Wie kann man diesen Wert im Vergleich mit den Vorjahren bewerten? In dem Moment hatte ich ein Déjà-vu: Für meine Masterarbeit hatte ich damals bereits den Studienqualitätsmonitor 2007 für die Relevanbegründung herangezogen. In diesem (übrigens wesentlich umfangreicheren) Bericht wird nicht nur zwischen Fachhochschulen und Universitäten, sondern auch noch zwischen Professoren und anderen Lehrenden als Feedback-Geber unterschieden (S. 35):
Quelle: Bargel, T.; Müßig-Trapp, P. & Willige, J. (2008). Studienqualitätsmonitor 2007. HIS-Institut für Hochschulforschung. Hannover.

Quelle: Bargel, T.; Müßig-Trapp, P. & Willige, J. (2008). Studienqualitätsmonitor 2007. HIS-Institut für Hochschulforschung. Hannover.

Das macht den Vergleich natürlich etwas schwieriger. Tendenziell lässt sich aber festhalten, dass sich die Zufriedenheit der Studierenden mit den Rückmeldungen ein kleines bisschen verbessert hat. Aber immer noch kann „Feedback“ als eine der größten Baustellen in Sachen Lehrqualität bezeichnet werden. Im Bericht von 2007 wird das auch nachdrücklich kritisiert (S. 36):

Wenn über unzureichende Rückmeldungen und Feedbacks ein gutes Viertel bis über die Hälfte der Studierenden klagen, dann besteht darin ein gravierendes Manko der Studienqualität an den Hochschulen, besonders an den Universitäten. Das Ausbleiben solcher Information und Orientierung lässt die Studierenden allzu sehr in Unklarheit über ihren Leistungsstand und ihr Leistungsvermögen; dadurch wird ihre Motivation und Lernstrategie beeinträchtigt, der sukzessive Studienfortgang und die Lernfortschritte werden behindert.

Aber das ist natürlich nur eine Seite der Medaille. Aus eigener Erfahrung – und in der Literatur wird es auch zunehmend betont – hapert es zudem häufig an der Rezeption, Reflexion und ggf. Nutzung des Feedbacks seitens der Studierenden. Feedback zu geben ist also allenfalls notwendig, aber nicht hinreichend, um tatsächlich die Prozesse in Gang zu setzen, die man mit dem Feedback anstrebt.

Tja, aber warum beschäftigt mich das überhaupt so? Ziel meiner Diss ist ja die Entwicklung eines Qualifzierungsprogramms für Hochschullehrende, das genau da ansetzt: Lehrende darin zu unterstützen, eine Feedback-Strategie für Ihre Veranstaltung(en) zu entwickeln, die beide Seiten der Medaille im Blick hat. Welche Feedback-Inhalte und -Formen sind angesichts von Veranstaltungstypus, Lehrzielen, Assessment-Form, Anzahl der Studierenden etc. angezeigt? Und: Wie können Studierende stärker in diesen Prozess involviert werden und langfristig ihre Fähigkeiten zur Selbstregulation ausbauen? Es geht mir kurz gesagt um nachhaltiges Feedback (siehe: „Developing Suistainable Feedback Practices“; Carless, Salter, Yang & Lam, 2010). Dieses hat nicht nur das Ziel, Lob, Kritik und Verbesserungsmöglichkeiten im Hinblick auf eine bestimmte Aufgabenstellung an den Lernenden zu kommunizieren; sondern mit dem Lernenden über Lernziele, Lernprozesse, Aufgaben, Bewertungskriterien, uvm. in den Dialog zu treten und ihn im Feedback-Prozess in eine aktive Rolle zu versetzen. Feedback ist hier also ein integraler Bestandteil des gesamten didaktischen Konzepts und nicht nur ein „Add-On“.

Die Entwicklung dieses hochschuldidaktischen Angebots ist anspruchsvoller, als ich es zunächst eingeschätzt hatte. Bei meinen den Entwicklungsprozess begleitenden Erprobungen in der Praxis fällt mir immer wieder auf, dass das Thema (insbesondere in Verbindung mit dem Stichwort „Assessment“) für viele Teilnehmer Neuland ist. Seit dem Studienqualitätsmonitor von 2007 scheint sich in dieser Hinsicht nichts verändert zu haben (S. 36):
In diesem Ausbleiben konkreter Leistungsrückmeldungen und eines allgemeinem Feedbacks zum Lernfortschritt kann auch ein Versäumnis der Hochschuldidaktik gesehen werden, die sich offenbar bislang wenig mit dieser Problematik befasst hat.

Drückt mir die Daumen, dass ich daran etwas ändern kann.

Das Schweigen des Schafs

Schaf

Bildquelle: Jackhynes | Wikimedia Commons

Am vergangenen Freitag, 12.11.2010, war es soweit: In unserem Writers‘ Workshop, den wir in diesem Zyklus zu jedem zweiten Termin unseres Doktorandenkolloquiums abhalten, war ich das Schaf. Das ist nichts Schlimmes – im Gegenteil. Doch um zu erklären, was es damit auf sich hat, muss ich etwas weiter ausholen. Aber nicht zu weit, denn Genaueres kann man bereits im Blog zum Kolloquium und z.B. bei Tara und Tami nachlesen.

Mit der Idee, einen Writers‘ Workshop im Doktorandenkolloquium zu veranstalten, trat Reinhard Bauer letzten Sommer an Gabi heran. Die Grundidee ist, dass sich durch an die Arbeitsweise der Pattern Community angelehnte Workshops mit Peer Review Funktion die (wissenschaftliche) Schreibkomptenz verbessern lässt. Zu diesen Überlegungen ist eine Forschungsnotiz entstanden und in Anlehnung an diese möchte ich kurz die einzelnen Arbeitsphasen und mein „Erleben“ dieser beschreiben.

Phase I: Das Schaf folgt seinem Hirten

In der ersten Phase des Writers‘ Workshops geht es um die Vorbereitung des Textes, der bei der Präsenzveranstaltung durch die Peers diskutiert werden soll. Da ich in meinem Promotionsvorhaben noch relativ am Anfang stehe, erhielt ich die Aufgabe, eine Forschungsnotiz über die Grundidee meiner Diss zu schreiben. Bei den Doktoranden, deren Arbeit schon weiter fortgeschritten ist, wird hingegen am konkreten Diss-Text gearbeitet. Gemeinsam mit meinem Hirten (ich konnte Christian Kohls dafür gewinnen) galt es, den Text so gut wie möglich auszuarbeiten und sowohl formale als auch inhaltliche Schwächen zu verbessern. Da Christian ein Experte im Bereich der didaktischen Pattern ist, konnte ich speziell inhaltlich ganz viel aus dieser Phase mitnehmen. Einen herzlichen Dank nochmal für das umfangreiche Shepherding!

Phase II: Die Herde diskutiert, nur ein Schaf schweigt

Zentrales Merkmal der Präsenzveranstaltung (also des eigentlichen Writers‘ Workshops) ist es, dass ich als Schaf nach einer kurzen Einführung, in der ich aus meinem Text vorlese, der Herde den Rücken zukehren muss. Daraufhin wurde – einem festen Schema folgend und durch einen zuvor bestimmten Moderator begleitet – mein Text diskutiert. Es war auf alle Fälle eine interessante Erfahrung, so viele Leute 45 Minuten lang über den eigenen Text sprechen zu hören. Aber es fiel mir auch schwer, das Gehörte nicht zu kommentieren, was man mir sicherlich angemerkt hat. Einige Male ertappte ich mich beim wilden Nicken oder Kopfschütteln. Ich konnte einige Verbesserungsvorschläge notieren; erfreulicherweise blieb der Grundtenor jedoch ziemlich positiv. Ich muss also nicht noch einmal bei Null anfangen :D

Phase III: Verbesserungspotential abgrasen

In der Nachphase des Writers‘ Workshops (also jetzt) integriere ich noch einige der Verbesserungshinweise, die ich mir während der Präsenzveranstaltung notiert habe. Es waren viele Hinweise dabei, die für mich gut nachvollziehbar waren und die ich gerne aufgreife. Jedoch denke ich, dass es wichtig ist, seinen eigenen Stil zu bewahren, weswegen manche Formulierung so bleibt wie sie ist. Meinem Dank an die gesamte Herde und meinen Hirten tut dies natürlich keinen Abbruch! Ich sage also vielen Dank für die zahlreichen Anregungen und die angenehme Atmosphäre.

Die Forschungsnotiz geht dann auch in Kürze in unserer Rubrik Forschungsnotizen online. Wenn es soweit ist, melde ich mich nochmal mit einem kurzen Post.

Zurück aus Ljubljana: Bericht von der ECPR Summer School in Methods & Techniques

KaumDragon hatte ich meinen Blog gestartet, herrschte hier auch schon wieder Funkstille. Warum? Ich war unterwegs: auf der ECPR (European Consortium for Political Research) Summer School in Methods and Techniques in Ljubljana. Am 1. August hab ich mich mit Hannah Dürnberger auf den Weg dorthin gemacht, um zwei Wochen lang intensiv an Fragen der Gestaltung von Untersuchungsdesigns zu arbeiten. Wir haben beide den Kurs „Mixed Methods Designs“ belegt, da wir in unseren Promotionsvorhaben tendenziell eher multi-methodisch arbeiten wollen. Insgesamt wurden 21 verschiedene Kurse angeboten, wobei der überwiegende Teil sehr quantitativ geprägt war (für eine Übersicht siehe hier).

Wie der Name „Mixed Methods Designs“ schon ankündigte, erwarteten uns in dem Kurs sowohl qualitative als auch quantitative Inhalte und „Blickwinkel“. Meine Sorge, dass für die Arbeit im Kurs ausschließlich der Kontext Politik (da ECPR) herangezogen werden könnte, hatte sich zu meinem Glück nicht erfüllt (einige Teilnehmer waren genau anderer Ansicht; ja… das waren dann die Politikwissenschaftler). Die Dozentin Katrin Niglas (Professorin an der Universität Tallinn) hat einen bildungs- und informationswissenschaftlichen Hintergrund, somit waren viele Beispiele aus diesen Fachbereichen (z.B. bei den Daily Readings) vertreten.

Interessant fand ich insbesondere die Überlegungen dazu, wie man sich denn selber „paradigmatisch verortet“, wenn man einen Mixed Methods Approach für seine Untersuchung wählt. Schließlich gehen mit unterschiedlichen Forschungsmethoden wie Survey oder Tiefeninterviews auch verschiedene erkenntnistheoretische Weltanschauungen einher. Dass die Welt(anschauung) nicht in schwarz und weiß einzuordnen ist, sondern durchaus mehrere Perspektiven auf einen Interessengegenstand relevant oder sogar von Nöten sein können, das würde ich unterstreichen. In der Summer School hat sich hier der Pragmatismus als mögliche Argumentationsstütze angeboten (hier ein kurzer Beitrag von Katrin Niglas). In diese Richtung werde ich auf alle Fälle weiter denken.

Ansonsten war der zweiwöchige Kurs geprägt von viel Literaturarbeit, Inputs der Dozentin und einigen Diskussionsrunden. Sehr hilfreich fand ich das Raster, das wir an alle Studien angelegt haben, um deren Untersuchungsdesigns zu vergleichen:

  • Paradigm / Theoretical Framework
  • Research Problem
  • Strategy (das sind so Label wie „Fallstudie“ oder „Design Based Research“)
  • Sampling
  • Data Collection
  • Data Analysis
  • Interpretation & Conclusion

Das Raster hat dabei geholfen, alle Schritte einer Untersuchungsplanung seperat voneinander zu analysieren. In der Tat ist es häufig so, dass die Autoren einer Studie dieser ein bestimmtes „Label“ geben (z.B. im simpelsten Fall qualitativ oder quantitativ), sich dieses dann aber nicht in allen Teilbereichen einer Studie niederschlägt.

Etwas mehr Zeit bzw. eine stärkere Integration in die didaktische Gstaltung hätte ich mir für die Arbeit am eigenen Forschungsprojekt gewünscht. Da unsere Gruppe mit über 20 Teilnehmern jedoch zu einer der größten bei dieser Summer School zählte, war dies organisatorisch nur schwer möglich. Nach einigem Ringen mit mir selbst (primär da Vortragssprache = Englisch) habe ich mich dann aber doch entschieden, mein Untersuchungsdesign zum Abschluss des Kurses vorzustellen. So habe ich mich dann trotz des vollen „Sozialprogramms“ (Stadtführung, Gartenfest, Empfang an der Uni, Postersession etc.) noch dazu gezwungen, neben dem regulären Kurs noch am Untersuchungsdesign für die Dissertation zu arbeiten.

Mein Fazit zu diesen zwei Wochen lautet somit: Ich habe viel dazu gelernt und bin mir überdies meines bereits vorhandenen Wissens besser bewusst geworden. Entscheidend ist für mich aber der erkennbare Fortschritt im eigenen Forschungsvorhaben. Das Untersuchungsdesign ist (fast) fertig und ich habe jetzt die passenden Argumente und das entsprechende Fachvokabular zur Hand, um meine Entscheidungen zu begründen. Soviel schon mal zur Info: Es ist ein Design (Based) Research Ansatz, der auf mehreren Leveln und zu verschiedenen Zwecken qualitative und quantitative Erhebungs- und Analysemethoden integriert und kombiniert. In den nächsten Wochen werde ich mein „Research Proposal“ ausformulieren. … und dann natürlich auch mehr darüber berichten!

Interessiert bin ich auch an euren Meinungen und Erfahrungen zum Thema Mixed Methods: Habt ihr selber schon mehrere Methoden in einem Forschungsvorhaben verwendet? Findet ihr, dass zur Gestaltung solcher Untersuchungsdesigns ein spezifisches Vokabular und eine besondere Herangehensweise notwendig ist? (Im Kurs wies die Dozentin z.B. immer darauf hin, dass Kreativität wichtig ist, aber es muss „informed creativity“ sein, sonst resultiert „Mickey Mouse Research“.) Sollte man überhaupt Methoden (unterschiedlicher Paradigmen) kombinieren? Oder ist das selbstverständlich und „Mixed Methods“ nur ein Modewort dafür? Ich bin gespannt auf eure Posts!