View
2
Download
0
Category
Preview:
Citation preview
Heinrich-Heine-Universität Düsseldorf
KUBUS-Programm
Abschlussbericht
studentische Online-Befragung
der KUBUS-Workshops
im Wintersemester 2009/2010
2
Heinrich-Heine-Universität Düsseldorf
KUBUS-Koordination
Universitätsstr. 1
Geb. 23.02, Ebene 02, Raum 26
40225 Düsseldorf
Tel.: 0211 / 81-12 42 7
kubus@uni-duesseldorf.de
www.kubus-programm.de
Hrsg.: Dominique Brasseur, Holger Ehlert
Unter Mitarbeit von Rajiv Strauss, Katja Wohlfeil und Roman Krüger.
3
Inhalt Seite
1. Einleitung 4
2. Rahmenbedingungen der Erhebung 4
2.1 Fragebogen 6
2.2 Datenbasis 7
2.3 Zeitplan 7
2.4 Rücklauf 7
3. Ergebnisse 8
4. Anlagen 10
- Anlage I: Evaluationsbogen 10
- Anlage II: Evaluationsergebnisse 16
4
1. Einleitung
Die Ursprünge des heutigen KUBUS-Programmes lassen sich mittlerweile fast zwei
Jahrzehnte zurück verfolgen. Schon zu Beginn der neunziger Jahre haben die
Verantwortlichen durch systematische und anonyme Befragungen von Studierenden
die Grundlagen geschaffen, um ein anforderungsprofilorientiertes und somit
erfolgreiches Programm zur Praxis- und Berufsorientierung an der Heinrich-Heine-
Universität Düsseldorf zu etablieren.
Die KUBUS-Koordination setzt daher bis heute besondere Prioritäten auf
Studierendenpartizipation in Fragen der Programmkonzeption und einer kontinuier-
lich und auf allen Ebenen durchgeführten Veranstaltungsevaluation durch die Teil-
nehmerinnen und Teilnehmer.
Wie in allen bislang durchgeführten Evaluationen des KUBUS-Programms können
sich auch die Ergebnisse der hier dokumentierten Befragung der KUBUS-
Studierenden des Wintersemesters 2009/2010 in die Reihe des erfreulich deutlich
positiven Feedbacks einordnen lassen. Im Rahmen des KUBUS-Programms dienen
Evaluationsergebnisse nicht allein als Veranstaltungsfeedback für die Dozierenden,
sondern bilden darüber hinaus auch eine relevante Entscheidungsgrundlage für die
zukünftige Erteilung von Lehr- oder Honoraraufträgen durch die KUBUS-
Koordination. Konsequent wird hier die studentische Veranstaltungsbewertung zu
einem wichtigen Maßstab für die Lehrbeauftragtenplanung der Folgesemester
erhoben. Die kontinuierlich positiven Gesamtergebnisse bestätigen ganz offensicht-
lich diesen KUBUS-Kurs.
2. Rahmenbedingungen der Erhebung
Neben den Vorgaben des Hochschulfreiheitsgesetzes regelt die „Ordnung zur
Evaluation von Studium und Lehre“ der Heinrich-Heine-Universität vom 17.7.2007
die hochschulinternen Evaluationsverfahren.
Im Wintersemester 2009/2010 ist die KUBUS-Koordination erstmals für die
Durchführung der Evaluation von Lehrveranstaltung selbst verantwortlich und führt
5
entsprechende Befragungen der KUBUS-Studierenden im Online-Verfahren durch.1
Technisch wird auf die seitens der Verwaltung der HHUD aktuell eingesetzte
Evaluationssoftware EvaSys zurückgegriffen, welche derzeit in Kombination mit
HIS/LSF die Grundlage für alle Studierendenbefragungen in diesem Rahmen bildet.
Die KUBUS-Koordination hat sich bei der Erstellung der Fragebögen maßgeblich an
den Richtlinien zur Evaluation der Gesellschaft für Evaluation e.V. (DeGEval)
orientiert. Dementsprechend wird Transparenz im Rahmen aller Evaluations-
aktivitäten bei KUBUS besonders groß geschrieben. So veröffentlicht KUBUS neben
Berichten generell auch alle Profillinien der einzelnen Veranstaltungsbefragungen auf
der KUBUS-Homepage unter: www.kubus-programm.de. Die jeweiligen Lehrenden
erhalten individuell alle Rohdaten und Freitextantworten zu Ihren Veranstaltungen.
Selbstverständlich stehen wir auch gerne persönlich zur Verfügung, um
Sonderwünsche, zum Beispiel im Bereich Verknüpfungen von Fragen, Einzel-
auswertungen etc., zu realisieren. Im Rahmen des Datenschutzes werden lediglich
Namensnennungen durch die Studierenden in Freitextantworten nicht der Öffentlich-
keit zugänglich gemacht.
Grundsätzlich bitten wir alle Interessierten um Verständnis, dass auch für die
KUBUS-Koordination die selbstverständliche Evaluation des KUBUS-Programmes
durch unsere Studierenden nur ein Aufgabenbereich unter vielen Arbeitsbereichen
ist. Trotz der hohen Wertigkeit die wir dieser Qualitätssicherungsverpflichtung
zuschreiben und des unsererseits hohen Engagements in diesem Kontext, sind wir
im Rahmen dieser komplexen Daueraufgabe nicht vor Fehlern gefeit und daher für
diesbezügliche Hinweise und Verbesserungsvorschläge generell sehr dankbar.
Befragt wurden alle teilnehmenden Studierenden der KUBUS-Workshops im
Wintersemester 2009/2010. Die Rücklaufquote der online versendeten Fragebögen
aus allen Fakultäten der Heinrich-Heine-Universität betrug 16%. Lediglich bezüglich
der Medizin-Studierenden unserer Hochschule wurden keine Erhebungen
eingerechnet, da hier aufgrund einer organisatorischen Panne im Bereich des
Anmeldeverfahrens keine nennenswerte Anzahl von Studierenden die Angebote
frequentiert hat und insofern auch keine validen Daten erhoben werden konnten. In 1 Ausgenommen Praxisfelderseminar und Praxisforen. Ab Sommersemester 2010 werden auch diese
Veranstaltungen in das zentrale Online-Evaluationsverfahren integriert.
6
Abstimmung mit dem Studiendekanat der Medizinischen Fakultät wird diese
Ausnahmesituation bereits im Wintersemester 2010/2011 erhebungs- und partizipa-
tionsrelevant beendet sein.
2.1 Fragebogen
Im Rahmen der Erhebung wurde ausschließlich ein Fragebogen eingesetzt (siehe
Anlage I). Dieser Bogen beinhaltet 36 Items und lässt sich in fünf Fragerubriken
kategorisieren:
• Angaben zur Person
• Nichtteilnahme
• Konzeption, Umsetzung
• Betreuung, Raumbedingungen
• Gesamtbewertung
Der Großteil der Items wird auf einer fünfstufigen Skala beantwortet, wobei die
Endpunkte der Skala mit „trifft zu“ und „trifft nicht zu“ definiert werden.
In der letzten Fragerubrik „Gesamtbewertung“ wurde den Evaluationsteilnehmern die
Möglichkeit zur Freitextantwort gegeben, um ein nicht fragendeterminiertes
Feedback formulieren zu können. Zudem konnten die Teilnehmerinnen und
Teilnehmer den Fragebogen an sich beurteilen, um so die Art und Weise künftiger
Evaluationen des KUBUS-Programms intern zu optimieren. Auch die Freitext-
antworten sind summa summarum überaus positiv und werden in Kürze im Rahmen
der Ergebnisse zu den einzelnen Workshops anonymisiert online gestellt.
Der zeitliche Aufwand für die Beantwortung des originären Fragebogens beläuft sich
nach internen Tests auf ca. fünf bis sieben Minuten.
7
2.2 Datenbasis
Als Datenbasis für die vorliegende Evaluation fungieren alle Rücksendungen der
Studierenden, die sich über das HIS-LSF für die einzelnen KUBUS-Workshops
online angemeldet hatten und von der KUBUS-Koordination zugelassen wurden.
Für das KUBUS-Programm – inklusive der Teilnehmerinnen und Teilnehmer des
Praxisfeldseminars und der Praxisforen – meldeten sich im Wintersemester
2009/2010 1.665 Studierende an (zugelassen 1.390).
2.3 Zeitplan
KUBUS-Studierende erhalten zeitnah nach Veranstaltungsende per Email einen
Evaluationsbogen und ein entsprechendes Begleitschreiben. Studierende ohne
Rückmeldung erhalten zudem bis zu zwei weitere „Erinnerungsmails“ seitens der
KUBUS-Koordination.
Die ersten Befragungen des Wintersemesters wurden am 1.4.2010 gestartet, die
letzten am 6.6.2010.
2.4 Rücklauf
Die Rücklaufquote der vorliegenden Erhebung liegt bei durchschnittlich 16%.
Insgesamt betrachtet lassen sich bezogen auf die einzelnen Veranstaltungen
unterschiedliche Rücklaufquoten konstatieren. Die höchste Rücklaufquote erreichte
mit einem Wert von 29% der Workshop „Journalistisches Schreiben“. Bei zwei
Workshops konnte trotz der vorgenannten Erinnerungsmails leider kein Rücklauf
verzeichnet werden. Auch im Vergleich mit professionell durchgeführten Daten-
erhebungen kann somit bezüglich der Rücklaufquote von einer ausgesprochen
validen Erhebungsgrundlage gesprochen werden. Hier gilt es auch hervorzuheben,
dass die KUBUS-Evaluation ohne jede Integration von zusätzlichen Anreiz-
komponenten – wie zum Beispiel Verlosungen von Preisen unter den Befragten –
durchgeführt worden ist und insofern mögliche Rücklaufquotenvergleiche um diesen
Aspekt bereinigt werden sollten. Selbstverständlich wird es aber seitens der KUBUS-
8
Koordination als Daueraufgabe betrachtet, die Rücklaufquoten seitens der studen-
tischen Teilnehmerinnen und Teilnehmer des Programms weiter zu erhöhen.
3. Ergebnisse
Das EvaSys-Programm ermöglicht die Zusammenfassung der Ergebnisse jedes
einzelnen Workshops im Rahmen einer entsprechenden Gesamtauswertung.
Die Ergebnisse der Auswertung von Skala-Fragen werden unter dem Prinzip der
Mittelwertbildung dargestellt. Dass heißt, dass pro Skala-Frage zwischen den beiden
Polen „trifft zu“ und „trifft nicht zu“ fünf Werte ausgewählt werden konnten, wobei der
erste Wert neben „trifft zu“ den positiven und der nächste Wert zu „trifft nicht zu“ den
negativen Wert bezeichnen. Um den Evaluationsbericht in einer gut verständlichen
Formulierung zu halten, werden die fünf Skalenwerte mit Wert 1 bis 5 bezeichnet.
Dabei stellt „1“ den besten und „5“ den schlechtesten Wert dar. Demzufolge gilt, dass
je niedriger ein Wert ist, desto besser ist die Bewertung zu deuten. Dabei werden
folgende Gesamtergebnisse deutlich:
• Alle Werte liegen im positiven Bereich; kein einziger Mittelwert liegt über 3.
• Die beste Bewertung erhält die Frage nach der Weiterempfehlung des KUBUS-
Programms. 86,4% der Evaluationsteilnehmerinnen und -teilnehmer beantworten
diese Frage mit dem positivsten Wert. Insgesamt wurde ein Mittelwert von 1.2
ermittelt.
• Eine große Mehrheit der Befragungsteilnehmerinnen und -teilnehmer hält den
Besuch eines KUBUS-Workshops im Rahmen ihres Studiums für sinnvoll.2
• In einer Notenskala von 1 bis 5, wobei die Note 1 die beste und die Note 5 die
schlechteste Note darstellen, hatten die Befragten die Möglichkeit, ihren je-
2 Die zu diesem Item zugehörige Skala-Frage fällt mit dem Mittelwert von 4.2 zunächst negativ auf. Da
es sich jedoch um eine Kontrollfrage mit negativer Formulierung handelt, ist dieser Mittelwert ins positive umzukehren. Konkret bedeutet dies, dass 57,7% der Evaluationsteilnehmer und -teil-nehmerinnen den besten Skalenwert und 20,5% den zweitbesten Skalenwert gewählt haben.
9
weiligen Workshop zu bewerten. 40% der Studierenden vergaben die Note 1 und
ebenfalls 40% die Note 2. Folglich ist festzuhalten, dass insgesamt die einzelnen
Workshops überdurchschnittlich (80%) gut bewertet wurden.
• In der Gesamtauswertung fällt zudem die positive Bewertung der Dozentinnen
und Dozenten auf. Aus 78% der ausgewerteten Evaluationsbögen ging hervor,
dass die Studierenden ohne Einschränkung einen Workshop des jeweiligen
Dozenten / der jeweiligen Dozentin wieder besuchen würden. Die Zufriedenheit
ist demnach in der Gesamtschau der Workshops ausgesprochen hoch.
• Den höchsten Rücklauf erhielt die KUBUS-Koordination mit einem Anteil von
61,6% von den Studierenden der Philosophischen Fakultät. Immerhin 32,8% der
Workshopteilnehmerinnen und -teilnehmer aus der Mathematisch-Naturwissen-
schaftlichen Fakultät beteiligten sich an der Evaluation.
• Einen ebenfalls sehr guten Mittelwert von 1.5 erhielt die Frage nach dem Bedarf
bezüglich eines KUBUS-Master-Moduls (68,3 % Zustimmung).
• Aus dem Personenkreis der online angeschriebenen Studierenden haben zu
74,6% Studentinnen und zu 25,4% Studenten geantwortet. Eine Ursache für
diesen Wert ist der hohe Anteil von Studentinnen an der Heinrich-Heine-
Universität insgesamt. Die Relation an der Universität beträgt rund 60%
Studentinnen und 40% Studenten.3 Damit liegt zwar der Anteil der Studentinnen
bei der Teilnahme am KUBUS-Programm signifikant höher als der gesamte
Frauenanteil der Studierenden an der Universität. Unter Berücksichtigung der
Tatsache, dass das KUBUS-Programm aufgrund der Entstehungshistorie noch
mehrheitlich von Studierenden der Philosophischen Fakultät genutzt wird, welche
wiederum einen sehr hohen Anteil an Studentinnen aufweist, ist dieses Ergebnis
wenig überraschend.
In der Anlage II ist anhand der Mittelwerte ein Vergleich der Profillinien der
Antworten der Gesamtevaluationen und der männlichen Studierenden darge-
stellt. Die beiden Profillinien verlaufen nahezu identisch. Folglich sind keine 3 Zahlen aus: Gerken, J./Sossna, A: Die Universität in Zahlen 2008/2009, Juli 2009. Zu finden unter: http://www.uni-duesseldorf.de/home/Ueber_uns/daten/Die_Universitaet_in_Zahlen,
abgerufen am 9.6.2010.
10
Unterschiede in der Bewertung des KUBUS-Programms zwischen Studentinnen
und Studenten konstatierbar.
• Ein ähnlicher Vergleich solcher Profillinien lässt sich zwischen der
Gesamtevaluation und der Auswertung der nicht deutschsprachigen Evaluations-
teilnehmerinnen und -teilnehmern anstellen. Beide Profillinien verlaufen mit sehr
geringen Abweichungen voneinander, was zeigt, dass die Workshops insgesamt
von den Studierenden – unabhängig von den sprachlichen Kompetenzen – gut
aufgenommen werden. Einige Aspekte werden sogar leicht positiver bewertet als
in der Gesamtbewertung. So zum Beispiel bei der Frage, wie gut der Workshop
insgesamt gefallen hat oder bei der Einschätzung, dass der gelernte Inhalt
wichtig für das spätere Berufsleben sei. Die Skala-Frage „Das Arbeitstempo des
Workshops war für mich genau richtig“ bekommt einen guten Mittelwert von 1.8.
• Das Feedback der Evaluationsteilnehmerinnen und -teilnehmer mit Fehlzeiten
oder Stornierungen ist ebenso sehr aufschlussreich. Die Hälfte der Nicht-
teilnehmer musste die Veranstaltungsteilnahme aufgrund von Überschneidungen
mit außeruniversitären Arbeitsverpflichtungen absagen. 76,9% beabsichtigen
hier jedoch, sich nächstes Semester erneut für einen Workshop anzumelden.
11
4. Anlagen
Anlage I: Evaluationsbogen
12
13
14
15
16
Anlage II: Evaluationsergebnisse
17
18
19
20
21
22
23
24
25
26
Recommended