E-Prüfung: Unterschied zwischen den Versionen

Aus E-Assessment-Wiki
Wechseln zu:Navigation, Suche
(Charakteristika elektronischer Prüfungen)
(Charakteristika elektronischer Prüfungen)
Zeile 73: Zeile 73:
 
* '''Bewertung''': Die Auswertung von Eingaben erfolgt, jeweils abhängig vom Aufgabentyp, entweder manuell, teilweise oder vollständig automatisiert. Eine Beurteilung der Ergebnisse liegt im didaktischen Ermessen des Lehrenden, insofern nicht in einer Ordnung oder Moduldeskriptor anders vorgeschrieben. Traditionell findet dazu die Abbildung erreichter Punkte auf eine vorgegebene Notenskala statt. Innovative Formen beziehen z.B. das Lernerkollektiv in die Bewertung von Einzelleistungen ein, um ihr Qualitätsbewusstsein zu schulen. Prüflinge können ihre Antworten aber auch selbst beurteilen, z.B. im Rahmen von [[confidence-based marking]] (siehe dazu u.a. Gardner-Medwin & Gahan<ref>A.R. Gardner-Medwin, M. Gahan: ''Formative and Summative Confidence-Based Assessment'', in: ''Proceedings of the 7th CAA Conference'', S. 147-155, Loughborough University, Loughborough, 2003, [https://dspace.lboro.ac.uk/dspace-jspui/bitstream/2134/1910/1/gardner-medwin03.pdf Download als PDF] (Abgerufen am 15.07.2010)</ref>). Hierbei machen sie über ihre Antworten hinaus noch Angaben zum eigenen Zutrauen in diese Antworten.  
 
* '''Bewertung''': Die Auswertung von Eingaben erfolgt, jeweils abhängig vom Aufgabentyp, entweder manuell, teilweise oder vollständig automatisiert. Eine Beurteilung der Ergebnisse liegt im didaktischen Ermessen des Lehrenden, insofern nicht in einer Ordnung oder Moduldeskriptor anders vorgeschrieben. Traditionell findet dazu die Abbildung erreichter Punkte auf eine vorgegebene Notenskala statt. Innovative Formen beziehen z.B. das Lernerkollektiv in die Bewertung von Einzelleistungen ein, um ihr Qualitätsbewusstsein zu schulen. Prüflinge können ihre Antworten aber auch selbst beurteilen, z.B. im Rahmen von [[confidence-based marking]] (siehe dazu u.a. Gardner-Medwin & Gahan<ref>A.R. Gardner-Medwin, M. Gahan: ''Formative and Summative Confidence-Based Assessment'', in: ''Proceedings of the 7th CAA Conference'', S. 147-155, Loughborough University, Loughborough, 2003, [https://dspace.lboro.ac.uk/dspace-jspui/bitstream/2134/1910/1/gardner-medwin03.pdf Download als PDF] (Abgerufen am 15.07.2010)</ref>). Hierbei machen sie über ihre Antworten hinaus noch Angaben zum eigenen Zutrauen in diese Antworten.  
  
* '''Feedback''': Schließlich ist festzulegen, welche Rückmeldung die Prüflinge erhalten sollen. Feedback kann schriftlich erfolgen oder in einem Gespräch mit dem Bewertenden. Darüber hinaus ist zu überlegen, wie detailliert das Feedback sein muss. Die Reichweite reicht von einem „hat bestanden“ bis hin zu einer detaillierten Analyse von Schwachstellen mit einer individuellen Beratung. Ein solches Feedback kann z.B. direkt im Anschluss an die Abgabe oder erst nach abschließender Qualitätskontrolle durch den Lehrenden erfolgen (der dann vielleicht noch den Notenspiegel aufgrund der per Itemanalyse ermittelten Frageschwierigkeiten anpassen kann). Der Lehrende erhält durch die Antworten und statistischen Auswertungen der Eingaben ebenfalls ein Feedback, was besonders gut verstanden wurde und welche Inhalte vielleicht noch einmal aufgegriffen oder wiederholt werden sollten.  
+
* '''Feedback''': Prüflinge können direkt im Anschluss an die Prüfung eine Rückmeldung erhalten oder erst verzögert, z.B. nach einer Qualitätskontrolle durch die Lehrenden (die dabei vielleicht den Notenspiegel aufgrund der per Itemanalyse ermittelten Aufgabenschwierigkeit anpassen). Sie kann schriftlich erfolgen als automatische Antwort eines Prüfungssystems oder mündlich durch den Bewertenden, der dabei individuelle Probleme anspricht. Die Reichweite des Feedbacks reicht von einem "`hat bestanden"' bis zur detaillierten Analyse von Schwachstellen mit einer individuellen Beratung. Durch die Antworten und statistischen Auswertungen erhalten Lehrende ebenfalls Feedback. Dadurch erfahren sie, welche Aufgaben besonders schwierig waren, was besonders gut verstanden wurde und welche Inhalte noch einmal aufgegriffen oder wiederholt werden sollten.  
  
 
Abhängig von der Ausgestaltung dieser dargestellten Charakteristika sind unterschiedliche [[Einsatzszenarien]] von E-Prüfungen vorstellbar.
 
Abhängig von der Ausgestaltung dieser dargestellten Charakteristika sind unterschiedliche [[Einsatzszenarien]] von E-Prüfungen vorstellbar.

Version vom 7. Juni 2012, 08:05 Uhr

Begriffsdiskussion

Abgrenzung traditioneller und elektronischer Prüfungsformen nach [1]

Eine elektronische Prüfung (E-Prüfung) ist eine Prüfung, bei der Informations- und Kommunikationstechnologien (IKT) eingesetzt werden. Diese können bei der Aufgabenstellung, Leistungserbringung sowie Leistungsbeurteilung eingesetzt werden, beziehen sich also auf Vorbereitung, Durchführung und/oder Auswertung der Prüfung. Durch (teil-)automatisierte Auswertung ist effizientes Feedback möglich, das Lernende zur besseren Selbsteinschätzung und Lehrende zur Aufdeckung von Defiziten nutzen können, jeweils mit Möglichkeit zur Nachbesserung.

E-Klausur

Spezialfall einer E-Prüfung ist die elektronische Klausur (E-Klausur), die eine Leistung summativ bewerten bzw. benoten soll. E-Klausuren haben damit eine Relevanz für den weiteren Studienverlauf, da ein Studium nach mehrmaligem Scheitern im schlimmsten Fall beendet sein kann. Aus dem Grund werden besonders hohe Anforderungen an ihre Rechtssicherheit gestellt.

Mehr zu E-Klausuren...

E-Assessment

Ein weiterer Spezialfall von E-Prüfungen ist das elektronische Assessment (E-Assessment), bei dem die eingesetzten IKT den Lernprozess unterstützen. Auffällig dabei ist, dass die IKT insbesondere bei der Leistungserbringung eingesetzt werden. Dazu zählen elektronische Verfahren, die den klassischen Leistungsnachweisen ebenbürtig sind, z.B. Weblogs anstelle von Studientagebüchern, aber auch der Einsatz elektronischer Werkzeuge zur Simulation typischer Anwendungssituationen wie die Modellierung mathematischer Konstrukte mit MAPLE oder die Eclipse-Plattform für Programmieraufgaben. Eine Einordnung der Begriffe und Gegenüberstellung von elektronischen mit traditionellen Verfahren ist z.B. bei [1] zu finden (siehe dazu auch die Abb. auf der rechten Seite).

Einsatz

Die elektronischen Prüfungen, von denen hier die Rede ist, sollen im Sinne von Blended Learning eingesetzt werden. Sie sollen klassische Klausuren nicht ablösen (zumindest nicht vorrangig), sondern als weiteres Instrument zur Anreicherung der Hochschullehre zur Verfügung stehen. Damit können sie, insofern didaktisch sinnvoll eingesetzt, siehe u.a. [2], zur Verbesserung der Qualität der Lehre beitragen, wobei die Qualität in diesem Fall z.B. in einer effizienten Auswertung, schnellem Feedback oder einer motivierenden Wirkung auf Studierende gemessen werden kann.

Mehr zu Einsatzszenarien für E-Prüfungen...

Elektronische Leistungsmessung nach Professionalisierungsgrad

Professionalisierungebenen in Anlehnung an Miller[3]

Miller[3] identifiziert vier Ebenen (proficiency levels), die Lernende beim Aufbau von Fertigkeiten durchlaufen. Diese Ebenen bauen jeweils aufeinander auf und repräsentieren den Grad der Professionalisierung eines Lernenden auf dem Weg vom Anfänger zum Experten. Während die unteren Ebenen Theorie und Erkenntnisgewinn (Cognition) beschreiben, repräsentieren die darüber liegenden Ebenen deren Umsetzung in die Praxis (Behaviour). Die elektronische Leistungsmessung richtet sich nach dem Grad der Professionalisierung und muss daher an die jeweilige Ebene angepasst sein.

  • Knowledge (Wissen): Grundlage der Professionalisierung ist das Wissen um Fakten und Konzepte. Um deren Verständnis abzufragen, verwenden zugehörige Messungen z.B. Multiple-Choice-Aufgaben. Ein Beispiel ist das Konzept „Rechts vor Links“, dessen Grundlagen bei der Führerscheinprüfung behandelt werden.
  • Competence (Problemlösung): Im darauf aufbauenden Schritt kann ein Lernender das vorhandene Faktenwissen zur Problemlösung einsetzen. In diesem Fall sind situationsbezogene Prüfungen oder Fallbeispiele sinnvoll, die eine angemessene Anwendung bereits gelernter Fakten überprüfen können. Beispiel aus der Führerscheinprüfung ist die Darstellung einer Verkehrssituation mit der Frage, was in diesem Fall zu tun ist.
  • Performance (Fertigkeiten): Die folgende Ebene umfasst praktische Fertigkeiten eines Lernenden; sie verlässt den reinen Erkenntnisbereich und bezieht sich auf erlerntes Verhalten. Hier geht es darum, Handlungsweisen nicht nur zu beschreiben oder verstanden zu haben, sondern diese gezielt erbringen zu können. Möglichkeiten, um das elektronisch zu überprüfen, bieten z.B. virtuelle Labore oder Simulatoren. So könnte man bei der Führerscheinprüfung z.B. einen Fahrsimulator einsetzen, um die Fahrtüchtigkeit der Prüflinge zu erproben..
  • Action (Können): Als Experte wendet der Lernende schließlich Wissen, Problemlösekompetenz und Fertigkeiten in der Praxis an. Durch Beobachtung und Aufzeichnung kann dieses Verhalten bestimmt und analysiert werden. Beispiele sind Fahrtenschreiber in Fahrzeugen, Black Boxes in Flugzeugen oder die Videoanalyse von Bewegungsabläufen bei Sportlern, um Optimierungspotential aufzudecken.

Reine Wissensprüfungen bergen die Gefahr, dass man Prüflingen aufgrund ihres Wissens (träges Wissen) fälschlicherweise Können zuschreibt bzw. umgekehrt vermutet, dass wenn bestimmtes Wissen (implizites Wissen) fehlt, auch zugehöriges Können nicht vorhanden ist. [4] Bei einer idealen Prüfung wählt der Prüfende daher einen Prüfungstyp, der dem jeweiligen Professionalisierungsgrad entspricht. Für Hochschulen bedeutet dies, dass die Möglichkeiten für den Einsatz elektronischer Prüfungen davon abhängen, wie praxisorientiert sie ausbildet.

Kritische Betrachtung

Vorteile und Mehrwerte

  • Multimediale Elemente integrierbar (Audio, Video, Animation)
  • Antworten sind besser lesbar (aber abhängig von der Tippgeschwindigkeit)
  • Mischen von Fragen/Antworten nach Zufallsprinzip erschwert Täuschungen
  • (Teil-)automatisierte Auswertung spart Korrekturzeit (setzt aber korrekte Antworten voraus)
  • Mehr Auswertungsobjektivität, weniger subjektive Einflüsse
  • Vergleich von Leistungen ist einfacher/übersichtlicher
  • Qualität von Fragen leichter zu untersuchen (Item-Analyse)
  • Übertragung von Ergebnissen (z.B. in Prüfungsverwaltungssysteme) weniger fehleranfällig
  • Stufenförmige & adaptive Prüfungsverläufe sind modellier- und realisierbar
  • Fragepools wiederverwendbar & austauschbar (z.B. Lehrverbund, Weiterentwicklung bzw. Ausbau denkbar)
  • Antworten beliebig oft (spurlos) durch Prüflinge änderbar
  • Prüfung mit Ergebnissen ist digital archivierbar

Nachteile und Herausforderungen

  • Umfangreiche Vorarbeiten sind nötig (Fragepools erstellen, etc.)
  • Hohe Kosten/Investitionen für den Aufbau von Testcentern, Prüfungsräumen, etc.
  • Im Falle von Outsourcing: völlige Abhängigkeit von Full-Service-Anbietern
  • Anfälligkeit für Pannen, keine 100%-ige Zuverlässigkeit (z.B. bei Stromausfall)
  • Unterschiedliche Kenntnisstände (von Prüflingen und Prüfern) beim Umgang mit IKT, Schulungen und Probeklausuren notwendig
  • Neue Manipulationsformen erfordern zusätzliche Sicherheitskonzepte (Chat, USB-, Netzzugriff, etc.)
  • Unzureichende Flexibilität der Prüfungsordnungen
  • Hoher Aufwand zur Herstellung von Rechtssicherheit
  • Geforderte langjährige Archivierung fraglich (Träger?)
  • Einziger Standard (IMS QTI) wird kaum unterstützt
  • Automatische Auswertung nicht überall sinnvoll/geeignet
  • System soll „Mitwachsen“ mit steigenden Anforderungen bzw. hochschul- und fachtypische Anforderungen erfüllen

Charakteristika elektronischer Prüfungen

Charakteristika elektronischer Prüfungen

Um elektronische Prüfungen didaktisch sinnvoll in die Hochschullehre zu integrieren, sollte sich ein Lehrender bereits im Vorfeld Gedanken über die Art und Weise ihres Einsatzes machen. Je nach Ziel und Zweck kann sie unterschiedlich ausgestaltet sein.

  • Zweck: Zielsetzung und Zweck prägen das Wesen einer E-Prüfung maßgeblich. Daher sind zunächst Leistungen und Qualifikationen zu identifizieren, die sie messen soll. Geht es z.B. um Sachkompetenz, kann es reichen, Ergebnisse der gestellten Aufgaben zu erfassen und auszuwerten. Bei Methodenkompetenz ist hingegen der Lösungsweg wichtig, mit dem Prüflinge die Aufgaben bearbeiten, während bei Sozialkompetenz eher ihr Verhalten untereinander im Vordergrund steht.
  • Art: Abhängig von ihrem Bezug zum Lernprozess sind verschiedene E-Prüfungen durchführbar. Diagnostische Prüfungen identifizieren z.B. den Stand der Prüflinge vorab, um Lehre besser zu planen oder passende Kurse zuzuordnen. Formative Prüfungen helfen, den Lernprozess in eine erfolgreiche Richtung zu lenken, während summative Prüfungen den Lernerfolg im Anschluss feststellen. Statische Prüfungen geben eine Schablone vor, in die sich Prüflinge durch ihre Leistungen einordnen, so dass ein Prüfender sie vergleichend beurteilen kann. Adaptive Prüfungen hingegen passen Schwierigkeitsgrad und Themen dynamisch an, um Fähigkeiten oder Schwachstellen von Prüflingen individuell einzugrenzen.
  • Form: Wie im vorab bereits beschrieben, richtet sich die Form einer E-Prüfung nach dem Grad der Professionalisierung. Auf der Ebene der Fakten und Konzepte geht es darum, das Grundlagenwissen der Prüflinge zu bestimmen, z.B. mit Multiple-Choice-Aufgaben. Eine Gegenüberstellung, welche Fragetypen sich hier für welche Lernziele anbieten, findet sich z.B. bei Vogt & Schneider [5]. Um die Anwendung von Fakten und damit die Problemlösefähigkeiten der Prüflinge zu testen, bieten sich situationsbezogene Prüfungen oder Fallbeispiele an. Sollen Prüflinge hingegen erlernte Fertigkeiten zeigen, können sie dies z.B. in Simulatoren oder virtuellen Laboren. Schließlich helfen begleitende Messungen, z.B. Black Boxes, bei der Analyse alltäglicher Abläufe.
  • Prüfender: Der Einsatz von IKT vereinfacht das Einbeziehen Dritter in die Bewertung von Leistungen. Bei klassischen E-Prüfungen geben Lehrende (Teacher Assessment) korrekte Antworten für eine automatisierte Auswertung vor. Sollen sich Prüflinge hingegen selbst einschätzen (Self Assessment), wie z.B. bei Lernfortschrittskontrollen in reinen E-Learning-Einheiten üblich, ist zusätzliches Feedback im Sinne von Lösungswegen oder weiterführenden Hinweise nötig. Die Auswertung von Eingaben durch andere Prüflinge oder Gruppen (Peer/Group Assessment) setzt hingegen Kriterienkataloge voraus, an denen sie diese zur Bewertung orientieren können. Laut Bogner[6] verschmelzen dadurch Lernende und Lernprozess stärker miteinander, was sich positiv auf den Lernerfolg auswirken kann.
  • Ort: Prüfungen auf dem Campus, z.B. innerhalb einer Veranstaltung oder Übung, sind i.d.R. anders gestaltet als Prüfungen von zu Hause aus. Zudem ist von Bedeutung, ob eine Prüfung beaufsichtigt sein muss, weil z.B. Täuschungen erschwert werden sollen, oder ob sie lediglich der Wiederholung dient und an beliebigen Orten stattfinden kann. Feste Prüfungsorte setzen vorinstallierte Arbeitsplätze voraus, z.B. ein Testcenter wie es die Uni Bremen einsetzt. Für mobile Prüfungen kann man z.B. einen Hörsaal mit Tablet-PCs oder Clickern ausstatten, auf dem Teilnehmer ihre Eingaben vornehmen - oder gleich deren Smartphones verwenden.
  • Zeit: Diagnostische oder summative Prüfungen finden i.d.R. einmal pro Lernabschnitt statt, während formative Prüfungen den Lernprozess auch über mehrere Abschnitte hinweg kontinuierlich begleiten. Summative Prüfungen dauern häufig länger, da sie Stoff des gesamten Lernprozesses umfassen, während sich Prüfungen zur Wiederholung oft nur auf den letzten Lernabschnitt beziehen.
  • Bewertung: Die Auswertung von Eingaben erfolgt, jeweils abhängig vom Aufgabentyp, entweder manuell, teilweise oder vollständig automatisiert. Eine Beurteilung der Ergebnisse liegt im didaktischen Ermessen des Lehrenden, insofern nicht in einer Ordnung oder Moduldeskriptor anders vorgeschrieben. Traditionell findet dazu die Abbildung erreichter Punkte auf eine vorgegebene Notenskala statt. Innovative Formen beziehen z.B. das Lernerkollektiv in die Bewertung von Einzelleistungen ein, um ihr Qualitätsbewusstsein zu schulen. Prüflinge können ihre Antworten aber auch selbst beurteilen, z.B. im Rahmen von confidence-based marking (siehe dazu u.a. Gardner-Medwin & Gahan[7]). Hierbei machen sie über ihre Antworten hinaus noch Angaben zum eigenen Zutrauen in diese Antworten.
  • Feedback: Prüflinge können direkt im Anschluss an die Prüfung eine Rückmeldung erhalten oder erst verzögert, z.B. nach einer Qualitätskontrolle durch die Lehrenden (die dabei vielleicht den Notenspiegel aufgrund der per Itemanalyse ermittelten Aufgabenschwierigkeit anpassen). Sie kann schriftlich erfolgen als automatische Antwort eines Prüfungssystems oder mündlich durch den Bewertenden, der dabei individuelle Probleme anspricht. Die Reichweite des Feedbacks reicht von einem "`hat bestanden"' bis zur detaillierten Analyse von Schwachstellen mit einer individuellen Beratung. Durch die Antworten und statistischen Auswertungen erhalten Lehrende ebenfalls Feedback. Dadurch erfahren sie, welche Aufgaben besonders schwierig waren, was besonders gut verstanden wurde und welche Inhalte noch einmal aufgegriffen oder wiederholt werden sollten.

Abhängig von der Ausgestaltung dieser dargestellten Charakteristika sind unterschiedliche Einsatzszenarien von E-Prüfungen vorstellbar.

Literatur

Siehe den Bereich Literatur für eine Gesamtübersicht zum Thema.

  • Daniel Biella, Dieter Huth, Michael Striewe et al.: Organisation und Implementierung PC-gestützter Prüfungen an der Universität Duisburg-Essen, e-teaching.org, 2010, Download als PDF
  • Johannes Hartig, Eckhard Klieme (Hrsg.): Möglichkeiten und Voraussetzungen technologiebasierter Kompetenzdiagnostik, Bildungsforschung Band 20, Bonn/Berlin, 2007, Download als PDF
  • Jona Florian Stieler: Validität summativer Prüfungen - Überlegungen zur Gestaltung von Klausuren, ISBN: 3-938076-36-4, Janus Presse, Bielefeld, 2011, Download als PDF
  • Michael Vogt, Stefan Schneider: E-Klausuren an Hochschulen: Didaktik – Technik – Systeme – Recht – Praxis, Koordinationsstelle Multimedia, JLU Gießen, 2009, Download als PDF
  • Klaus Wannemacher: Computergestützte Prüfungsverfahren, in Michael H. Breitner, Beate Bruns und Franz Lehner (Hrsg.): Neue Trends im E-Learning – Aspekte der Betriebswirtschaftslehre und Informatik, ISBN: 978-3-7908-1917-5, Physica Verlag, Heidelberg, 2007, S. 427-440
  • Carsten Wolf (Hrsg.): E-Assessment, Zeitschrift für E-Learning, Lernkultur und Bildungstechnologie, Nr. 1/2010, ISSN: 1992-9579, Studienverlag, Innsbruck, 2010, Abstract
  • Zentrales eLearning-Büro der Universität Hamburg (Hrsg.): eAssessment, ePrüfungen, ePortfolios, Hamburger eLMAGAZIN, Ausgabe #02, August 2009, Download als PDF
  • Zentrales eLearning-Büro der Universität Hamburg (Hrsg.): eAssessment auf dem Prüfstand, Hamburger eLMAGAZIN, Ausgabe #07, Dezember 2011, Download als PDF

Mehr Literatur...

Weiterführende Informationen

Literaturnachweise

  1. 1,0 1,1 Cornelia Rüdel: Was ist eAssessment?, In: eAssessment, ePrüfungen, ePortfolios, Hamburger eLMAGAZIN, Ausgabe #02, S. 22-24, Zentrales eLearning-Büro der Universität Hamburg, Hamburg, 2009, Download als PDF
  2. Gabi Reinmann: Bologna in Zeiten des Web 2.0 - Assessment als Gestaltungsfaktor, Arbeitsbericht Nr. 16, Universität Augsburg, 2007, Download als PDF
  3. 3,0 3,1 George E. Miller: The Assessment of Clinical Skills/Competence/Performance, in Academic Medicine, Ausgabe 65 (9), S. 63-67, 1990, Download als PDF (Abgerufen am 14.06.2010)
  4. Georg Hans Neuweg: Das Können prüfen - Plädoyer für eine andere Prüfungsdidaktik, in: GdWZ - Grundlagen der Weiterbildung, Ausgabe 12 (2001) 5, S. 202-205, Download als PDF (Abgerufen am 27.05.2010)
  5. Michael Vogt, Stefan Schneider: E-Klausuren an Hochschulen: Didaktik – Technik – Systeme – Recht – Praxis, Koordinationsstelle Multimedia, JLU Gießen, 2009, Download als PDF
  6. Christian Bogner: Studentisches Feedback im Bachelor - Eine empirische Untersuchung zur Effektivität und Qualität eines angepassten Peer-Assessment-Verfahrens, in A. Back, P. Baumgartner, G. Reinmann et al. (Hrsg): zeitschrift für e-learning - lernkultur und bildungstechnologie, ISSN: 1992-9579, Themenheft E-Assessment, S. 36-49, Studienverlag, Innsbruck, 2010
  7. A.R. Gardner-Medwin, M. Gahan: Formative and Summative Confidence-Based Assessment, in: Proceedings of the 7th CAA Conference, S. 147-155, Loughborough University, Loughborough, 2003, Download als PDF (Abgerufen am 15.07.2010)