|
|
| (59 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) |
| Zeile 1: |
Zeile 1: |
| − | == Grundlagen ==
| + | #REDIRECT [[E-Assessment]] |
| − | [[Bild:Pruefungsformen.png|thumb|400px|Abgrenzung traditioneller und elektronischer Prüfungsformen (Quelle: Cornelia Rüdel, '''Was ist eAssessment''', eLMAGAZIN)]] | |
| − | | |
| − | === Elektronische Prüfung ===
| |
| − | Der Begriff ''elektronische Prüfung'' bezeichnet eine Leistungsbeurteilung unter Zuhilfenahme von Informations- und Kommunikationstechnologien (IKT). Hierbei unterstützen die eingesetzten IKT insbesondere die Vorbereitung, Durchführung und Auswertung dieser Beurteilung.
| |
| − | | |
| − | === E-Klausur ===
| |
| − | Eingeschränkt wird die elektronische Prüfung durch den Begriff ''E-Klausur'', welcher speziell die elektronisch unter Aufsicht durchgeführte und (teil-)automatisiert ausgewertete Klausur zur Leistungsbeurteilung und -bescheinigung unter Nutzung der Infrastruktur (Personal, Räume, Netzwerke usw.) einer Bildungseinrichtung beschreibt.
| |
| − | | |
| − | === eAssessment ===
| |
| − | Schließlich kann man noch das allgemeinere ''eAssessment'' abgrenzen, dass den "end-to-end process where ICT is used for the presentation of assessment and the recording of responses" laut Joint Information System Committee (JISC) umfasst.
| |
| − | | |
| − | == Kritische Betrachtung ==
| |
| − | | |
| − | === Vorteile und Mehrwerte ===
| |
| − | * Multimediale Möglichkeiten (Audio, Video, Diagramme)
| |
| − | * Bessere Lesbarkeit der Antworten (Tippgeschwindigkeit)
| |
| − | * Mischen von Fragen/Antworten erschwert Täuschungen
| |
| − | * Mehr Auswertungsobjektivität, weniger subj. Einflüsse
| |
| − | * Zeitersparnis durch (teil-)automatisierte Auswertung
| |
| − | * Schnellere Bewältigung großer Prüfungszahlen möglich
| |
| − | * Vergleich der Leistungen ist einfacher/übersichtlicher
| |
| − | * Schwierigkeit, Trennschärfe & Homogenität auswertbar
| |
| − | * Übertragung von Ergebnissen weniger fehleranfällig
| |
| − | * Stufenförmige Prüfungsverläufe modellierbar
| |
| − | * Digitale Archivierung von Ergebnissen und Lösungen
| |
| − | * Aufbau wiederverwendbarer Fragepools (Lehrverbund)
| |
| − | * Ergebnisse können beliebig oft (spurlos) bearbeitet werden
| |
| − | | |
| − | === Nachteile und Herausforderungen ===
| |
| − | * Umfangreiche Vorarbeiten (Fragepools erstellen, etc.)
| |
| − | * Hohe Kosten/Investitionen für fixe Lösungen
| |
| − | * Abhängigkeit von Full-Service-Anbietern
| |
| − | * Anfälligkeit für Pannen, keine 100%-ige Zuverlässigkeit
| |
| − | * Unterschiedliche Kenntnisstände beim Umgang mit IKT
| |
| − | * Neue Manipulationsformen erfordern zusätzliche Sicherheitskonzepte (Chat, Netzzugriff, etc.)
| |
| − | * Unzureichende Flexibilität der Prüfungsordnungen
| |
| − | * Hoher Aufwand zur Herstellung von Rechtssicherheit
| |
| − | * Geforderte langjährige Archivierung fraglich (Träger?)
| |
| − | * Einziger Standard (IMS QTI) wird kaum unterstützt
| |
| − | * System soll „Mitwachsen“ mit steigenden Anforderungen
| |
| − | * Automatische Auswertung nicht überall sinnvoll/geeignet
| |
| − | * Aut. ausw. Wissen „Fehlentwicklung“ der HS-Didaktik
| |
| − | | |
| − | == Aufgaben ==
| |
| − | | |
| − | === Allgemeine Aufgabentypen (nach Vogt/Schneider) ===
| |
| − | | |
| − | ==== Geschlossene Aufgaben (geben Antworten vor) ====
| |
| − | * True/False
| |
| − | * Single- und Multiple-Choice,
| |
| − | * Forced-Choice (per Drop-Down-Liste)
| |
| − | * Bildmarkierung (per Hot Spot)
| |
| − | * Zuordnungsaufgabe, Spezialfall: Sortieraufgabe
| |
| − | | |
| − | ==== Offene Aufgaben (verlangen Reproduktionsleistung) ====
| |
| − | * Kurztext (1-2 Wörter), Spezialfall: Zahlenangabe
| |
| − | * Langtext (schwierig ohne Computererfahrung)
| |
| − | * Teilmenge (begrenzte Zahl an Lösungswörtern aus größerer Zahl richtiger Antworten ermitteln)
| |
| − | * Lückentext (als Aneinanderreihung von Kurztextaufgaben oder Forced Choice)
| |
| − | | |
| − | === Aufgabenstellung mit Neuen Medien ===
| |
| − | * Markierung bestimmter Bereiche in Bildern
| |
| − | * Einbettung von Videos oder Tonaufnahmen
| |
| − | * Zufällige Grundwerte bei Berechnungsaufgaben
| |
| − | * Stufenförmige Fragestellungen (z.B. Medizin)
| |
| − | * Mündliche Antwort/Aufnahme per Mikrofon (z.B. Sakai)
| |
| − | * Adaptive Tests möglich
| |
| − | * Zufällige Reihenfolge von Fragen und Antworten
| |
| − | | |
| − | == Beispiele für E-Klausur-Systeme ==
| |
| − | | |
| − | === Open Source ===
| |
| − | * Online eXam (ILIAS)
| |
| − | * Test/Prüfungsfunktionen in Moodle
| |
| − | * ViPS (Stud.IP)
| |
| − | * sakai.samigo (Sakai)
| |
| − | | |
| − | === Kommerziell ===
| |
| − | * Vista Quiz (Blackboard/WebCT)
| |
| − | * CLIX Advanced Testing and Assessment
| |
| − | * LTMS Testmaker System (Lplus)
| |
| − | * Q-Exam (Codiplan)
| |
| − | * Respondus (WebCT)
| |
| − | * Questionmark Perception (Telerat GmbH)
| |
| − | | |
| − | == Lösungsansätze ==
| |
| − | | |
| − | === Feste Räume, fest installierte Hardware ===
| |
| − | * z.B. Testcenter Bremen, 1 Raum, 130 Plätze, LPLUS
| |
| − | | |
| − | === Feste/variable Räume mit Laptops der Studierenden ===
| |
| − | * z.B. FU Berlin, 4 Räume, 221 Plätze, Blackboard bzw. „Statistik-Labor“ mit Safe Exam Browser (SEB)
| |
| − | | |
| − | === Feste/variable Räume mit Leihgeräten ===
| |
| − | * z.B. MHH, 165 mobile Tablet-PCs, Q-Exam
| |
| − | | |
| − | === Prüfung mit vorhandenem LMS ===
| |
| − | * z.B. Uni Mainz, 4 Räume, 450 Plätze, ILIAS mit SEB
| |
| − | * z.B. Uni Osnabrück, CIP-Cluster, Stud.IP mit ViPS
| |