Aufgabentypen

Aus E-Assessment-Wiki
Version vom 24. September 2012, 12:54 Uhr von Schmees (Diskussion | Beiträge) (Anordnungsaufgabe)
Wechseln zu:Navigation, Suche

Unterscheidungskriterien

Beispiel: Häufigkeit von E-Klausur-Fragen an der Uni Mainz

Im Folgenden sind verschiedene Fragetypen mit Beispielen aufgelistet und Besonderheiten beschrieben. Viele Prüfungstechnologien unterstützen zumindest grundlegende Fragetypen. Eine Gegenüberstellung der verschiedenen Open-Source-Systeme mit jeweils unterstützten Fragetypen findet sich im Funktionsumfang ausgewählter E-Prüfungssysteme.

Die nachfolgend als geschlossenen Fragen beschriebenen Typen geben Antworten vor, die vom Prüfling ausgewählt oder in eine passende Reihenfolge gebracht werden müssen (Wiedererkennens- und Selektionsleistung), während offene Fragen eine Reproduktionsleistung verlangen, da ein Prüfling zugehörige Antworten selbst erstellen muss. Als sonstige Fragen sind die Fragetypen eingeordnet, die über offene Fragen hinaus weitere multimediale Möglichkeiten nutzen. Eine Analyse verschiedener Frageformate und zugehöriger Lehrziele findet sich z.B. bei Stieler[1].

Weil Multiple-Choice-Fragen korrekte Antworten vorgeben, sind sie vollständig automatisiert und damit effizient auswertbar. Trotz ihres anfänglich verstärkten Einsatzes, hat an der Universität Mainz, die seit 2004 benotete elektronische Klausuren durchführt, die Anzahl gestellter Lückentextfragen die Zahl der Multiple-Choice-Aufgaben inzwischen überholt, wie die nebenstehende Abbildung zeigt.

Geschlossene Fragen

Geschlossene Fragen geben verschiedene Antwortalternativen vor, die von einem Prüfling dann ausgewählt oder in eine korrekte Reihenfolge gebracht werden müssen. Der Prüfling erbringt auf diese Weise eine Wiedererkennens- und Selektionsleistung. Im Folgenden werden die Anordnungs und die Auswahlaufgabe unterschieden sowie das Key-Feature-Problem erläutert. Case und Swanson[2] beschreiben in Appendix A ihres Artikels verschiedene Typen von Antwortwahlaufgaben, eine Übersicht folgt.

Typ Name
A Einfachauswahlaufgabe
B Zuordnungsaufgabe
C A/B/beide/keine-Aufgabe
D komplexe Zuordnungsaufgabe
E Verknüpfungsaufgabe
H Vergleichsaufgabe
I Abhängigkeitsaufgabe
K komplexe Richtig/Falsch‐Aufgabe
K' Kombinationsaufgabe
R erweiterte Zuordnungsaufgabe
X einfache Richtig/Falsch‐Aufgabe
Pick N Mehrfachauswahlaufgabe

Anordnungsaufgabe

Bei der Anordnungsaufgabe werden eine Reihe verschiedener Elemente zur Verfügung gestellt, der ein Prüfling in eine bestimmte Reihenfolge bringen, sie einander zuzuordnen oder sie zueinander in Beziehung setzen soll. Das kann durch Drag&Drop-Verfahren gehen oder durch die Bereitstellung zugeordneter Auswahllisten und zugehörigen Positionsnummern. Je nachdem, wie die Elemente zugeordnet werden sollen, sind verschiedene Subtypen unterscheidbar.

  • Anordnung/Reihenfolge: Bei dieser Form müssen die bereitgestellten Elemente in eine geforderte Anordnung oder Reihenfolge gebracht werden. Beispiele sind Schritte einer Methode, die der Reihe durchgeführt werden müssen, eine zeitliche Einordnung historischer Persönlichkeiten, das Sortieren von Städten nach ihrer Einwohnerzahl oder die Anordnung vorgegebener Organe an die passenden Positionen im menschlichen Körper.
  • Zuordnung/Beziehung: Handelt es sich hingegen um eine Zuordnungsaufgabe, stehen zwei Listen zur Verfügung, deren Elemente jeweils sinnhaft einander zuzuordnen sind. Beispiele für Zuordnungen sind Staatsoberhäupter zu Ländern, Eigenschaften zu Organen oder historische Fakten zu Jahreszahlen.

Auswahlaufgabe

Bei diesem Aufgabentyp werden zu einer Frage verschiedene Antworten vorgegeben. Der Prüfling hat die Aufgabe, die jeweils richtigen Antwortalternativen zu identifizieren und zu markieren. Entsprechende Alternativen können auch in Form von Abbildungen oder Formeln dargestellt werden. Falsche Antwortalternativen (Distraktoren) müssen jedoch plausibel sein, damit der Prüfling nicht durch bloßes Ausschließen unsinniger Möglichkeiten die richtige Antwort herleiten kann. Je mehr Antwortmöglichkeiten angeboten werden, umso geringer ist die Wahrscheinlichkeit für eine zufällig richtig ausgewählte Lösung.

  • Einfachauswahlaufgabe (Single Choice, Forced Choice): Ist nur eine der vorgegebenen Antwortalternativen korrekt, spricht man von einer Einfachauswahlaufgabe, auch Single Choice oder Forced Choice Aufgabe genannt. Im Spezialfall der True/False-Aufgabe stehen nur zwei Antwortmöglichkeiten zur Verfügung, nämlich "wahr" und "falsch". Hierbei muss der Prüfling entscheiden, ob eine vorab getätigte Aussage korrekt ist oder nicht. Problem dabei ist, dass aufgrund von nur zwei Antwortmöglichkeiten das zufällige Treffen/Raten der korrekten Lösung mit 50% Wahrscheinlichkeit sehr hoch ist. Daher sollten True/False-Aufgaben mit weiteren Aufgaben eines anderen Typs kombiniert werden.
  • Likert-Skala: Eine Spezialisierung der Einfachauswahl ist die Likert-Skala, bei der eine bestimmte Reichweite vorgegeben wird (z.B. von 1=trifft voll zu bis 5=trifft überhaupt nicht zu), in der ein Prüfling einen bestimmten Sachverhalt einordnen soll. Entsprechende Fragetypen werden z.B. gerne in Evaluationen verwendet.
  • Mehrfachauswahlaufgabe (Multiple Choice): Bei einer Mehrfachauswahlaufgabe oder Multiple Choice Aufgabe stehen mehrere markierbare Antwortalternativen zur Verfügung. Die Auswahlmöglichkeiten des Prüflings reichen hierbei von 0 (keine Antwort ist richtig) bis n (alle Aussagen sind korrekt).
"Bis auf kreative Leistungen lassen sich fast alle Lehrziele, auch solche auf einem hohen Lehrzielniveau (Verständnis, Anwendung), erfassen. Die besten psychologischen Tests (z.B. Intelligenztest) basieren fast ausschließlich auf dem Aufgabentyp Multiple-Choice. Neben seinen vielfältigen Einsatzmöglichkeiten besticht die MC-Aufgabe durch ihre hohe Auswertungsobjektivität, womit sich dieser Aufgabentyp hervorragend für die maschinelle Auswertung eignet. [..] Die adäquate Konstruktion von MC-Aufgaben erfordert viel Zeit. Sie setzt zudem jede Menge Erfahrung in dem betreffenden Sachgebiet und der angemessenen Formulierung der Aufgaben voraus."[3]
Ziel der MC-Aufgaben ist es, dass wissende Studierende (im Sinne eines Könners) das mit der Aufgabe zu messende Lernziel beherrscht. während jemand, der dieses Ziel nicht beherrscht, diese Aufgabe falsch lösen soll.
Der Aufgabenstamm kann dabei als Frage formuliert werden oder als unvollständiger Satz, der durch die nachfolgend angegebenen Möglichkeiten vervollständigt werden kann. Gehen bestimmte Informationen voran, zu denen mehrere Fragen gestellt werden, handelt es sich um sog. interpretative exercises, mit deren Hilfe Aufgaben zu Lernzielen wie Anwenden, Analyse und Interpretation erstellt werden können. Einer entsprechenden Frage folgt eine Auswahl korrekter Antworten und fehlerhaften Alternativen (Distraktoren). Sie unterscheiden sich dadurch, dass zutreffende Antworten wahr (und damit alle Distraktoren falsch) sind (true answer form) oder die zutreffende Antwort die beste Auswahl unter allen Alternativen ist (best answer form).
Bei 4 Antwortoptionen liegt die Wahrscheinlichkeit, die richtige Antwort zu treffen, bei 25%. Da Studierende aber nicht nur als Zufallsgeneratoren funktionieren, sondern gewisses Wissen mitbringen, hängt die Qualität einer MC-Aufgabe insbesondere von der Wahl guter Distraktoren ab.
  • Hot-Spot-Aufgabe: Eine Spezialisierung der Mehrfachauswahlaufgabe ist die Hot Spot Aufgabe. Hierbei geht es darum, gesuchte Bereiche (die sogenannten Hot Spots) auf einer vorgegebenen Abbildung zu markieren. Beispiele hierfür kommen aus der Medizin, wo auf diese Weise z.B. auffällige Strukturen auf Röntgenbilden identifiziert und gekennzeichnet werden können.

Aufgrund eines Urteils vom OVG Nordrhein-Westfalen (Az. 14 A 2154/08) ist das Abziehen von Punkten für falsche Antworten nicht erlaubt bzw. rechtlich problematisch. Daher sollte man themenverwandte Bereiche zu einer Gesamtaufgabe zusammenziehen und diese als Einheit bewerten.

Key-Feature-Probleme

Während die vorab beschriebenen Multiple-Choice-Aufgaben deskriptives Wissen der unteren Ebene nach Miller[4] prüfen, beschäftigen sich Key-Feature-Probleme laut Kopp, Möltner und Fischer[5] mit dem prozeduralem Wissen der Ebene darüber. Hier geht es darum, Entscheidungskompetenz der Prüflinge zu testen. Die sog. Key Features sind dabei kritische Entscheidungen, die getroffen werden müssen, um z.B. ein klinisches Problem zu lösen. Sie fokussieren auf typische Schwierigkeiten beim Erkennen und dem Umgang mit speziellen Problemen aus der Praxis und legen ihren Schwerpunkt dorthin, wo Prüflinge am wahrscheinlichsten Fehler machen. Entsprechend versuchen die Mediziner, beim Erstellen entsprechender Aufgaben die klinische Probleme auf ihre kritischen Schritte zu reduzieren. Key-Feature-Aufgaben bestehen aus der knappen Darstellung einer klinischen Situation (Stamm), gefolgt von 3-5 Fragen. Weil die Fragen stufenförmig aufeinander aufbauen, ist Zurückblättern zu bereits gegebenen Antworten nicht mehr möglich. Auf diese Weise können korrekte Antworten in folgenden Fragen weiter verarbeitet werden, ohne dass diese Informationen die bereits gegebenen Antworten beeinflussen können.

Zur Entwicklung eines Key-Feature-Problems schlagen [5] folgende Vorgehensweise vor:

  1. Definition eines Kontextes
  2. Wahl der klinischen Situation
  3. Identifikation der Key-Features des klinischen Problems
  4. Schreiben des klinischen Szenarios (Fallvignette)
  5. Schreiben der einzelnen Key-Feature-Fragen
  6. Auswahl des Antwortformates
  7. Bewertungsverfahren
  8. Inhaltsvalidierung

Wie man mit Key-Feature-Fragen traditionelle MC-Prüfungen ergänzen kann, beschreiben z.B. [6].

Offene Fragen

Offene Fragen verlangen vom Prüfling eine Reproduktionsleistung, bei der er sich i.d.R. nicht an vorgegebenen Antwortalternativen orientieren kann.

Freitext-Frage

Freitext-Fragen bieten einen offenen Eingabebereich für textbasierte Antworten an. Sie sind "vornehmlich angebracht, um die eigenständige Strukturierung, Organisation, Integration und Bewertung des Wissens sowie das Finden und Darstellen kreativer Ideen anzuregen bzw. zu überprüfen." [7] Sie können das Lernen fördern, da sie ein tieferes Verständnis für die Auseinandersetzung mit komplexen Themen verlangen. Je offener die zugehörige Frage formuliert wurde, umso schwieriger gestaltet sich die Auswertung der gegebenen Antworten. Eine maschinelle Auswertung ist z.B. nur im Sinne eines Schlagwortabgleichs möglich, aber nicht zwingend sinnvoll.

Lückentext-Frage

Die Lückentext-Frage (auch Short-Answer-Aufgabe genannt) ermöglicht eine freie Bearbeitung mit kurzen, prägnanten Antworten. Dabei handelt es sich i.d.R. um ein Wort oder eine Zahl. Ein wesentlicher Vorteil ist, dass ein Raten möglicher Antwortalternativen (wie z.B. bei MC-Fragen möglich) entfällt. Nachteil hingegen ist, dass sich eine fehlerhafte Schreibweise negativ auf eine automatisierte Bewertung auswirken kann. [8] Hier kann man z.B. eine bestimmte Levensthein-Distanz als Toleranzangabe vorgeben, um korrekte Antworten trotz Flüchtigkeits- oder Rechtschreibfehler zu erkennen. Bei numerischen Aufgaben kann eine solche Fehlertoleranz in Form eines Wertebereichs eingestellt werden - immer natürlich unter der Bedingung, dass die zugrunde liegende Technologie entsprechende Maßnahmen zulässt. Lückentexte bestehen aus mehreren Short-Answer-Aufgaben. Beispiele für ihren Einsatz finden sich z.B. hier. Ein weiterer Einsatzbereich sind C-Tests, wie sie zur Einschätzung der Sprachfähigkeit in Sprachenzentren gerne eingesetzt werden.

Um Flüchtigkeits- oder Rechtschreibfehlern vorzubeugen, unterstützen einige Systeme die Angabe der Levenshtein-Distanz. Diese gibt die Zahl an Einfüge-, Lösch- und Ersetz-Operationen an, um die eingegebene Zeichenkette in die Vorgegebene zu überführen.

Numerische Frage

Numerische Fragen beziehen sich auf die Eingabe von Zahlenwerten.

  • Zielbereich: Um die Auswertung zu erleichtern und Rundungsfehler zur berücksichtigen, kann der Prüfer einen Zielbereich angeben, in dem die Eingaben des Prüflings liegen müssen, um die Aufgabe korrekt zu lösen.
  • Formel: Wurde eine entsprechende mathematische Formel zur Berechnung des Ergebnisses hinterlegt, kann das auswertende System das korrekte Ergebnis in Echtzeit ermitteln und mit der Eingabe des Prüflings vergleichen.
  • Zufallswerte: In manchen Fällen (z.B. für gemeinsames Lernen oder Erschweren von Täuschungsversuchen) soll jeder Prüfling eine individuelle Aufgabe erhalten. Besonders in den mathematisch-naturwissenschaftlichen Fächern bietet sich an, die Grundwerte einer solchen Aufgabe per Zufall bestimmen zu lassen. Ist zudem eine entsprechende Berechnungsformel hinterlegt, kann das System die Korrektheit der Lösung autonom überprüfen.

Text-Teilmenge/Text-Box

Begrenzte Zahl an Lösungswörtern aus größerer Zahl richtiger Antworten ermitteln.

Sonstige Fragen

ImageMap-Frage

Java-Applet-Frage

Datei-Upload

Mündliche Antwort

Aufnahme über Mikrofon

Auswahl des Aufgabentyps

Hilfe bei der Zuordnung von Aufgabentypen zu Lernzielen gibt das E-Klausur-Wiki der Uni Gießen, aus dem die folgende Tabelle stammt: Beispiel: Häufigkeit der Verwendung verschiedener Fragen im ILIAS-System

Weitere Informationen zu Kompetenzerfassung, u.a. mit einer Gegenüberstellung verschiedener Antwortformate für Kompetenztests, ist z.B. bei Hartig und Klieme[9] zu finden.

Verwandte Themen

Literaturnachweise

  1. Jona Florian Stieler: Validität summativer Prüfungen - Überlegungen zur Gestaltung von Klausuren, ISBN: 3-938076-36-4, Janus Presse, Bielefeld, 2011, Download als PDF
  2. Susan M. Case, David B. Swanson: Constructing Written Test Questions For the Basic and Clinical Sciences, 3. Auflage, National Board of Medical Examiners, 1998, Download als PDF
  3. Bernhard Jacobs: einfachen Multiple-Choice-Aufgaben nach Gronlund. Abgerufen am 21.03.2010.
  4. George E. Miller: The Assessment of Clinical Skills/Competence/Performance, in Academic Medicine, Ausgabe 65 (9), S. 63-67, 1990, Download als PDF
  5. 5,0 5,1 Veronika Kopp, Andreas Möltner, Martin R. Fischer: Key-Feature-Probleme zum Prüfen von prozeduralem Wissen: Ein Praxisleitfaden, in: GMS Zeitschrift für Medizinische Ausbildung, ISSN 1860-3572, 23(3), 2006, Artikel als PDF (Abgerufen am 23.11.2010)
  6. Elisabeth Schaper, Martin R. Fischer, Andrea Tipold, Jan P. Ehlers: Fallbasiertes, elektronisches Lernen und Prüfen in der Tiermedizin - auf der Suche nach einer realisierbaren Alternative zu Multiple-Choice-Prüfungen, in: Tierärztliche Umschau 66, S. 261-268, 2011
  7. Bernhard Jacobs: Ratschläge zur Konstruktion von Essay-Test-Aufgaben. Abgerufen am 20.03.2010.
  8. Bernhard Jacobs: Ratschläge zur Konstruktion von Short-Answer-Aufgaben. Abgerufen am 19.03.2010.
  9. Johannes Hartig, Eckhard Klieme: Möglichkeiten und Voraussetzungen technologiebasierter Kompetenzdiagnostik, Expertise im Auftrag des BMBF, Bildungsforschung Band 20, Bonn/Berlin, 2007, Download als PDF, Abgerufen am 21.06.2010