Codeanalyse

Aus E-Assessment-Wiki

Wechseln zu: Navigation, Suche

Inhaltsverzeichnis

Beschreibung

Viele technische Hochschulen bieten Programmierkurse an. Studierende lernen dort Grundlagen der Programmerstellung, und zwar für Programmiersprachen wie Java, C++, PHP usw. Häufig bestehen solche Kurse aus einer Kombination aus Vorlesung und Übung: während eine Vorlesung notwendige theoretische Grundlagen vermittelt, können die Studierenden diese in den Übungen anwenden und in Programme umsetzen.

Programmieren ist eine praktische Tätigkeit, die man insbesondere durch kontinuierliches Üben lernt. Die Überprüfung von Programmen ist jedoch aufwändig. Typischerweise senden Studierende ihre Lösungen an die Tutoren. Diese führen dann eine Reihe von Prüfungen durch: hat die Datei das richtige Format, ist das Programm vom Compiler übersetzbar, liefern vorgegebene Eingabewerten erwartete Ausgabewerte, endet das Programm regulär uvm. Diese Untersuchung kostet viel Zeit. Um jedem Studierenden daher für jedes Programm schneller Feedback geben zu können, setzen Lehrende immer mehr auf automatisierte Testwerkzeuge. Diese sollen vor allem einfache Tätigkeiten übernehmen - z.B. feststellen, ob der vorliegende Quellcode überhaupt vom Compiler übersetzt werden kann - und damit die Analyse der Programme unterstützen.

Viele Hochschulen haben zu dem Zweck bereits eigene Lösungen erstellt. Eine Übersicht über solche Systeme und ihre Funktionalität findet sich z.B. bei Deek & McHugh[1], Hoffmann, Quast & Wismüller[2] oder Schramm[3].

Ziele

  • Entlastung der Lehrenden, schnelleres Feedback
  • Untersuchung von Programmquellcodes
  • Automatisierung einfacher Analyseschritte
  • Generelle Überprüfung der Programmqualität
  • Test auf Einhaltung von Programmierrichtlinien

Organisation

  • Lehrender verteilt nach Vorlesung Programmieraufgaben, um Inhalte zu vertiefen
  • Studierende bearbeiten die Aufgaben und erstellen Programme
  • Studierende laden ihre Quellcodes zur automatischen Überprüfung hoch
  • Direktes Feedback, welche Prüfungen erfolgreich waren und was nicht funktionierte
  • Studierende haben noch während des Übungszeitraums Möglichkeit zur Nachbesserung
  • Lehrender erhält Übersicht über Versuche und Erfolg

Recht

Technik

Beispiele

Bewertung

Vorteile

  • Entlastung der Lehrenden und Tutoren
  • Direktes Feedback zur individuellen Lösung
  • Automatischer Abgleich der Lösungen mit erwarteten Ergebnissen

Nachteile

  • Schnittstellen und Verhalten sind vorab eindeutig zu spezifizieren
  • Reaktion auf bestimmte Eingabewerte muss feststehen und im Vorfeld hinterlegt sein
  • Zusätzliche Sicherheitsmechanismen sind notwendig, um Blockieren des Servers bei Endlosschleifen oder Ausführen von Schadcode zu vermeiden

Kombination mit weiteren Szenarien

Dieses Szenario bietet sich zur Überprüfung vieler gleichartiger Programme an, z.B. im allgemeinen Übungsbetrieb. Zudem ist es für größere Tutorien oder gemeinsame Lernszenarien vorstellbar, um Studierenden individuelles Feedback zu geben.

Literaturnachweise

  1. Fadi P. Deek, James A. McHugh: A Survey and Critical Analysis of Tools for Learning Programming, in: Computer Science Education, Vol. 8, Nr. 2, ISSN: 0899-3408, Routledge, London, 1998 Artikel als PDF
  2. Andreas Hoffmann, Alexander Quast, Roland Wismüller: Online-Übungssystem für die Programmierausbildung zur Einführung in die Informatik, in Silke Seehusen, Ulrike Lucke, Stefan Fischer (Hrsg.): DeLFI 2008, Vol. 132, S. 173-184, GI, 2008 Artikel als PDF
  3. Joachim Schramm: Unterstützung von Planung und Design in der Programmierausbildung an Universitäten, Masterarbeit, TU Clausthal, 2011 Download als PDF

Literatur

  • Jens Krinke, Maximilian Störzer, Andreas Zeller: Web-basierte Programmierpraktika mit Praktomat, in: Softwaretechnik-Trends, Vol. 22, (3), 2002, Download als PDF
  • J. Schramm, S. Strickroth, N. T. Le, N. Pinkwart: Teaching UML Skills to Novice Programmers Using a Sample Solution Based Intelligent Tutoring System, in: G.M. Youngblood, P. McCarthy (Hrsg.): Proceedings of the 25th International Conference of the Florida Artificial Intelligence Research Society (FLAIRS), S. 472 - 477, Marco Island, FL, USA, AAAI, 2012, Download als PDF
  • Sven Strickroth, Hannes Olivier, Niels Pinkwart: Das GATE-System: Qualitätssteigerung durch Selbsttests für Studenten bei der Onlineabgabe von Übungsaufgaben?, in: H. Rohland, A. Kienle, S. Friedrich (Hrsg.): GI Lecture Notes in Informatics (P-188) - Tagungsband der 9. e-Learning Fachtagung Informatik (DeLFI), S. 115 - 126, Köllen Verlag, Bonn, 2011 Download als PDF
Partnerseiten