Codeanalyse
Inhaltsverzeichnis
Beschreibung
Viele technische Hochschulen bieten Programmierkurse an. Studierende lernen dort Grundlagen der Programmerstellung, und zwar für Programmiersprachen wie Java, C++, PHP usw. Häufig bestehen solche Kurse aus einer Kombination aus Vorlesung und Übung: während eine Vorlesung notwendige theoretische Grundlagen vermittelt, können die Studierenden diese in den Übungen anwenden und in Programme umsetzen.
Programmieren ist eine praktische Tätigkeit, die man insbesondere durch kontinuierliches Üben lernt. Die Überprüfung von Programmen ist jedoch aufwändig. Typischerweise senden Studierende ihre Lösungen an die Tutoren. Diese führen dann eine Reihe von Prüfungen durch: hat die Datei das richtige Format, ist das Programm vom Compiler übersetzbar, liefern vorgegebene Eingabewerten erwartete Ausgabewerte, endet das Programm regulär uvm. Diese Untersuchung kostet viel Zeit. Um jedem Studierenden daher für jedes Programm schneller Feedback geben zu können, setzen Lehrende immer mehr auf automatisierte Testwerkzeuge. Diese sollen vor allem einfache Tätigkeiten übernehmen - z.B. feststellen, ob der vorliegende Quellcode überhaupt vom Compiler übersetzt werden kann - und damit die Analyse der Programme unterstützen.
Viele Hochschulen haben zu dem Zweck bereits eigene Lösungen erstellt. Eine Übersicht über solche Systeme und ihre Funktionalität findet sich z.B. bei Deek & McHugh[1], Hoffmann, Quast & Wismüller[2] oder Schramm[3].
Ziele
- Entlastung der Lehrenden, schnelleres Feedback
- Untersuchung von Programmquellcodes
- Automatisierung einfacher Analyseschritte
- Generelle Überprüfung der Programmqualität
- Test auf Einhaltung von Programmierrichtlinien
Organisation
- Lehrender verteilt nach Vorlesung Programmieraufgaben, um Inhalte zu vertiefen
- Studierende bearbeiten die Aufgaben und erstellen Programme
- Studierende laden ihre Quellcodes zur automatischen Überprüfung hoch
- Direktes Feedback, welche Prüfungen erfolgreich waren und was nicht funktionierte
- Studierende haben noch während des Übungszeitraums Möglichkeit zur Nachbesserung
- Lehrender erhält Übersicht über Versuche und Erfolg
Recht
Technik
- Automatisches Software Bewertungssystem (ASB) der HS Trier
- Autolab an der Carnegie Mellon University: alle Programmiersprachen
- Das Übungssystem der Informatik Einführung (DUESIE) der Uni Siegen: Java und SML
- eXtreme e-Learning eXperience (XLX) der Uni Münster: SQL
- JACK automatisiertes Übungs- und Prüfungssystem an der Uni Duisburg-Essen
- Moss zur Erkennung von Software-Plagiaten der Uni Stanford
- Online Judge zur Einschätzung der Lösung bei Programmierwettbewerben
- Praktomat der Uni Passau: Java, C++ und Haskell
Beispiele
- Autolab an der Carnegie Mellon University: alle Programmiersprachen
- Praktomat im eCULT-Projekt an der HS Ostfalia
- Praktomat an der Uni Karlsruhe
- JPlag zum Erkennen abgeschriebener Programmtexte vom KIT
Bewertung
Vorteile
- Entlastung der Lehrenden und Tutoren
- Direktes Feedback zur individuellen Lösung
- Automatischer Abgleich der Lösungen mit erwarteten Ergebnissen
Nachteile
- Schnittstellen und Verhalten sind vorab eindeutig zu spezifizieren
- Reaktion auf bestimmte Eingabewerte muss feststehen und im Vorfeld hinterlegt sein
- Zusätzliche Sicherheitsmechanismen sind notwendig, um Blockieren des Servers bei Endlosschleifen oder Ausführen von Schadcode zu vermeiden
Kombination mit weiteren Szenarien
Dieses Szenario bietet sich zur Überprüfung vieler gleichartiger Programme an, z.B. im allgemeinen Übungsbetrieb. Zudem ist es für größere Tutorien oder gemeinsame Lernszenarien vorstellbar, um Studierenden individuelles Feedback zu geben.
Literaturnachweise
- ↑ Fadi P. Deek, James A. McHugh: A Survey and Critical Analysis of Tools for Learning Programming, in: Computer Science Education, Vol. 8, Nr. 2, ISSN: 0899-3408, Routledge, London, 1998 Artikel als PDF
- ↑ Andreas Hoffmann, Alexander Quast, Roland Wismüller: Online-Übungssystem für die Programmierausbildung zur Einführung in die Informatik, in Silke Seehusen, Ulrike Lucke, Stefan Fischer (Hrsg.): DeLFI 2008, Vol. 132, S. 173-184, GI, 2008 Artikel als PDF
- ↑ Joachim Schramm: Unterstützung von Planung und Design in der Programmierausbildung an Universitäten, Masterarbeit, TU Clausthal, 2011 Download als PDF
Literatur
- Jens Krinke, Maximilian Störzer, Andreas Zeller: Web-basierte Programmierpraktika mit Praktomat, in: Softwaretechnik-Trends, Vol. 22, (3), 2002, Download als PDF
- J. Schramm, S. Strickroth, N. T. Le, N. Pinkwart: Teaching UML Skills to Novice Programmers Using a Sample Solution Based Intelligent Tutoring System, in: G.M. Youngblood, P. McCarthy (Hrsg.): Proceedings of the 25th International Conference of the Florida Artificial Intelligence Research Society (FLAIRS), S. 472 - 477, Marco Island, FL, USA, AAAI, 2012, Download als PDF
- Sven Strickroth, Hannes Olivier, Niels Pinkwart: Das GATE-System: Qualitätssteigerung durch Selbsttests für Studenten bei der Onlineabgabe von Übungsaufgaben?, in: H. Rohland, A. Kienle, S. Friedrich (Hrsg.): GI Lecture Notes in Informatics (P-188) - Tagungsband der 9. e-Learning Fachtagung Informatik (DeLFI), S. 115 - 126, Köllen Verlag, Bonn, 2011 Download als PDF