Diese Arbeit befasst sich mit der Verbesserung der Validität von Test-
aufgaben im E-Learning am Beispiel einer Implementierung für Learn@WU,
der E-Learning-Plattform der WU Wien. Aufbauend auf psychologischen
Lerntheorien wurde ein System für Testaufgaben entwickelt. Vor der eigentlichen Implementierung wurden aktuelle E-Learning Produkte miteinander
verglichen und aktuelle E-Learning Standards, die für die Implementierung
wichtig sind, analysiert. Die Implementierung baut auf XoWiki und XoWiki
Content Flow auf, welche Pakete von OpenACS sind. Schwerpunkt dieser
Arbeit liegt darin eine Benutzeroberfläche für Kontrollfragen bereitzustellen,
das Studierenden und Lehrenden den grössten Nutzen ermöglicht.
Inhaltsverzeichnis
1 Einleitung
1.1 Projektbeschreibung, Zielsetzung, Ausgangssituation
1.2 Zur Validität von Testaufgaben und Tests
1.3 Prozess der Erstellung von Testaufgaben
2 Theoretische Grundlagen des E-Learnings
2.1 Bedeutungshaftes Lernen nach Ausubel
2.2 Distributed Cognition
2.3 Konstruktivistische Lerntheorie
2.4 E-Learning
2.5 Vergleich von papierbasiertem Lernen und technologieunterstütztem Lernen
2.6 Feedback
3 IMS QTI als Standard für Kontrollfragen
4 Vergleich aktueller E-Learning-Systeme
4.1 Moodle
4.2 OLAT
4.3 Black-Board
4.4 ILIAS
4.5 Questionmark
4.6 Vergleich der beschriebenen Systeme
5 Beurteilungsverfahren
5.1 Kollaboratives Filtern in Verbindung mit Peer Reviews
5.2 Computerized Adaptive Testing (CAT)
6 Beschreibung der Implementierung eines workflowbasierten Moduls für Kontrollfragen für Learn@WU
6.1 Beschreibung der verwendete Technologien
6.1.1 Programmiersprachen
6.1.2 XoWiki als technischer Ausgangspunkt
6.1.3 XoWiki Content Flow als Basis für Workflows
6.1.4 YUI zur Darstellung von Widgets
6.2 Beschreibung der Use-Cases
6.3 Workflow zum Erstellen und Bearbeiten von Kontrollfragen
6.4 Workflows zur Fragenbeantwortung
6.4.1 Simple Exercise Workflow für einfache Kontrollfragen
6.4.2 Opentext Workflow für offene Textfragen mit kollaborativem Filtern
6.4.3 Exam Workflow für Musterklausuren
6.4.4 Assignment Workflow für klausurähnliche Situationen
6.5 Implementierte Fragetypen
6.5.1 Multiple-Choice-Aufgabe
6.5.2 Single-Choice-Aufgabe
6.5.3 Offene Textaufgabe
6.5.4 Lückentextaufgabe
6.5.5 Zuordnungsaufgabe
6.5.6 Reihungsaufgabe
6.5.7 Schieberegler-Aufgaben
6.6 Verwaltung und Strukturierung von Testfragen
6.6.1 Ordnerstruktur und Testaufgabensammlungen
6.6.2 Sektionen
6.6.3 Freigaben
7 Zusammenfassung und Ausblick
Zielsetzung & Themen
Ziel der Arbeit ist die Verbesserung der Validität von Testaufgaben im E-Learning-System Learn@WU durch die Entwicklung einer workflowbasierten, benutzerzentrierten Oberfläche für das Management und die Beantwortung von Kontrollfragen.
- Konzeption und Implementierung auf Basis von XoWiki und XoWiki Content Flow.
- Integration von kollaborativem Filtern und Peer-Review-Methoden zur Qualitätssteigerung.
- Analyse und Vergleich aktueller E-Learning-Systeme und Standards (QTI, SCORM).
- Entwicklung neuer Fragetypen und verbesserter Bewertungsmodelle.
- Optimierung der Verwaltung und Strukturierung von Testaufgabensammlungen.
Auszug aus dem Buch
1.2 Zur Validität von Testaufgaben und Tests
Tests und Testaufgaben Ein Test ist ein Verfahren zur Messung von bestimmten Gütekriterien. Im Bereich der Wissensvermittlung können Tests genutzt werden um die Beherrschung des Lehrstoffs widerzuspiegeln. “A test is a measuring device intended to describe numerically the degree or amount of learning under uniform, standardized conditions” [Hal04, S.4].
Eine Testaufgabe (engl.: test item) ist die kleinste Einheit eines Tests. In der Literatur werden Testaufgaben in verschiedene Kategorien aufgegliedert, denen meist die Unterteilung in offene und geschlossene Testaufgaben gemeinsam ist. “A fundamental dichotomy in item formats is whether the answer is selected or created” [Hal04, S.4].
Bei offenen Aufgaben ist keine im vorhinein bekannte, standardisierte und gültige Lösung definiert, die entscheidet, ob eine Antwort als richtig oder falsch zu werten ist. Ein Aufsatz kann als Beispiel für diesen Typ angesehen werden. Bei halboffenen Testaufgaben ist die Antwort festgelegt und dem Prüfer bekannt, eine Lückentextaufgabe wäre hier ein Beispiel.
Geschlossene Aufgaben unterschieden sich hiervon dadurch, dass bei ihnen die Antwortmöglichkeiten bereits vorgegeben sind. Die Lösung muss also nicht mehr vom Beantwortenden formuliert werden. Alternativ werden diese Aufgabenformen auch als selected-response oder gebundene Testaufgaben bezeichnet. Auf eine genauere Einteilung der verschiedenen Fragetypen in Unterkategorien wird hier bewusst verzichtet, da eine Abgrenzung nicht wirklich trennscharf ist und je nach Autor unterschiedlich ausfällt. Die neue Implementierung orientiert sich an den von QTI definierten Fragetypen, die in Kapitel 3 noch genauer behandelt werden sollen.
Zusammenfassung der Kapitel
1 Einleitung: Beschreibt die Ausgangssituation, Zielsetzung und den Aufbau der Arbeit zur Verbesserung der Validität von Online-Kontrollfragen.
2 Theoretische Grundlagen des E-Learnings: Analysiert lernpsychologische Ansätze, konstruktivistische Theorien und vergleicht das Lernen mit digitalen versus traditionellen Medien.
3 IMS QTI als Standard für Kontrollfragen: Stellt den QTI-Standard zur Interoperabilität von Testfragen vor und erläutert dessen Bedeutung für das Projekt.
4 Vergleich aktueller E-Learning-Systeme: Untersucht verschiedene Lernplattformen wie Moodle, OLAT und Blackboard hinsichtlich ihrer Funktionalitäten für Testaufgaben.
5 Beurteilungsverfahren: Diskutiert verschiedene Methoden zur automatischen und kollaborativen Bewertung sowie Konzepte zur Steigerung der Validität.
6 Beschreibung der Implementierung eines workflowbasierten Moduls für Kontrollfragen für Learn@WU: Detaillierte Darstellung der technischen Realisierung, der verwendeten Workflows und der neuen Funktionalitäten innerhalb von Learn@WU.
7 Zusammenfassung und Ausblick: Resümiert die Projektergebnisse und zeigt potenzielle zukünftige Entwicklungen auf.
Schlüsselwörter
E-Learning, Testaufgaben, Validität, Workflow, Learn@WU, XoWiki, Kontrollfragen, IMS QTI, Collaborative Filtering, Peer Review, Wissensvermittlung, Computerized Adaptive Testing, Benutzeroberfläche, Lernressourcen, Testdesign
Häufig gestellte Fragen
Worum geht es in dieser Arbeit grundsätzlich?
Die Arbeit beschäftigt sich mit der Verbesserung der Validität von Testaufgaben innerhalb der E-Learning-Plattform Learn@WU.
Welche zentralen Themenfelder werden behandelt?
Die Schwerpunkte liegen auf der Lernpsychologie, E-Learning-Standards wie QTI, dem Vergleich bestehender Lernsysteme, der Implementierung von Workflows und modernen Bewertungsverfahren.
Was ist das primäre Ziel der Arbeit?
Ziel ist die Entwicklung einer strukturierten, workflowbasierten Benutzeroberfläche zur Erstellung und Verwaltung von Kontrollfragen, um den Nutzen für Lehrende und Studierende zu maximieren.
Welche wissenschaftliche Methode wird verwendet?
Es werden theoretische Grundlagen analysiert, bestehende E-Learning-Produkte einem Benchmark-Vergleich unterzogen und eine Referenzimplementierung auf Basis von OpenACS entwickelt.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil widmet sich der Beschreibung der technischen Implementierung, der workflowbasierten Modulerstellung, der Erläuterung neuer Fragetypen sowie der Verwaltung und Freigabe von Testinhalten.
Welche Begriffe charakterisieren die Arbeit am besten?
Kernbegriffe sind E-Learning, Testvalidität, workflowbasierte Implementierung, XoWiki, Kontrollfragen-Management und kollaborative Bewertung.
Welche Rolle spielt XoWiki bei der technischen Umsetzung?
XoWiki dient als technischer Ausgangspunkt und technologische Basis, um die notwendige Struktur für die Testfragen und die Workflow-Logik zu implementieren.
Wie werden offene Fragen in diesem neuen System bewertet?
Für offene Textfragen wird ein Workflow implementiert, der kollaborative Filtermechanismen und Peer-Reviews nutzt, um die Antwortqualität zu sichern.
Wie unterscheidet sich der neue Ansatz vom alten System?
Das neue System ermöglicht eine dynamische, workflowbasierte Steuerung, eine logische Ordnerstruktur für Testfragen und fortschrittlichere Bewertungsmechanismen anstelle starrer, vordefinierter Dialoge.
- Arbeit zitieren
- MSc Markus Moser (Autor:in), Thomas Renner (Autor:in), 2010, Verbesserung der Aufgabenvalidität im E-Learning im Rahmen einer Referenzimplementierung für Learn@WU, München, GRIN Verlag, https://www.hausarbeiten.de/document/166917