Direkt zum Inhalt

Computergestütztes Lernen - Methoden, Technik und Perspektiven


Die computergestützte Aus- und Weiterbildung – im Fachjargon Computer Based Training (CBT) – ermöglicht es Schulen, Universitäten und privaten Bildungseinrichtungen, zunehmend Formen des Unterrichts zu entwickeln, zu dem Lehrende und Lernende sich nicht gleichzeitig an einem Ort einfinden oder einander allenfalls gelegentlich treffen müssen. Zudem können die Lehrer mit diesen Techniken sehr individuell auf unterschiedliche Lerngeschwindigkeiten ihrer Schüler eingehen.
Es gibt inzwischen für das CBT bereits zahlreiche Anwendungsgebiete. So vermag man damit zum einen theoretische Grundkenntnisse und einfache Fertigkeiten in der berufsbegleitenden Weiterbildung zu vermitteln. Zum anderen lassen sich immer realistischer komplexe Aufgaben aus der Praxis per Computer modellieren, die ein hohes Maß an geistiger und körperlicher Koordination erfordern; Beispiele sind Fahr- und Flugsimulatoren, aber auch entsprechende Systeme für die Ausbildung von Neurochirurgen und Neuropsychologen. Besonders zukunftsträchtig scheint ferner die sogenannte hypermediale Wissensvermittlung, die dem Auszubildenden erlaubt, den Lernstoff zunächst experimentell mit Computertechniken zu erkunden sowie dann Aufbau und weiteren Ablauf des Unterrichts selbst zu beeinflussen.
Multimediale Software zur Wissensvermittlung basiert auf zwei strategischen Grundmustern, die ihrerseits auf unterschiedlichen Lerntheorien fußen: Instruktion und Problemlösung.

Lernpsychologische Grundlagen

Kern der ersten Vorgehensweise ist es, ausgewählte Lerninhalte in anschaulicher und aktivierender Form zu vermitteln. Die Software präsentiert also nicht nur Informationen, sondern stellt darauf bezogene Fragen und Aufgaben, überprüft die Antworten und gibt korrigierende Kommentare ab.
Diese Art der Wissensvermittlung greift im Prinzip auf behavioristische Lerntheorien und somit auf das sogenannte operante Konditionieren zurück: Bereits um die Jahrhundertwende hatte der amerikanische Psychologe Edward Lee Thorndike (1874 bis 1949) lernexperimentelle Befunde an Tieren auf die Methodik der schulischen Ausbildung von Kindern übertragen; Quintessenz seiner Theorie war die positive Verstärkung erfolgreichen Verhaltens im Sinne sozialer Nützlichkeit. Damit beeinflußte er als Professor für Erziehungspsychologie an der New Yorker Columbia-Universität mehrere Generationen von Lehrern – auch außerhalb der USA.
Instruierende Lernsoftware unterteilt die Inhalte in kleine bis kleinste Schritte, die leicht zu bewältigen sind; nach einer Abfolge von Erfolgserlebnissen erreicht man schließlich das Lernziel. Zahlreiche Lernprogramme für Kinder und Jugendliche, die etwa Lese- und Rechenfertigkeiten vermitteln sollen, folgen dieser Methode.
Dagegen verlangt die Strategie der Problemlösung vom Lernenden vor allem, sich die Wissensinhalte selbständig zu erschließen. Das Programm präsentiert ihm den Stoff nicht in einer festgelegten Abfolge; dieser steht vielmehr in einer Wissensdatenbank oder in Form von Simulationsmodellen zur Verfügung. Beispiele sind Hypermedia- und die vielen Simulationsprogramme, die es ermöglichen, Erfahrungen zum Beispiel in beruflichen Handlungszusammenhängen zu sammeln, ohne daß man die Konsequenzen des eigenen Handelns real tragen müßte.
Die Grundlage hierfür sind kognitive und konstruktivistische Lerntheorien, die den Menschen als einsichtig, aktiv und selbstgesteuert beschreiben. Vertreter kognitiver Ansätze nehmen an, daß man nie unvoreingenommen in eine Lernsituation gerät, sondern eigene Anschauungen, Ziele, Pläne und besonders einen schon bestehenden Fundus an Wissen und Vorstellungen einbringt; es gilt also, die neuen Inhalte in vorhandene kognitive Strukturen zu integrieren.
Entsprechende Lernsoftware ist darum darauf ausgerichtet, daß der Stoff nach dem jeweiligen individuellen Bedarf bearbeitet werden kann; Informationen werden möglichst lebensnah dargestellt mit dem Ziel, die Lerninhalte in den Erfahrungshintergrund des Lernenden einzubetten, und Lernhilfen werden in Stufen angeboten, so daß man bei Bedarf auf eine vertiefende Darstellung zugreifen kann.
Beispiele für die Nutzung komplexer und aufwendiger Simulatoren gibt es schon mannigfach: Damit generierte Scheinwelten dienen etwa der Ausbildung von ICE-Lokführern bei der Deutschen Bahn, von Piloten der Lufthansa oder auch von Lkw-Fahrern. Eine möglichst detailgetreue Umgebung – mit Hilfe spezieller Visualisierungstechniken vom Computer erzeugt – konfrontiert den Trainee genau mit den Problemen, die später in seiner wirklichen Arbeitsumwelt auftreten können und deren Bewältigung, insbesondere auch hinsichtlich der Arbeitssicherheit, äußerst wichtig ist. Um hernach den Lernerfolg zu beurteilen und das Verhalten des Trainees in Gefahrsituationen zu analysieren, werden Videoaufzeichnungen, Beobachtungen am Simulator und eine Computer-Auswertung der Reaktionen des Probanden herangezogen.
Simulationen sind technisch sehr aufwendig, wenn sie realistisch wirken sollen. Die Computerdaten müssen in Echtzeit aufbereitet und dargestellt, die eingespielten Bilder detailreich, qualitativ hochwertig, texturiert und mit Kantenglättung berechnet werden. Die Darstellung auf dem Monitor sollte fließend, nicht ruckartig sein; und der Grad an Details, mit denen für den Betrachter herannahende Objekte erscheinen, darf sich nicht sprunghaft, sondern muß sich stetig verändern.
Während einer Simulation berücksichtigt der Computer alle eingestellten Umgebungsparameter und konstruiert aus den vorgegebenen Daten eine virtuelle Welt: Gleichzeitig plaziert er Objekte, reagiert auf Eingaben des Benutzers und übergibt Objekte an das Graphik-System zur Visualisierung. Mithin können die Anforderungen, die komplexe Simulationen an die Hardware stellen, gar nicht pauschal formuliert werden – sie sind jedenfalls sehr hoch. Für den ICE-Fahrsimulator etwa nutzt die Deutsche Bahn ein leistungsstarkes System der Firma Silicon Graphics, den Graphik-Supercomputer ONYX Infinite Reality, der ein Blickfeld von 60 mal 40 Grad mit 60 komplexen Bildern pro Sekunde berechnen kann.

Konstruktivistische Lerntheorien und Hypermedia

Konstruktivistische Lerntheorien besagen, daß Erkenntnisse das Ergebnis einer Konstruktion subjektiver Wirklichkeiten aufgrund eigener Erfahrung seien. Das darauf aufsetzende Lernschema verlangt deshalb, daß der Schüler den Stoff selbständig durchdringt und verarbeitet; dafür gibt es möglichst konkrete Situationen vor. Während also behavioristische Ansätze ein reines Verstehen und bestenfalls Anwenden vermitteln und kognitive häufig die Ebene der Analyse kaum verlassen, muß der nach dieser Methode Lernende tiefer in die Materie eindringen, um einzelne Wissenselemente zu einem soliden Ganzen verknüpfen zu können.
Die Hypermedia-Technologie eröffnet neue Möglichkeiten, dies praktisch umzusetzen. Grundsätzlich handelt es sich dabei um eine elektronische Enzyklopädie zu einem Fachgebiet, deren Eintragungen in unterschiedlichen Formen und Formaten meist multimedial – als Text-, Ton-, Bild- und Videodokumente – vorliegen; zwischen ihnen kann man interaktiv und (fast) beliebig Bezüge herstellen beziehungsweise darlegen.
Für Hypermedia muß also zunächst eine Wissensdatenbank bereitstehen, in der sämtliche Informationen zu einem Thema oder Fachgebiet klassifiziert und organisiert sind. Diese lassen sich dann im allgemeinen indirekt über eine Hypermedia-Anwendung oder direkt abfragen: Im zweiten Falle sind sie meist hierarchisch gegliedert und werden in einer Baumstruktur präsentiert; im ersten bestimmt der Anwender, wie er die einzelnen Informationen bekommen und wie er mit ihnen arbeiten möchte. Die Benutzungsoberfläche wird dafür möglichst so ausgelegt, daß man sie intuitiv bedienen und das Fachgebiet erkunden kann, ohne sich vorher erst in die Funktionsweise des Programms einarbeiten zu müssen.
Für einige Zielgruppen, insbesondere zur medizinischen Ausbildung, gibt es schon fertige Hypermedia-Anwendungen. Eines dieser Produkte, Voxel-Man aus dem Heidelberger Springer-Verlag, dient der Ausbildung angehender Chirurgen, Neurochirurgen, Neuropsychologen und Biologen; es wird vor allem in Forschungsabteilungen eingesetzt, die sich mit Neurokognition beschäftigen. Das Programm präsentiert die Anatomie des menschlichen Schädels und Gehirns aus mehreren Perspektiven und ermöglicht die interaktive Navigation in dem Datenraum anhand von Kernspin- und Computertomographie-Schnittbildern. Der angehende Mediziner kann etwa den Blick auf tiefer liegende Schichten und Regionen des Gehirns werfen, indem er das System virtuell die Schädeldecke öffnen und Hirnmasse entfernen läßt.
Zudem gibt es bei Voxel-Man vielfältige Möglichkeiten, die Benutzungsoberfläche eigenen Bedürfnissen anzupassen. Auch kann man die vorgegebenen Daten fast beliebig manipulieren und das entsprechende Ergebnis betrachten. So lassen sich verschiedene Perspektiven gleichzeitig erfassen und deren Darstellungsfenster auf dem Bildschirm nach Wunsch positionieren, verkleinern und vergrößern. Außerdem vermag man beliebige Schnittebenen zu setzen und bekommt dadurch Einblick in die Lokalisation der einzelnen Hirnareale. Außer der reinen Morphologie des Gehirns bietet das Programm auch dessen Blutversorgung und funktionale Anatomie. Und da sich all diese unterschiedlichen Darstellungen kombinieren lassen, kann der Studierende sich Zusammenhänge – soweit sie erforscht sind – bildhaft klarmachen, was ein tiefergehendes Verständnis ermöglicht als die getrennte Präsentation der einzelnen Komponenten und Faktoren.
Andererseits ist Voxel-Man auch ein umfassender Wissensspeicher. Die morphologischen und funktionalanatomischen Daten sind hierarchisiert abgespeichert und direkt abfragbar. Dafür kann man wieder eine hierarchische Darstellungsform wählen, in der Bedeutungszusammenhänge anschaulich werden.
Die Hypermedia-Technik des Lernprogramms gestattet im Unterschied zu klassischen Unterrichtsmedien aber etwa auch, einzelne Einträge der Wissensdatenbank mit graphischen Darstellungen von Hirnarealen in Beziehung zu setzen. So kann man beim Betrachten eines Bildes nach der Bezeichnung oder Funktion eines angezeigten Elements fragen. Umgekehrt läßt sich bei einer verbalen Abfrage die Lokalisation eines Elements graphisch anzeigen. So wird ein interaktives, selbstgesteuertes Lernen möglich, das freilich hoher Motivation bedarf.

Hypermedia im Netz

Mit Hilfe der Technologien, auf denen auch das Internet und das World Wide Web aufbauen, läßt sich das Hypermedia-Konzept fast unendlich erweitern. Mit den Programmierwerkzeugen Hypertext Markup Language (HTML) – einer speziellen Beschreibungssprache zur Text- und Bildpräsentation im Internet – und Virtual Reality Modeling Language (VRML) können Inhalte frei gestaltet werden. Sie müssen auch nicht mehr unbedingt auf irgendeinem Speichermedium als Dokument – statisch – niedergelegt sein, sondern können – dynamisch – zum Beispiel im Rahmen einer Datenbank-Abfrage nach Bedarf generiert werden und lassen sich vor allem mit Audio- und Videosequenzen anreichern. Die dafür benötigten Daten werden über einen oder mehrere Server-Computer vorgehalten und liegen in einem plattform-unabhängigen Format vor, so daß jeder – unabhängig vom Fabrikat des eigenen Rechners – darauf zugreifen kann.
Somit ist es nur noch ein kleiner Schritt, die schon existierenden Hypermedia-Anwendungen nach Art von Voxel-Man über Netzwerke mehreren Anwendern gleichzeitig zur Verfügung zu stellen, um auf diese Weise virtuelle Klassenzimmer oder Trainingszentren zu schaffen. Prinzipiell reicht es aus, die jeweilige Anwendung in Bild-, Text- und multimediale Daten zu zerlegen, Verknüpfungen über Datenbank-Abfragen zu realisieren und aus den Ergebnissen dieser Abfragen dynamisch HTML- oder VRML-Dokumente zu generieren. Die daraus entstehenden multimedialen Repräsentationen des Inhalts bilden zwar eine sehr komplexe World-Wide-Web-Anwendung, lassen sich jedoch mit Hilfe leistungsfähiger Web- und Datenbank-Server in vertretbarer Zeit verwirklichen.
Vorerst bereitet es allerdings noch einige Schwierigkeiten, die Inhalte dafür aufzubereiten. Auch ist in den heute verfügbaren VRML-Welten die Qualität der Darstellung noch keineswegs so gut wie in den Fahr- oder Flugsimulatoren, weil die vorhandenen Netzwerke die anfallenden riesigen Datenmengen nicht schnell genug übertragen. Außerdem fehlt es den Client-Computern, den Rechnern der Anwender, zumeist an Rechen- und Graphikkapazität, so daß sich die Objekte auf dem Bildschirm nicht ruckfrei bewegen und die Detailtreue der Bilder eher mäßig bleibt. Die Technologie ist im Prinzip vorhanden; aber die Probleme werden sicherlich nicht kurzfristig zu lösen sein, weil eine schnelle dreidimensionale Visualisierung für den gewöhnlichen Anwender einfach zu teuer ist.
Eine Zwischenlösung mag das Einspielen von Audio- und Videosequenzen sein. Derartige Daten können technisch problemlos komprimiert werden und sind inzwischen zumindest im Intranet handhabbar; die Verfahren sind genormt und plattform-übergreifend verfügbar: MPEG-1 und MPEG-2 liefern akzeptable Video-Qualität und stellen hinreichend geringe Anforderungen an die Netzwerk-Bandbreite. MPEG-Decoder sind für fast alle gängigen Rechner als Software-Lösung verfügbar. Videosequenzen lassen sich komprimieren und auf einem Streaming-Media-Server speichern. Dort werden sie in eine Datenbank aufgenommen und stehen abrufbereit sämtlichen Clients zur Verfügung. Ein Web-Server, über den diese auf die Hypermedia-Anwendung zugreifen können, kann bei Bedarf die Videosequenzen vom Streaming-Media-Server abrufen und veranlassen, daß sie direkt an den Client geschickt werden.
Das größte Problem ist indes die richtige Dimensionierung der erforderlichen Server und des Netzes. Während die Ansprüche an einen Web-Server im allgemeinen recht gering sind, da er keine Videodaten in Echtzeit bearbeiten muß, sind diejenigen an den Datenbank- und Streaming-Media-Server entsprechend höher.
Da die Hypermedia-Dokumente auf den Verknüpfungen von multimedialen Elementen aufsetzen und der Datenbank-Server für die Berechnung dieser Verknüpfungen verantwortlich ist, muß er dafür ausgelegt sein, aus einem riesigen Datenbestand die gewünschten Dokumente innerhalb kürzester Zeit herauszufiltern. Dazu benötigt er größtmögliche Rechenleistung und Speicherkapazität. Datenbank-Server sind nicht für Echtzeit-Anwendungen dimensioniert, weil diese besondere Anforderungen an das Betriebssystem und das Input-Output (I/O)-Subsystem eines Rechners stellen und die Ansprüche an die I/O- und Hauptspeicherbandbreite gerade bei einem Streaming-Media-Server enorm sind.


Aus: Spektrum der Wissenschaft 3 / 1998, Seite 42
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.