Interaktion und Interaktivität

Interaktion ist eigentlich ein Begriff aus der Psychologie und bezeichnet einen auf der Basis gewisser Erwartungen, Einstellungen und Bewertungen beruhenden Austausch (von Information) auf sprachlicher oder nichtsprachlicher (symbolischer) Ebene. Interaktion ist also eng mit dem Begriff Kommunikation verbunden. Darum wird im Deutschen HCI auch oft als Mensch-Computer-Kommunikation bezeichnet. Interaktivität hingegen ist ein technischer Begriff, der Möglichkeiten und Eigenschaften des Computers bezeichnet, den Benutzerinnen und Benutzernverschiedene Eingriffs-, Manipulations- und Steuerungsmöglichkeiten zu ermöglichen.
Interaktivität wird zu einem didaktisch wichtigen Teil des technologiegestützten Lernens gezählt (Schulmeister, 2002), insbesondere weil Interaktivität die Möglichkeit bietet, dass die Endbenutzerinnen und Endbenutzer die Auswahl, die Art und die Präsentation von Informationen aktiv manipulieren können und damit ihrem individuellen Vorwissen und ihren Bedürfnissen anpassen können (Holzinger, Searle & Wernbacher, 2011). Das war allerdings nicht immer so. Zu Beginn der Computertechnik war die Interaktivität sehr beschränkt, Computer hatten weder Bildschirm noch Tastatur: Eingabedaten wurden mit Lochkarten in Stapelverarbeitung (Batch-Processing) an den Rechner übergeben, die sequenziell abgearbeitet wurden und als Output wiederum Ausgabedaten auf Lochkarten erzeugten.

Character-based User Interfaces

Die Verwendung von Bildschirm (vom Fernsehgerät) und Tastatur (von der Schreibmaschine) als Computer-Interface-Geräte war ein wichtiger Schritt: Zeichen sind nun unabhängig davon, was sie darstellen und können daher auf unterschiedlichste Weise realisiert werden. Anstatt einen auf Lochkarten vorgefertigtenStapel von Aufträgen zu liefern und auf das Ergebnis zu warten, wird die Aufgabe nun Schritt für Schritt im Dialog erledigt. Somit wird nicht nur die Durchführung der eigentlichen Aufgabe, sondern auch die Entwicklung der Aufgabenstellung im Dialog mit dem Computer unterstützt.
Das ist eine ganz wesentliche Voraussetzung für Lernprogramme. Allerdings waren es anfangs noch Dialogsysteme mit Kommandozeilen-Interpreter (engl. Command Line Interpreter,Shell). Dies waren die ersten User Interfaces, die bereits Text in der Kommandozeile einlesen, diesen Text als Kommando interpretieren und ausführen konnten. So konnten Programme gestartet, Parameter und Dateien übergeben werden. Die Realisierung als eigenständiges Programm führte schnell zu Verbesserungen zum Beispiel durch Fehlerbehandlungsroutinen und Kommandounterstützung. Waren Computerbenutzerinnen und Computerbenutzer anfangs noch ausgewiesene Expertinnen und Experten, wird nun – gerade aufgrund der immer breiteren Gruppe von Endbenutzerinnen und Endbenutzern -  die Benutzeroberfläche selbst zum Gegenstand von Forschung und Entwicklung. Damit war die Basis geschaffen, HCI an unterschiedlichste Dialogprinzipien anpassen zu können.

Graphical User Interfaces (GUI)

Die immer breitere Anwendung von Computern in der Öffentlichkeit verlangte, dass die zeichenbasierte Unabhängigkeit der Dialogsysteme noch weiter abstrahiert wurde, weil auch andere als alphanumerische Zeichen für die Darstellung und den Dialog verwendet werden können:Dies sind grafische Elemente, die analog zum alltäglichen Arbeiten durch Zeigen, Nehmen, Verschieben, Ablegenund anderes manipuliert werden können (sogenannte WIMP: Windows, Icons, Menus, Pointers). Diese WIMP-Interaktion, die sich als „Desktop Metapher“ an unterschiedliche Arbeitsumgebungen anpassen kann und über „Point&Click“ sowie „Drag&Drop“ benutzbar ist, eröffnete dem technologiegestützten Lernen einen ungeheuren Schub, da diese Möglichkeit der „direkten Manipulation“ virtueller Objekte den kognitiven Konzepten der Benutzerinnen und Benutzer sehr entgegenkommt.GUI und Desktop sind Kernparadigmen der HCI, die zwar kontinuierlich erweitert und verbessert werden (zum BeispielToolbars, Dialogboxen, adaptive Menüs), aber vom Prinzip her konstant bleiben. Dies ist eine Konstanz, die ein wichtiges Prinzip unterstützt: Reduktion kognitiver Überlastung. Die GUIs bestehen zwar aus grafischen Elementen, dochim Hintergrund bleiben abstrakte, zeichenbasierte Beschreibungen von Prozessen, die grundsätzlich unabhängig von der Art der Darstellung sind und daher auch über unterschiedlichste Interface-Prinzipien realisiert werden können.

Erweiterte WIMP-Interfaces: SILK (Speech, Image, Language, Knowledge)

Der Desktop als Metapher ist nicht für alle Anwendungsbereiche ideal. Durch die Einbindung von Multimedia (Sprache, Video, Gesten und andere mehr) in das GUI und die Integration mobiler und zunehmend pervasiver und ubiquitärer Technologien, also Computer, die in Alltagsgegenständen eingebettet und als solche gar nicht mehr erkennbar sind,werden Alternativen zu WIMP nicht nur möglich, sondern auch notwendig.Hier können quasi-intelligente, semantische Funktionen integriert werden, wodurch ein weiterer wichtiger Schritt erfolgte: Wenn Interfaces unterschiedlichste Metaphern unterstützen müssen und die Metapher an unterschiedliche Benutzerinnen und Benutzer, Medien, Endgeräte und Situationen angepasst werden muss, bedarf es einer Standardisierung der Interfacemechanismen und einer entsprechenden Beschreibung (zum Beispieldurch XUL – XML User Interface Language), die über unterschiedliche Werkzeuge realisiert werden können.
GUI und Desktop sind Kernparadigmen der HCI, die zwar kontinuierlich erweitert und verbessert werden (zum Beispiel Toolbars, Dialogboxen, adaptive Menüs), aber vom Prinzip her konstant bleiben.

Non-Classical Interfaces

Desktop und WIMP-Interfaces beruhen auf der Nutzung der klassischen Interface-Geräte (Bildschirm, Tastatur, Maus usw.), die Schritt für Schritt bei Beibehaltung ihrer Grundstruktur erweitert – zum Beispiel für SILK oder für andere Metaphern – und adaptiert werden. Die Leistungsfähigkeit der Computer und die zunehmende Unabhängigkeit der Interfaces integrieren damit Schritt für Schritt auch andere Ein- und Ausgabegeräte und Interaktionsmechanismen wie beispielsweise Sprache und Gesten. Unsere klassischen Sinne Sehen und Hören können damit durch weitere „körperbewusste“ (propriozeptive) Modalitäten wie Berühren/Tasten, Schmecken, Riechen, aber auch Temperatur, Gleichgewicht, Schmerz, Aufmerksamkeit und so weiter ergänzt werden. Solche „Non Classical Interfaces“ haben sich daher zu einem wichtigen Forschungsbereich entwickelt. Damit wird der Mensch als Ganzes in die Interaktion miteinbezogen, was zu neuen Möglichkeiten des Lehrens und Lernens führt (ein aktuelles Beispiel ist die Nintendo Wii mit der Wiimote (Holzinger et al., 2010).
Moderne Interfaces erlauben nicht nur die Interaktion des Menschen mit dem Computer mit herkömmlichen Eingabegeräten, sondern versuchen, haptische Möglichkeiten zu berücksichtigen.

Intelligente adaptive semantische Interfaces

Da heutige Computersysteme zunehmend alle Lebensbereiche durchdringen und sich die Interaktivität immer mehrvom klassischen Schreibtisch wegbewegt, verbreiten sich neue ubiquitäre, pervasive Möglichkeiten für das Lehren und Lernen (Safran et al., 2009). In Zukunft werden Benutzeroberflächen mit intelligenten, semantischen Mechanismen ausgestattetsein. Diese unterstützen die Benutzerinnen und Benutzerbei den immer vielfältiger und komplexer werdendenAufgaben des täglichen Lernens und wissensintensiven Arbeitens (zum Beispiel Suchen, Ablegen, Wiederfinden, Vergleichen). Diese Systeme passen sich dynamisch an die Umgebung, Geräte und vor allem ihre Benutzerinnen und Benutzer und deren Präferenzen an(Holzinger & Nischelwitzer, 2005). Entsprechende Informationen werden für die Gestaltung der Interaktion in Profilen gesammelt und ausgewertet (User profiling).Ebenso erlaubt die steigende technische Performanz,die Multimedialität und Multimodalität voranzutreiben, wodurch man sich von der Desktop Metapher immer weiter entfernen kann. Damit können adaptive Systeme realisiert werden, bei denen die Systeme selbst mit der Umgebung intelligent interagieren und semantische Information verarbeiten und so die User Interfaces der jeweiligen Situation, den Bedürfnissen, dem Kontext und den vorhandenen Endgeräten anpassen (Holzinger, Nischelwitzer & Kickmeier-Rust, 2006), (Holzinger, Geier & Germanakos, 2012). Personalisierung ist auf vielen Gebieten ein wichtiger Trend (Belk et al., 2013).

Web 2.0 als Ausgangspunkt der veränderten HCI

Mit dem Aufkommen des Web 2.0 (O’Reilly, 2005,2006) veränderte sich die Interaktion – weg vom klassischen Personal Computing. Die Benutzerinnen und Benutzer sind nicht mehr passive Informationskonsumentinnen und -konsumenten, sondern erstellen aktiv Inhalte, bearbeiten und verteilen und vernetzen sich darüber hinaus mit anderen (socialcomputing). Obwohl der Begriff Web 2.0 keine rein technische Entwicklung bezeichnet, werden einige Ansätze aus der Informatik unmittelbar damit verbunden wie zum Beispiel RSS-Feeds (Really Simple Syndication) zum schnellen Informationsaustauschfür die einfache und strukturierte Veröffentlichung von Änderungen auf Websites (beispielsweise Blogs) in einem standardisierten Format (XML) oder AJAX (Asynchronous JavaScript and XML) als mächtiges Konzept der asynchronen Datenübertragung zwischen einem Browser und einem Server. Damit hat man die Möglichkeit, in einem Browser ein desktopähnliches Verhalten zu simulieren, wodurch sich vielfältige Möglichkeiten für E-Learning-Anwendungen ergeben. Wir wenden uns nun aber in aller Kürze einigen Grundregeln für benutzergerechte HCI zu.