Tablet PCs als Fernsteuerung von Anwendungen für die Visualisierung biomedizinischer Daten

von Michael A. Narayan, Jian Chen und Manuel A. Pérez-Quiñones
Computer Science and Center for Human-Computer Interaction
Virginia Tech, Blacksburg, VA 24060, USA

Die Interaktion mittels Multi-Plattform-Benutzeroberflächen (MPUIs) wird in realen Anwendungen vermehrt eingesetzt, besonders in der Telemedizin, der universitären Bildung, sowie in Anwendungen für die ingenieurmäßige Entwicklung. Ein Teil der Alleinstellungsmerkmale dieser nicht-traditionellen Benutzeroberflächen liegt in der Aufteilung von Informationen zwischen mehreren Anzeigemechanismen, sowie in der Fernsteuerung der Information (z.B. indem ein Computer verwendet wird, um eine remote Anzeige zu steuern). Wir haben eine Studie mit drei Szenarien durchgeführt: mit einem Tablet PC gemeinsam mit einem traditionellen Desktop, mit einem Tablet PC zusammen mit einer großen Darstellung (LSD = Large Screen Display) sowie mit einem Desktop-Rechner. Die Ergebnisse zeigten, dass viele Anwender die vertraute Oberfläche von Microsoft Windows auf dem Tablet PC bevorzugten. Häufig hatten die Anwender Probleme, ihre Erfahrungen einzusetzen, wenn sie mit dem Tablet PC arbeiteten und die Form des Tablet PC funktionierte je nach Bedingung für oder gegen den Anwender. Unsere Ergebnisse legen nahe, dass noch viele Probleme zu lösen sind, dass aber tragbare Geräte grundsätzlich eine hoch effektive Steuerung virtueller Umgebungen ermöglichen.

Einführung

In den vergangenen Jahren hat die Biomedizin großartige Fortschritte gemacht, von denen viele mit den großen Verbesserungen zusammenhängen, die die auf dem Feld der Bildverarbeitung gemacht wurden. Ärzte können über das Internet eine detaillierte Analyse von MRI- und CT-Aufnahmen durchführen, die es ihnen ermöglichen, die Gesundheit älterer Patienten mit Diabetes zu beurteilen. In der Biomedizin müssen große Datenmengen visualisiert werden, zu denen die elektronische Datenakte des Patienten, die Behandlungsrichtlinien sowie Systeme zur Entscheidungsfindung gehören können. Die Präsentation dieser Informationen auf einem Anzeigegerät kann unübersichtlich sein. Die Aufteilung der Informationen auf unterschiedliche Anzeigegeräte kann helfen, dieses Problem zu lösen.

Aufgrund der schnellen Verbreitung mobiler Geräte können die Menschen immer und überall bequem auf Informationen zugreifen. In diesem Artikel erkunden wir, wie einfach es ist, auf solche Informationen zuzugreifen und sie zu steuern. Auf der Oberfläche generieren Multi-Plattform-Benutzeroberflächen eine Umgebung mit mehreren Blickwinkeln auf die Daten. Das wirft die Frage ob, ob es möglich ist, ein tragbares Gerät effektiv als remotes Steuergerät für eine Umgebung mit mehreren Anzeigegeräten zu verwenden und welche Hürden wir überwinden müssen, um ein solches Szenario in der Realität nutzen zu können.

Zunächst untersuchen wir die Verwendung eines Tablet PCs als remotes Steuergerät für die Arbeit mit dreidimensionalen biomedizinischen Daten in einer Umgebung mit vielen Informationen, in der verschiedene Körperteile präsentiert werden. Dabei untersuchten wir sowohl horizontale als auch vertikale Probleme in den Bereichen Kontextumschaltung, Portierbarkeit, Aufmerksamkeit und Lernfähigkeit. Die Untersuchung wurde durch eine vergleichende Studie dreier Paradigmen der Interaktion durchgeführt: ein Desktop, ein Monitor, der mit einem Tablet PC verbunden ist sowie ein Großbildschirm, der mit einem Tablet PC verbunden ist. Alle Paradigmen wurden unter Beachtung verschiedener Suchaufgaben analysiert.

Diese drei Konfigurationen verfügen über unterschiedliche Oberflächen. Wir bezeichnen die unterschiedlichen Konfigurationen als traditionell (Desktop), Klassenraum (Monitor und Tablet PC) und Großraum (Tablet PC und großer Bildschirm). In der traditionellen Konfiguration imitiert die Oberfläche die Interaktion, die in der Regel auf einem Desktop-Computer anzutreffen ist. Die Oberfläche der Klassenraumkonfiguration steuert der Anwender über den Tablet PC als Fernsteuerung, die aber auch die genauere Untersuchung der Situation auf dem Bildschirm ermöglicht. Das Großraumszenario enthält ein Beispiel für Oberflächen, die durch Weisers Vision des Computers des 21. Jahrhunderts inspiriert ist, in dem der Tablet PC durch einen Anwender herumgetragen wird, der seinen Standort wechseln und den Rechner nutzen kann, welcher mit einem festen großen Bildschirm oder einem 3D Stereoskopie-Anzeigegerät zusammenarbeitet, damit der Anwender auf die ihn interessierenden Informationen zugreifen kann.

Erforderliche Arbeiten

Oquist und seine Koautoren präsentierten ein Framework für die Sicherstellung der Usability in Multi-Plattform-Oberflächen. In ihrem Framework wird die Usability mobiler Geräte in vier Kategorien eingeteilt: Portabilität, Aufmerksamkeit, Verwaltbarkeit und Erlernbarkeit. Der Verwendungskontext ist in vier Situationen aufgeteilt, als stationär, im Sitzen, Stehen und in Bewegung bezeichnet. Anschließend werden die Stufe der Aufmerksamkeit/des Abfalls der Aufmerksamkeit, Verwaltbarkeit und Erlernbarkeit mit diesen vier Bedingungen im Hinterkopf bewertet. Wir haben aber festgestellt, dass dieses Framework uns zu sehr einschränkt, wenn die Aufgabe darin besteht, komplexe Szenarien bei der Nutzung eines einzelnen Geräts zu beobachten. Unter verschiedenen Umständen kann die visuelle Aufmerksamkeit auf eine einzelne Anzeige beschränkt sein, auch wenn mehrere Anzeigen präsentiert werden. Ist eine Oberfläche gut designt, kann die Stufe der Aufmerksamkeit erhöht oder verringert werden, je nach den Anforderungen der Aufgabe.

Die Probleme der Usability auf dem Tablet PC als Fernsteuerung wurden im Klassenraum [1] sowie beim heimischen Webzugang [9] erforscht. Die Arbeit an diesen Projekten berührt einige Usabilityprobleme, die auftauchen können, wenn der Tablet PC als Gerät für die Fernsteuerung eingesetzt wird. Wir haben diese Arbeit bei der Betrachtung der Usability beim Umgang mit einer Anwendung für die Visualisierung dreidimensionaler biomedizinischer Daten weitergeführt, die mit großen Mengen interdisziplinärer Daten arbeitet. In diesem Fall musste keine Kontextumschaltung erfolgen, sondern das zusätzliche Anzeigegerät wurde für die Präsentation von Informationen verwendet, nicht für die Anzeige von Informationen, auf die die Anwender konstant Zugriff haben.

Der Schwerpunkt der Arbeit lag in der Verwendung von MPUIs für die Interaktion mit virtuellen Umgebungen (VEs = Virtual Environments) [3, 7, 13]. Dabei wurde besonders auf die Probleme des Aufbaus geachtet, vor denen ein Designer stehen kann, wenn er diese Systeme erstellt, nicht auf die Probleme, mit denen sich ein Anwender konfrontiert sehen könnte, wenn er ein solches System verwendet. Damit wollten wir eine Lücke in der früheren Forschung füllen, indem wir weiter untersucht haben, welche Probleme für einen Anwender auftauchen könnten, wenn er mit einer VE mittels eines kleineren Handheld-Geräts arbeitet.

In der Terminologie der dreidimensionalen Anzeige und Informationsvisualisierung wurde viel Forschungsarbeit investiert, um festzustellen, wie Informationen effektiv angezeigt werden können. In [2] untersuchen die Autoren den Einsatz mehrerer Anzeigegeräte für die Anzeige von Daten, die eine große Anzahl Komponenten enthalten und kommen zu dem Schluss, dass die Verwendung mehrerer Anzeigegeräte den Anwender beim Verständnis der Information unterstützen kann. Bowman und seine Koautoren [4] präsentierten Ergebnisse des Designs von Anwendungen für die Visualisierung von 3D-Informationen sowie auch einige Aspekte bei der Verwendung dieser Anwendungen.

Umfang und Ziel der Anwendung

Wir haben hier eine Umgebung untersucht, die eine biomedizinische 3D-Ansicht erstellt. In dieser Umgebung können wir die Informationen in zwei Haupttypen aufteilen – räumlich und symbolisch. Die räumliche Information ist die 3D-Darstellung des relevanten Bereichs der menschlichen Anatomie, während die symbolische Information aus verschiedenen Attributen besteht, die anzeigen, welcher Körperteil angezeigt wird und welche Labels angezeigt werden.

Um die Usabilityprobleme studieren zu können, die in Multi Plattform-Oberflächen auftauchen, mussten wir zunächst eine Multi Plattform-Oberfläche designen. Wir haben hauptsächlich zwei Plattformen verwendet, zunächst eine SGI Workstation, die eine große Anzeige steuern konnte, und anschließend einen Tablet PC. Die Oberfläche der großen Anzeige haben wir zum großen Teil aus einem bestehenden System entwickelt, das es Medizinstudenten ermöglicht, die menschliche Anatomie zu studieren. Unser Ziel war, den Anwender in die Lage zu versetzen, mit der Anwendung über den Tablet PC als eine Art Fernbedienung zu arbeiten. Wir wollten, dass diese Interaktion weitgehend auf die gleiche Weise geschah wie der Anwender mit einer Anwendung arbeiten würde, wenn er mit einer normal großen Anzeige mit einer Maus und einer Tastatur als Eingabegerät arbeiten würde.

Die logischen Grundlagen und der Design-Prozess

Wir haben unsere Oberfläche in zwei Phasen designt. Um eine Oberfläche zu erstellen, die so realistisch wie möglich ist, haben wir zunächst die Anwender befragt, wie sie einen Tablet PC verwenden würden, um eine große Anzeige für biomedizinische Visualisierung zu steuern. Aufgrund der Ergebnisse der Befragung haben wir iterativ die Oberfläche für die Fernsteuerung durch den Tablet PC entworfen und geprüft. Unser Ziel war, die Anwender in die Lage zu versetzen, mit dem Tablet PC die Anwendung möglichst so zu steuern, wie sie es bei der Verwendung einer normal dimensionierten Anzeige mit einer Maus und einer Tastatur erledigen würden.

Während der ersten Phase haben wir sechs medizinische Experten interviewt, davon fünf Mitglieder der Fakultät sowie einen graduierten Studenten mit umfangreicher klinischer Erfahrung. Diese Auswahl spiegelte unser Ziel wider, die potentielle Verwendung des Tablet PCs sowie der Oberflächentypen den Anforderungen der Anwender bei einer Anwendung zur Darstellung der menschlichen Anatomie anzupassen.

Wir haben aus der Umfrage drei Erkenntnisse gezogen:

  1. Bereits bevor wir Hinweise darauf gegeben hatten, welches Projekt angedacht war, waren viele Teilnehmer der Meinung, dass der Tablet PC für remote Steuerungsoperationen hilfreich sei. Als Beispiel präsentierte ein Teilnehmer ein Szenario, in dem ein Radiologe auf Abbildungen auf einer remoten Site zugriff und diese mit den Bildern verglich, die er von einem Server empfing.
  2. In dieser Anwendung wurden zwei Informationstypen verwendet, räumliche (3D-Darstellungen) und symbolische (Beschriftungen verschiedener Körperteile). Alle Teilnehmer bevorzugten eine strukturierte Hierarchie der angezeigten Informationen im Vergleich zur reinen alphabetischen Reihenfolge, wenn die Struktur der Information der anatomischen Struktur entspricht.
  3. Die Teilnehmer bevorzugten es, die Steuerung von einer Stelle aus vorzunehmen, statt die symbolischen Daten von einer Stelle aus zu steuern und die räumlichen Daten von einer anderen Stelle aus. Zusätzlich wollten die Anwender viele der symbolischen Daten an der gleichen Stelle sehen wie die räumlichen Daten.

Ursprünglich hatten wir geplant, die symbolische Information auf dem kleineren Gerät anzuzeigen, während die räumliche Information auf dem großen Bildschirm präsentiert werden sollte. Die Anwenderbefragungen zeigten aber, dass es eine schlechte Lösung ist, die Informationen auf die beiden Geräten aufzuteilen. Obwohl diese Aufteilung der Informationen vom Konzept her einfach ist, haben wir erkannt, dass die Anwender eine Stelle für die Steuerung bevorzugen und dass Sie einen Großteil der symbolischen Daten an der gleichen Stelle wie die räumlichen Daten sehen möchten. Aus diesem Grund haben wir unsere Informationsaufteilung geändert, so dass alle biomedizinischen Informationen (z.B. Bilder und Beschriftungen) auf dem großen Gerät angezeigt wurden, während alle Steuerungsinformationen und Eingaben auf dem kleineren Gerät verarbeitet wurden.

Das Design und die Implementierung des Systems

Mit diesen Einsichten im Hinterkopf haben wir die Anwendung MoVE (Multiplatform Visible human Explorer) designt, die die plattformübergreifende Interaktion zwischen einem Tablet PC und einer SGI Origin 10000 Workstation (Abbildung 1) unterstützt. Die SGI wurde für die Anzeige der 3D-Volumendaten verwendet, die auf einer IRIX6.5 lagen und der Tablet PC (ein Toshiba Portégé) wurde als Fernsteuerung verwendet. Durch diese Kommunikation konnte keine merkbare Verzögerung festgestellt werden (weniger als 1 ms).

Abbildung 1. Der Versuchsaufbau. Links: Nur Monitor, Mitte: der Tablet PC steuert den Monitor, rechts: der Tablet PC steuert die Projektion an der Wand.

Die Oberfläche

Das Ergebnis unseres Oberflächendesigns sehen Sie in den Abbildungen 2 und 3. Die Anwender konnten den menschlichen Körper durch die Kombination der 2D- und 3D-Oberflächen auf eine natürliche und intuitive Weise untersuchen. Eine explizite Verbindung zwischen den räumlichen und symbolischen Daten wurde entsprechend dem Klick der Anwender auf der Struktur des Tablet PCs auf der Anzeige präsentiert, die mit dem SGI verbunden war. Mit unserem System können die Anwender folgende Aktionen ausführen:

  1. Umschalten für die Oberflächen für Transparenz, Ausschneiden und rotieren, indem auf dem Tablet PC auf einen Tab getippt wird.
  2. Tippen auf ein Element in der hierarchischen Struktur auf dem Tablet PC, um die dazugehörige Struktur auf der SGI-Anzeige anzuzeigen.
  3. Verschieben eines Reglers, um die Transparenz eines Elements zu ändern.
  4. Verwenden einer Geste mit dem Stift auf dem Tablet PC, um ein Objekt zu rotieren.

Die Oberflächen im WIMP-Stil boten den Anwendern eine vertraute Methode der Interaktion.

Abbildung 2. Die Benutzeroberfläche auf dem Tablet PC.

Abbildung 3. Die dreidimensionale Visualisierung der Daten.

Die Architektur der Software

Auf dem Tablet PC wurde die Programmierung mit Microsoft .NET und C# auf der Grundlage einer TCP Client-Server-Architektur implementiert. Die SGI, die mit IRIX arbeitete, führte mehrere Threads aus und verwendete eine Architektur mit gemeinsam genutztem Speicher. Ein Thread überwachte die Daten, die durch den Tablet PC gesendet wurden und schrieb in den gemeinsam genutzten Speicher; der andere Thread behandelte die Visualisierung der Daten mit X Windows und OpenGL VolumizerTM. Er wurde in Echtzeit aktualisiert, wenn der gemeinsam genutzte Speicher aktualisiert wurde.

Für die Kommunikation mit der SGI Workstation wurden standardmäßige TCP/IP Sockets verwendet. Dadurch war es uns möglich, für die Verbindung mit der Workstation eine standardmäßige drahtlose Verbindung zu verwenden. Obwohl auf beiden Plattformen die gleiche Funktionalität ausgeführt wurde unterschied sich das Look and Feel der beiden Anwendungen aufgrund der Unterschiede zwischen den beiden Betriebssystemen substantiell. Auf dem Tablet PC wurden die Standardelemente von Windows einschließlich von Fenstern mit Tabs und aufklappbaren Menüs verwendet. Auf der SGI-Maschine wurden die Oberflächenelemente mit Motif designt. Aus diesem Grund erscheint die Oberfläche auf der SGI als ein Satz von Schaltflächen und Schiebereglern. Zusätzlich zu den Unterschieden auf der Oberfläche durch die unterschiedlichen Plattformen unterschied sich die Methode für die Rotation der Darstellung auf den beiden Geräten. Bei der Arbeit mit dem Monitor über Tastatur und Maus konnte der Anwender direkt auf die 3D-Darstellung klicken und sie rotieren, indem er die Maus bewegte. Da der Anwender nicht direkt mit der Darstellung arbeitete, wenn er den Tablet PC als Fernsteuerung für die Rotation benutzte, wurde ein Standbild der Darstellung an den Tablet PC gesendet. Dieses Bild wurde in einem kleinen Fenster angezeigt, das der Anwender ziehen konnte, um die Darstellung zu rotieren.

Das Design des Experiments

Für unser Experiment verwendeten wir zwei Anzeigearten. Die erste Anzeige war ein Standardmonitor mit einer Bildschirmdiagonalen von 21 Zoll und die zweite war eine Projektion des Bildschirms an eine Wand (CAVE = Automatic Virtual Environment). Die Software, die auf der SGI-Maschine lief, war in der Lage, eine stereoskopische 3D-Simulation an der Wand zu erzeugen, allerdings waren wir nicht in der Lage, dieses Feature zu nutzen, da die Stereoskopiebrillen, die für die Ansicht der 3D-Darestellung erforderlich sind, mit der Refreshrate des Tablet PCs in Konflikt gerieten, was zu einem unangenehmen Flackern bei der Ansicht des Tablet PCs führte. Dieses Problem könnte durch passive Gläser gelöst werden, die aber leider im Labor nicht vorhanden waren. Wir waren der Ansicht, dass die Ansicht der Daten in einer vollständigen 3D-Darstellung einen besseren Eindruck vermitteln und eine schnellere Performance bei der Suche nach den Informationen ermöglichen würde.

Der Tablet PC, der als Fernsteuerung für die SGI Workstation verwendet wurde, war ein Toshiba Portègè 3505, auf dem Windows XP Tablet PC Edition ausgeführt wurde und der mit einem 1,33 GHz Pentium III Prozessor und einer 12,1 Zoll- Anzeige ausgestattet war. Der Anwender arbeitete mit dem Tablet PC mit Hilfe des Stylus, was es ihm ermöglichte, den Tablet PC wie einen normalen Block aus Papier zu halten. Das primäre Ziel dieses Designs war, dem Anwender zu ermöglichen, während der Arbeit mit dem Gerät zu stehen und sich zu bewegen.

Wir haben das Experiment in zwei Schritten durchgeführt. Im ersten Schritt führten wie eine qualitative Analyse im Hinblick auf die Aufgabe unserer Anwendung durch (z.B. biomedizinische Visualisierung). Für diesen Schritt haben wir sechs fachliche Experten eingesetzt, fünf Mitglieder der Fakultät, sowie einen graduierten Studenten (der über zwei Jahre klinischer Erfahrung verfügte, bevor er die medizinische Schule besuchte). In dieser Stufe verwendeten wir ein Laut-Denken-Protokoll, um die Reaktionen der Anwender auf das Oberflächendesign zu beobachten, sowie um festzustellen, welche Verbesserungen für die Anwender hilfreich wären. In diesem Schritt ermöglichten wir den Anwendern, die Anwendung auf beliebige Weise zu erkunden. Wir wollten in erster Linie feststellen, welche realistischen Einsatzgebiete zu erwarten sind und sicherstellen, dass wir keine Anwendung erstellen, die sich auf die Verwendung der MPUI konzentriert und dabei die fachliche Verwendung vernachlässigt.

Im zweiten Schritt haben wir uns primär auf das MPUI der Anwendung konzentriert. Für diesen Schritt haben wir sechs Teilnehmer im Alter zwischen 22 und 30 Jahren rekrutiert, fünf Männer und eine Frau. Fünf Teilnehmer waren graduierte Studenten der Computer Science Fakultät und ein Teilnehmer kam vom Systems Engineering Department. Wir ließen sie alle drei Methoden der Interaktion ausprobieren und änderten dabei die Reihenfolge, in der die Teilnehmer diese Methoden sahen. Die Teilnehmer erhielten jeweils etwa fünf Minuten, um sich mit der Oberfläche vertraut zu machen. Anschließend erhielten sie zwei Aufgaben, die darin bestanden, Informationen zu finden. Zur Lösung dieser Aufgaben mussten sie alle Features der Anwendung einsetzen. Wir beobachteten die Teilnehmer sowohl bei der Lösung der Aufgaben als auch bei der Erforschung der Oberflächen. Nachdem sie mit allen Konfigurationen gearbeitet hatten, baten wir sie, einen kurzen Fragebogen auszufüllen und uns ihre Eindrücke im Hinblick auf die Oberflächen mitzuteilen.

Die Ergebnisse des Experiments

Während der ersten Phase des Experiments kamen wir zu einem interessanten Ergebnis aufgrund einer Komplikation im Zusammenhang mit der MPUI. Viele der Fachleute bevorzugten die Arbeit mit dem Tablet PC gegenüber der direkten Arbeit mit der normalen GUI, da sie mit der Oberfläche des Tablet PCs besser vertraut waren. Grund dieser Vorliebe war zweifelsfrei, dass die Oberfläche auf dem Tablet PC die bekannten Steuerelemente von Microsoft Windows verwendete, mit denen die Anwender vertrauter sind als mit den eher exotischen Steuerelementen des UNIX-Systems.

Die erste Phase diente uns in erster Linie, sicherzustellen, dass das Experiment eine Aufgabe der realen Welt repräsentiert. Bevor wir zur zweiten Phase übergingen, änderten wir unsere Oberfläche auf der Basis der Informationen, die uns die Anwender mit Fachkenntnissen mitteilten und aus denen wir erfuhren, was bei dieser Art der Anwendung erforderlich ist. Auf diese Weise konnten wir während der zweiten Phase unseres Experiments unseren Fokus exklusiv auf das MPUI der Anwendung richten und dadurch zu einigen interessanten Resultaten gelangen.

Probleme mit der Interaktion

Die Teilnehmer bewerteten die Interaktion mit dem Monitor, der durch den Tablet PC gesteuert wurde als schlechtesten Versuchsaufbau (3,7), die Kontextumschaltung als nächstbesseres Vorgehen (3,8) und die Fernsteuerung am besten (5,2 für das LSD und 4 für den Monitor) auf einer Skala von 1 bis 7, wobei 1 die schlechteste Wertung war, 4 neutral und 7 die beste Wertung. Siehe dazu Tabelle 1.

Tabelle 1. Zusammenfassung der Ergebnisse der Befragung.

Die Frustration der Anwender mit der Interaktion lässt sich durch die fehlende Erfahrung der meisten Teilnehmer mit der Stifteingabe erklären. Sie hatten daher Probleme im Umgang mit der Kombination aus Tippen und dem Wechsel Cursorposition. Dieses Ergebnis legt nahe, dass der Tablet PC für Anfänger in dieser Art der Anwendung nicht geeignet ist. Dies hat Einfluss auf die Bedingungen, unter denen der Tablet PC für die Ausleihe in einer Bibliothek oder in einem anderen öffentlichen Bereich eingesetzt werden könnte.

Unsere Beobachtungen zeigten, dass die meisten Teilnehmer keine Probleme bei der Interaktion mit der „Touch-Pad“-Oberfläche hatten, mit der sie die Rotation steuerten. Sie konzentrierten sich nicht auf den Tablet PC (der für sie weitgehend unsichtbar wurde), sondern auf die Darstellung auf dem primären Anzeigegerät. Andererseits lenkten die Anwender ihre volle Aufmerksamkeit auf den Tablet PC, wenn sie andere Elemente der Oberfläche verwendeten. Die Aufmerksamkeit der Anwender galt dem Gerät, das das Ergebnis der durchgeführten Manipulation enthielt. Wir vermuten, eine Interaktion, in der die Anzeige des Ergebnisses zwischen den beiden Geräten aufgeteilt ist, eine schlechte Usability aufweist, da auf diese Weise die Aufmerksamkeit häufiger zwischen den beteiligten Geräten wechselt.

Probleme mit dem Wechsel der Aufmerksamkeit zwischen den Geräten

Die Teilnehmer bewerteten die Desktop-Oberfläche als die Oberfläche, die am einfachsten zu bedienen ist (6,2 auf der 7er Skala). Diese Oberfläche erforderte keinen Wechsel  der Aufmerksamkeit zwischen zwei Geräten, da sich die Anzeige wie auch die Steuerung auf der gleichen Oberfläche befanden. Interessant war, dass die Teilnehmer aussagten, dass die Darstellung durch die Projektion weniger Probleme mit dem Aufmerksamkeitswechsel hervorrief als der Wechsel zwischen einem Monitor und dem Tablet PC als Fernsteuerung.

Während der Verwendung des Tablet PCs mit dem Monitor platzierte ein Teilnehmer den Tablet PC in die Nähe des regulären Monitors, um den Aufwand des Wechsels der Aufmerksamkeit zwischen den Geräten zu verringern.

Obwohl das LSD als auch die monitorbasierte Oberfläche die gleiche Anzahl Aufmerksamkeitswechsel erforderten, wenn ein Tablet PC als Fernsteuerung eingesetzt wurde, hatten die Anwender mit dem LSD weniger Probleme, was durch die periphere Verarbeitung erklärt werden kann, in der die Oberfläche versucht, die Aufmerksamkeit der Benutzer nur am Rande auf sich zu ziehen, wie es Ullmer und Ishii [12] empfehlen. Die periphere Verarbeitung, die das LSD anbot, ermöglichte es den Anwendern, ihre Aufmerksamkeit auf die unterschiedlichen Geräte zu lenken, ohne dafür die Blickrichtung ändern zu müssen [14]. Bei der Verwendung der monitorbasierten Oberfläche musste der Anwender meist seinen Kopf hin und her bewegen, wenn er seine Aufmerksamkeit von einem Gerät auf das andere lenkte. Die Ausnahme war der Anwender, der den Tablet PC neben dem Monitor platzierte, eine Strategie, die die Aufmerksamkeitswechsel verringerte. Wir sind der Meinung, dass dieses Ergebnis nahelegt, dass das Studium der Blickrichtungen eine interessante Aufgabe für die Zukunft darstellt.

Probleme mit dem Large Screen Display

Wir haben die Teilnehmer beobachtet, während sie sich mit den Oberflächen vertraut machten. Dabei haben wir festgestellt, dass diejenigen Teilnehmer, die zunächst die Oberfläche des Tablet PCs verwendet haben, das System genauso schnell erlernten wie diejenigen, die zunächst die Maus und die Tastatur als Eingabegeräte verwendeten. Sie waren auch in der Lage, die erste Aufgabe in etwa der gleichen Zeit zu erledigen. Interessant war aber, dass unabhängig von der Tatsache, dass die zweite Aufgabe funktional mit der ersten identisch war, diejenigen Teilnehmer, die als erstes Gerät den Tablet PC verwendet haben, häufig für die Erledigung der zweiten Aufgabe fast so viel Zeit benötigten wie für die Erledigung der ersten Aufgabe. Dieses Ergebnis änderte sich auch nicht, wenn sie zur Oberfläche mit der Maus- und Tastaturbedienung wechselten. Diejenigen Teilnehmer, die als erste Eingabegeräte die Maus und Tastatur verwendeten, benötigten für die Erledigung der ersten Aufgabe etwa 40 Sekunden und circa 10 Sekunden für die zweite Aufgabe. Die Teilnehmer, die als erste Oberfläche den Tablet PC verwendeten, benötigten für beide Aufgaben etwa 10 Sekunden. Aufgrund der geringen Anzahl der Teilnehmer an unserem Experiment können wir nicht entscheiden, ob dies eine allgemeingültige Beobachtung ist oder lediglich eine Besonderheit der Teilnehmer an diesem Experiment. Wir vermuten aber, dass die Teilnehmer Probleme mit der Koordination ihrer Aktionen auf der remoten und der primären Anzeige hatten, wenn sie Prozesse mit mehreren Schritten ausführten. Obwohl die Anwender auf einfache Weise herausfinden konnten, wie sie mit einem Schieberegler arbeiten mussten, um die Transparenz zu erhöhen oder zu vermindern, können sie die Koordination zwischen ihrer Aktion und dem daraus resultierenden Ergebnis verlieren, wenn sie mit ihrem Blick zwischen den Ansichten wechseln müssen. Ohne diese Koordination könnte der Anwender Probleme haben, zu beobachten, wie seine Aktion sich auf den aktuellen Status ausgewirkt hat und aus diesem Prozess zu lernen. Dieses Problem könnte aufgrund der zusätzlichen Belastung entstehen, da der Anwender mit zwei Geräten parallel umgeht und aufgrund einer vererbten Schwierigkeit der Menschen, einen Status über mehrere Geräte hinweg zu verfolgen.

Probleme mit dem Formfaktor

Obwohl viele Anwender das Gefühl hatten, dass der Tablet PC zu schwer sei, um im Stehen verwendet zu werden, fanden gerade diese Anwender häufig interessante Möglichkeiten, von der Mobilität des Tablet PCs zu profitieren. Die eventuell interessanteste Verwendung der Mobilität war, als einer der Anwender den Tablet PC unterhalb des Monitors platzierte und dadurch den Monitor vergrößerte. Dadurch konnte der Anwender mit der Oberfläche arbeiten, als würde er mit einem Tablet PC mit zwei Anzeigen umgehen. Gleichzeitig platzierte der Anwender die Steuerungsinformationen an der Stelle, an der er sie für am bequemsten hielt. Durch die Möglichkeit des Anwenders, nicht nur die Art anzupassen, auf die die Information angezeigt wird, sondern auch die Anzeige selbst, bietet der Tablet PC eine interessante Erweiterung der Anpassbarkeit einer Anwendung, die unserer Meinung nach einer weiteren Untersuchung wert ist.

Wie bereits ausgeführt, bedienen die meisten Anwender den Tablet PC bevorzugt im Sitzen. Während uns einer der Anwender mitteilte, dass er kein Problem damit habe, den Tablet PC im Stehen zu verwenden, teilten die anderen mit, dass er zu schwer sei, um effektiv in einer Hand gehalten zu werden. Wenn wir davon ausgehen, dass der Tablet PC für ein Gerät seiner Größe extrem leicht ist, scheint diese Aussage darauf hinzuweisen, dass viele Anwender sich nicht damit anfreunden können, ein moderat großes Gerät im Stehen zu verwenden. Wir sollten noch bemerken, dass keiner der Anwender, die diese Beobachtung gemacht hatten, Erfahrungen mit der Verwendung von Handheld-Geräten hat, so dass anzunehmen ist, dass sie mit den Möglichkeiten, ein solches Gerät zu halten, nicht vertraut sind.

Auf die Frage nach der bevorzugten Größe für das Handheld-Gerät antwortete keiner der Teilnehmer, dass das Gerät größer sein sollte, während einige Teilnehmer sich dringend ein kleineres Gerät wünschten. Sie hatten das Gefühl, dass ein kleineres Gerät einfacher zu halten sein würde und dass der Tablet PC mehr als ausreichend Raum bereitstellte, um alle erforderlichen Informationen anzuzeigen. Wäre es erforderlich, eine größere Informationsmenge anzuzeigen, wären die Anwender nicht willens, ein kleineres Gerät zu akzeptieren. Aufgrund der Klagen über das Gewicht des Tablet PCs ist es unwahrscheinlich, dass viele Anwender bereit wären, ein größeres Gerät zu akzeptieren, unabhängig von der Informationsmenge, die angezeigt werden muss.

Ursprünglich waren wir davon ausgegangen, dass einige Anwender versuchen könnten, den Tablet PC auf eine Weise zu halten, die den Blick auf den Bildschirm verstellt. Wir haben aber festgestellt, dass dies nicht der Fall war. Die Anwender hielten den Tablet PC automatisch so, dass er ihre Sicht nicht beeinträchtigte. Das bedeutet nicht, dass sie keine Probleme mit der Positionierung des Tablet PCs hatten. Die Hälfte der Anwender hatte das Gefühl, dass es extrem unkomfortabel war, den Tablet PC in der Position zu halten, in der sie ihn hielten. Interessant war, dass die andere Hälfte der Anwender die Halteposition als sehr bequem empfand; die Frage brachte nur extreme Antworten ohne unentschiedene Antworten. Dies könnte ein Zeichen dafür sein, dass einige Anwender die Verwendung eines Handheld-Geräts insgesamt als nicht akzeptabel empfanden oder es könnte bedeuten, dass einige Anwender nicht ausreichend vertraut mit diesen Geräten sind, um sie bequem bedienen zu können.

Einfache Anwendung

Wenn wir den Schwierigkeitsgrad der Bedienung der drei unterschiedlichen Konfigurationen vergleichen, stellen wir fest, dass die Anwender die Verwendung von Maus und Tastatur als am Einfachsten empfanden und die Verwendung des Tablet PCs zusammen mit dem Standard-Monitor als am Schwierigsten. Dazu ist anzumerken, dass alle Teilnehmer an dem Test überdurchschnittliche Erfahrung im Umgang mit dem Computer und daher auch mit der Maus und der Tastatur haben und daher diese Methode der Bedienung eher bevorzugen als es eine Gruppe tun würde, die weniger Verständnis im Umgang mit dem Rechner hat. Obwohl die Anwender sich vertrauter im Umgang mit Maus und Tastatur fühlten, berichteten sie über keine besonderen Probleme im Umgang mit dem Tablet PC.

Die Ergebnisse

Die Ergebnisse unserer Experimente wiesen auf einige Probleme des MPUI-Designs für virtuelle Umgebungen hin. Eines der ersten Dinge, das wir festgestellt haben, war, dass unerfahrene Anwender es als einfacher empfinden, mit den Standardelementen von Microsoft Windows zu arbeiten, mit denen sie vertraut sind. Es ist zwar möglich, die vertrauten Elemente auch in anderen Systemen zu erstellen, allerdings bedeutet dies einen erheblichen Mehraufwand. Aus diesem Grund ist es sinnvoll, eine Plattform zu nutzen, mit der die Anwender bereits vertraut sind. So kann die Möglichkeit der Anwender verbessert werden, mit der Anwendung komfortabel und effektiv zu arbeiten. Zusätzlich haben wir festgestellt, dass Anwender, die im Umgang mit dem Computer nicht so vertraut sind, sich mit dem Tablet PC sicherer fühlten als Anwender, die vertrauter mit dem Computer sind, wobei die Anwender, die mit dem Tablet PC am besten zurechtkamen, diejenigen waren, die bereits Erfahrungen mit anderen Handheld-Geräten vorweisen konnten. Daraus können wir schließen, dass Nutzer, die bereits mit Tastatur und Maus vertraut sind, weniger bereit sind, zu einer anderen weniger vertrauten Eingabemethode zu wechseln als Anwender, die nicht an die Eingaben mit Tastatur und Maus gewöhnt sind.

Wie wir bereits weiter oben ausgeführt haben, hatten wir den Eindruck, dass die Anwender Probleme hatten, ein effektives mentales Modell für die Anwendung zu entwickeln, wenn die beiden Geräte in Kombination verwendet wurden. Obwohl sie in der Lage waren, problemlos einfache Aufgaben zu erlernen und mit wenigen Problemen auch erweiterte Aufgaben erledigten, hatte es den Anschein, dass Aufgaben, die mehrere aufeinanderfolgende Aktionen erforderten, schwierig effektiv durchzuführen waren. Dieses Problem zu lösen scheint besonders wichtig zu sein, auch wenn wir nicht wissen, wie es am besten angegangen werden sollte. Eine mögliche Lösung könnte sein, die Anzahl der Aktionen mit mehreren Schritten einzuschränken, die ein Anwender ausführen muss. Alternativ könnte der Anwender zunächst eine Kombination aus Standardtastatur und Maus verwenden, um ein effektives mentales Modell der Anwendung zu entwickeln, und anschließend zu einer 3D-Darstellung weiterzugehen, wenn der Anwender vertrauter mit den Möglichkeiten der Anwendung ist.

Außerdem haben wir festgestellt, dass viele Anwender den Tablet PC als zu schwer oder zu unpraktisch empfanden, um ihn in stehender Position zu verwenden. Dies scheint darauf hinzuweisen, dass viele Anwender für diese Art der Anwendung kleinere Geräte bevorzugen würden. Obwohl ein PDA zu klein sein könnte, um eine sinnvolle Menge an Informationen anzuzeigen, könnte ein kleinerer Tablet PC genau richtig sein. Zusätzlich hat es den Anschein, dass viele Menschen die Verwendung eines Tablet PCs als unkomfortabel empfinden. Es könnte also einige Zeit in Anspruch nehmen, die Anwender mit dem Gebrauch von Handheld-Geräten anzufreunden.

Letztendlich haben wir festgestellt, dass die Anwender am meisten über die Mobilität des Tablet PCs erstaunt waren. Dies könnte in Widerspruch mit dem Widerwillen einiger Anwender stehen, das Gerät im Stehen zu verwenden, allerdings empfanden die Anwender, die entweder vertraut oder zumindest teilweise vertraut mit dem Gebrauch eines Tablet PCs waren, die Möglichkeit, das Gerät während der Benutzung herumzutragen, als großen Vorteil. Ein Anwender hob hervor, dass es bei der Verwendung eines Tablet PCs möglich wäre, zwischen verschiedenen Anzeigen hin und her zu wechseln und sie alle mit dem gleichen Gerät zu steuern. Diese Mobilität war eines der wichtigsten Features, die die Anwender an dem Gerät mochten. Ein Designer ist gut beraten, wenn er den Anwendern die Möglichkeit gibt, von dieser Fähigkeit effektiven Gebrauch zu machen, wenn er ein ähnliches MPUI-System entwirft.

Künftige Forschungen

Unsere Studie identifizierte verschiedene interessante Forschungslinien, die wir gerne weiter verfolgen würden. Die interessanteste Richtung wäre die weitere Untersuchung der Lernschwierigkeiten, die wir festgestellt haben, wenn die Anwender den Tablet PC als Fernsteuerung nutzten. Wir würden gerne nachweisen, dass diese Lernschwierigkeiten durch den Einsatz des Tablet PCs als Fernsteuerung hervorgerufen werden und nicht ein anormales Ergebnis durch die unterschiedlichen Lernstrategien der Testteilnehmer darstellen. Wenn diese Lernschwierigkeiten das Ergebnis der Verwendung einer Fernsteuerung darstellen, wäre es interessant, zu versuchen, festzustellen, weshalb dieses Problem auftritt und was getan werden könnte, um es zu lösen. Außerdem würden wir gerne weiter untersuchen, wie gut sich eine Fernsteuerung in einer stereoskopischen dreidimensionalen Umgebung verwenden lässt. Wie bereits weiter oben bemerkt, hatten wir Probleme mit den unterschiedlichen Refreshraten auf dem Tablet PC und den wechselnden Bildern, die durch das stereoskopische Projektionssystem verwendet wurden. Wir hoffen, dass wir durch Experimente mit den unterschiedlichen Wiederholungsraten versuchen können, diesen Konflikt zu lösen und Informationen zu erlangen, wie sich ein Tablet PC als Fernsteuerung in einer echten 3D-Umgebung verwenden lässt.

Zusammenfassung

In diesem Artikel haben wir einige der Probleme im Zusammenhang mit der Usability erkundet, vor denen ein Designer steht, wenn er eine Multi-Plattform Benutzeroberfläche für eine Anwendung erstellen soll, die eine dreidimensionale Anzeige umfasst. Um diese Probleme zu erkunden, haben wir mit einer SGI Workstation und einem Tablet PC eine MPUI erstellt. Wir untersuchten diese Integration mit Hilfe einer biomedizinischen Anwendung, die wir mit typischen Fachbenutzern getestet haben, um sicherzustellen, dass die Anwendung ein gültiges und realistisches Beispiel darstellt und nicht nur eine Spielzeuganwendung ist, die nur für den Gebrauch in einer MPUI verwendet wird. Anschließend haben wir diese Oberfläche mit externen Experten getestet, um Informationen mit direktem Fokus auf die Aspekte der MPUI zu erhalten, nicht einfach über die fachspezifischen Aspekte. Wir fanden einige interessante Probleme im Design von MPUI-Schnittstellen in VEs wie auch verschiedene Bereiche, die noch erkundet werden müssen. Wir glauben, dass die Verwendung von Handheld-Geräten als Fernsteuerung für großformatige Anzeigen und virtuelle Umgebungen eine sinnvolle Möglichkeit darstellt. Obwohl wir einige wenige Probleme mit dieser Anwendung gefunden haben, hoffen wir, dass diese Schwierigkeiten zukünftig überwunden werden können, so dass wir von den vielen Vorteilen profitieren können, die wir beim Einsatz eines Handheld-Geräts als Fernsteuerung identifiziert haben.

Referenzen

  1. Anderson, R., Anderson, R., Simon, B., Wolfman, S.A., VanDeGrift, T. und Yasuhara, K., Experiences with a Tablet PC Based Lecture Presentation System in Computer Science Courses, SIGCSE, 56-60, 2004. 

  2. Baldonado, M.Q., Woodruff, A., und Kuchinsky, A., Guidelines for Using Multiple Views in Information Visualization, Proc. of AVI, 110-119, 2000. 

  3. Benini, L., Bonfigli, M.E., Calori, L., Farella, E., und Ricco, B., Palmtop Computers for Managing Interaction with Immersive Virtual Heritage, EUROMEDIA2002, 183-189, 2002. 

  4. Bowman, D.A., North, C., Chen, J., Polys, N.F., Pyla, P.S. und Yilmaz, U., Information-Rich Virtual Environment: Theory, Tools, and Research Agenda, ACM VRST, 81-90, 2003. 

  5. Garrett, N., Kun, L. und Yasnoff, W., A Just-in-time Delivery of Prevention Guidelines to Improve Compliance, APHA, 2000. 

  6. Grimes, S.L., Security: A New Clinical Engineering Paradigm, IEEE Engineering in Medicine and Biology Magazine(July/August): 80-82, 2004. 

  7. Hartling, P., Bierbaum, A. und Cruz-Neira, C., Tweek: Merging 2D and 3D Interaction in Immersive Environments, 6th World Multiconference on Systemics, Cybernetics, and Informatics, 2002. 

  8. Lin, C.-y., Chen, D.T., Loftin, R.B., Chen, J. und Leiss, E.L., Interacting with Visible Human Data Using an ImmersaDesk, IEEE Virtual Reality, 267-268, 2002. 

  9. McClard, A. und Somers, P., Unleased: Web Tablet Integration into the Home, ACM CHI, 1-8, 2000. 

  10. Satava, R., Virtual Reality Surgical Simulator: The First Steps, Surg. Endoscopic, 7(3): 203-205, 1993. 

  11. Starren, K., in IEEE Conf. on ITAB-IT IS, Washington DC., 2000. 

  12. Ullmer, B. und Ishii, H., Emerging Frameworks for Tangible User Interfaces, IBM Systems Journal, 39(34): 915-931, 2000. 

  13. Watsen, K., Darken, R. und Capps, M., A Handheld Computer as an Interaction Device to a Virtual Environment, Interactional Projection Technologies Workshop, 1999. 

  14. Wickens, C.D. und Hollands, J., Engineering Psychology and Human Performance, Prentice hall, 1999. 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.