Ludwigsburg/Unterschleißheim : Mehr als nur große Gesten: Neue Benutzer-Schnittstellen
Ludwigsburg/Unterschleißheim Bereits Anfang der 60er Jahre entwickelten Wissenschaftler sogenannte X-Y-Positions-Anzeiger für Bildschirmsysteme. Daraus wurde schnell die Maus, die ihren Siegeszug in den 80er Jahren antrat.
Seither ist sie die Nummer eins unter den Benutzer-Schnittstellen. Doch neue Entwicklungen fordern ihren Platz im Hofstaat der Maus: Immer mehr Displays sind als Touchscreens ausgelegt, Computer gehorchen ihrem Besitzer aufs Wort, und neue Sensoren ermöglichen die Steuerung durch Körpergesten.
„Nach langen Jahren der Flaute hat eine Reihe neuer User-Interface-Technologien die Marktreife erlangt”, haben die IT-Marktforscher von Gartner beobachtet. Dazu zählen die Experten unter anderem Microsofts Multitouch-Rechner Surface und die Steuerung von Nintendos Wii-Konsole.
Project Natal lautet Microsofts Codewort für eine Kamera mit Tiefensensor, Mikrofon und eigenem Prozessor, die in nächster Zeit Anschluss an die Spielkonsole Xbox finden wird. Das Gerät soll Microsoft zufolge nicht nur Gesten deuten, sondern auch Sprache und Mimik in Aktionen unabhängig von den Lichtverhältnissen umsetzen können. Viele Spieleentwickler haben bereits angekündigt, die neue Benutzer-Schnittstelle zu unterstützen.
„Der Natal-Ansatz ist extrem wichtig”, sagt Franz Koller, Geschäftsführer des Beratungsunternehmens User Interface Design mit Sitz in Ludwigsburg bei Stuttgart. Das System erlaube einen neuen Grad der Freiheit: „Ich kann beispielsweise auf ein Objekt zeigen und dann sagen, was ich tun will.”
Trotzdem warnt der Experte vor zu großen Erwartungen. „Wir werden die Maus noch eine Weile behalten”, sagt Koller. Auch Nintendos Wii-Remote sei beispielsweise bei Spielern unheimlich gut an gekommen. „Trotzdem werde ich wahrscheinlich nie ein Interesse daran haben, meine Buchhaltung mit einer Wii-Fernbedienung zu machen.”
Koller glaubt eher, dass in Zukunft immer mehr Geräte eine Benutzer-Schnittstelle für unterschiedliche Einsatzzwecke oder Vorlieben bieten: „Die einzelnen Systeme sollten integrativ betrachtet werden”, sagt der Experte. Ein Beispiel dafür seien Tablet-PCs mit Multitouch-Display und vollwertiger Tastatur.
Ein Beispiel für eine neue Benutzer-Schnittstelle, die im Alltag angekommen ist, ist Apples Mobiltelefon. „Das iPhone hat sehr viel ausgelöst”, sagt Koller. Das Konzept sei deshalb so erfolgreich, weil die Benutzung Spaß mache und gleichzeitig praktisch sei. Bei Multitouch-Systemen gebe es fast keine Lernkurve, die Aufzieh- oder Wischgesten seien inuitiv nutzbar.
Das gelte auch für den Microsoft-Rechner Surface, der über ein 30 Zoll großes Display von mehreren Händen gleichzeitig bedient werden kann. „Eine Studie zeigt, dass auch die Älteren leicht in die Bedienung hereingekommen sind”, erzählt Koller. Am Surface, der sich vor allem für Projektarbeit und Präsentationen eigne, ließen sich grafisch aufbereitete Szenarien durchspielen und diskutieren. Aber selbst an den Surface lässt sich eine Tastatur anschließen.
Science-Fiction-Filme, in denen die Helden in schöner Regelmäßigkeit mit vollem Handeinsatz an Projektionen im Raum arbeiten, sind auch keine Zukunftsmusik mehr. Die US-Firma Oblong bietet eine rämliche Arbeitsumgebung names G-Speak an, die sich nach Unternehmensangaben unter anderem zur Analyse großer Datensätze und zum Betrachten dreidimensionaler Objekte eignet. Die Umgebung erscheint auf mehreren großen Displays vor dem Nutzer, der alles mit einem Sensorhandschuh steuert.
Allerdings könnte die Dauernutzung von Natal oder G-Speak zur ergonomischen Herausforderung werden. „Das wird von der Haltung her anstrengend”, meint Franz Koller. Bei der Bedienung von Tastatur oder Maus lägen die Arme auf und ermüdeten nicht so schnell. Das gelte auch für Microsofts Surface, bei dem man über dem „liegenden” Display arbeitet.
Touch-Funktionalität erhält auch langsam Einzug bei Laptops, die nicht als Tablet-PC ausgelegt sind. So bietet beispielsweise Dells Latitude-Z-Serie eine Scrollfunktion am Displayrand oder eine Touch-Symbolleiste, über die Programme aufgerufen werden können.
Die Sprachsteuerung hat sich bereits etabliert - allerdings nur in festen Nutzungskontexten wie dem Banking und der Bahnauskunft per Telefon oder der Navigation im Auto. Wo es um Dialoge oder die Bedeutung von Gesprochenem gehe, sei noch viel Entwicklungsarbeit notwendig, sagt Koller. „Eine Sprachsteuerung wie im Raumschiff Enterprise funktioniert bis heute nicht.”