De:Bug 172
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
<strong>172</strong> — SPECIAL — INTERFACES TEXT FELIX KNOKE<br />
E<br />
Es wird alles noch viel schlechter, bevor es besser<br />
wird. <strong>De</strong>sign- und Usability-Guru Don Norman<br />
übt sich in pragmatischem Optimismus, als wir ihn<br />
um seine Einschätzungen zum neuen Interface-<br />
Paradigma bitten: Was kommt nach Touch, werden<br />
unsere Computer bald aufmüpfig? Norman hat leicht<br />
reden, als <strong>De</strong>sign- und Usability-Experte berät er<br />
große und kleine Firmen dabei, wie man beschränkte<br />
Menschen mit noch beschränkteren Maschinen<br />
zusammenbringt. Für ihn ist fehlerhaftes <strong>De</strong>sign<br />
das Problem und das Verständnis um die Fehler der<br />
Menschen der Lösungsweg. In seinen Vorträgen,<br />
Essays und Büchern bemüht er sich, mit einfachen<br />
Worten eine ganz andere Grenze zwischen Mensch<br />
und Maschine einzureißen: dass die Schönheit einer<br />
Interaktion ihrer Funktionalität entspringt.<br />
<strong>De</strong>rzeit dreht sich alles um Interfaces: Touch, Sprache,<br />
Bewegungssteuerung. Wieso werden Computer plötzlich<br />
über die Art ihrer Bedienung verkauft?<br />
Die technischen Infrastrukturen unterliegen massiven<br />
Veränderungen - und mit ihnen eben auch die<br />
Interaktionsgewohnheiten. Das wirft eine Menge neuer<br />
Fragen auf, weswegen derzeit so viel mit den angesprochenen<br />
Modi experimentiert wird. Heute kann es sich bereits um<br />
eine Interaktion handeln, wenn man einen Raum betritt: Alle<br />
möglichen Sachen gehen an oder aus.<br />
Das muss eine tolle Zeit für Interaktionsdesigner wie dich<br />
sein. Heute kann jeder einen Computer bedienen.<br />
Die ganzen neuen Ansätze haben ein Problem gemeinsam.<br />
Bei physischen Interfaces können wir <strong>De</strong>signer erkenntlich<br />
machen, was ein Benutzer berühren oder wie er<br />
etwas bewegen soll. Wir können sogar Hinweise ins <strong>De</strong>sign<br />
integrieren, durch die er das selbständig herausfinden kann.<br />
Und auch bei den ersten grafischen Benutzeroberflächen der<br />
Computer konnte man noch erkennen, welche Möglichkeiten<br />
man hatte, ganz einfach, indem man sich durch Menüs klickte.<br />
Das Schlagwort ist Entdeckbarkeit, Discoverability. Mit<br />
der Gestensteuerung auf iPhone und Android verschwand<br />
diese Entdeckbarkeit. Und ich glaube, das wird in dem<br />
Moment noch viel schlimmer, in dem uns Kameras beobachten<br />
und Sensoren erkennen sollen, wie wir mit der Welt<br />
interagieren. Ein Smartphone zeigt ja wenigstens auf dem<br />
Bildschirm noch ein paar Informationen an. Aber die neuen<br />
Interaktionsformen haben nicht einmal einen Bildschirm.<br />
Man erkennt bei ihnen nicht, wie man interagieren sollte. Auf<br />
der einen Seite ist das natürlich sehr spannend: man wird<br />
viele völlig neue Möglichkeiten der Interaktion entdecken.<br />
Auf der anderen Seite wird das eine ungemütliche Zeit, da<br />
alles sehr verwirrend und schwierig zu begreifen sein wird.<br />
Alle setzen auf Touch, Microsoft setzt auf Touch-<br />
Keyboard-Kombis und auf Bewegungssteuerung<br />
mit Kinect. Sind das Zeichen für ein neues Interface-<br />
Paradigma oder ist das doch nur Marketing-Not?<br />
Es geht es nicht um Interfaces, sondern um einen ganz<br />
Interaktionsstil. Touch kam sehr gut an, Smartphones sind<br />
überall. Für Microsoft ist das aber kein neues Paradigma, die<br />
folgen anderen rules of interaction. Das Problem von Touch<br />
ist, dass es sich toll für Unterhaltungszwecke, aber nicht für<br />
die Arbeit eignet. Microsoft verkauft Windows aber vor allem<br />
als ein Arbeitsmittel. Darum stellen sie beim Surface<br />
die Tastatur so heraus: Sie ist ein grundlegender Bestandteil<br />
des Microsoft-Konzepts, während Apple und Android sie als<br />
Eingabemedium verworfen haben.<br />
Mehr und mehr Interfaces versuchen, ihren User zu analysieren.<br />
Sie tracken den User und seine Handlungen im<br />
Alltag. Ist unser Leben das neue Interface?<br />
Es gibt tatsächliche Versuche, mit einer künstlichen<br />
Intelligenz herauszufinden, was eine Person machen will,<br />
um so ihre Handlungen vorwegzunehmen oder diese<br />
Aufgaben für sie zu erledigen. Ein anderer Ansatz ist die<br />
Spracherkennung, über die wir unsere Ziele konkretisieren<br />
können: "Verschiebe dieses Meeting um eine Stunde." Ich<br />
finde aber beide Ansätze gefährlich. Jemandes Gedanken<br />
zu lesen, jemandes Absichten feststellen zu wollen, ist ein<br />
sehr, sehr schwieriges Unterfangen. Und ich glaube nicht,<br />
dass wir das jemals gut hinbekommen. Dabei ist die Technik<br />
nicht einmal das größte Problem, sondern viel eher das<br />
Zusammenspiel Technik und Mensch.<br />
Zeigt Google Now, ein Lebenstracker mit Butler-Funktion,<br />
nicht, dass es doch geht?<br />
Die machen das mit einer künstlichen Intelligenz, aber<br />
haben auch viele weitere angeschlossene Systeme, die ihnen<br />
dabei helfen. Ich selbst arbeite mit der Firma ReQall an so<br />
etwas: Du wachst morgens auf und dein Handy führt deine<br />
Termine auf, gibt Informationen zu den Personen, die beim<br />
Meeting dabei sind, macht eine Verkehrsprognose für den<br />
Arbeitsweg und wenn du im Meeting bist, schaltet es<br />
20