06.06.2016 Aufrufe

De:Bug 172

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>172</strong> — SPECIAL — INTERFACES TEXT FELIX KNOKE<br />

E<br />

Es wird alles noch viel schlechter, bevor es besser<br />

wird. <strong>De</strong>sign- und Usability-Guru Don Norman<br />

übt sich in pragmatischem Optimismus, als wir ihn<br />

um seine Einschätzungen zum neuen Interface-<br />

Paradigma bitten: Was kommt nach Touch, werden<br />

unsere Computer bald aufmüpfig? Norman hat leicht<br />

reden, als <strong>De</strong>sign- und Usability-Experte berät er<br />

große und kleine Firmen dabei, wie man beschränkte<br />

Menschen mit noch beschränkteren Maschinen<br />

zusammenbringt. Für ihn ist fehlerhaftes <strong>De</strong>sign<br />

das Problem und das Verständnis um die Fehler der<br />

Menschen der Lösungsweg. In seinen Vorträgen,<br />

Essays und Büchern bemüht er sich, mit einfachen<br />

Worten eine ganz andere Grenze zwischen Mensch<br />

und Maschine einzureißen: dass die Schönheit einer<br />

Interaktion ihrer Funktionalität entspringt.<br />

<strong>De</strong>rzeit dreht sich alles um Interfaces: Touch, Sprache,<br />

Bewegungssteuerung. Wieso werden Computer plötzlich<br />

über die Art ihrer Bedienung verkauft?<br />

Die technischen Infrastrukturen unterliegen massiven<br />

Veränderungen - und mit ihnen eben auch die<br />

Interaktionsgewohnheiten. Das wirft eine Menge neuer<br />

Fragen auf, weswegen derzeit so viel mit den angesprochenen<br />

Modi experimentiert wird. Heute kann es sich bereits um<br />

eine Interaktion handeln, wenn man einen Raum betritt: Alle<br />

möglichen Sachen gehen an oder aus.<br />

Das muss eine tolle Zeit für Interaktionsdesigner wie dich<br />

sein. Heute kann jeder einen Computer bedienen.<br />

Die ganzen neuen Ansätze haben ein Problem gemeinsam.<br />

Bei physischen Interfaces können wir <strong>De</strong>signer erkenntlich<br />

machen, was ein Benutzer berühren oder wie er<br />

etwas bewegen soll. Wir können sogar Hinweise ins <strong>De</strong>sign<br />

integrieren, durch die er das selbständig herausfinden kann.<br />

Und auch bei den ersten grafischen Benutzeroberflächen der<br />

Computer konnte man noch erkennen, welche Möglichkeiten<br />

man hatte, ganz einfach, indem man sich durch Menüs klickte.<br />

Das Schlagwort ist Entdeckbarkeit, Discoverability. Mit<br />

der Gestensteuerung auf iPhone und Android verschwand<br />

diese Entdeckbarkeit. Und ich glaube, das wird in dem<br />

Moment noch viel schlimmer, in dem uns Kameras beobachten<br />

und Sensoren erkennen sollen, wie wir mit der Welt<br />

interagieren. Ein Smartphone zeigt ja wenigstens auf dem<br />

Bildschirm noch ein paar Informationen an. Aber die neuen<br />

Interaktionsformen haben nicht einmal einen Bildschirm.<br />

Man erkennt bei ihnen nicht, wie man interagieren sollte. Auf<br />

der einen Seite ist das natürlich sehr spannend: man wird<br />

viele völlig neue Möglichkeiten der Interaktion entdecken.<br />

Auf der anderen Seite wird das eine ungemütliche Zeit, da<br />

alles sehr verwirrend und schwierig zu begreifen sein wird.<br />

Alle setzen auf Touch, Microsoft setzt auf Touch-<br />

Keyboard-Kombis und auf Bewegungssteuerung<br />

mit Kinect. Sind das Zeichen für ein neues Interface-<br />

Paradigma oder ist das doch nur Marketing-Not?<br />

Es geht es nicht um Interfaces, sondern um einen ganz<br />

Interaktionsstil. Touch kam sehr gut an, Smartphones sind<br />

überall. Für Microsoft ist das aber kein neues Paradigma, die<br />

folgen anderen rules of interaction. Das Problem von Touch<br />

ist, dass es sich toll für Unterhaltungszwecke, aber nicht für<br />

die Arbeit eignet. Microsoft verkauft Windows aber vor allem<br />

als ein Arbeitsmittel. Darum stellen sie beim Surface<br />

die Tastatur so heraus: Sie ist ein grundlegender Bestandteil<br />

des Microsoft-Konzepts, während Apple und Android sie als<br />

Eingabemedium verworfen haben.<br />

Mehr und mehr Interfaces versuchen, ihren User zu analysieren.<br />

Sie tracken den User und seine Handlungen im<br />

Alltag. Ist unser Leben das neue Interface?<br />

Es gibt tatsächliche Versuche, mit einer künstlichen<br />

Intelligenz herauszufinden, was eine Person machen will,<br />

um so ihre Handlungen vorwegzunehmen oder diese<br />

Aufgaben für sie zu erledigen. Ein anderer Ansatz ist die<br />

Spracherkennung, über die wir unsere Ziele konkretisieren<br />

können: "Verschiebe dieses Meeting um eine Stunde." Ich<br />

finde aber beide Ansätze gefährlich. Jemandes Gedanken<br />

zu lesen, jemandes Absichten feststellen zu wollen, ist ein<br />

sehr, sehr schwieriges Unterfangen. Und ich glaube nicht,<br />

dass wir das jemals gut hinbekommen. Dabei ist die Technik<br />

nicht einmal das größte Problem, sondern viel eher das<br />

Zusammenspiel Technik und Mensch.<br />

Zeigt Google Now, ein Lebenstracker mit Butler-Funktion,<br />

nicht, dass es doch geht?<br />

Die machen das mit einer künstlichen Intelligenz, aber<br />

haben auch viele weitere angeschlossene Systeme, die ihnen<br />

dabei helfen. Ich selbst arbeite mit der Firma ReQall an so<br />

etwas: Du wachst morgens auf und dein Handy führt deine<br />

Termine auf, gibt Informationen zu den Personen, die beim<br />

Meeting dabei sind, macht eine Verkehrsprognose für den<br />

Arbeitsweg und wenn du im Meeting bist, schaltet es<br />

20

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!