Natürliche Benutzeroberfläche - Natural user interface

In der Computertechnik ist eine natürliche Benutzerschnittstelle oder NUI oder natürliche Schnittstelle eine Benutzerschnittstelle , die effektiv unsichtbar ist und unsichtbar bleibt, während der Benutzer kontinuierlich zunehmend komplexere Interaktionen lernt. Das Wort "natürlich" wird verwendet, weil die meisten Computerschnittstellen künstliche Steuergeräte verwenden, deren Bedienung erlernt werden muss. Beispiele sind Sprachassistenten wie Alexa und Siri, Touch- und Multitouch-Interaktionen auf heutigen Handys und Tablets, aber auch unsichtbar in die textilen Möbel integrierte Touch-Interfaces.

Eine NUI beruht darauf, dass ein Benutzer schnell vom Anfänger zum Experten wechseln kann. Während die Benutzeroberfläche ein Lernen erfordert, wird dieses Lernen durch das Design erleichtert, das dem Benutzer das Gefühl gibt, sofort und kontinuierlich erfolgreich zu sein. „Natürlich“ bezieht sich also auf ein Ziel in der Benutzererfahrung – dass die Interaktion während der Interaktion mit der Technologie auf natürliche Weise erfolgt, anstatt dass die Benutzeroberfläche selbst natürlich ist. Dies steht im Gegensatz zur Idee einer intuitiven Benutzeroberfläche , die sich auf eine Benutzeroberfläche bezieht, die ohne vorheriges Lernen verwendet werden kann.

Es wurden mehrere Entwurfsstrategien vorgeschlagen, die dieses Ziel mit unterschiedlichem Erfolg erreicht haben. Eine Strategie ist der Einsatz eines „ Reality-User-Interface “ („ RUI “), auch als „ Reality-based Interfaces “ ( RBI )-Verfahren bekannt. Ein Beispiel für eine RUI-Strategie ist die Verwendung eines tragbaren Computers , um reale Objekte "anklickbar" zu machen, dh damit der Träger auf jedes alltägliche Objekt klicken kann, um es als Hyperlink zu verwenden und so den Cyberspace und die reale Welt zu verschmelzen . Da der Begriff "natürlich" an die "natürliche Welt" erinnert, werden RBI oft mit NUI verwechselt, obwohl sie in Wirklichkeit nur ein Mittel sind, um dies zu erreichen.

Ein Beispiel für eine nicht auf RBI basierende Strategie für den Entwurf einer NUI ist die strikte Einschränkung von Funktionalität und Anpassung, sodass Benutzer nur sehr wenig in der Bedienung eines Geräts lernen müssen. Vorausgesetzt, dass die Standardfunktionen den Zielen des Benutzers entsprechen, ist die Benutzeroberfläche mühelos zu verwenden. Dies ist eine übergreifende Designstrategie in Apples iOS. Da dieses Design mit einem Direct-Touch-Display zusammenfällt, schreiben Nicht-Designer die Leichtigkeit der Interaktion mit dem Gerät häufig fälschlicherweise diesem Multi-Touch-Display zu und nicht dem Design der Software, in der es sich tatsächlich befindet.

Geschichte

Evolution der Benutzeroberflächen

In den 1990er Jahren entwickelte Steve Mann eine Reihe von Benutzeroberflächenstrategien, bei denen die natürliche Interaktion mit der realen Welt als Alternative zu einer Befehlszeilenschnittstelle (CLI) oder einer grafischen Benutzeroberfläche (GUI) verwendet wurde. Mann bezeichnete diese Arbeit als „natürliche Benutzerschnittstellen“, „Direct User Interfaces“ und „metapher-free computing“. Die EyeTap- Technologie von Mann verkörpert typischerweise ein Beispiel für eine natürliche Benutzeroberfläche. Manns Verwendung des Wortes „Natural“ bezieht sich sowohl auf Handlungen, die dem menschlichen Nutzer selbstverständlich sind, als auch auf die Nutzung der Natur selbst, also der Physik ( Naturphilosophie ), und der natürlichen Umwelt. Ein gutes Beispiel für eine NUI in beiden Bedeutungen ist das Hydraulophon , insbesondere wenn es als Eingabegerät verwendet wird, bei dem das Berühren eines natürlichen Elements (Wasser) zur Eingabe von Daten wird. Allgemeiner gesagt wurde auch eine Klasse von Musikinstrumenten, die "Physiphone" genannt wird, so genannt von den griechischen Wörtern "physika", "physikos" (Natur) und "phone" (Klang) als "Naturbasierte Benutzerschnittstellen" vorgeschlagen.

2006 gründete Christian Moore eine offene Forschungsgemeinschaft mit dem Ziel, die Diskussion und Entwicklung im Zusammenhang mit NUI-Technologien zu erweitern. August de los Reyes, Principal User Experience Director of Surface Computing bei Microsoft, beschrieb 2008 in einer Konferenzpräsentation "Predicting the Past" die NUI als die nächste Evolutionsphase nach dem Wechsel von der CLI zur GUI. Auch dies ist natürlich eine zu starke Vereinfachung, da NUIs zwangsläufig visuelle Elemente – und damit grafische Benutzeroberflächen – beinhalten. Eine genauere Beschreibung dieses Konzepts wäre, es als Übergang von WIMP zu NUI zu beschreiben.

In der CLI mussten die Benutzer ein künstliches Eingabemittel erlernen, die Tastatur und eine Reihe von kodierten Eingaben, die einen begrenzten Antwortbereich hatten, wobei die Syntax dieser Befehle streng war.

Wenn die Maus dann die GUI aktivierte, konnten Benutzer die Mausbewegungen und -aktionen leichter lernen und die Benutzeroberfläche viel mehr erkunden. Die GUI stützte sich auf Metaphern für die Interaktion mit Bildschirminhalten oder Objekten. Der 'Desktop' und das 'Drag' zum Beispiel sind Metaphern für ein visuelles Interface, das schließlich in die streng kodifizierte Sprache des Computers zurückübersetzt wurde.

Ein Beispiel für das Missverständnis des Begriffs NUI wurde 2010 auf der Consumer Electronics Show demonstriert . „Nun steht eine neue Welle von Produkten an, die natürliche Benutzeroberflächen, wie diese Methoden zur Steuerung elektronischer Geräte genannt werden, einem noch breiteren Publikum zugänglich machen. "

Im Jahr 2010 bekräftigte Bill Buxton von Microsoft die Bedeutung der NUI innerhalb der Microsoft Corporation mit einem Video, in dem Technologien diskutiert wurden, die bei der Entwicklung einer NUI verwendet werden könnten, und ihr zukünftiges Potenzial.

2010 lieferten Daniel Wigdor und Dennis Wixon in ihrem Buch eine Operationalisierung des Aufbaus natürlicher Benutzeroberflächen. Darin unterscheiden sie sorgfältig zwischen natürlichen Benutzeroberflächen, den verwendeten Technologien und realitätsbasierten Benutzeroberflächen.

Frühe Beispiele

Multi-Touch

Als Bill Buxton nach der Benutzeroberfläche des iPhones gefragt wurde, antwortete er: "Multi-Touch-Technologien haben eine lange Geschichte. Um es ins rechte Licht zu rücken, die ursprüngliche Arbeit meines Teams wurde 1984 durchgeführt, im selben Jahr, in dem der erste Macintosh-Computer auf den Markt kam , und wir waren nicht die ersten."

Multi-Touch ist eine Technologie, die eine natürliche Benutzeroberfläche ermöglichen könnte. Die meisten UI-Toolkits, die zum Erstellen von Schnittstellen verwendet werden, die mit einer solchen Technologie ausgeführt werden, sind jedoch traditionelle GUIs.

Beispiele für Schnittstellen, die allgemein als NUI bezeichnet werden

Wahrnehmungspixel

Ein Beispiel ist die Arbeit von Jefferson Han an Multi-Touch- Oberflächen. In einer Demonstration bei TED im Jahr 2006 zeigte er verschiedene Möglichkeiten der Interaktion mit Bildschirminhalten sowohl durch direkte Manipulationen als auch durch Gesten. Um beispielsweise eine klebrige Masse auf dem Bildschirm zu formen, "kneift" Jeff buchstäblich und stößt sie mit seinen Fingern an. In einer GUI-Schnittstelle für eine Designanwendung würde ein Benutzer beispielsweise die Metapher von "Werkzeugen" verwenden, um dies beispielsweise zu tun, indem er ein Prod-Tool auswählt oder zwei Teile der Masse auswählt, die er dann mit einer "Prise" anwenden möchte. Aktion zu. Han zeigte, dass die Benutzerinteraktion viel intuitiver sein könnte, indem die Interaktionsgeräte, an die wir gewöhnt sind, abgeschafft und durch einen Bildschirm ersetzt werden, der in der Lage ist, eine viel größere Bandbreite menschlicher Aktionen und Gesten zu erkennen. Dies lässt natürlich nur eine sehr begrenzte Anzahl von Interaktionen zu, die sich sauber auf physikalische Manipulation (RBI) abbilden lassen. Die Erweiterung der Fähigkeiten der Software über physische Aktionen hinaus erfordert deutlich mehr Konstruktionsarbeit.

Microsoft PixelSense

Microsoft PixelSense verfolgt ähnliche Ideen zur Interaktion von Benutzern mit Inhalten, fügt jedoch dem Gerät die Möglichkeit hinzu, darüber platzierte Objekte optisch zu erkennen. Auf diese Weise können Benutzer Aktionen am Computer durch die gleichen Gesten und Bewegungen auslösen, die Jeff Hanss Touchscreen erlaubte, aber auch Objekte werden Teil der Steuerungsmechanismen. Wenn Sie beispielsweise ein Weinglas auf den Tisch stellen, erkennt der Computer es als solches und zeigt den mit diesem Weinglas verknüpften Inhalt an. Das Platzieren eines Weinglases auf einem Tisch passt gut zu Aktionen, die mit Weingläsern und anderen Tischen durchgeführt wurden, und passt somit gut zu realitätsbasierten Schnittstellen. Somit könnte es als Einstieg in eine NUI-Erfahrung angesehen werden.

Immersive 3D-Touch

"3D Immersive Touch" ist definiert als die direkte Manipulation von virtuellen 3D-Umgebungsobjekten unter Verwendung von Single- oder Multi-Touch-Oberflächenhardware in virtuellen 3D-Umgebungen für mehrere Benutzer. Erstmals im Jahr 2007 geprägt, um die mit Edusim verbundenen Lernprinzipien der natürlichen 3D-Benutzeroberfläche zu beschreiben und zu definieren. Die natürliche Benutzeroberfläche von Immersive Touch scheint jetzt einen breiteren Fokus und eine breitere Bedeutung zu erlangen, da oberflächen- und berührungsgesteuerte Hardware wie iPhone, iPod touch, iPad und eine wachsende Liste anderer Hardware angepasst werden. Apple scheint in den letzten Jahren auch ein starkes Interesse an „Immersive Touch“ 3D Natural User Interfaces zu haben. Diese Arbeit baut auf der breiten akademischen Basis auf, die 3D-Manipulation in Virtual-Reality-Umgebungen untersucht hat.

Xbox Kinect

Kinect ist ein Bewegungssensor- Eingabegerät von Microsoft für die Xbox 360- Videospielkonsole und Windows- PCs , das anstelle eines Gamecontrollers räumliche Gesten für die Interaktion verwendet . Laut Microsofts Seite ist Kinect für "eine revolutionäre neue Art zu spielen: kein Controller erforderlich". Da Kinect die Erfassung der physischen Welt ermöglicht, zeigt es wiederum Potenzial für RBI-Designs und damit potenziell auch für NUI.

Siehe auch

Anmerkungen

Verweise