Multi-Touch - Multi-touch

Aus Wikipedia, der freien Enzyklopädie
Multitouch-Bildschirm
Finger, der einen Multitouch-Bildschirm berührt

Beim Rechnen ist Multitouch eine Technologie, mit der eine Oberfläche (ein Touchpad oder ein Touchscreen ) das Vorhandensein von mehr als einem Kontaktpunkt mit der Oberfläche gleichzeitig erkennen kann. Die Ursprünge von Multitouch begannen in den 1970er Jahren am CERN , MIT , der University of Toronto , der Carnegie Mellon University und den Bell Labs . Das CERN begann bereits 1976 mit der Verwendung von Multitouch-Bildschirmen für die Steuerung des Super Proton Synchrotron . Kapazitiver Multi-Touch - Displays wurde populär gemacht von Apple - s iPhone im Jahr 2007. Plural-Punkt Bewusstsein kann verwendet werden , um zusätzliche Funktionen zu implementieren, wie Prise zu vergrößern oder bestimmte aktivieren Subroutinen auf dem beigefügten vordefinierte Gesten .

Mehrere Verwendungen des Begriffs "Multi-Touch" ergaben sich aus den schnellen Entwicklungen auf diesem Gebiet, und viele Unternehmen verwendeten den Begriff, um ältere Technologien zu vermarkten, die von anderen Unternehmen und Forschern als gestenverstärkte Single-Touch- oder mehrere andere Begriffe bezeichnet werden. Mehrere andere ähnliche oder verwandte Begriffe versuchen zu unterscheiden, ob ein Gerät den Ort verschiedener Kontaktpunkte genau bestimmen oder nur annähern kann, um die verschiedenen technologischen Fähigkeiten weiter zu unterscheiden. Sie werden jedoch häufig als Synonyme im Marketing verwendet.

Multi-Touch wird üblicherweise mithilfe der kapazitiven Sensortechnologie in mobilen Geräten und intelligenten Geräten implementiert . Ein kapazitiver Touchscreen besteht typischerweise aus einem kapazitiven Berührungssensor , anwendungsspezifische integrierte Schaltung (ASIC) -Controller und digitalen Signalprozessor (DSP) , hergestellt aus CMOS (komplementärer Metall-Oxid-Halbleiter ) -Technologie. Ein neuerer alternativer Ansatz ist die optische Berührungstechnologie, die auf der Bildsensortechnologie basiert.

Definition

Beim Rechnen ist Multi-Touch eine Technologie, mit der ein Touchpad oder Touchscreen mehr als einen oder mehr als zwei Berührungspunkte mit der Oberfläche erkennen kann. Apple hat den Begriff "Multi-Touch" im Jahr 2007 populär gemacht und zusätzliche Funktionen implementiert, z. B. das Drücken zum Zoomen oder das Aktivieren bestimmter Unterprogramme, die mit vordefinierten Gesten verknüpft sind .

Die zwei unterschiedlichen Verwendungen des Begriffs resultierten aus den schnellen Entwicklungen auf diesem Gebiet, und viele Unternehmen verwendeten den Begriff, um ältere Technologien zu vermarkten, die von anderen Unternehmen und Forschern als gestenverstärkte Single-Touch- Begriffe oder mehrere andere Begriffe bezeichnet werden. Mehrere andere ähnliche oder verwandte Begriffe versuchen zu unterscheiden, ob ein Gerät den Ort verschiedener Kontaktpunkte genau bestimmen oder nur annähern kann, um die verschiedenen technologischen Fähigkeiten weiter zu unterscheiden. Sie werden jedoch häufig als Synonyme im Marketing verwendet.

Geschichte

1960–2000

Die Verwendung der Touchscreen- Technologie geht sowohl der Multitouch-Technologie als auch dem Personal Computer voraus. Frühe Hersteller von Synthesizern und elektronischen Instrumenten wie Hugh Le Caine und Robert Moog experimentierten mit der Verwendung berührungsempfindlicher Kapazitätssensoren, um die von ihren Instrumenten erzeugten Klänge zu steuern. IBM begann Ende der 1960er Jahre mit dem Bau der ersten Touchscreens. 1972 veröffentlichte Control Data den PLATO IV-Computer, ein Infrarot-Terminal für Bildungszwecke, das Single-Touch-Punkte in einer 16 × 16-Array-Benutzeroberfläche verwendete. Diese frühen Touchscreens registrierten jeweils nur einen Berührungspunkt. Die Verwendung von Bildschirmtastaturen (eine heute bekannte Funktion) war daher umständlich, da ein Rollover der Taste und das Halten einer Umschalttaste während der Eingabe einer anderen nicht möglich waren.

Ausnahmen waren eine rekonfigurierbare "Cross-Wire" -Multitouch-Touchscreen-Tastatur / -Display, die Anfang der 1970er Jahre am Massachusetts Institute of Technology entwickelt wurde, und der kapazitive 16-Tasten-Multitouch-Bildschirm, der 1972 am CERN für die Steuerung des Super Proton entwickelt wurde Synchrotron , die im Bau waren.

Die am CERN entwickelten Prototypen der xy-Multitouch-Bildschirme mit gegenseitiger Kapazität (links)

Im Jahr 1976 wurde am CERN ein neuer kapazitiver xy-Bildschirm entwickelt, der auf den 1972 vom dänischen Elektronikingenieur Bent Stumpe entwickelten kapazitiven Touchscreens basiert . Diese Technologie, die eine genaue Position der verschiedenen Berührungspunkte ermöglicht, wurde verwendet, um eine neue Art von Mensch-Maschine-Schnittstelle (HMI) für den Kontrollraum des Super Proton Synchrotron- Teilchenbeschleunigers zu entwickeln. In einer handschriftlichen Notiz vom 11. März 1972 stellte Stumpe seine vorgeschlagene Lösung vor - einen kapazitiven Touchscreen mit einer festen Anzahl programmierbarer Tasten, die auf einem Display angezeigt werden. Der Schirm sollte aus einem Satz von Kondensatoren bestehen, die in einen Kupferfilm auf einer Glasscheibe geätzt waren, wobei jeder Kondensator so konstruiert war, dass ein nahegelegener flacher Leiter, wie die Oberfläche eines Fingers, die Kapazität um einen signifikanten Betrag erhöhen würde. Die Kondensatoren sollten aus feinen Linien bestehen, die in Kupfer auf eine Glasscheibe geätzt waren - fein genug (80 μm) und ausreichend weit voneinander entfernt (80 μm), um unsichtbar zu sein. In der Endvorrichtung verhinderte eine einfache Lackbeschichtung, dass die Finger die Kondensatoren tatsächlich berührten. Im selben Jahr beschrieb das MIT eine Tastatur mit variabler Grafik, die Multitouch-Erkennung ermöglicht.

In den frühen 1980er Jahren war die Input Research Group der University of Toronto eine der frühesten, die sich mit der Softwareseite von Multi-Touch-Eingabesystemen befasste. Ein System von 1982 an der Universität von Toronto verwendete eine Milchglasscheibe mit einer Kamera, die hinter dem Glas platziert war. Wenn ein Finger oder mehrere Finger auf das Glas drücken, erkennt die Kamera die Aktion als einen oder mehrere schwarze Punkte auf einem ansonsten weißen Hintergrund, sodass sie als Eingabe registriert werden kann. Da die Größe eines Punktes vom Druck abhing (wie stark die Person auf das Glas drückte), war das System auch etwas druckempfindlich. Bemerkenswerterweise wurde dieses System nur eingegeben und konnte keine Grafiken anzeigen.

1983 veröffentlichten die Bell Labs in Murray Hill eine umfassende Diskussion über Touchscreen-basierte Schnittstellen, wobei jedoch mehrere Finger nicht erwähnt werden. Im selben Jahr war das videobasierte Video Place / Video Desk-System von Myron Krueger maßgeblich an der Entwicklung von Multi-Touch-Gesten wie Pinch-to-Zoom beteiligt, obwohl dieses System selbst keine Touch-Interaktion aufwies.

Bis 1984 verfügten sowohl Bell Labs als auch die Carnegie Mellon University über funktionierende Multi-Touchscreen-Prototypen - sowohl Eingaben als auch Grafiken -, die interaktiv auf mehrere Fingereingaben reagieren konnten. Das Bell Labs-System basierte auf der kapazitiven Kopplung von Fingern, während das CMU-System optisch war. 1985 wurde die kanonische Multitouch-Pinch-to-Zoom-Geste mit koordinierten Grafiken auf dem CMU-System demonstriert. Im Oktober 1985 unterzeichnete Steve Jobs eine Geheimhaltungsvereinbarung für die Besichtigung des Sensor Frame-Multitouch-Labors der CMU. Im Jahr 1990 haben Sears et al. veröffentlichte einen Überblick über die akademische Forschung zur Interaktion zwischen Mensch und Computer mit einem und mehreren Touchscreens und beschrieb die einzelnen Berührungsgesten wie das Drehen von Knöpfen, das Wischen des Bildschirms, um einen Schalter zu aktivieren (oder eine U-förmige Geste für einen Kippschalter). und Touchscreen-Tastaturen (einschließlich einer Studie, die zeigte, dass Benutzer mit 25 Wörtern pro Minute für eine Touchscreen-Tastatur tippen konnten, verglichen mit 58 Wörtern pro Minute für eine Standardtastatur, wobei angenommen wurde, dass Multi-Touch-Daten die Dateneingaberate verbessern); Multitouch-Gesten wie das Auswählen eines Linienbereichs, das Verbinden von Objekten und eine "Tap-Click" -Geste zum Auswählen, während die Position mit einem anderen Finger beibehalten wird, werden ebenfalls beschrieben.

Im Jahr 1991 brachte Pierre Wellner das Thema Publishing über seinen Multi-Touch "Digital Desk" voran, der Multi-Finger- und Kneifbewegungen unterstützte. Zu Beginn des 21. Jahrhunderts haben verschiedene Unternehmen diese Erfindungen erweitert.

2000 - heute

Zwischen 1999 und 2005 entwickelte das Unternehmen Fingerworks verschiedene Multi-Touch-Technologien, darunter Touchstream-Tastaturen und das iGesture Pad. Anfang der 2000er Jahre veröffentlichte Alan Hedge , Professor für menschliche Faktoren und Ergonomie an der Cornell University , mehrere Studien zu dieser Technologie. Im Jahr 2005 erwarb Apple Fingerworks und seine Multi-Touch-Technologie.

Im Jahr 2004 entwickelte das französische Start-up JazzMutant das Lemur Input Device , einen Musikcontroller, der 2005 als erstes kommerzielles Produkt über einen proprietären transparenten Multitouch-Bildschirm verfügte, der eine direkte Manipulation mit zehn Fingern auf dem Display ermöglichte.

Im Januar 2007 wurde die Multi-Touch-Technologie zum Mainstream des iPhone , und in seiner iPhone-Ankündigung gab Apple sogar an, "Multi-Touch" erfunden zu haben. Allerdings sind sowohl die Funktion als auch der Begriff älter als die Ankündigung oder Patentanfragen, mit Ausnahme des Bereichs kapazitiver Mobiltelefone Bildschirme, die vor der Technologie von Fingerworks / Apple nicht existierten (Fingerworks meldete 2001–2005 Patente an, nachfolgende Multi-Touch-Verfeinerungen wurden von Apple patentiert).

Das US-Patent- und Markenamt erklärte jedoch, dass die "Pinch-to-Zoom" -Funktionalität durch das US-Patent Nr. 7,844,915 in Bezug auf Gesten auf Touchscreens vorhergesagt wurde, das 2005 von Bran Ferren und Daniel Hillis eingereicht wurde , ebenso wie das Trägheits-Scrollen, wodurch es ungültig wurde ein wesentlicher Anspruch von Apples Patent.

Im Jahr 2001 begann Microsoft PixelSense (ehemals Surface) , die Tisch-Touch-Plattform von Microsoft, mit der Entwicklung, die sowohl mit dem Touch des Benutzers als auch mit seinen elektronischen Geräten interagiert und am 29. Mai 2007 kommerziell wurde. Ebenso im Jahr 2001 mitsubishi Electric Research Laboratories (MERL) ) begann mit der Entwicklung eines Multi-Touch-Mehrbenutzersystems namens DiamondTouch .

Im Jahr 2008 wurde der Diamondtouch zu einem kommerziellen Produkt und basiert ebenfalls auf der Kapazität, kann jedoch zwischen mehreren gleichzeitigen Benutzern oder vielmehr den Stühlen, auf denen jeder Benutzer sitzt, oder dem Bodenpolster, auf dem der Benutzer steht, unterscheiden. 2007 bot das Open Source- System von NORTD Labs seinen CUBIT (Multi-Touch) an .

Kleine Touch-Geräte wurden 2008 schnell zum Alltag. Die Anzahl der Touchscreen-Telefone sollte von 200.000 im Jahr 2006 auf 21 Millionen im Jahr 2012 steigen.

Im Mai 2015 wurde Apple ein Patent für eine "Fusion-Tastatur" erteilt, mit der einzelne physische Tasten in Multitouch-Tasten umgewandelt werden.

Marken und Hersteller

Apple hat zahlreiche Produkte mit Multi-Touch-Technologie verkauft und vertrieben, darunter vor allem das iPhone- Smartphone und das iPad- Tablet. Darüber hinaus hält Apple mehrere Patente im Zusammenhang mit der Implementierung von Multi-Touch in Benutzeroberflächen. Die Legitimität einiger Patente ist jedoch umstritten. Apple hat außerdem versucht, "Multi-touch" als Marke in den USA zu registrieren. Der Antrag wurde jedoch vom US-Patent- und Markenamt abgelehnt, da der Begriff " generisch" in Betracht gezogen wurde .

Die Multitouch-Erkennung und -Verarbeitung erfolgt über einen ASIC- Sensor, der an der Touch-Oberfläche angebracht ist. Normalerweise stellen separate Unternehmen den ASIC und den Bildschirm zu einem Touchscreen zusammen. Umgekehrt werden die Oberfläche eines Touchpads und der ASIC normalerweise von derselben Firma hergestellt. In den letzten Jahren gab es große Unternehmen, die in die wachsende Multi-Touch-Branche expandierten und Systeme für alle Bereiche entwickelten, vom Gelegenheitsbenutzer bis hin zu multinationalen Organisationen.

Heutzutage ist es für Laptop-Hersteller üblich, Multi-Touch- Touchpads in ihre Laptops einzubauen, und Tablet-Computer reagieren eher auf Berührungseingaben als auf herkömmliche Stifteingaben und werden von vielen neueren Betriebssystemen unterstützt .

Einige Unternehmen konzentrieren sich eher auf großflächige Oberflächenverarbeitung als auf persönliche Elektronik, entweder große Multitouch-Tische oder Wandflächen. Diese Systeme werden im Allgemeinen von Regierungsorganisationen, Museen und Unternehmen als Informations- oder Ausstellungsmittel verwendet. Multitouch-Oberflächen in großem Maßstab werden von der finnischen Firma MultiTaction auf ihren 55 "MT Cells (55" Bildschirmen) hergestellt, die auch Bürostandorte in London, Kalifornien und Singapur haben. MultiTaction erstellt außerdem eine einzigartige Software für die Zusammenarbeit, die speziell für Multitouch-Bildschirme wie MT Canvus und MT Showcase entwickelt wurde .

Implementierungen

Multi-Touch wurde je nach Größe und Art der Benutzeroberfläche auf verschiedene Arten implementiert. Die beliebteste Form sind mobile Geräte, Tablets , Tischtische und Wände. Sowohl Touchtables als auch Touch Walls projizieren ein Bild durch Acryl oder Glas und beleuchten das Bild dann mit LEDs.

Berührungsflächen können auch durch Hinzufügen einer druckempfindlichen Beschichtung druckempfindlich gemacht werden, die sich je nach festem Druck unterschiedlich biegt und die Reflexion verändert.

Handheld-Technologien verwenden ein Panel, das eine elektrische Ladung trägt. Wenn ein Finger den Bildschirm berührt, stört die Berührung das elektrische Feld des Panels. Die Störung wird als Computerereignis (Geste) registriert und kann an die Software gesendet werden, die dann eine Antwort auf das Gestenereignis auslösen kann.

In den letzten Jahren haben mehrere Unternehmen Produkte herausgebracht, die Multi-Touch verwenden. Um die teure Technologie zugänglicher zu machen, haben Hobbyisten auch Methoden zur Herstellung von DIY- Touchscreens veröffentlicht.

Kapazitiv

Kapazitive Technologien umfassen:

Resistiv

Resistive Technologien umfassen:

Optisch

Die optische Touch-Technologie basiert auf der Bildsensortechnologie . Es funktioniert, wenn ein Finger oder ein Objekt die Oberfläche berührt und das Licht gestreut wird, dessen Reflexion von Sensoren oder Kameras erfasst wird, die die Daten an eine Software senden, die je nach Art der gemessenen Reflexion die Reaktion auf die Berührung vorschreibt.

Optische Technologien umfassen:

Welle

Akustische und hochfrequenzwellenbasierte Technologien umfassen:

Multi-Touch-Gesten

Multitouch-Touchscreen-Gesten ermöglichen vordefinierte Bewegungen zur Interaktion mit dem Gerät und der Software. Immer mehr Geräte wie Smartphones , Tablet-Computer , Laptops oder Desktop-Computer verfügen über Funktionen, die durch Multitouch-Gesten ausgelöst werden.

Popkultur

Vor 2007

Jahre bevor es sich um ein tragfähiges Verbraucherprodukt handelte, zeigte die Populärkultur mögliche Anwendungen der Multi-Touch-Technologie in der Zukunft, einschließlich in mehreren Abschnitten des Star Trek- Franchise.

In dem Disney- Science-Fiction- Film Tron von 1982 wurde ein Gerät ähnlich dem Microsoft Surface gezeigt. Es nahm den gesamten Schreibtisch einer Führungskraft ein und wurde zur Kommunikation mit dem Master Control-Computer verwendet .

In dem Film Minority Report aus dem Jahr 2002 verwendet Tom Cruise einen Satz Handschuhe, die einer Multi-Touch-Oberfläche ähneln, um Informationen zu durchsuchen.

In dem Film The Island aus dem Jahr 2005 wurde eine andere Form eines Multitouch-Computers gesehen, bei dem der Professor, gespielt von Sean Bean , über einen Multitouch-Desktop verfügt, um Dateien zu organisieren, basierend auf einer frühen Version von Microsoft Surface (nicht zu verwechseln mit dem Tablet-Computer, die jetzt diesen Namen tragen).

2007 führte die Fernsehserie CSI: Miami in ihrer sechsten Staffel sowohl Oberflächen- als auch Wand-Multitouch-Displays ein.

Nach 2007

Die Multi-Touch-Technologie ist im James-Bond- Film Quantum of Solace von 2008 zu sehen, in dem MI6 über eine Touch-Oberfläche Informationen über den kriminellen Dominic Greene durchsucht.

In dem Film The Day the Earth Stood Still aus dem Jahr 2008 wurde Microsoft's Surface verwendet.

Die Fernsehserie NCIS: Los Angeles , die 2009 Premiere hatte, nutzt Multi-Touch-Oberflächen und Wandpaneele als Initiative für die Digitalisierung.

In einem 2008 eine Episode der Fernsehserie Der Simpson , Lisa Simpson reist in das Unterwasser - Hauptquartier von Mapple Steve Mobbs zu besuchen, der gezeigt wird , um mehr Multi-Touch - Gesten der Hand auf einer großen Touch - Wand zu performen.

Im Jahr 2009 verfügt der Film District 9 über die Schnittstelle zur Steuerung des außerirdischen Schiffes über eine ähnliche Technologie.

10 / GUI

10 / GUI ist ein vorgeschlagenes neues Benutzeroberflächenparadigma . Es wurde 2009 von R. Clayton Miller erstellt und kombiniert Multitouch-Eingaben mit einem neuen Fenstermanager .

Es teilt die Berührungsfläche vom Bildschirm weg, so dass die Ermüdung des Benutzers verringert wird und die Hände des Benutzers das Display nicht behindern. Anstatt Fenster auf dem gesamten Bildschirm zu platzieren, verwendet der Fenstermanager Con10uum ein lineares Paradigma, bei dem durch Multitouch zwischen den Fenstern navigiert und diese angeordnet werden. Ein Bereich auf der rechten Seite des Touchscreens zeigt ein globales Kontextmenü an, und ein ähnlicher Streifen auf der linken Seite zeigt anwendungsspezifische Menüs an.

Im November 2009 wurde eine Open-Source-Community-Vorschau des Con10uum-Fenstermanagers zur Verfügung gestellt.

Siehe auch

Verweise

Externe Links