Virtueller Assistent - Virtual assistant

Apple TV- Fernbedienung , mit der Benutzer Siri, den virtuellen Assistenten, bitten können, Inhalte zum Anschauen zu finden
Amazon Echo Smart Speaker , auf dem der virtuelle Alexa- Assistent läuft

Ein intelligenter virtueller Assistent ( IVA ) oder intelligenter persönlicher Assistent ( IPA ) ist ein Softwareagent , der Aufgaben oder Dienste für eine Person basierend auf Befehlen oder Fragen ausführen kann. Der Begriff „ Chatbot “ wird manchmal verwendet, um sich auf virtuelle Assistenten zu beziehen, auf die im Allgemeinen oder speziell über einen Online-Chat zugegriffen wird . In einigen Fällen dienen Online-Chat-Programme ausschließlich zu Unterhaltungszwecken. Einige virtuelle Assistenten sind in der Lage, menschliche Sprache zu interpretieren und über synthetisierte Stimmen zu antworten. Benutzer können ihren Assistenten Fragen stellen, Heimautomatisierungsgeräte und Medienwiedergabe per Sprache steuern und andere grundlegende Aufgaben wie E-Mail, To-Do-Listen und Kalender mit verbalen (gesprochenen?) Befehlen verwalten. Ein ähnliches Konzept, jedoch mit Unterschieden, liegt den Dialogsystemen zugrunde .

Ab 2017 werden die Fähigkeiten und der Einsatz virtueller Assistenten schnell erweitert, wobei neue Produkte auf den Markt kommen und ein starker Schwerpunkt sowohl auf E-Mail- als auch auf Sprachbenutzeroberflächen gelegt wird . Apple und Google haben eine große installierte Basis von Nutzern auf Smartphones . Microsoft verfügt über eine große installierte Basis von Windows- basierten PCs , Smartphones und intelligenten Lautsprechern . Amazon hat eine große Installationsbasis für intelligente Lautsprecher. Conversica hat über seine E-Mail- und SMS-Schnittstelle, intelligente virtuelle Assistenten für Unternehmen, über 100 Millionen Engagements.

Geschichte

Experimentelle Jahrzehnte: 1910er – 1980er

Radio Rex war das erste sprachaktivierte Spielzeug, das 1922 auf den Markt kam. Es war ein Holzspielzeug in Form eines Hundes, das aus seinem Haus kam, wenn sein Name aufgerufen wurde.

1952 präsentierte Bell Labs „Audrey“, die automatische Ziffernerkennungsmaschine. Es belegte ein zwei Meter hohes Relaisgestell, verbrauchte viel Strom, hatte Kabelströme und wies die unzähligen Wartungsprobleme auf, die mit komplexen Vakuumröhrenschaltkreisen verbunden sind. Es konnte die grundlegenden Spracheinheiten, die Phoneme, erkennen. Es war auf die genaue Erkennung von Ziffern beschränkt, die von bestimmten Sprechern gesprochen wurden. Es konnte daher für die Sprachwahl verwendet werden, aber in den meisten Fällen war die Wahl per Knopfdruck billiger und schneller, als die aufeinanderfolgenden Ziffern zu sprechen.

Ein weiteres frühes Werkzeug, das digitale Spracherkennung ermöglichte, war der sprachaktivierte Rechner IBM Shoebox , der nach seiner Markteinführung im Jahr 1961 auf der Weltausstellung in Seattle 1962 der Öffentlichkeit vorgestellt wurde . Dieser frühe Computer wurde fast 20 Jahre vor seiner Einführung entwickelt des ersten IBM Personal Computers im Jahr 1981, konnte 16 gesprochene Wörter und die Ziffern 0 bis 9 erkennen.

Das erste Computerprogramm zur Verarbeitung natürlicher Sprache oder der Chatbot ELIZA wurde in den 1960er Jahren von MIT-Professor Joseph Weizenbaum entwickelt . Es wurde geschaffen, um "zu zeigen, dass die Kommunikation zwischen Mensch und Maschine oberflächlich war". ELIZA verwendete Mustervergleichs- und Substitutionsmethodik in geskripteten Antworten, um eine Konversation zu simulieren, was eine Illusion des Verständnisses seitens des Programms vermittelte.

Berichten zufolge bat Weizenbaums eigene Sekretärin Weizenbaum, den Raum zu verlassen, damit sie und ELIZA ein echtes Gespräch führen konnten. Weizenbaum war davon überrascht und schrieb später: "Ich hatte nicht erkannt ... dass extrem kurze Expositionen gegenüber einem relativ einfachen Computerprogramm bei ganz normalen Menschen starkes wahnhaftes Denken auslösen können.

Dies gab dem ELIZA-Effekt seinen Namen , der Tendenz, unbewusst anzunehmen, dass Computerverhalten dem menschlichen Verhalten analog ist; das heißt Anthropomorphisierung, ein Phänomen, das bei menschlichen Interaktionen mit virtuellen Assistenten auftritt.

Der nächste Meilenstein in der Entwicklung der Spracherkennungstechnologie wurde in den 1970er Jahren an der Carnegie Mellon University in Pittsburgh , Pennsylvania, mit erheblicher Unterstützung des US-Verteidigungsministeriums und seiner DARPA- Agentur erreicht, finanzierte fünf Jahre lang ein Forschungsprogramm zum Sprachverständnis mit dem Ziel: um einen Mindestwortschatz von 1.000 Wörtern zu erreichen. An dem Programm nahmen Unternehmen und Hochschulen wie IBM, die Carnegie Mellon University (CMU) und das Stanford Research Institute teil.

Das Ergebnis war "Harpyie", sie beherrschte etwa 1000 Wörter, den Wortschatz eines Dreijährigen und konnte Sätze verstehen. Es könnte Sprache verarbeiten, die einem vorprogrammierten Vokabular, Aussprache und Grammatikstrukturen folgte, um zu bestimmen, welche Wortfolgen zusammen Sinn machten, und so Spracherkennungsfehler reduzieren.

1986 war Tangora ein Upgrade der Shoebox, es war eine Schreibmaschine mit Spracherkennung. Benannt nach der damals schnellsten Schreibkraft der Welt, hatte es einen Wortschatz von 20.000 Wörtern und verwendet Vorhersagen, um das wahrscheinlichste Ergebnis basierend auf dem, was in der Vergangenheit gesagt wurde, zu bestimmen. Der Ansatz von IBM basierte auf einem Hidden-Markov-Modell , das Statistiken zu digitalen Signalverarbeitungstechniken hinzufügt. Das Verfahren ermöglicht es, die wahrscheinlichsten Phoneme vorherzusagen, die einem gegebenen Phonem folgen. Dennoch musste jeder Sprecher der Schreibmaschine individuell beibringen, seine Stimme zu erkennen und zwischen jedem Wort eine Pause einzulegen.

Geburtsstunde intelligenter virtueller Assistenten: 1990er – heute

Die digitale Spracherkennungstechnologie der 1990er Jahre wurde zu einem Merkmal des Personal Computers, wobei IBM , Philips und Lernout & Hauspie um Kunden kämpften. Viel später legte die Markteinführung des ersten Smartphones IBM Simon im Jahr 1994 den Grundstein für smarte virtuelle Assistenten, wie wir sie heute kennen.

1997 konnte die Naturally Speaking- Software von Dragon natürliche menschliche Sprache ohne Pausen zwischen den einzelnen Wörtern erkennen und mit einer Geschwindigkeit von 100 Wörtern pro Minute in ein Dokument übertragen. Eine Version von Naturally Speaking steht noch immer zum Download zur Verfügung und wird beispielsweise noch heute von vielen Ärzten in den USA und Großbritannien verwendet, um ihre Krankenakten zu dokumentieren.

2001 führte Colloquis SmarterChild auf Plattformen wie AIM und MSN Messenger öffentlich ein . Während das vollständig textbasierte SmarterChild in der Lage war, Spiele zu spielen, das Wetter zu überprüfen, Fakten nachzuschlagen und sich in gewissem Umfang mit Benutzern zu unterhalten.

Der erste moderne digitale virtuelle Assistent, der auf einem Smartphone installiert wurde , war Siri , der am 4. Oktober 2011 als Feature des iPhone 4S eingeführt wurde . Apple Inc. entwickelte Siri nach der Übernahme von Siri Inc. , einem Spin-off von SRI International im Jahr 2010 . Dies ist ein Forschungsinstitut, das von der DARPA und dem US-Verteidigungsministerium finanziert wird . Ziel war es, bei Aufgaben wie dem Versenden einer SMS, dem Telefonieren, dem Abrufen des Wetters oder dem Einrichten eines Alarms zu helfen. Im Laufe der Zeit hat es sich entwickelt, um Restaurantempfehlungen bereitzustellen, das Internet zu durchsuchen und Wegbeschreibungen bereitzustellen.

Im November 2014 kündigte Amazon Alexa neben dem Echo an.

Im April 2017 hat Amazon einen Dienst zum Erstellen von Konversationsschnittstellen für jede Art von virtuellen Assistenten oder Schnittstellen veröffentlicht.

Interaktionsmethode

Virtuelle Assistenten arbeiten über:

Einige virtuellen Assistenten sind über mehrere Methoden, wie Google - Assistent per Chat auf der Google Allo und Google Messages App und per Sprache auf Google - Startseite Smart - Lautsprechern .

Virtuelle Assistenten verwenden Natural Language Processing (NLP), um Benutzertexte oder Spracheingaben mit ausführbaren Befehlen abzugleichen. Viele lernen kontinuierlich mit Techniken der künstlichen Intelligenz , einschließlich des maschinellen Lernens . Einige dieser Assistenten wie Google Assistant (der Google Lens enthält ) und Samsung Bixby haben auch die Möglichkeit, eine Bildverarbeitung durchzuführen , um Objekte im Bild zu erkennen, damit die Benutzer bessere Ergebnisse aus den angeklickten Bildern erzielen können.

Um einen virtuellen Assistenten mit der Stimme zu aktivieren, kann ein Weckwort verwendet werden. Dies sind ein Wort oder Wortgruppen wie "Hey Siri", "OK Google" oder "Hey Google", "Alexa" und "Hey Microsoft". Da virtuelle Assistenten immer beliebter werden, steigen auch die rechtlichen Risiken.

Gefundene Geräte und Objekte

Virtuelle Assistenten können in viele Arten von Plattformen oder, wie Amazon Alexa , über mehrere von ihnen integriert werden:

Dienstleistungen

Virtuelle Assistenten können eine Vielzahl von Diensten anbieten. Diese beinhalten:

  • Informationen wie Wetter, Fakten aus zB Wikipedia oder IMDb bereitstellen , Wecker stellen, To-Do-Listen und Einkaufslisten erstellen
  • Spielen Sie Musik von Streaming-Diensten wie Spotify und Pandora ab ; Radiosender spielen; Hörbücher lesen
  • Spielen Sie Videos, Fernsehsendungen oder Filme auf Fernsehern ab, streamen Sie z. B. von Netflix
  • Conversational Commerce (siehe unten)
  • Unterstützung der öffentlichen Interaktionen mit der Regierung (siehe Künstliche Intelligenz in der Regierung )
  • Ergänze und/oder ersetze den Kundenservice durch Menschen. Ein Bericht schätzte, dass ein automatisierter Online-Assistent die Arbeitsbelastung eines von Menschen bereitgestellten Callcenters um 30 % verringerte .

Conversational Commerce

Conversational Commerce ist E-Commerce über verschiedene Messaging-Mittel, darunter über Sprachassistenten, aber auch Live-Chat auf E-Commerce- Websites , Live-Chat auf Messaging-Anwendungen wie WeChat , Facebook Messenger und WhatsApp sowie Chatbots auf Messaging-Anwendungen oder Websites.

Kundendienst

Ein virtueller Assistent kann mit dem Kundensupport-Team eines Unternehmens zusammenarbeiten, um Kunden rund um die Uhr zu unterstützen. Es bietet schnelle Antworten, was das Kundenerlebnis verbessert.

Dienste von Drittanbietern

Amazon ermöglicht Alexa „Skills“ und Google „Actions“, im Wesentlichen Anwendungen, die auf den Assistentenplattformen laufen.

Privatsphäre des virtuellen Assistenten

Virtuelle Assistenten haben eine Vielzahl von Datenschutzbedenken, die mit ihnen verbunden sind. Funktionen wie die Sprachaktivierung stellen eine Bedrohung dar, da das Gerät für solche Funktionen immer zuhören muss. Vertraulichkeitsmodi wie der virtuelle Sicherheitsknopf wurden vorgeschlagen, um eine mehrschichtige Authentifizierung für virtuelle Assistenten zu schaffen.

Datenschutzrichtlinie prominenter virtueller Assistenten

Google Assistant

Google Assistant speichert die Daten der Nutzer nicht ohne deren Zustimmung. Um das Audio zu speichern, kann der Benutzer zu Voice & Audio Activity (VAA) gehen und diese Funktion aktivieren. Audiodateien werden an die Cloud gesendet und von Google verwendet, um die Leistung von Google Assistant zu verbessern, jedoch nur, wenn die VAA-Funktion aktiviert ist.

Amazons Alexa

Amazons virtueller Assistent Alexa hört Gespräche nur dann mit, wenn sein Weckwort (wie Alexa, Amazon, Echo) verwendet wird. Es beginnt die Aufzeichnung des Gesprächs nach dem Aufruf eines Weckworts. Es hört nach 8 Sekunden Stille auf zu hören. Es sendet das aufgezeichnete Gespräch an die Cloud. Es ist möglich, die Aufzeichnung aus der Cloud zu löschen, indem Sie „Alexa Privacy“ in „Alexa“ aufrufen. Es gibt eine Funktion, die Alexa daran hindert, Ihre Gespräche mit der Stummschaltungsfunktion von Alexa zu hören. Nach dem Stummschalten des Geräts kann es nicht hören, selbst wenn die Weckwörter (wie Alexa) verwendet wurden.

Apples Siri

Apple zeichnet kein Audio auf, um Siri zu verbessern, sondern verwendet stattdessen Transkripte. Es sendet nur Daten, die für die Analyse wichtig sind. Wenn der Benutzer beispielsweise Siri auffordert, seine Nachricht zu lesen, sendet es die Nachricht nicht an die Cloud, die Maschine liest die Nachricht direkt ohne Einmischung des Servers. Benutzer können sich jederzeit abmelden, wenn sie nicht möchten, dass Siri die Transkripte in die Cloud sendet.

Vermutetes und beobachtetes Interesse für den Verbraucher

Vermuteter Mehrwert, da eine neue Art der Interaktion möglich ist

Der Mehrwert der virtuellen Assistenten kann unter anderem aus Folgendem bestehen:

  1. Es ist praktisch: Es gibt einige Sektoren, in denen die Sprache die einzige Möglichkeit der Kommunikation ist, und allgemeiner gesagt, ermöglicht sie es, beide Hände und das Sehvermögen möglicherweise für eine parallele Aktivität freizugeben, oder hilft auch behinderten Menschen.
  2. Es ist schneller: Die Stimme ist effizienter als das Schreiben auf einer Tastatur: Wir können bis zu 200 Wörter pro Minute sprechen, gegenüber 60 beim Schreiben auf einer Tastatur. Es ist auch natürlicher und erfordert weniger Aufwand (das Lesen eines Textes kann jedoch 700 Wörter pro Minute erreichen).
  • Virtuelle Assistenten sparen durch Automatisierung viel Zeit: Sie können Termine vereinbaren oder die Nachrichten lesen, während der Konsument etwas anderes tut. Es ist auch möglich, den virtuellen Assistenten zu bitten, Besprechungen zu planen und so die Zeit zu organisieren. Die Designer neuer digitaler Terminplaner erklärten ihre Ambition, dass diese Kalender Leben so planen, dass der Verbraucher seine Zeit durch maschinelle Lernprozesse und eine vollständige Organisation von Arbeitszeit und Freizeit effizienter nutzt. Wenn der Verbraucher beispielsweise den Wunsch äußert, eine Pause einzuplanen, wird die VA diese zu einem optimalen Zeitpunkt für diesen Zweck einplanen (z in der Lage, die Freizeit des Verbrauchers zu planen und zu organisieren, um ihm eine optimale Arbeitseffizienz zu gewährleisten.

Wahrgenommenes Interesse

Grafische Zusammenfassung der Studie zur Erfassung der Interessen von virtuellen Assistenten für Verbraucher
  • Laut einer aktuellen Studie (2019) sind die beiden Gründe für den Einsatz virtueller Assistenten für Verbraucher die wahrgenommene Nützlichkeit und die wahrgenommene Freude. Das erste Ergebnis dieser Studie ist, dass sowohl die wahrgenommene Nützlichkeit als auch die wahrgenommene Freude einen gleichermaßen sehr starken Einfluss auf die Konsumbereitschaft haben, einen virtuellen Assistenten zu nutzen.
  • Das zweite Ergebnis dieser Studie ist:
  1. Die bereitgestellte Inhaltsqualität hat einen sehr starken Einfluss auf die wahrgenommene Nützlichkeit und einen starken Einfluss auf die wahrgenommene Freude.
  2. Die visuelle Attraktivität hat einen sehr starken Einfluss auf die wahrgenommene Freude.
  3. Automatisierung hat einen starken Einfluss auf die wahrgenommene Nützlichkeit.

Kontroversen

Kontroversen über künstliche Intelligenz

  • Virtuelle Assistenten spornen die Filterblase an : Wie bei den sozialen Medien werden die Algorithmen virtueller Assistenten darauf trainiert, relevante Daten anzuzeigen und andere basierend auf früheren Aktivitäten des Verbrauchers zu verwerfen: Die relevanten Daten sind diejenigen, die den Verbraucher interessieren oder erfreuen. Infolgedessen werden sie von Daten isoliert, die mit ihren Ansichten nicht übereinstimmen, isolieren sie effektiv in ihrer eigenen intellektuellen Blase und bestärken ihre Meinungen. Dieses Phänomen war dafür bekannt, Fake News und Echokammern zu verstärken .
  • Virtuelle Assistenten werden manchmal auch dafür kritisiert, dass sie überbewertet werden. Insbesondere weist A. Casilli darauf hin, dass die KI von virtuellen Assistenten aus zwei Gründen weder intelligent noch künstlich ist:
  1. Nicht intelligent, weil sie nur Assistent des Menschen sind, und zwar nur, indem sie Aufgaben erledigen, die ein Mensch leicht und in einem sehr begrenzten Spektrum von Handlungen erledigen könnte: Informationen, Angebote oder Dokumente finden, einordnen und präsentieren. Außerdem sind virtuelle Assistenten weder in der Lage, eigenständig Entscheidungen zu treffen noch Dinge zu antizipieren.
  2. Und nicht künstlich, weil sie ohne menschliche Kennzeichnung durch Mikroarbeit nicht möglich wären .

Ethik-Implikationen

Der französische Soziologe Antonio A. Casilli kritisierte 2019 insbesondere Künstliche Intelligenz und virtuelle Assistenten wie folgt:

Auf der ersten Ebene ist die Tatsache, dass der Verbraucher oft unwissentlich kostenlose Daten für das Training und die Verbesserung des virtuellen Assistenten bereitstellt, ethisch bedenklich.

Aber auf einer zweiten Ebene könnte es ethisch noch beunruhigender sein zu wissen, wie diese KIs mit diesen Daten trainiert werden.

Diese künstliche Intelligenz wird über neuronale Netze trainiert , die eine riesige Menge an gekennzeichneten Daten benötigen . Diese Daten müssen jedoch durch einen menschlichen Prozess gekennzeichnet werden, was den Anstieg der Mikroarbeit im letzten Jahrzehnt erklärt. Das heißt, einige Leute weltweit aus der Ferne zu verwenden, um einige sich wiederholende und sehr einfache Aufgaben für ein paar Cent zu erledigen, z. Kritisiert wird die Mikroarbeit wegen der Arbeitsplatzunsicherheit und der völligen fehlenden Regulierung: Das Durchschnittsgehalt lag 2010 bei 1,38 Dollar/Stunde , und sie bietet weder Gesundheits- noch Rentenleistungen, Krankengeld , Mindestlohn . Daher sind virtuelle Assistenten und ihre Designer umstritten, weil sie die Arbeitsplatzunsicherheit fördern, und die von ihnen vorgeschlagenen KIs sind immer noch so menschlich, wie sie ohne die Mikroarbeit von Millionen menschlicher Arbeiter unmöglich wären.

Datenschutzbedenken ergeben sich dadurch, dass den Anbietern virtueller Assistenten Sprachbefehle in unverschlüsselter Form zur Verfügung stehen und somit an Dritte weitergegeben und unbefugt oder unerwartet verarbeitet werden können. Zusätzlich zum sprachlichen Inhalt aufgezeichneter Sprache können die Ausdrucksweise und die Stimmmerkmale eines Benutzers implizit Informationen über seine biometrische Identität, Persönlichkeitsmerkmale, Körperform, körperliche und geistige Gesundheit, Geschlecht, Geschlecht, Stimmungen und Emotionen, sozioökonomischer Status enthalten und geographische Herkunft.

Entwicklerplattformen

Bemerkenswerte Entwicklerplattformen für virtuelle Assistenten umfassen:

  • Amazon Lex wurde im April 2017 für Entwickler geöffnet. Es umfasst Technologie zum Verstehen natürlicher Sprache in Kombination mit automatischer Spracherkennung und wurde im November 2016 eingeführt.
  • Google stellt die Aktionen auf den Plattformen Google und Dialogflow für Entwickler bereit , um "Aktionen" für Google Assistant zu erstellen
  • Apple stellt SiriKit für Entwickler bereit, um Erweiterungen für Siri . zu erstellen
  • IBM ‚s Watson , während manchmal gesprochen , als ein virtueller Assistent ist eine ganze in der Tat künstliche Intelligenz - Plattform und Community einige virtuelle Assistenten einschalten, Chatbots . und viele andere Arten von Lösungen.

Frühere Generationen

In früheren Generationen von textchatbasierten virtuellen Assistenten wurde der Assistent oft durch einen Avatar (auch bekannt als interaktiver Online-Charakter oder automatisierter Charakter ) repräsentiert – dieser wurde als verkörperter Agent bezeichnet .

Vergleich namhafter Assistenten

Intelligenter persönlicher Assistent Entwickler Gratis Software Kostenlose und Open-Source-Hardware HDMI- Ausgang Externe E/A IOT Chromecast- Integration Smartphone-App Immer auf Sprachkanal von Einheit zu Einheit Fertigkeitssprache
Alexa (auch bekannt als Echo ) Amazon.com Nein Nein Nein Nein Jawohl Nein Jawohl Jawohl ? JavaScript
Alice Yandex Nein N / A N / A N / A Jawohl Nein Jawohl Jawohl N / A ?
AliGenie Alibaba-Gruppe Nein Nein N / A N / A Jawohl Nein Jawohl Jawohl N / A ?
Assistent Speaktoit Nein N / A N / A N / A Nein Nein Jawohl Nein N / A ?
Bixby Samsung-Elektronik Nein N / A N / A N / A Nein Nein Jawohl N / A N / A ?
BlackBerry-Assistent BlackBerry Limited Nein N / A N / A N / A Nein Nein Jawohl Nein N / A ?
Braina Brainasoft Nein N / A N / A N / A Nein Nein Jawohl Nein N / A ?
Clova Naver Corporation Nein N / A N / A N / A Jawohl Nein Jawohl Jawohl N / A ?
Cortana Microsoft Nein N / A N / A N / A Jawohl Nein Jawohl Jawohl N / A ?
Dür Baidu
Evi Amazon.com Wahres Wissen Nein N / A N / A N / A Nein Nein Jawohl Nein N / A ?
Google Assistant Google Nein N / A N / A N / A Jawohl Jawohl Jawohl Jawohl N / A C++
Google jetzt Google Nein N / A N / A N / A Jawohl Jawohl Jawohl Jawohl N / A ?
M (eingestellt) Facebook
Mycroft Mycroft-KI Jawohl Jawohl Jawohl Jawohl Jawohl Jawohl Jawohl Jawohl Jawohl Python
SILVIA Kognitiver Code Nein N / A N / A N / A Nein Nein Jawohl Nein N / A ?
Sirius Apple Inc. Nein Nein N / A N / A Jawohl Nein Jawohl Jawohl N / A ?
Viv Samsung-Elektronik Nein N / A N / A N / A Jawohl Nein Jawohl Nein N / A ?
Xiaowei Tencent ?
Celia Huawei Nein Nein N / A N / A Jawohl Nein Jawohl Jawohl N / A ?

Wirtschaftliche Relevanz

Für Einzelpersonen

Digitale Erlebnisse, die durch virtuelle Assistenten ermöglicht werden, gelten als einer der wichtigsten technologischen Fortschritte und vielversprechendsten Verbrauchertrends. Experten behaupten, dass digitale Erlebnisse ein mit „echten“ Erlebnissen vergleichbares Statusgewicht erreichen, wenn nicht sogar begehrter und geschätzter werden. Der Trend wird durch eine hohe Zahl von Vielnutzern und das deutliche Wachstum der weltweiten Nutzerzahlen virtueller digitaler Assistenten bestätigt. Mitte 2017 wird die Zahl der Vielnutzer digitaler virtueller Assistenten weltweit auf rund 1 Milliarde geschätzt. Darüber hinaus ist zu beobachten, dass die Technologie virtueller digitaler Assistenten nicht mehr auf Smartphone-Anwendungen beschränkt ist, sondern in vielen Branchen (u. a. Automobil , Telekommunikation, Einzelhandel , Gesundheitswesen und Bildung) präsent ist . Als Reaktion auf die erheblichen F&E-Ausgaben von Unternehmen in allen Sektoren und eine zunehmende Einführung mobiler Geräte wird der Markt für Spracherkennungstechnologie im Zeitraum von 2016 bis 2024 voraussichtlich mit einer jährlichen Wachstumsrate von 34,9% weltweit wachsen und damit einen globalen Markt übertreffen bis 2024 ein Volumen von 7,5 Milliarden US-Dollar. Laut einer Ovum- Studie wird die „native Digital Assistant Installed Base“ bis 2021 voraussichtlich die Weltbevölkerung mit 7,5 Milliarden Active-Voice-KI-fähigen Geräten übersteigen. Laut Ovum wird Google Assistant zu diesem Zeitpunkt mit einem Marktanteil von 23,3% den Markt für Sprach-KI-fähige Geräte dominieren, gefolgt von Samsungs Bixby (14,5%), Apples Siri (13,1%), Amazons Alexa (3,9%) und Microsofts Cortana (2,3%)."

Unter Berücksichtigung der regionalen Verteilung der Marktführer wird erwartet , dass nordamerikanische Unternehmen (z. B. Nuance Communications , IBM , eGain ) die Branche in den nächsten Jahren aufgrund der erheblichen Auswirkungen von BYOD ( Bring Your Own Device ) und Enterprise Mobility-Geschäft dominieren werden Modelle. Darüber hinaus wird erwartet, dass die steigende Nachfrage nach Smartphone-gestützten Plattformen das Wachstum der nordamerikanischen Industrie für intelligente virtuelle Assistenten (IVA) weiter ankurbeln wird. Trotz ihrer im Vergleich zum nordamerikanischen Markt geringeren Größe wird die Branche der intelligenten virtuellen Assistenten aus dem asiatisch-pazifischen Raum mit ihren Hauptakteuren in Indien und China voraussichtlich mit einer jährlichen Wachstumsrate von 40% (über dem globalen Durchschnitt) wachsen. im Zeitraum 2016–2024.

Wirtschaftliche Chance für Unternehmen

Virtuelle Assistenten sollten nicht nur als Gadget für Einzelpersonen angesehen werden, da sie für Unternehmen einen echten wirtschaftlichen Nutzen haben könnten. Beispielsweise kann ein virtueller Assistent die Rolle eines immer verfügbaren Assistenten mit enzyklopädischem Wissen übernehmen. Und die Meetings organisieren, Inventare überprüfen, Informationen überprüfen können. Virtuelle Assistenten sind umso wichtiger, als ihre Integration in kleine und mittelständische Unternehmen oft in einem einfachen ersten Schritt durch die globalere Anpassung und Nutzung des Internet of Things (IoT) besteht . Tatsächlich werden IoT-Technologien zunächst von kleinen und mittelständischen Unternehmen als Technologien von entscheidender Bedeutung, aber zu kompliziert, riskant oder kostspielig für den Einsatz wahrgenommen.

Sicherheit

Im Mai 2018 veröffentlichten Forscher der University of California, Berkeley , ein Papier, das zeigte, dass Audiobefehle, die für das menschliche Ohr nicht wahrnehmbar sind, direkt in Musik oder gesprochenen Text eingebettet werden können, wodurch virtuelle Assistenten manipuliert werden, um bestimmte Aktionen auszuführen, ohne dass der Benutzer dies bemerkt. . Die Forscher nahmen kleine Änderungen an Audiodateien vor, die die Klangmuster auslöschten, die Spracherkennungssysteme erkennen sollen. Diese wurden durch Klänge ersetzt, die vom System anders interpretiert wurden und ihm befehlen, Telefonnummern zu wählen, Websites zu öffnen oder sogar Geld zu überweisen. Die Möglichkeit dazu ist seit 2016 bekannt und betrifft Geräte von Apple , Amazon und Google .

Neben unbeabsichtigten Aktionen und Sprachaufzeichnungen sind bösartige Sprachbefehle ein weiteres Sicherheits- und Datenschutzrisiko im Zusammenhang mit intelligenten virtuellen Assistenten: Ein Angreifer, der sich als Benutzer ausgibt und böswillige Sprachbefehle ausgibt, um beispielsweise eine intelligente Tür zu entriegeln, um unbefugten Zutritt zu einem zu Hause oder in der Garage oder bestellen Sie Artikel ohne Wissen des Benutzers online. Obwohl einige IVAs ein Sprachtrainingsmerkmal bereitstellen, um einen solchen Identitätswechsel zu verhindern, kann es für das System schwierig sein, zwischen ähnlichen Stimmen zu unterscheiden. So kann eine böswillige Person, die auf ein IVA-fähiges Gerät zugreifen kann, dem System vorgaukeln, dass sie der wahre Eigentümer ist, und kriminelle oder schelmischen Handlungen vornehmen.

Siehe auch

Verweise