Schnittstellen zwischen Mensch und Computer entwickeln und verändern sich schnell. Das beweist ein näherer Blick auf die heutige Zeit der digitalen Transformation. Während die grafische Benutzeroberfläche (engl. „graphical user interfaces“) auf allen möglichen Anwendungssoftwares nach wie vor bedeutend ist, wird der Sprung zu Konversationsschnittstellen (engl. „conversational user interfaces“) immer stärker spürbar.
[1]
Steve Wozniak - Mitgründer von Apple - stellte dem berühmten Homebrew Computer Club im Jahr 1976 den “Apple 1” vor, der die erste graphische Benutzeroberfläche besaß. Das weltweit bekannte IT-Unternehmen IBM brachte im Jahr 1981 ebenfalls ihren ersten „Personal Computer“ auf den Markt. Ein paar Jahre später (im November 1985) folgte das heute noch am meisten genutzte Betriebssystem WINDOWS, das zu diesem Zeitpunkt in der Version 1.0 zur Verfügung stand. [2] [3] [17]
Noch einige Jahre später sind grafische Benutzeroberflächen von stationären Computern durch mobile Endgeräte wie Smartphones oder Tablets in die Hosen- bzw. Umhängetasche gewandert. Grafiken, Symbole, Videos und Widgets konnten nun auch im Layout-Fenster eines Smartphones mit „responsive Design“ betrachtet und bedient werden.
Dank Web 2.0, nutzergenerierten Inhalten und Social-Media-Plattformen tummelten sich laut Global Digital Report im Jahr 2018 bereits mehr als vier Milliarden Menschen weltweit täglich im Internet, davon über drei Milliarden als Social-Media-Nutzer. [4]
Heutzutage werden Messenger-Apps sogar häufiger als Social-Media-Apps genutzt. Wie eine Untersuchung im Auftrag von PRIORI DATA beweist, belegten WhatsApp und der Facebook-Messenger bereits 2017 die oberen Plätze der zehn meistgenutzten Android-Apps, noch vor Snapchat, Instagram oder Facebook. [5]
Wenn es um die Kontaktaufnahme zu Unternehmen geht, sind Messenger nach E-Mail und Telefon ebenfalls die beliebtesten Kanäle. Das zeigt eine Befragung von YOUGOV im Zusammenhang mit „Kundenservice und Messenger Marketing.“ [6]
Schnittstellen von heute und morgen – Conversational User Interfaces
Schon genutzt und doch noch ausbaufähig – digitale Sprachassistenten auf Grundlage künstlicher Intelligenz verstärken die aktuelle Entwicklung zu den „Conversational User Interfaces.“
Eine aktuelle Studie des Beratungs- und Technologieriesen CAPGEMINI besagt, dass in den kommenden drei Jahren mehr als 40% aller Internet-User einen Sprachassistenten anstelle einer App oder einer Webseite benutzen werden.
Über 81 Prozent der Befragten haben sogar bereits einen Dienst über Voice-Search in Anspruch genommen. Des Weiteren sind 35% bereits durch Voice-Assistenten online shoppen gegangen, um zum Beispiel Kleidung zu kaufen. [7]
Warum dieser Trend zurzeit so greift, dürfte auf der Hand liegen. Die Nutzung eines Voice-Assistenten ist gegenüber dem handlichen Bedienen einer App oder Webseite bequemer und zweckdienlicher – gesetzt dem Fall, das Voice-Interface funktioniert einwandfrei.
Hinzu kommt, dass immer mehr User von der sogenannten Klickmüdigkeit betroffen sind. Was „Banner Blindness“ und unbeabsichtigte Klicks auf Werbung im Internet bereits andeuten ließen, bestätigt nun eine Untersuchung der PR- und Marketingberatung Görs Communications.
Demnach kommt auf 1,000 Werbeeinblendungen durchschnittlich gerade mal ein Klick. In puncto erfolgversprechende Conversion-Rates tun Unternehmen also gut daran, mit dem Bedürfnis der Zeit gehen. [8]
Darüber hinaus besitzen Konsumenten bei Banner-Werbung und Werbevideos die Notwendigkeit, mit eigenen Augen hinzusehen. Es bedarf visueller Konzentration auf das (bewegte) Bild. Bei der Voice-Search hingegen gibt es keine Werbung.
VR, AR und gestengesteuertes Marketing
In Zukunft wird im Zusammenhang virtuellen Welten nicht nur deren Zugang, sondern die Kombination mit einer konkreten Anwendbarkeit von Bedeutung sein. Dieser Auffassung ist zum Beispiel Christian Waitzinger, Unternehmer und Experte für Business-Transformation.
Um Virtual-Reality zu erleben, kann der Konsument dafür vorgesehene Brillen tragen, um damit in virtuelle Welten einzutauchen. Sinnvoll und „anwendbar“ wäre in diesem Zusammenhang zum Beispiel das Durchführen von Videokonferenzen auf Basis virtueller Welten. Der Service dringt also mehr in den Vordergrund als das Produkt. [9]
IKEA macht die Verschmelzung zwischen innovativem Interface und anwendbarem Nutzen durch die Augmented-Realtiy-App „PLACE“ beispielhaft vor. Mithilfe der App scannen die User ihre Umgebung zuhause, suchen sich ihre Lieblingsmöbelstücke im Portfolio der App aus und können diese frei im Raum platzieren sowie absetzen. Obendrein kann die fertige virtuell platzierte Couch als Foto gespeichert und direkt auf Social Media geteilt werden. [10]
Beim “gestengesteuerten Marketing” bedient der Nutzer das User-Interface durch bestimmte Gesten wie z.B. spezifische Handbewegungen, welche die Notwendigkeit eines Touchscreens umgehen. Mit PROJECT SOLI möchte Google dem Phänomen des berührungsempfindlichen Bildschirms entgegen wirken, nicht zuletzt um die Vorteile des gestengesteuerten Marketings zu forcieren. So ermöglichen Mikrogesten wie Schnipsen oder schnelles Auseinander- und Zusammenführen von Zeigefinger und Daumen die Bedienung des Gerätes auf Basis von Radar-Sensoren.
Im Gegensatz zu Smart-Watches sollen die Project-Soli-Chips gerade einmal einen Bruchteil (1/22) der Watt-Energie verbrauchen, die durch Touch-Bedienung verbraucht wird. Das Projekt befindet sich allerdings noch in der Entwicklungsphase. Der Interessierte User kann sich bei Google registrieren, um den Fortschritt zu verfolgen (Link für Registrierung einsetzen) [11]
Weitere Produkte auf Basis zukünftiger User-Interfaces
Ein weiteres Produkt von Google’s Forschungsteam ATAP (Advanced Technology and Products) ist die High-Tech-Jacke „Commute“. In Zusammenarbeit der Jeansmarke Levis soll die Jacke in der Lage sein, über eingewobene Sensoren die Bedienung eines Smartphones über Gesten zu ermöglichen. Die Jacke mit den „smarten Ärmeln“ konnte bei Verkaufsstart für 350 US-Dollar erworben werden.
[12]
Das „Gesture Marketing“ kann auch direkt am Point-of-Sale stattfinden, ohne dass die User physisch vor Ort im Laden sein müssen.
Die Soft- und Hardware „Magic Schaufenster“ ermöglicht dem Nutzer mithilfe von Gestikulation und einem virtuellen Verkäufer das gesamte Warensortiment direkt vor Ort zu durchstöbern. Der Interessent kann aus der Ferne am Bildschirm entscheiden, ob er das Produkt kaufen möchte oder nicht. [13]
Darüber hinaus gibt es innovative User-Interfaces, die auf einer Verbindung zwischen menschlichen Gehirnströmen und einem Computerprogramm basieren. So erfasst das „EPOC“ Neuro-Headset zum Beispiel spezielle Gedanken auf Grundlage von Neurofeedback. Die charakteristischen Gedanken werden unterschiedlicher Gehirnströme zugeordnet und können dadurch vom Computer „gelesen“ werden. [14]
Auf diese Weise ermöglicht das EPOC Neuro-Headset dem Nutzer, durch seine Gedanken virtuelle Objekte zu verändern, etwa indem sie vergrößert oder verkleinert werden. Wie genau dies möglich ist, hat die australisch-vietnamesische Gründerin Tan Le in einem TED-Talk auf der Bühne unter Beweis gestellt. [15]
Es bedarf allerdings einer Eingewöhnungszeit und andauernder Konzentration, bis das Computer-Brain-Interface die Gehirnströme des Anwenders richtig erfasst und die gewünschten Reaktionen hervorruft.Die auf Elektroenzephalogramm (kurz EEG) beruhende Technologie ist nicht neu. Im Zuge der Neurofeedback-Therapie wird heute bereits über Elektroden gemessen, welche elektrischen Aktivitäten die Hirnrinde aufweist, um damit zum Beispiel Epilepsie zu diagnostizieren.
Dabei bleibt es allerdings beim Erfassen der Daten, während das EPOC Neuro-Headset den Spieß umdreht und durch Gehirnaktivität bestimmte Funktionen im Computerprogramm beeinflussen kann.
Ob es in Zukunft auf unkomplizierte Weise möglich sein wird, durch schiere Gedankenkraft bestimmte Anweisungen an ein Computerprogramm zu übertragen, welches diese dann schnell und korrekt ausführt, bleibt spannend zu beobachten. Wie das Neuro-Headset unter Beweis stellt, ist es zumindest in Ansätzen ausführbar. [16]
Schlussbemerkungen – User Experience vs. Human Experience
Auch wenn die Entwicklung von GUI (graphic user interfaces) zu CUI (conversational user interfaces) bereits auf dem Markt zu spüren ist, befinden wir uns nach wie vor im „Explorationsmodus“.
Was jedoch ohne Frage zukünftig an Bedeutung gewinnen wird:Schnittstellen, die einen konkreten anwendbaren Nutzen für die Konsumenten darstellen. Es wird nicht ausreichen, lediglich den Zugang (die Connection?) zwischen Mensch und Computer herzustellen.
Darüber hinaus bleibt die Praktikabilität von Interfaces zwischen Mensch und Computer situativ unterschiedlich. Um Suchanfragen über Google zu vereinfachen, ist die Voice-Search bei akkurater Funktion sicher bequemer.
Geht es um das Öffnen einer Hoteltür, ist der mechanische Weg mit der eigenen Hand vermutlich nach wie vor der einfachste – statt vorher das Smartphone auszupacken und sich durch die Kombination einiger Knöpfe den Zugang zum Zimmer zu verschaffen.
VR und AR können die Auswahl von Möbel- oder Kleidungsstücken erleichtern und ersparen den Weg ins Geschäft. Das Abtauchen in virtuelle Welten lässt Menschen in Umgebungen eintauchen, in denen sie noch nie zuvor waren.
Andererseits gibt es ein Unterschied zwischen „Sehen und Verstehen“ sowie wahrhaftigen Erleben. Das Tote Meer über Google Earth zu entdecken, hat sicher seinen Reiz. Tatsächlich darin zu schwimmen, kann mit der Erfahrung durch die VR-Brille schwer verglichen werden.
Quellen und wissenschaftliche Studien:
[1] https://entwickler.de/online/ux/conversational-user-interfaces-10-gruende-250714.html
[2] https://www.ibm.com/ibm/history/exhibits/pc25/pc25_birth.html
[3] https://www.edn.com/electronics-blogs/edn-moments/4401825/Microsoft-ships-Windows-1-0--November-20--1985
[4] https://wearesocial.com/de/blog/2018/01/global-digital-report-2018
[5] https://www.lead-digital.de/messenger-kills-the-social-media-star/
[6] https://www.handwerk.com/kundenservice-messenger-beliebter-als-social-media-und-website-hilfe
[7] https://www.lead-digital.de/die-interfaces-der-zukunft/
[8] http://unternehmen-heute.de/news.php?newsid=550109
[9] https://www.lead-digital.de/die-interfaces-der-zukunft/
[10] https://itunes.apple.com/de/app/ikea-place/id1279244498?mt=8
[11] https://t3n.de/news/project-soli-smartwatch-708866/
[12] https://www.theverge.com/2017/9/25/16354712/google-project-jacquard-levis-commuter-trucker-jacket-price-release-date
[13] https://www.magic-schaufenster.de/technologies/gesture-marketing/
[14] https://www.hongkiat.com/blog/next-gen-user-interface/
[15] https://www.ted.com/talks/tan_le_a_headset_that_reads_your_brainwaves?language=en#t-355648
[16] https://www.emotiv.com/epoc/
[17] https://www.mac-history.de/apple-geschichte-2/2012-01-29/apple-und-xerox-parc
[18] https://atap.google.com/soli/