Usability-Tests - Usability testing

Usability Testing ist eine Technik, die im benutzerzentrierten Interaktionsdesign verwendet wird , um ein Produkt zu bewerten, indem es an Benutzern getestet wird. Dies kann als unersetzliche Usability- Praxis angesehen werden, da es einen direkten Einfluss darauf gibt, wie echte Benutzer das System nutzen. Es befasst sich mehr mit der intuitiven Gestaltung des Produkts und wurde mit Benutzern getestet, die noch keine Erfahrung damit hatten. Solche Tests sind für den Erfolg eines Endprodukts von größter Bedeutung, da eine voll funktionsfähige Anwendung, die bei ihren Benutzern Verwirrung stiftet, nicht lange Bestand haben wird. Dies steht im Gegensatz zu Usability-Inspection- Methoden, bei denen Experten verschiedene Methoden verwenden, um eine Benutzeroberfläche zu bewerten, ohne Benutzer einzubeziehen.

Usability-Tests konzentrieren sich auf die Messung der Fähigkeit eines vom Menschen hergestellten Produkts, seinen beabsichtigten Zweck/e zu erfüllen. Beispiele für Produkte, die häufig von Usability-Tests profitieren, sind Lebensmittel , Konsumgüter, Websites oder Webanwendungen, Computerschnittstellen , Dokumente und Geräte. Usability-Tests messen die Benutzerfreundlichkeit oder Benutzerfreundlichkeit eines bestimmten Objekts oder einer Gruppe von Objekten, während allgemeine Studien zur Interaktion zwischen Mensch und Computer versuchen, universelle Prinzipien zu formulieren.

Was es nicht ist

Das einfache Einholen von Meinungen zu einem Objekt oder einem Dokument ist eher Marktforschung oder qualitative Forschung als ein Usability-Test. Usability-Tests beinhalten in der Regel eine systematische Beobachtung unter kontrollierten Bedingungen, um festzustellen, wie gut Menschen das Produkt verwenden können. Häufig werden jedoch sowohl qualitative Forschung als auch Usability-Tests in Kombination verwendet, um die Motivationen/Wahrnehmungen der Benutzer zusätzlich zu ihren Handlungen besser zu verstehen.

Anstatt Benutzer einen groben Entwurf zeigt und zu fragen : „Tun Sie dies verstehen Sie?“, Beinhaltet Usability - Tests Menschen beobachten zu versuchen Gebrauch etwas für den vorgesehenen Zweck. Zum Beispiel sollten die Testpersonen beim Testen von Anweisungen zum Zusammenbauen eines Spielzeugs die Anweisungen und eine Schachtel mit Teilen erhalten und anstatt aufgefordert werden, die Teile und Materialien zu kommentieren, sollten sie aufgefordert werden, das Spielzeug zusammenzustellen. Die Formulierung der Anweisungen, die Qualität der Illustration und das Design des Spielzeugs wirken sich alle auf den Montageprozess aus.

Methoden

Das Einrichten eines Usability-Tests beinhaltet die sorgfältige Erstellung eines Szenarios oder einer realistischen Situation, in der die Person eine Liste von Aufgaben mit dem getesteten Produkt ausführt, während Beobachter beobachtet und Notizen gemacht werden ( dynamische Verifizierung ). Mehrere andere Testinstrumente wie Skriptanweisungen, Papierprototypen und Fragebögen vor und nach dem Test werden ebenfalls verwendet, um Feedback zum getesteten Produkt zu sammeln ( statische Verifikation ). Um beispielsweise die Anhangsfunktion eines E-Mail- Programms zu testen , würde ein Szenario eine Situation beschreiben, in der eine Person einen E-Mail-Anhang senden muss und sie oder sie auffordert, diese Aufgabe zu übernehmen. Ziel ist es, realitätsnah zu beobachten, wie Menschen funktionieren, damit Entwickler die Problembereiche identifizieren und beheben können. Zu den Techniken, die im Volksmund verwendet werden, um Daten während eines Usability-Tests zu sammeln, gehören Think-Aloud-Protokolle , Co-Discovery-Lernen und Eye-Tracking .

Flurtest

Flurtest , auch Guerilla-Usability genannt , ist eine schnelle und kostengünstige Methode des Usability-Tests, bei der Personen - zB Passanten auf dem Flur - aufgefordert werden, das Produkt oder die Dienstleistung auszuprobieren. Dies kann Designern helfen, "Backsteinmauern" zu identifizieren, Probleme, die so schwerwiegend sind, dass Benutzer einfach nicht weiterkommen, in den frühen Stadien eines neuen Designs. Jeder außer Projektdesigner und Ingenieure kann verwendet werden (sie neigen dazu, als "Expertengutachter" zu fungieren, weil sie zu nah am Projekt sind).

Diese Art von Tests ist ein perfektes Beispiel für Convenience Sampling , die Ergebnisse neigen dazu, stark verzerrt zu sein.

Remote-Usability-Tests

In einem Szenario, in dem sich Usability-Evaluatoren, Entwickler und potenzielle Benutzer in verschiedenen Ländern und Zeitzonen befinden, stellt die Durchführung einer traditionellen Lab-Usability-Evaluation sowohl aus Kosten- als auch aus logistischer Sicht Herausforderungen. Diese Bedenken führten zu Forschungen zur Remote-Usability-Evaluierung, bei der der Benutzer und die Evaluatoren räumlich und zeitlich getrennt waren. Remote-Tests, die Auswertungen im Kontext anderer Aufgaben und Technologien des Benutzers erleichtern, können entweder synchron oder asynchron erfolgen. Bei ersterem handelt es sich um eine Eins-zu-eins-Kommunikation in Echtzeit zwischen Evaluator und Benutzer, während bei letzterem Evaluator und Benutzer getrennt voneinander arbeiten. Es stehen zahlreiche Tools zur Verfügung, um die Anforderungen dieser beiden Ansätze zu erfüllen.

Synchrone Usability-Testmethoden umfassen Videokonferenzen oder setzen Tools zur Remote-Anwendungsfreigabe wie WebEx ein. WebEx und GoToMeeting sind die am häufigsten verwendeten Technologien zur Durchführung eines synchronen Remote-Usability-Tests. Jedoch kann es bei synchronen Ferntests an der Unmittelbarkeit und dem Gefühl von "Präsenz" fehlen, die erwünscht sind, um einen kollaborativen Testprozess zu unterstützen. Darüber hinaus kann die Bewältigung zwischenmenschlicher Dynamiken über kulturelle und sprachliche Barrieren hinweg kultursensible Ansätze erfordern. Andere Nachteile sind die eingeschränkte Kontrolle über die Testumgebung und die Ablenkungen und Unterbrechungen, die die Teilnehmer in ihrer Heimatumgebung erfahren. Eine der neueren Methoden, die zur Durchführung eines synchronen Remote-Usability-Tests entwickelt wurden, ist die Verwendung virtueller Welten.

Zu den asynchronen Methoden gehören die automatische Erfassung von Klickströmen der Benutzer, Benutzerprotokolle von kritischen Vorfällen, die während der Interaktion mit der Anwendung auftreten, und subjektives Feedback der Benutzer zur Benutzeroberfläche. Ähnlich wie bei einer Laborstudie ist ein asynchroner Remote-Usability-Test aufgabenbasiert und die Plattform ermöglicht es Forschern, Klicks und Aufgabenzeiten zu erfassen. Für viele große Unternehmen ermöglicht dies den Forschern daher, die Absichten der Besucher beim Besuch einer Website oder einer mobilen Website besser zu verstehen. Darüber hinaus bietet diese Art von Benutzertests auch die Möglichkeit, Feedback nach demografischen, Einstellungs- und Verhaltenstypen zu segmentieren. Die Tests werden in der eigenen Umgebung des Benutzers (anstelle von Laboren) durchgeführt, um weitere reale Szenariotests zu simulieren. Dieser Ansatz bietet auch ein Mittel, um schnell und mit geringerem organisatorischen Aufwand Feedback von Benutzern in abgelegenen Gebieten einzuholen. In den letzten Jahren hat sich auch die asynchrone Durchführung von Usability-Tests durchgesetzt und ermöglicht es Testern, in ihrer Freizeit und bequem von zu Hause aus Feedback zu geben.

Expertenbewertung

Die Überprüfung durch Experten ist eine weitere allgemeine Methode des Usability-Tests. Wie der Name schon sagt, beruht diese Methode darauf, Experten mit Erfahrung auf diesem Gebiet (möglicherweise von Unternehmen, die sich auf Usability-Tests spezialisiert haben) hinzuzuziehen, um die Benutzerfreundlichkeit eines Produkts zu bewerten.

Eine heuristische Evaluation oder ein Usability-Audit ist eine Evaluation einer Schnittstelle durch einen oder mehrere Human Factors-Experten. Evaluatoren messen die Benutzerfreundlichkeit, Effizienz und Effektivität der Schnittstelle basierend auf Usability-Prinzipien, wie den 10 Usability-Heuristiken, die ursprünglich 1994 von Jakob Nielsen definiert wurden .

Die Usability-Heuristiken von Nielsen, die sich als Reaktion auf Benutzerforschung und neue Geräte ständig weiterentwickelt haben, umfassen:

  • Sichtbarkeit des Systemstatus
  • Übereinstimmung zwischen System und der realen Welt
  • Benutzerkontrolle und Freiheit
  • Konsistenz und Standards
  • Fehlervermeidung
  • Wiedererkennen statt erinnern
  • Flexibilität und Effizienz der Nutzung
  • Ästhetisches und minimalistisches Design
  • Helfen Sie Benutzern, Fehler zu erkennen, zu diagnostizieren und Fehler zu beheben
  • Hilfe und Dokumentation

Automatisierte Expertenbewertung

Ähnlich wie Expertenreviews bieten automatisierte Expertenreviews Usability-Tests, aber durch die Verwendung von Programmen werden Regeln für gutes Design und Heuristiken vorgegeben. Obwohl eine automatisierte Überprüfung möglicherweise nicht so viele Details und Einblicke bietet wie Bewertungen von Personen, können sie schneller und konsistenter abgeschlossen werden. Die Idee, Ersatzbenutzer für Usability-Tests zu schaffen, ist eine ehrgeizige Richtung für die Community der künstlichen Intelligenz.

A/B-Tests

In der Webentwicklung und im Webmarketing ist A/B-Testing oder Split-Testing ein experimenteller Ansatz für das Webdesign (insbesondere User Experience Design), der darauf abzielt, Änderungen an Webseiten zu identifizieren, die ein interessantes Ergebnis (z. B. Klickrate) erhöhen oder maximieren für eine Bannerwerbung). Wie der Name schon sagt, werden zwei Versionen (A und B) verglichen, die bis auf eine Variation, die sich auf das Verhalten eines Benutzers auswirken könnte, identisch sind. Version A könnte die aktuell verwendete sein, während Version B in gewisser Hinsicht modifiziert ist. Auf einer E-Commerce-Website beispielsweise ist der Kauftrichter in der Regel ein guter Kandidat für A/B-Tests, da selbst geringfügige Verbesserungen der Drop-off-Raten einen erheblichen Umsatzgewinn bedeuten können. Durch das Testen von Elementen wie Textkopien, Layouts, Bildern und Farben können erhebliche Verbesserungen festgestellt werden.

Multivariate Tests oder Bucket-Tests ähneln A/B-Tests, testen jedoch mehr als zwei Versionen gleichzeitig.

Anzahl Testpersonen

In den frühen 1990er Jahren machte Jakob Nielsen , damals Forscher bei Sun Microsystems , das Konzept populär, zahlreiche kleine Usability-Tests – typischerweise mit jeweils nur fünf Testpersonen – in verschiedenen Stadien des Entwicklungsprozesses durchzuführen. Sein Argument ist, dass, sobald festgestellt wird, dass zwei oder drei Personen von der Homepage völlig verwirrt sind, wenig gewonnen wird, wenn mehr Menschen durch das gleiche fehlerhafte Design leiden. "Aufwendige Usability-Tests sind eine Verschwendung von Ressourcen. Die besten Ergebnisse erzielen Sie, wenn Sie nicht mehr als fünf Benutzer testen und so viele kleine Tests durchführen, wie Sie sich leisten können."

Die Behauptung "Fünf Benutzer sind genug" wurde später durch ein mathematisches Modell beschrieben, das für den Anteil der aufgedeckten Probleme U

wobei p die Wahrscheinlichkeit ist, mit der ein Proband ein bestimmtes Problem identifiziert, und n die Anzahl der Probanden (oder Testsitzungen). Dieses Modell zeigt sich als asymptotischer Graph zur Anzahl der real existierenden Probleme (siehe Abbildung unten).

Virzis Formula.PNG

In späteren Forschungen wurde Nielsens Behauptung mit empirischen Beweisen und fortgeschritteneren mathematischen Modellen in Frage gestellt . Zwei zentrale Herausforderungen für diese Behauptung sind:

  1. Da die Benutzerfreundlichkeit mit der spezifischen Gruppe von Benutzern zusammenhängt, ist es unwahrscheinlich, dass eine so kleine Stichprobengröße für die Gesamtpopulation repräsentativ ist, sodass die Daten einer so kleinen Stichprobe eher die Stichprobengruppe widerspiegeln als die Bevölkerung, die sie möglicherweise repräsentieren
  2. Nicht jedes Usability-Problem ist gleich leicht zu erkennen. Hartnäckige Probleme verlangsamen den Gesamtprozess. Unter diesen Umständen ist der Prozessverlauf viel flacher als von der Nielsen/Landauer-Formel vorhergesagt.

Es ist erwähnenswert, dass Nielsen nicht befürwortet, nach einem einzigen Test mit fünf Benutzern aufzuhören; Sein Punkt ist, dass das Testen mit fünf Benutzern, das Beheben der entdeckten Probleme und das anschließende Testen der überarbeiteten Site mit fünf verschiedenen Benutzern eine bessere Nutzung der begrenzten Ressourcen ist, als einen einzigen Usability-Test mit 10 Benutzern durchzuführen. In der Praxis werden die Tests während des gesamten Entwicklungszyklus ein- bis zweimal pro Woche mit drei bis fünf Testpersonen pro Runde durchgeführt und die Ergebnisse innerhalb von 24 Stunden an die Konstrukteure geliefert. Die Zahl der im Projektverlauf tatsächlich getesteten Nutzer kann somit leicht 50 bis 100 Personen erreichen. Untersuchungen zeigen, dass Benutzertests, die von Organisationen durchgeführt werden, am häufigsten die Rekrutierung von 5-10 Teilnehmern beinhalten.

In der Anfangsphase, wenn Benutzer am ehesten sofort auf Probleme stoßen, die sie aufhalten, kann fast jeder mit normaler Intelligenz als Testperson verwendet werden. In Stufe zwei werden die Tester Testpersonen mit einem breiten Spektrum an Fähigkeiten rekrutieren. In einer Studie zeigten beispielsweise erfahrene Benutzer vom ersten bis zum letzten keine Probleme, jedes Design zu verwenden, während naive Benutzer und selbst identifizierte Power-User beide wiederholt versagten. Später, wenn sich das Design glättet, sollten Benutzer aus der Zielgruppe rekrutiert werden.

Wird die Methode im Laufe eines Projektes auf eine ausreichende Anzahl von Personen angewendet, werden die oben erhobenen Einwände adressiert: Die Stichprobengröße wird nicht mehr klein und Usability-Probleme, die nur bei Gelegenheitsnutzern auftreten, werden gefunden. Der Wert der Methode liegt darin, dass bestimmte Konstruktionsprobleme, die einmal aufgetreten sind, nie wieder gesehen werden, weil sie sofort beseitigt werden, während die erfolgreich erscheinenden Teile immer wieder getestet werden. Es stimmt zwar, dass die anfänglichen Probleme im Design nur von fünf Benutzern getestet werden können, aber wenn die Methode richtig angewendet wird, werden die Teile des Designs, die in diesem ersten Test funktioniert haben, von 50 bis 100 Personen getestet.

Beispiel

Ein Apple Computer- Handbuch von 1982 für Entwickler, das zu Usability-Tests beraten wurde:

  1. "Wählen Sie die Zielgruppe aus. Beginnen Sie Ihr Human Interface Design mit der Identifizierung Ihrer Zielgruppe. Schreiben Sie für Geschäftsleute oder Kinder?"
  2. Bestimmen Sie, wie viel Zielbenutzer über Apple-Computer und den Gegenstand der Software wissen.
  3. Die Schritte 1 und 2 ermöglichen eine zielgruppengerechte Gestaltung der Benutzeroberfläche. Steuervorbereitungssoftware, die für Buchhalter geschrieben wurde, könnte davon ausgehen, dass ihre Benutzer nichts über Computer wissen, aber Experten in Bezug auf das Steuergesetz sind, während solche Software für Verbraucher möglicherweise davon ausgeht, dass ihre Benutzer nichts über Steuern wissen, aber mit den Grundlagen von Apple-Computern vertraut sind.

Apple riet den Entwicklern: "Sie sollten so schnell wie möglich mit dem Testen beginnen und eingezogene Freunde, Verwandte und neue Mitarbeiter verwenden":​

Unsere Testmethode ist wie folgt. Wir richten einen Raum mit fünf bis sechs Computersystemen ein. Wir planen zwei bis drei Gruppen von fünf bis sechs Benutzern gleichzeitig ein, um die Systeme auszuprobieren (oft ohne dass sie wissen, dass wir eher die Software als das System testen). Wir haben zwei der Designer im Raum. Noch weniger, und sie verpassen viel von dem, was vor sich geht. Nicht mehr und die Benutzer haben das Gefühl, dass ihnen immer jemand im Nacken sitzt.

Designer müssen zusehen, wie die Leute das Programm persönlich benutzen, denn​

95 Prozent der Stolpersteine ​​werden durch das Beobachten der Körpersprache der Nutzer gefunden. Achte auf zusammengekniffene Augen, hochgezogene Schultern, Kopfschütteln und tiefe, herzliche Seufzer. Wenn ein Benutzer auf einen Haken stößt, wird er annehmen, dass es "weil er nicht zu hell ist": er wird es nicht melden; er wird es verstecken ... Machen Sie keine Vermutungen darüber, warum ein Benutzer verwirrt wurde. Frag ihn. Sie werden oft überrascht sein, was der Benutzer dachte, als er sich verirrte.

Ausbildung

Usability Testing ist ein formaler Gegenstand der akademischen Lehre in verschiedenen Disziplinen. Usability-Tests sind wichtig für Kompositionsstudien und Online-Schreibunterricht (OWI). Der Gelehrte Collin Bjork argumentiert, dass Usability-Tests "notwendig, aber unzureichend sind, um effektive OWI zu entwickeln, es sei denn, sie werden auch mit den Theorien der digitalen Rhetorik gekoppelt ".

Siehe auch

Verweise

Externe Links