
Auf dieser Seite
- Warum die meisten Teams die falschen UX-Metriken messen
- Verhaltensbasierte UX-Metriken: Was Nutzer tatsaechlich tun
- Einstellungsbasierte UX-Metriken: Wie Nutzer sich fuehlen
- Googles HEART-Framework: ein strukturierter Ansatz
- Core Web Vitals: UX-Metriken für Performance
- Eine nachhaltige UX-Messpraktik aufbauen
- Tools fuer die Verfolgung von UX-Metriken
- Haeufige Fehler beim Messen von UX
- Von der Messung zur Massnahme: Den Kreis schliessen
Ihre Website sieht toll aus. Branding stimmt, Layout ist sauber, das Team ist stolz. Aber niemand will diese eine Frage stellen: Funktioniert das Ganze wirklich fuer die Nutzer? Wer keine UX-Metriken im Blick hat, fliegt blind. Entscheidungen basieren dann auf Geschmack statt auf Fakten – und man hofft einfach, dass es gutgeht.
Ich hab das schon Dutzende Mal erlebt. Ein Unternehmen ballert 30.000 Dollar oder mehr in ein Redesign, alle klatschen beim Launch – und dann bleiben die Conversions flach, oder sie sinken sogar. Was fehlt? Fast immer: vernuenftiges Messen. Nicht Eitelkeitszahlen wie Seitenaufrufe, sondern Indikatoren, die zeigen, ob echte Menschen auf der Seite auch wirklich zurechtkommen.
In diesem Artikel geht es um UX-Metriken, die wirklich was mit Ihrem Umsatz zu tun haben. Verhaltensdaten, Stimmungsbilder, Googles HEART-Framework – und wie Sie ein Messen etablieren, das Designentscheidungen an Geschaeftszahlen koppelt. Egal, ob Sie ein neues UX/UI-Design-Projekt planen oder eine bestehende Site unter die Lupe nehmen: Das sind die Zahlen, auf die ich selber schaue.
Warum die meisten Teams die falschen UX-Metriken messen
Ein Szenario, das ich staendig sehe: Das Marketing-Team oeffnet Google Analytics, zeigt auf die Sitzungsdauer und ruft 'Erfolg!'. Aber laengere Sessions sind nicht automatisch gut. Manchmal brauchen die Leute laenger, weil sie sich verlaufen haben – nicht weil sie begeistert sind.
Eitelkeitsmetriken tauschen. Seitenaufrufe, Sessions, reiner Traffic – das sagt kaum was ueber die tatsaechliche Erfahrung. Eine Seite mit 50.000 Besuchern und 4 % Conversion schlaegt eine mit 200.000 Besuchern und 0,5 % – aber im Dashboard sieht die groessere Zahl natuerlich besser aus. Ich habe schon Kunden gehabt, die stolz auf ihre Traffic-Kurve waren, waehrend die Conversion im Keller lag.
Die entscheidende Frage ist nicht 'Wie viel Traffic kommt rein?', sondern 'Was passiert, wenn jemand da ist?'. Hier kommen UX-Metriken ins Spiel. Sie zeigen, wie gut Nutzer zurechtkommen, wie schnell sie ihre Aufgabe erledigen, wo sie haengenbleiben – und ob sie die Seite weiterempfehlen wuerden.
Das ist keine akademische Spitzfindigkeit. Forrester Research hat herausgefunden, dass jeder in UX investierte Dollar bis zu 100 Dollar zurueckbringen kann. Aber den ROI kriegt man nur, wenn man auch weiss, was genau man messen muss – und wo der Schuh drueckt.
Verhaltensbasierte UX-Metriken: Was Nutzer tatsaechlich tun
Verhaltensbasierte UX-Metriken sind fuer mich der Kern jeder Messung. Man sieht genau, was Nutzer tun: wo sie klicken, wie weit sie scrollen, wo sie abspringen. Umfragen allein zeigen das nie. Wie wir das in Projekten angehen, sehen Sie in unseren Webdesign-Leistungen.
Task Success Rate (TSR)
Die Task-Erfolgsrate ist meiner Meinung nach die wichtigste Usability-Kennzahl. Sie sagt ganz simpel: Welcher Prozentsatz der Nutzer schafft es, eine bestimmte Aufgabe zu erledigen? Formular ausfuellen, Produkt finden, Checkout durchziehen. Rechnung: erledigt durch versucht.
Der Durchschnitt in der Branche liegt bei rund 78 Prozent. Jeder fuenfte Nutzer schafft es also nicht, was er wollte. Liegt Ihre Website darunter, kosten Sie sich aktiv Umsatz. Das ist kein theoretisches Problem – das sind verlorene Anfragen oder Verkaeufe.
Richtig spannend wird das bei der Aufschluesselung. TSR nach Geraet, Traffic-Quelle oder Nutzergruppe – da kommen oft die Aha-Momente. Desktop-Nutzer schaffen vielleicht 85 %, mobile nur 62 %. Das ist kein generelles UX-Problem, sondern ein mobiles. Und dann weiss ich sofort, wo ich ansetzen muss.
Time on Task
Time on Task zeigt, wie lange Nutzer fuer eine Aufgabe brauchen. Meist ist kuerzer besser, aber nicht immer. Ein schneller Checkout? Ja, bitte. Eine Produktvergleichsseite? Da will ich, dass der Nutzer sich Zeit nimmt. Kontext zaehlt.
Verfolgen Sie den Wert ueber Zeit, besonders nach Design-Aenderungen. Navigation neu gemacht und die Zeit zum Produktfunden sinkt von 45 auf 18 Sekunden? Das ist ein Sieg. Aber: Kombinieren Sie das mit der Erfolgsrate. Schnelles Scheitern ist kein Erfolg.
Error Rate
Die Error Rate zeigt, wie oft Nutzer Fehler machen – falsche Eingaben, Fehlklicks, staendiges Zurueckgehen. Das sind Momente der Verwirrung. Eine hohe Fehlerrate auf einer bestimmten Seite ist fuer mich ein Alarmzeichen: schlechte Informationsarchitektur oder verwirrende Labels.
Bei einem Kundenprojekt hatten wir eine Fehlerrate von 34 % in einem mehrstufigen Anfrageformular. Telefonnummern im falschen Format, falsche Kategorie gewaehlt, Abbruch bei Schritt drei. Wir haben das Formular von fuenf auf zwei Schritte reduziert und Inline-Validierung eingebaut. Ergebnis: Fehlerrate auf 9 %, abgeschlossene Einreichungen plus 41 %.
Navigation und Klickmuster
Heatmaps und Session-Recordings zeigen, was wirklich passiert. Klickt jemand auf etwas, das gar nicht klickbar ist? Scrollt er am CTA vorbei, ohne es zu merken? Klickt er verzweifelt auf einen Button, der nicht funktioniert?
Das sind Goldstuecke fuer mich. Mit Hotjar, FullStory oder Microsoft Clarity schaue ich mir echte Sessions an. Da findet man Probleme, die ein Analytics-Dashboard nie anzeigen wuerde.
Einstellungsbasierte UX-Metriken: Wie Nutzer sich fuehlen
Verhaltensbasierte UX-Metriken zeigen, was passiert ist. Einstellungsdaten sagen mir, warum – und ob der Nutzer wiederkommt.
Net Promoter Score (NPS)
NPS ist simpel: 'Wie wahrscheinlich ist es, dass Sie uns einem Freund empfehlen?' 0 bis 10. 0–6 sind Kritiker, 7–8 Passive, 9–10 Fans. NPS = Fans minus Kritiker.
Als Einzelwert ist NPS ziemlich nutzlos. Aber der Trend ist interessant: Steigt er nach einem Redesign? Dann haben die Nutzer die Aenderung wohl gemocht. Fuer Websites loese ich die Umfrage immer nach einer wichtigen Interaktion aus – nach dem Kauf, nach dem Support-Chat, nach dem Download. Niemals beim bloesen Seitenaufruf.
Customer Satisfaction Score (CSAT)
CSAT fragt nach einer konkreten Interaktion: 'Wie zufrieden waren Sie mit Ihrer heutigen Erfahrung?' 1 bis 5. Das ist feiner als NPS und perfekt, um einzelne Ablaeufe zu bewerten.
Als Orientierung: Im E-Commerce liegt der Durchschnitt bei etwa 77 von 100. Liegen Sie deutlich drunter, wissen Sie, wo Sie anpacken muessen.
System Usability Scale (SUS)
SUS ist ein Klassiker: 10 Fragen, Score 0–100. Gibt es seit 1986. Ueber 68 ist gut, unter 50 ist ein Warnsignal.
Ich nutze SUS besonders gerne, um vor und nach einem Redesign zu vergleichen. Dann habe ich eine objektive Zahl – nicht nur das Gefuehl des Design-Teams, dass es jetzt 'viel besser' aussieht.
Googles HEART-Framework: ein strukturierter Ansatz
Wenn Sie nicht wissen, welche UX-Metriken Sie tracken sollen: Googles HEART-Framework ist ein guter Startpunkt. Kerry Rodden von Google hat es entwickelt – fuenf Kategorien, die Gefuehle und Verhalten abdecken.
Happiness (Glueck)
Happiness: Wie zufrieden sind die Nutzer? CSAT, NPS, kurze Umfragen nach der Interaktion. Das ist der Gefuehls-Teil.
Engagement (Engagement)
Engagement: Wie tief gehen die Nutzer rein? Seiten pro Sitzung, Wiederholungsbesuche, Downloads. Aber Vorsicht: Wer die Preisseite fuenf Mal oeffnet, ist nicht unbedingt begeistert – vielleicht auch einfach verwirrt.
Adoption (Adoption)
Adoption: Wie viele neue Nutzer steigen ein? Erste Anmeldungen, Formulare, Downloads. Die Frage dahinter: Kommen ueberhaupt neue Leute an Bord?
Retention (Bindung)
Retention: Wer kommt zurueck? Wiederkehrende Besucher, wiederholte Einreichungen, Logins. Wenn viele neu dazukommen, aber kaum jemand wiederkommt, stimmt was mit dem langfristigen Erlebnis nicht. Der erste Eindruck reicht eben nicht. Fuer eine Corporate Website lohnt sich dieser Blick besonders.
Task Success (Aufgabenerfolg)
Task Success: Effizienz, Effektivitaet, Fehlerrate. Der Pragmatiker-Teil des Frameworks. Und fuer die meisten Websites der, der am schnellsten Ergebnisse bringt.
HEART wird richtig stark, wenn man den Goals-Signals-Metrics-Prozess dazunimmt. Zuerst das Ziel klar definieren. Dann schauen: Welches Nutzerverhalten zeigt, dass wir auf dem richtigen Weg sind? Und dann eine konkrete Zahl dazu waehlen. So bleibt man fokussiert und ertrinkt nicht in Daten.
Core Web Vitals: UX-Metriken für Performance
Schoenste UI nutzt nichts, wenn die Seite vier Sekunden braucht zum Laden. Core Web Vitals sind UX-Metriken für Performance, und sie beeinflussen sowohl das Nutzererlebnis als auch das Ranking. In unserem Projektportfolio sehen Sie, wie wir das angehen.
Largest Contentful Paint (LCP)
LCP: Wann ist das groesste sichtbare Element geladen? Googles Ziel: 2,5 Sekunden oder schneller. Wer das schafft, hat deutlich weniger Abspruenge. Ein grosser E-Commerce-Anbieter hat nach der LCP-Optimierung 18 % weniger Abspruenge gemeldet.
Interaction to Next Paint (INP)
INP hat 2024 den FID abgeloest. Es misst, wie schnell die Seite waehrend des ganzen Besuchs reagiert – nicht nur beim ersten Klick. Ziel: 200 Millisekunden oder weniger. Wenn das zu langsam ist, fuehlt sich die Seite traege an, und Nutzer verlieren die Lust.
Cumulative Layout Shift (CLS)
CLS trackt das nervige Springen der Seite, wenn Bilder oder Ads nachladen. Googles Grenzwert: 0,1 oder weniger. 70 % der Nutzer sagen, dass stabile Layouts fuer Vertrauen wichtig sind. Bei einer Plattform hat die CLS-Behebung den Warenkorbabbruch um 9 % gesenkt.
Nur 47 % aller Websites erfuellen alle drei Core Web Vitals. Wer dazugehoert, kann Conversions um bis zu 25 % steigern und Abspruenge um 35 % senken. Wenn Ihre Landing Pages hier hinterherhinken, ist das meiner Erfahrung nach die Massnahme mit dem schnellsten ROI.
Wichtige Erkenntnis
Fangen Sie nicht an, alles gleichzeitig zu tracken. Drei bis fuenf Metriken reichen am Anfang – und zwar die, die wirklich zu Ihrem Geschaeftsziel passen. Lead-Gen? Schaun Sie auf Task-Erfolg, Formular-Abschluss und NPS. E-Commerce? Conversion, Fehlerrate und Core Web Vitals. Erweitern koennen Sie immer noch. Aber wer zu breit startet, reagiert auf gar nichts.
Eine nachhaltige UX-Messpraktik aufbauen
UX-Metriken auszuwaehlen ist der einfache Teil. Der schwierige Teil: eine Praxis aufbauen, bei der Daten wirklich Entscheidungen beeinflussen – und nicht nur irgendwelche Quartalsberichte aufhuebschen.
Baselines setzen, bevor Sie irgendetwas aendern
Vor jedem Redesign: messen, wo Sie stehen. Ohne Baseline wissen Sie nie, ob sich was gebessert hat. SUS-Umfrage, aktuelle Task-Erfolgsraten, Core Web Vitals notieren. Eine Woche Arbeit. Aber dann ist alles, was folgt, auch wirklich vergleichbar.
Metriken mit Geschaeftsergebnissen verbinden
Fuer das Management zaehlen UX-Zahlen erst, wenn sie mit Umsatz verkuepft sind. 'Task-Erfolg um 15 % besser' ist nett. 'Task-Erfolg um 15 % besser und deshalb 22 % mehr qualifizierte Leads' – das holt Budgets. Verbinden Sie UX-Daten immer mit Geschaefts-KPIs: Conversion, Akquisitionskosten, Kundenwert.
In einem Rhythmus ueberpruefen
Ein monatliches Review reicht den meisten Teams. Aktuelle Zahlen mit Baseline und Vormonat vergleichen. Nicht auf einzelne Datenpunkte schauen, sondern auf Trends. Ein mieser CSAT-Monat kann Zufall sein. Drei Monate bergab? Da stimmt was nicht, und Sie sollten recherchieren.
Sowohl quantitative als auch qualitative Daten verwenden
Zahlen zeigen das Was. Nutzerinterviews und Session-Recordings zeigen das Warum. Beides zusammen ist unschlagbar. Die Checkout-Erfolgsrate sinkt? Das ist das Signal. Dann schaue ich mir fuenf Sessions an, in denen Nutzer beim Adressformular verzweifeln – und weiss ploetzlich genau, was ich aendern muss.
Tools fuer die Verfolgung von UX-Metriken
Man braucht keinen teuren Analytics-Stack, um UX-Metriken zu erfassen. Hier ist mein bevorzugtes Toolkit – nach Einsatzgebiet sortiert.
Analytics und Verhalten: Google Analytics 4 fuer Traffic und Conversions. Hotjar oder Microsoft Clarity fuer Heatmaps, Sessions und einfache Umfragen. Damit haben Sie das Verhalten abgedeckt.
Usability-Tests: Maze oder UserTesting fuer Remote-Tests. Da messen Sie Erfolgsrate, Zeit und Fehler mit echten Nutzern. Bereits fuenf Tester finden laut Nielsen Norman Group 85 % der Usability-Probleme.
Performance: PageSpeed Insights und Lighthouse sind kostenlos und decken Core Web Vitals ab. WebPageTest gibt es fuer tiefergehende Analysen.
Umfragen: Survicate, Hotjar oder einfach Google Forms reichen fuer NPS, CSAT und SUS. Wichtig ist das Timing: nach der Interaktion fragen, nicht als stoerendes Pop-up.
Dashboards: Ein simples Looker Studio-Dashboard (kostenlos) mit Ihren fuenf Top-Metriken. Dann haben Sie alles auf einen Blick, und die monatlichen Reviews laufen viel entspannter.
Haeufige Fehler beim Messen von UX
Nach Dutzenden Website-Projekten wiederholen sich bei mir immer wieder dieselben Fehler beim Messen von UX-Metriken. Wer sie vermeidet, spart sich Monate Frust. Wenn Sie da Unterstuetzung brauchen, reden wir gerne ueber Ihre UX-Ziele.
Zu viele Metriken. Zwanzig Zahlen auf einem Dashboard bedeuten, dass niemand mehr hinschaut. Seien Sie gnadenlos beim Priorisieren. Fuenf gute Metriken bringen mehr als fuenfzig, die keiner liest.
Segmentierung vergessen. Gesamtzahlen luegen. Die Task-Erfolgsrate sieht vielleicht gut aus – aber auf Android-Mobile kann es katastrophal aussehen. Immer segmentieren: Geraet, Browser, Herkunft, Nutzertyp.
Einmal messen, dann vergessen. UX-Messung ist kein Einmal-Audit. Nutzer verhalten sich anders, neue Features machen an anderer Stelle Probleme, und der Wettbewerb schlaeft nicht. Messen muss kontinuierlich passieren.
Korrelation mit Kausalitaet verwechseln. Die Sitzungsdauer ist gestiegen – aber aus welchem Grund? Weil die Nutzer begeisterter sind, oder weil sie die neue Navigation nicht kapieren? Immer erst qualitativ nachhaken, bevor Sie Schluesse ziehen.
Keine Baseline. Ohne 'Vorher'-Werte koennen Sie nie beweisen, dass Ihre Arbeit was gebracht hat. Passiert leider staendig bei Redesigns: Alle wollen sofort ins Neue, und keiner dokumentiert den Ist-Stand.
Von der Messung zur Massnahme: Den Kreis schliessen
Daten zu sammeln und nichts zu tun ist teures Archivieren. Der Wert entsteht erst im Kreislauf: Messen, Problem finden, Loesung priorisieren, umsetzen, neu messen.
Starten Sie mit der schlechtesten Metrik. 58 % Erfolg beim Kontaktformular? Das hat Prioritaet, nicht die Farbe des Hero-Buttons. Erst die groessten Reibungspunkte beheben, mit Daten validieren, dann weiter.
Genau so arbeiten wir bei Vezert. Unser UX/UI-Designprozess faengt mit Zahlen an, nicht mit Mockups. Baseline aufnehmen, Metriken finden, die zum Geschaeftsziel passen, und dann designen. Hinter jeder Entscheidung steht eine Zahl.
Die Unternehmen, die gewinnen, sind nicht die mit den huebschesten Websites. Sondern die, die wissen, wo es hakt, das Kaputte reparieren und sich laufend verbessern. UX-Metriken zeigen Ihnen den Weg.

Auf dieser Seite
- Warum die meisten Teams die falschen UX-Metriken messen
- Verhaltensbasierte UX-Metriken: Was Nutzer tatsaechlich tun
- Einstellungsbasierte UX-Metriken: Wie Nutzer sich fuehlen
- Googles HEART-Framework: ein strukturierter Ansatz
- Core Web Vitals: UX-Metriken für Performance
- Eine nachhaltige UX-Messpraktik aufbauen
- Tools fuer die Verfolgung von UX-Metriken
- Haeufige Fehler beim Messen von UX
- Von der Messung zur Massnahme: Den Kreis schliessen



