- Startseite
- /
- Artikel
Verwenden Sie Analyzerberichte für Webex AI Quality Management
Analyzerberichte helfen Analysten, Supervisoren und Geschäftsanwendern bei der Überprüfung von AI Quality Management-Daten in großem Umfang. Anstatt Interaktionen einzeln zu öffnen, können Sie Analyzer verwenden, um Bewertungsergebnisse, Kundenerfahrungssignale und Leistungstrends für menschliche Agenten, KI-Agenten, Teams und Warteschlangen zu überprüfen. In diesem Artikel werden die in Analyzer verfügbaren AI Quality Management-Berichte erläutert, was in den einzelnen Berichten angezeigt wird und wie die verfügbaren Felder und Filter zur Analyse der Interaktionsqualität und -leistung verwendet werden.
Übersicht
AI Quality Management macht alle QM-Metriken in CSR und ASR verfügbar, um benutzerdefinierte Berichte zu erstellen. Es gibt zwei Typen von benutzerdefinierten Berichten, die von Benutzern erstellt werden können:
- Liste aller Kundeninteraktionen und zugehöriger QM Metriken für diese Interaktionen (CSR)
- Auflistung aller Agenten nach Team und ihrer Leistung in Bezug auf wichtige Betriebs- und QM Metriken (ASR)
Zusammen helfen Ihnen diese Berichte dabei, Qualitätsergebnisse auf Interaktionsebene zu überprüfen und die Agentenleistung im Laufe der Zeit zu vergleichen, wobei Sie dieselbe Berichtserfahrung verwenden.
Verwenden Sie diese Berichte, wenn Sie Interaktionen mit fehlgeschlagenen Evaluierungen identifizieren, aggregierte Evaluierungsergebnisse von Agenten vergleichen und die Leistung von Agenten bei verbundener Dauer oder Interaktionen mit niedrigeren Stimmungswerten ermitteln möchten.
Bevor Sie beginnen:
- Stellen Sie sicher, dass Ihr Unternehmen Zugriff auf Analyzer und die erforderlichen AI Quality Management-Funktionen hat.
- Stellen Sie sicher, dass die relevanten QM-Funktionen, z. B. Evaluierungen, Sprachanalyse, automatische CSAT und Stimmungsanalyse, bei Bedarf aktiviert sind.
- Sie müssen Zugriff auf Analyzer und die Datensätze oder Berichte haben, die von Ihrer Organisation für die AI Quality Management-Berichterstellung verwendet werden.
- Einige Berichtswerte hängen von den Funktionen ab, die für die ausgewählte Interaktion, Warteschleife oder den ausgewählten Agenten aktiviert sind.
Öffnen von AI Quality Management-Berichten in Analyzer
So verwenden Sie AI Quality Management-Berichte in Analyzer:
- Melden Sie sich bei Webex Contact Center an, und öffnen Sie Analyzer.
- Erstellen Sie benutzerdefinierte CSR- oder ASR-Berichte in Visualisierungen mithilfe der verfügbaren Metriken.
- Öffnen Sie den Bericht oder die Berichtsvorlage, der bzw. die für AI Quality Management konfiguriert wurde.
- Wählen Sie das Berichtsintervall aus und wenden Sie die Filter an, die für Ihre Analyse relevant sind.
- Überprüfen Sie die Berichtsdaten und führen Sie bei Bedarf einen weiteren Drilldown nach Agent, Team, Warteschlange oder Interaktion durch.
QM für den Bericht "Interaktionen" (CSR)
Erstellen Sie einen benutzerdefinierten Bericht QM für Interaktionen, wenn Sie eine Ansicht auf Interaktionsebene wünschen, die Qualitätsmetriken mit betrieblichen Metriken und sprachbasierten Qualitätssignalen kombiniert. Dieser Bericht hilft Analysten, zu überprüfen, wie abgeschlossene Interaktionen bewertet wurden, und diese Daten mit Kennzahlen wie Bewertungsergebnis, Stimmung, automatischer CSAT, Übersprechzeit, Funkstillstandszeit, Verbindungsdauer, Übertragungen und Rückfragen zu vergleichen.
Dieser Bericht ist nützlich, wenn Sie fehlgeschlagene Evaluierungen untersuchen, Interaktionen mit niedrigen Evaluierungsergebnissen identifizieren oder eine umfassendere Qualitätstrendanalyse über Kanäle und Warteschlangen hinweg erstellen möchten.
Verfügbare Felder
- ANI | Anrufernummer oder Ursprungsadresse für die Interaktion.
- Einstiegspunkt | Name des letzten Einstiegspunkts, der von der Interaktion verwendet wurde.
- Kontakt Session ID | Interaktion ID.
- Startzeitstempel Kontakt | Datum und Uhrzeit des Kontaktbeginns.
- Endzeitstempel Kontakt | Datum und Uhrzeit des Endes des Kontakts.
- Kanal | Telefonie, E-Mail, Chat oder soziale Netzwerke.
- Regie | Eingehend oder ausgehend.
- Erster Warteschlangenname | Name der Warteschlange, in der die Interaktion zuerst gelandet ist.
- Endgültiger Warteschlangenname | Name der letzten Warteschleife
- Name des Agenten | Letzter Agent in der Interaktion.
- Status der Evaluierung | Status der Evaluierung für die Interaktion.
- Wrapup-Codename | Der mit der Interaktion verbundene Grund für die Nachbereitung.
- Customer Sentiment Score | Stimmungswert für die Interaktion zwischen –100 und +100; > +45 ist positiv, < -45 ist negativ, zwischen -45 und +45 ist neutral.
- Gesamtergebnis der Evaluierung | Gesamtbewertungsergebnis für die Interaktion.
- Fehleranzahl der Evaluierungsabschnitte | Anzahl der Abschnitte, die bei der Evaluierung fehlgeschlagen sind.
- Übersprechzeit | Dauer der Interaktion im Format HH:MM:SS, als der Agent über den Kunden sprach.
- Wortverhältnis | Prozentualer Anteil der Zeit, die der Agent mit dem Sprechen in einer Interaktion verbringt.
- Dead Air Zeit | Die Gesamtzeit während des verbundenen Teils der Interaktion, in der weder der Kunde noch der Agent spricht.
- Verbundene Dauer| Zeit im Format HH:MM:SS.
- Anzahl der Übertragungen | Gesamtzahl der Übertragungen während der Interaktion.
- Dauer der Warteschleife | Gesamtdauer der Interaktion im Format "Gehalten" im Format HH:MM:SS.
- Anzahl Halten | Anzahl der Haltezeiten während einer Interaktion.
- Dauer der Nachbereitung | Gesamtzeit, die nach der Bearbeitung der Interaktion in HH:MM:SS für Nachbereitung aufgewendet wurde.
- Anzahl konsultieren | Gesamtzahl der Konsultationen für die Interaktion.
- Konsultationsdauer | Gesamte Beratungsdauer.
- Automatische Kundenzufriedenheit | Automatisches CSAT-Ergebnis für die Interaktion.
- Agent
- Warteschlange
- Dauer
- Kanal
- Richtung
- Status der Evaluierung
Verfügbare Filter
Verwendung dieses Berichts
- Verwenden Sie Interaktion ID oder ANI, wenn Sie eine bestimmte Interaktion untersuchen möchten.
- Verwenden Sie Warteschleife, Einstiegspunkt, Kanal und Richtung, um Qualitätstrends über Routing-Pfade und Interaktionstypen hinweg zu vergleichen.
- Verwenden Sie die Anzahl "Evaluierungsstatus", "Gesamtergebnis der Evaluierung" und "Evaluierungsabschnitte fehlgeschlagen", um Interaktionen zu identifizieren, die überprüft oder nachverfolgt werden müssen.
- Verwenden Sie "Automatische Kundenzufriedenheit", "Stimmung", "Übersprechzeit", "Wortverhältnis" und "Dead Air Time" zusammen, wenn Sie eine umfassendere Sicht der Interaktion auf das Kundenerlebnis wünschen.
Bericht "Leistung menschlicher Agenten" (ASR)
Erstellen Sie einen benutzerdefinierten Bericht über die Leistung menschlicher Agenten, wenn Sie eine aggregierte Ansicht der Agentenleistung für den ausgewählten Zeitraum wünschen. Dieser Bericht kombiniert durchschnittliche Evaluierungsergebnisse, Customer Experience-Kennzahlen und operative Metriken, sodass Sie die Leistung von Agenten und Teams vergleichen können.
Wenn ein Agent während des ausgewählten Zeitraums in mehr als einem Team gearbeitet hat, zeigt der Bericht für jede Kombination aus Agent und Team separate Zeilen an.
Verfügbare Felder
- Name des Agenten | Name des Agenten.
- Teamname | Team, das dem Agenten für das ausgewählte Intervall zugeordnet ist.
- Gesamtergebnis der Evaluierung | durchschnittliches Evaluierungsergebnis für die Interaktionen, die von dem Agenten innerhalb des ausgewählten Intervalls durchgeführt wurden.
- Anzahl fehlgeschlagener Evaluierungen | Anzahl der Evaluierungen, die vom Agenten fehlgeschlagen sind.
- Übersprechzeit | durchschnittliche Zeit, die Agent bei bearbeiteten Interaktionen über den Kunden gesprochen hat.
- Wortverhältnis | Prozentualer Anteil der Zeit, die der Agent während einer Interaktion gesprochen hat.
- Dead Air Zeit | durchschnittliche Zeit, in der weder der Kunde noch der Agent gesprochen hat.
- Anzahl der Verbindungen | Anzahl der verbundenen Interaktionen, die vom Agenten erledigt wurden.
- Verbundene Dauer | durchschnittliche Verbindungsdauer für die Interaktionen des Agenten.
- Dauer der Nachbereitung | durchschnittliche Zeit, die der Agent nach einer Interaktion zum Abschließen der Nachbereitung benötigt.
- Anzahl der Übertragungen | Gesamtanzahl der Übertragungen, die vom Agenten in allen Interaktionen initiiert wurden.
- Anzahl Halten | Häufigkeit, mit der der Agent einen Anrufer auf "Halten" PUT hat.
- Durchschnittliche Haltedauer | durchschnittliche Zeit, die der Agent den Anruf in die Warteschleife stellt.
- Anzahl der Konsultationen | Gesamtanzahl der vom Agenten angeforderten Konsultationen.
- Konsultationsdauer | Gesamte Beratungsdauer.
- Anzahl der abgefragten Antworten | Gesamtzahl der beantworteten Konsultationen.
Verfügbare Filter
- Agent
- Team
- Dauer
- Kanal
Verwendung dieses Berichts
- Verwenden Sie "Gesamtergebnis der Evaluierung" und "Anzahl der Evaluierungsfehler" zusammen, wenn Sie eine Ansicht der Agentenleistung anhand der Evaluierungsmetriken erhalten möchten.
- Verwenden Sie die Monitore "Halten", "Übergeben", "Konsultieren", "Übersprechen", "Wortverhältnis" und "Funkstille", um Leistungsverhaltensweisen zu identifizieren, die möglicherweise eine eingehendere Überprüfung oder ein Coaching erfordern.