- ホーム
- /
- 投稿記事
Webex AI 品質管理にアナライザーレポートを使用する
アナライザーレポートは、アナリスト、管理者、およびビジネスユーザが AI 品質管理データを大規模にレビューするのに役立ちます。 インタラクションを一つずつ開く代わりに、アナライザーを使用すると、人間のエージェント、AI エージェント、チーム、キュー全体にわたる評価結果、顧客体験シグナル、パフォーマンス傾向を確認できます。 この記事では、Analyzer で利用できる AI 品質管理レポート、各レポートの内容、および利用可能なフィールドとフィルターを使用してインタラクションの品質とパフォーマンスを分析する方法について説明します。
概要
AI 品質管理は、カスタムレポートを作成するために、CSR と ASR 内のすべての QM メトリクスを公開します。 ユーザが作成できるカスタムレポートには、次の 2 種類があります。
- すべての顧客とのやり取りと、それらのやり取りに関連する QM メトリクスの一覧 (CSR)
- チームごとの全エージェントのリストと、主要な運用指標および QM 指標(ASR)に関するパフォーマンス
これらのレポートを総合的に活用することで、インタラクションレベルの品質結果を確認したり、同じレポート機能を使ってエージェントのパフォーマンスを時系列で比較したりすることができます。
これらのレポートは、評価に失敗したやり取りを特定したり、エージェントの集計された評価スコアを比較したり、接続時間におけるエージェントのパフォーマンスを把握したり、感情スコアが低いやり取りを特定したりする場合に役立ちます。
はじめる前に
- 組織がアナライザーおよび必要な AI 品質管理機能にアクセスできることを確認してください。
- 評価、音声分析、自動顧客満足度、感情分析など、関連する QM 機能が必要に応じて有効になっていることを確認してください。
- AI 品質管理レポート作成のために、Analyzer および組織が使用するデータセットまたはレポートへのアクセス権が必要です。
- レポートの値によっては、選択したインタラクション、キュー、またはエージェントに対して有効になっている機能によって値が異なります。
アナライザーにおける OpenAI 品質管理レポート
アナライザーで AI 品質管理レポートを使用するには:
- Webex Contact Center にログインして、アナライザーを開きます。
- 利用可能なメトリクスを使用して、ビジュアライゼーションでカスタムの CSR または ASR レポートを作成します。
- AI 品質管理用に設定されたレポートまたはレポートテンプレートを開きます。
- レポート間隔を選択し、分析に関連するフィルターを適用してください。
- レポートデータを確認し、必要に応じてエージェント、チーム、キュー、またはインタラクションごとにさらに詳細な分析を行ってください。
インタラクションレポート(QM)用ハッシュタグ(CSR)
品質指標、運用指標、音声ベースの品質シグナルを組み合わせたインタラクションレベルのビューが必要な場合は、インタラクションレポート用にカスタム QM を作成してください。 このレポートは、アナリストが完了したやり取りがどのように評価されたかを確認し、そのデータを評価スコア、感情分析、自動顧客満足度、クロストーク時間、無音時間、接続時間、転送、相談などの指標と比較するのに役立ちます。
このレポートは、評価の失敗を調査したり、評価スコアの低いインタラクションを特定したり、チャネルやキュー全体にわたるより広範な品質傾向分析を構築したりする場合に役立ちます。
利用可能なフィールド
- ANI | 通話の発信番号または発信元住所。
- エントリーポイント | インタラクションで最後に使用されたエントリーポイントの名前。
- コンタクトセッション ID | インタラクション ID。
- 連絡開始タイムスタンプ|連絡が開始された日時。
- 連絡終了タイムスタンプ|連絡が終了した日時。
- チャネル|電話、メール、チャット、またはソーシャルメディア。
- 方向|インバウンドまたはアウトバウンド。
- 最初のキュー名 | インタラクションが最初に到達したキューの名前。
- 最終キュー名 | 最後のキューの名前
- 担当者名 | やり取りの最後の担当者
- 評価状況|インタラクションの評価状況。
- ラップアップコード名 | インタラクションに関連付けられたラップアップ理由。
- 顧客感情スコア | -100~+100 の間の感情スコアは肯定的、-45 以下は否定的、-45~+45 の間は中立です。
- 総合評価スコア|インタラクションの総合評価スコア。
- 評価セクションの不合格件数|評価で不合格となったセクションの数。
- クロストーク時間|エージェントが顧客の発言に重なって話したやり取りの継続時間(時:分:秒)。
- 単語比率|エージェントが会話中に話す時間の割合。
- 無音時間|顧客とエージェントのどちらも話していない、会話が接続されている部分の合計時間。
- 接続時間|時間(時:分:秒)
- 転送回数|インタラクション中に行われた転送の総数。
- 保留時間 | インタラクションが保留されていた合計時間 (時:分:秒)
- 保留回数|やり取り中の保留回数。
- ラップアップ時間 | インタラクションの処理後、ラップアップに費やした合計時間 (時:分:秒)。
- 相談件数|当該やり取りにおける相談件数の合計。
- 診察時間|合計診察時間
- 自動 CSAT|インタラクションに対する自動 CSAT スコア。
- エージェント(Agent)
- キュー(Queue)
- 時間(Duration)
- Channel
- Direction
- 評価状況
利用可能なフィルター
このレポートの使い方
- 特定の相互作用を調査したい場合は、相互作用 ID または ANI を使用してください。
- キュー、エントリポイント、チャネル、および方向を使用して、ルーティングパスとインタラクションタイプ全体にわたる品質傾向を比較します。
- 評価状況、総合評価スコア、および評価項目の不合格件数を使用して、見直しやフォローアップが必要なやり取りを特定します。
- 顧客とのやり取りにおけるより包括的な顧客体験を把握したい場合は、自動 CSAT、感情分析、クロストーク時間、単語比率、および無音時間を併用してください。
人間エージェントのパフォーマンスレポート(ASR)
選択した期間におけるエージェントのパフォーマンスを集計したビューが必要な場合は、カスタムのヒューマンエージェントパフォーマンスレポートを作成してください。 このレポートは、平均評価スコア、顧客体験指標、および運用指標を組み合わせて、エージェント間およびチーム間のパフォーマンスを比較できるようにします。
エージェントが選択期間中に複数のチームで勤務していた場合、レポートにはエージェントとチームの組み合わせごとに別々の行が表示されます。
利用可能なフィールド
- エージェント名 | エージェントの名前。
- チーム名|選択した期間において、エージェントに関連付けられているチーム。
- 総合評価スコア|選択した期間内にエージェントが処理したやり取りの平均評価スコア。
- 評価失敗件数|エージェントによって失敗した評価の数。
- クロストーク時間|対応した顧客とのやり取りにおいて、エージェントが顧客の発言に割り込んで話した平均時間。
- 単語比率|エージェントが会話中に話した時間の割合。
- 無音時間|顧客もオペレータも話していない平均時間。
- 接続数|エージェントによって処理された接続済みインタラクションの数。
- 接続時間|エージェントのインタラクションにおける平均接続時間。
- ラップアップ所要時間|エージェントがインタラクション後にラップアップを完了するまでにかかる平均時間。
- 送金件数|エージェントがすべてのやり取りを通じて開始した送金の総数。
- 保留回数 | エージェント PUT が発信者を保留にした回数。
- 平均保留時間|エージェントが通話を保留にする平均時間。
- 相談件数|エージェントが依頼した相談件数の合計。
- 診察時間|合計診察時間
- 相談回答件数|回答した相談の総数。
利用可能なフィルター
- エージェント(Agent)
- チーム(Team)
- 時間(Duration)
- Channel
このレポートの使い方
- 評価指標におけるエージェントのパフォーマンスを把握したい場合は、総合評価スコアと評価失敗件数を合わせて使用してください。
- ホールド、トランスファー、コンサルテーション、クロストーク、ワードレシオ、デッドエアモニタを使用して、より詳細なレビューやコーチングが必要となる可能性のあるパフォーマンス行動を特定します。