仮想エージェント音声 (VAV) は、Webex Contact Center のセルフサービス機能であり、自動音声応答 (IVR) プラットフォームとクラウドベースの AI サービスを統合するのに役立ちます。VAV は、発信者にインテリジェントで自動的なアシスタンスを提供する人間のようなやり取りをサポートします。VAV 機能を使用すると、発信者は IVR フローで問題をすばやく効率的に解決し、人間のエージェントに転送されるコールを減らすことができます。

VAV は、自然言語処理(NLP)、自動音声認識(ASR)、テキスト読み上げ(TTS)などの技術を使用して、発信者の意図を理解し、パーソナライズされた適切な音声応答を提供します。

VAVには次の利点があります。

  • 発信者のクエリにリアルタイムですばやく応答する機能。

  • 仮想エージェントが会話を処理できない場合に、発信者をライブエージェントにルーティングする機能。

Webex Contact Center は、サービス プロバイダー固有の統合コネクタを通じて Contact Center AI (CCAI) サービスを使用します。AI サービスを使用して、仮想エージェントを設計し、複雑な IVR コール フローを作成できます。

  • この機能は、Cisco サブスクリプション サービスでのみ利用できます。

地域メディアサービス

CCAI サービスは地域化をサポートします。CCAI サービスは、次世代 (RTMS) プラットフォームのデフォルトとリモート PSTN リージョンの両方で使用できます。詳細については、「 仮想エージェント音声の地域メディアを設定する 」の記事を参照してください。

サポートされるインテグレーション

Webex Contact Center は現在、次のインテグレーションをサポートしています。

  • Google Dialogflow CX
  • Google Dialogflow ES

Dialogflow CX エージェントは、エンド ユーザとの同時会話を処理する仮想エージェントです。人間の言語のニュアンスを理解する自然言語理解モジュールです。システムに必要な会話のタイプを処理するために、エージェント ボットを設計および構築できます。CX の詳細については、Google ドキュメントを参照してください。

仮想エージェントと発信者の間の会話は、エージェントデスクトップの音声テキストウィジェットに表示されます。

会話は、Dialogflow CX で「エージェントの発言」フルフィルメント応答が設定されている場合にのみ、議事録ウィジェットに表示されます。

前提条件

VAV プロバイダーと統合するには、次のタスクを実行します。

  • Control Hub の Google CCAI コネクタなど、サービス プロバイダー固有のインテグレーション コネクタを設定します。詳細については、「Webex Contact Center の統合コネクタのセットアップ 」の記事の「Google CCAI コネクタの構成 」のトピックを参照してください。

  • Control Hub で Contact Center AI (CCAI) 機能を作成します。詳細については、「Contact Center AI 構成を作成する 」の記事を参照してください。システムは、フロー制御設定で使用できる CCAI 設定 ID を生成します。

サポートされている機能

Dialogflow CX を使用した Virtual-Agent-Voice は、次の機能をサポートしています。

  • 部分的な回答
  • カスタム イベント
  • カスタム パラメータ

部分的な回答

Dialogflow エージェントが Webhook 経由で応答を取得する際にユーザに通知するように、CX で部分応答機能を設定できます。詳細については、「Dialogflow CX で部分応答を構成する」を参照してください。

カスタム イベント

CX でカスタム イベントとカスタム ペイロード機能を設定できます。カスタムペイロード機能は、Google CX アプリケーションから処理のためにクライアント側にペイロード情報を送信します。カスタム イベント機能は、クライアント側の API を使用して CX アプリケーションで呼び出す特定のイベントを選択するのに役立ちます。詳細については、「Dialogflow CX でカスタム イベントを設定する」を参照してください。

カスタム パラメータ

エージェントビルダー コンソールまたは Dialogflow CX コンソールでパラメータを設定できます。Google Dialogflow CX アプリケーションは、さらなる処理のために、これらのパラメータを Webex Contact Center アプリケーションに送信します。詳細については、「Dialogflow CX でカスタム パラメータを設定する」を参照してください。

仮想エージェント V2 アクティビティの設定

仮想エージェント V2 アクティビティは、連絡先のリアルタイムの会話エクスペリエンスを提供します。仮想エージェント V2 アクティビティをコール フローに追加して、音声ベースの AI 対応会話を処理できます。発信者が発言すると、システムは音声と仮想エージェントでの最適なインテントに一致します。さらに、Interactive Voice Response(IVR)エクスペリエンスの一部として発信者を支援します。

成果

仮想エージェントと発信者の間の会話の結果に基づいて発生するアクティビティの出力パスを示します。

  • 処理済み–仮想エージェントの実行が完了すると、結果はトリガーされます。

  • エスカレーション–コールが人間のエージェントにエスカレーションされる必要がある場合、結果はトリガーされます。

エラー処理

仮想エージェントと発信者の間の会話中に発生するエラーのアクティビティの出力パスを示します。

エラー発生– エラーのシナリオでは、フローはこのパスを実行します。

開始する前に

エントリポイントを設定し、ルーティング フローを選択します(フロー デザイナーでフローを作成した後)。詳細については、チャネルのセットアップを参照してください。

1

管理ポータルのナビゲーションバーから、[ルーティング戦略] > [フロー] の順に選択します。

2

[新規] をクリックします。

3

[フロー名] フィールドに一意の名前を入力します。

4

[Start Building Flow] をクリックします。[フローデザイナー ] ウィンドウが表示されます。

5

[仮想エージェント V2] アクティビティを [アクティビティ ライブラリ] からメインフローキャンバスにドラッグ アンド ドロップします。

6

[全般設定] で、次の操作を実行します。

  1. [アクティビティ ラベル] フィールドに、アクティビティの名前を入力します。

  2. [アクティビティの説明] フィールドに、アクティビティの説明を入力します。

7

[会話エクスペリエンス] 設定で、次のいずれかのオプションを選択します。

  • Static Contact Center AI Config[Contact Center AI Config] ドロップダウン リストから CCAI 構成名を選択します。

    CCAI 構成名は、Control Hub で設定されている CCAI 機能に基づいて入力されます。

  • 可変な Contact Center AI 構成–通話の発信元のリージョンに基づいて CCAI 構成 ID を動的に選択できるフロー変数を選択します。この変数は、会話を処理するために、PSTN リージョンを対応する Google プロファイル リージョンにマッピングします。

    変数の CCAI 構成を構成する方法の詳細については、「仮想エージェント音声の地域メディアを構成する 」の記事の 6 ~ 8 の手順を参照してください。
    • VAV フローを動作させるには、フローのグローバル変数を設定して、仮想エージェントのデフォルトの入力言語と出力音声を設定する必要があります。フローにグローバル変数を追加する方法の詳細については、「 フローデザイナーのグローバル変数」を参照してください。
    • VAV のデフォルトの入力言語と出力音声を上書きする場合は、フローの仮想エージェント V2 アクティビティの前に [変数設定] アクティビティを含めます。

      カスタム入力言語では、次のように変数設定アクティビティを設定します。

      • 変数を Global_Language に設定します。

      • 変数値を必要な言語コード(fr-CA など)に設定します。

      カスタム出力音声の場合は、次のように変数設定アクティビティを設定します。

      • 変数を Global_VoiceName に設定します。

      • 変数値を必要な出力音声名コードに設定します (例: en-US-Standard-D)。

      CX でサポートされている音声と言語の詳細については、サポートされている音声と言語を参照してください。

8

[状態イベント] 設定で、カスタムイベント名とデータを [イベント名 - イベントデータ] 列に入力します。状態イベントは、エージェントボットに設定されているイベントハンドラーをトリガーするためのメカニズムです。エージェント ボットでは、イベントの処理方法を設定できます。

  • イベント名-(オプション) 統合型サードパーティ AI プラットフォームで定義されているイベントの名前を示します。

  • イベントデータ - (オプション) システムが統合されたサードパーティ AI プラットフォームに (定義されたイベント名の一部として) 送信する JSON データを示します。

イベント名とデータを静的値または式で指定することができます。式の場合、次の構文を使用します:{{ variable }}。以下は、カスタム ウェルカム メッセージで発信者に挨拶するように設定された状態イベントの例です。

イベント名:カスタムようこそ

イベントデータ: {"Name": "John"}

9

[詳細設定] で、次のアクションを実行します。

  1. [発言率 ] フィールドに数値または式を入力して、音声出力の速度を増減します。

    • 数値入力の有効な値は、0.25 ~ 4.0 の範囲です。デフォルト値は 1.0 です。

      たとえば、値として 0.5 を設定すると、音声の出力レートが理想のレートよりも遅くなります。値として 2 を設定すると、音声の出力レートが理想のレートよりも速くなります。

    • 式の場合、次の構文を使用できます。{{variable}}

  2. [音量ゲイン] フィールドに、音声出力の音量を増減する数値または式を入力します。

    • 数値入力の有効な値は、-96.0 ~ 16.0 デシベル(dB)の範囲です。デフォルト値は 0.0 dB です。

    • 式の場合、次の構文を使用できます。{{variable}}

  3. [ピッチ] フィールドに、音声出力のピッチを増減させる数値または式を入力します。

    • 数値入力の有効な値は、–20.0 ~ 20.0 ヘルツ(Hz)の範囲です。デフォルト値は 0.0 Hz です。

    • 式の場合、次の構文を使用できます。{{variable}}

  4. [終了遅延] フィールドに数値を入力します。この設定により、仮想エージェントは、アクティビティが停止し、フローの次のステップに進む前に、最後のメッセージを完了できます。

    たとえば、システムがエージェントにコールをエスカレートする前に、仮想エージェントが発信者に何かを示す場合は、エスカレーション前の最後のメッセージを完了するのにかかる時間を考慮してください。

    数値入力の有効な値は、0 ~ 30 秒の範囲です。デフォルト値は 15 秒です。

    [終了遅延] の値を 0 に設定すると、システムは発信者に最後の音声メッセージを再生しません。

  5. [会話の音声テキストを有効にする] チェックボックスをオンにして、エージェントデスクトップが仮想エージェントと発信者の間の会話の音声テキストを表示できるようにします。

    raw 議事録は動的 URL からも利用できます。この URL は、HTTP リクエストで議事録から特定のセクションを抽出します。

10

[アクティビティ出力変数] で、仮想エージェントと発信者の間の会話中に発生するイベントの出力ステータスを保存する変数のリストを表示できます。

  • VirtualAgentV2.TranscriptURL–仮想エージェントと発信者の間の会話の音声テキストを示す URL を保存します。

    [解析] アクティビティを使用して、仮想エージェントの音声議事録からパラメータを抽出します。

  • VirtualAgentV2.MetaData–エージェントボットから受信した JSON データをフルフィルメントまたはカスタム イベントの一部として保存します。このデータを使用して、フロービルダーでより多くのビジネス ロジックを構築できます。

  • VirtualAgentV2.StateEventName–システムがカスタム状態イベントをトリガーした後、システムがエージェントボットから受信するカスタムイベントの名前を保存します。

  • 現在、en-US のみがサポートされている言語です。

  • u-law コーデックのみサポートされています。

  • コールがライブエージェントに転送されると、発信者と仮想エージェントの間の会話の議事録がエージェントデスクトップの議事録ガジェットに表示されます(議事録ガジェットがエージェントデスクトップで設定されている場合のみ)。

Dialogflow ES エージェントは、エンド ユーザとの同時会話を処理する仮想エージェントです。人間の言語のニュアンスを理解する自然言語理解モジュールです。システムに必要な会話のタイプを処理するために、エージェント ボットを設計および構築できます。Dialogflow ES の詳細については、Google ドキュメントを参照してください。

仮想エージェントと発信者の間の会話は、エージェントデスクトップの音声テキストウィジェットに表示されます。会話は、Dialogflow ES で「応答」が設定されている場合にのみ、議事録ウィジェットに表示されます。

前提条件

Dialogflow ES と統合するには、次のタスクを実行します。

  • Dialogflow ES と統合するには、Dialogflow Essentials エディションが必要です。

  • Control Hub で Google CCAI コネクタを設定します。詳細については、「Webex Contact Center の統合コネクタのセットアップ 」の記事の「Google CCAI コネクタの構成 」のトピックを参照してください。

  • Control Hub で Contact Center AI (CCAI) 機能を作成します。詳細については、「Contact Center AI 構成を作成する 」の記事を参照してください。システムは、フロー制御設定で使用できる CCAI 設定 ID を生成します。

仮想エージェント V2 アクティビティの設定

次世代プラットフォームを使用する顧客は、フローデザイナーで仮想エージェント V2 アクティビティを設定できます。

仮想エージェント V2 アクティビティは、連絡先のリアルタイムの会話エクスペリエンスを提供します。仮想エージェント V2 アクティビティをコール フローに追加して、音声ベースの AI 対応会話を処理できます。発信者が発言すると、システムは音声と仮想エージェントでの最適なインテントに一致します。さらに、Interactive Voice Response(IVR)エクスペリエンスの一部として発信者を支援します。

通話フローの同じブランチ内の複数の仮想エージェント V2 アクティビティはサポートされていません。

成果

仮想エージェントと発信者の間の会話の結果に基づいて発生するアクティビティの出力パスを示します。

  • 処理済み–仮想エージェントの実行が完了すると、結果はトリガーされます。

  • エスカレーション–コールが人間のエージェントにエスカレーションされる必要がある場合、結果はトリガーされます。

エラー処理

仮想エージェントと発信者の間の会話中に発生するエラーのアクティビティの出力パスを示します。

エラー発生– エラーのシナリオでは、フローはこのパスを実行します。

デフォルトのシステム レベル設定

次の設定は、デフォルトでシステム内部で定義されています。これらの設定はユーザー インターフェイスに表示されず、変更できません。

  • 無効な処理または入力エラーのない再試行は無限です。

  • 割り込みにより、対話中に仮想エージェントを中断できます。

  • DTMF 終了記号 = #。この設定は、入力の終了を示します。

  • DTMF 「未入力タイムアウト」 = 5 秒。この設定は、仮想エージェントが発信者の入力を待機する期間を示します。

  • DTMF 「桁間タイムアウト」 = 3 秒です。この設定は、仮想エージェントが会話フローで続行する前に、仮想エージェントが発信者からの次の DTMF 入力を待機する期間を示します。

開始する前に

  • Dialogflow エージェントをセットアップします。Google Cloud で Dialogflow エージェントを構築する方法の詳細については、「エージェントを構築する」を参照してください。

  • Google CCAI コネクタを構成し、Control Hub で CCAI 構成を作成します。

  • エントリポイントを設定し、ルーティング フローを選択します(フローがフロー デザイナーで作成されると)。詳細については、チャネルのセットアップを参照してください。

1

Control Hub にサインインし、[サービス] > [コンタクトセンター] > [フロー] の順に選択します。

2

[フローの管理] をクリックし、[フローの作成] をクリックします。

3

[フロー名] フィールドに一意の名前を入力し、[フローのビルディングを開始] をクリックします。[フローデザイナー ] ウィンドウが表示されます。

4

[仮想エージェント V2] アクティビティを [アクティビティ ライブラリ] からメインフローキャンバスにドラッグ アンド ドロップします。

5

[全般設定] で、次の操作を実行します。

  1. [アクティビティ ラベル] フィールドに、アクティビティの名前を入力します。

  2. [アクティビティの説明] フィールドに、アクティビティの説明を入力します。

6

[会話エクスペリエンス] 設定で、次のコンタクトセンターの AI 構成オプションのいずれかを選択します。

  • 静的–デフォルトの PSTN 地域内の会話を処理する CCAI 構成を選択します。

    コンタクトセンターの AI 構成は、コントロール ハブで設定された CCAI 機能に基づいて入力されます。

  • 変数–コールがリモートまたはデフォルトではない PSTN 地域から発信される間に、発信者の同じロケーション内の会話を処理する CCAI 構成を選択します。この変数は、PSTN リージョンを対応する Google プロファイル リージョンにマッピングします。

    変数の CCAI 構成を構成する方法の詳細については、「仮想エージェント音声の地域メディアを構成する 」ドキュメントの手順 6 ~ 8 を参照してください。
    • VAV フローを動作させるには、フローのグローバル変数を設定して、仮想エージェントのデフォルトの入力言語と出力音声を設定する必要があります。フローにグローバル変数を追加する方法の詳細については、 グローバル変数を参照してください。
    • VAV のデフォルトの入力言語と出力音声を上書きする場合は、フローの仮想エージェント V2 アクティビティの前に [変数設定] アクティビティを含めます。

      カスタム入力言語では、次のように変数設定アクティビティを設定します。

      • 変数を Global_Language に設定します。

      • 変数値を必要な言語コード(fr-CA など)に設定します。

      カスタム出力音声の場合は、次のように変数設定アクティビティを設定します。

      • 変数を Global_VoiceName に設定します。

      • 変数値を必要な出力音声名コードに設定します (例: en-US-Standard-D)。

      ES でサポートされている音声と言語の詳細については、サポートされている音声と言語を参照してください。

7

[状態イベント] 設定で、カスタムイベント名とデータを [イベント名 - イベントデータ] 列に入力します。state イベントは、一致するテキストまたは音声入力を必要とせずに、インテントをトリガーするメカニズムです。カスタム イベントを定義して、インテントをトリガーできます。Dialogflow ES のイベントのインテントを設定する方法については、Google ドキュメントを参照してください。

  • イベント名-(オプション) 統合型サードパーティ AI プラットフォームで定義されているイベントの名前を示します。

  • イベントデータ - (オプション) システムが統合されたサードパーティ AI プラットフォームに (定義されたイベント名の一部として) 送信する JSON データを示します。

イベント名とデータを静的値または式で指定することができます。式の場合、次の構文を使用します:{{ variable }}。以下は、カスタム ウェルカム メッセージで発信者に挨拶するように設定された状態イベントの例です。

イベント名:カスタムようこそ

イベントデータ: {"Name": "John"}

8

[詳細設定] で、次のアクションを実行します。

  1. [発言率 ] フィールドに数値または式を入力して、音声出力の速度を増減します。

    • 数値入力の有効な値は、0.25 ~ 4.0 の範囲です。デフォルト値は 1.0 です。

      たとえば、値として 0.5 を設定すると、音声の出力レートが理想のレートよりも遅くなります。値として 2 を設定すると、音声の出力レートが理想のレートよりも速くなります。

    • 式の場合、次の構文を使用できます。{{variable}}

  2. [音量ゲイン] フィールドに、音声出力の音量を増減する数値または式を入力します。

    • 数値入力の有効な値は、–96.0 ~ 16.0 デシベル(dB)の範囲です。デフォルト値は 0.0 dB です。

    • 式の場合、次の構文を使用できます。{{variable}}

  3. [ピッチ] フィールドに、音声出力のピッチを増減させる数値または式を入力します。

    • 数値入力の有効な値は、–20.0 ~ 20.0 ヘルツ(Hz)の範囲です。デフォルト値は 0.0 Hz です。

    • 式の場合、次の構文を使用できます。{{variable}}

  4. [終了遅延] フィールドに数値を入力します。この設定により、仮想エージェントは、アクティビティが停止し、フローの次のステップに進む前に、最後のメッセージを完了できます。

    たとえば、システムがエージェントにコールをエスカレートする前に、仮想エージェントが発信者に何かを示す場合は、エスカレーション前の最後のメッセージを完了するのにかかる時間を考慮してください。

    数値入力の有効な値は、0 ~ 30 秒の範囲です。デフォルト値は 15 秒です。

    [終了遅延] の値を 0 に設定すると、システムは発信者に最後の音声メッセージを再生しません。

  5. [会話の音声テキストを有効にする] チェックボックスをオンにして、エージェントデスクトップが仮想エージェントと発信者の間の会話の音声テキストを表示できるようにします。

    raw 議事録は動的 URL からも利用できます。この URL は、HTTP リクエストで議事録から特定のセクションを抽出します。

9

[アクティビティ出力変数] で、仮想エージェントと発信者の間の会話中に発生するイベントの出力ステータスを保存する変数のリストを表示できます。

  • VirtualAgentV2.TranscriptURL–仮想エージェントと発信者の間の会話の音声テキストを示す URL を保存します。

    [解析] アクティビティを使用して、仮想エージェントの音声議事録からパラメータを抽出します。

  • VirtualAgentV2.MetaData および VirtualAgentV2.StateEventName の変数は適用できません。

  • 現在、en-US のみがサポートされている言語です。

  • U-law コーデックのみサポートされています。

  • コールがライブエージェントに転送されると、発信者と仮想エージェントの間の会話の議事録がエージェントデスクトップの議事録ガジェットに表示されます(議事録ガジェットがエージェントデスクトップで設定されている場合のみ)。

エージェントデスクトップの IVR 音声テキストとグローバル変数

管理者は、エージェントへのアクセスを提供して、会話 IVR 音声テキストを表示し、コール フローで設定された設定に基づいてグローバル(以前の CAD)変数を表示または編集できます。

エージェントは、管理者がコール フローで設定した権限に基づいて、会話 IVR 音声テキストと会話 IVR 音声テキストから抽出されたグローバル変数を表示できます。エージェントデスクトップの会話 IVR 議事録の詳細については、「IVR 議事録ウィジェット」を参照してください。

エージェントデスクトップのグローバル変数の詳細については、「コール関連データ変数を入力」を参照してください。