仮想エージェント - 音声(VAV)は、Cisco Webex Contact Center のセルフサービス機能で、音声自動応答(IVR)プラットフォームとクラウドベースの AI サービスを統合するのに役立ちます。 VAV は、発信者にインテリジェントで自動化されたアシスタンスを提供する、人間のようなやりとりをサポートします。 VAV 機能により、発信者は IVR フローでより迅速かつ効率的に問題を解決し、人間のエージェントに転送される通話を減らすことができます。

VAV では、自然言語理解(NLP)、自動音声認識(ASR)、音声変換(TTS)などの技術を使用して、発信者の意図を理解し、パーソナライズされた関連する音声応答を提供します。

VAV には次の利点があります。

  • 発信者のクエリにリアルタイムですばやく応答することができます。

  • 仮想エージェントが会話を処理できない場合に、発信者をライブエージェントにルーティングすることができます。

Cisco Webex Contact Center では、サービスプロバイダー固有の統合コネクタを介してコンタクトセンター AI(CCAI)サービスを使用します。 AI サービスを使用して、仮想エージェントを設計し、複雑な IVR 通話フローを作成できます。

  • この機能は、Cisco のサブスクリプションサービスでのみ使用できます。

地域メディア サービス

CCAI サービスは地域化をサポートしています。 CCAI サービスは、次世代 (RTMS) プラットフォームのデフォルトとリモートの PSTN リージョンの両方で利用できます。 詳細については、「 仮想エージェント-音声用に地域メディアを設定する 」記事を参照してください。

サポートされているインテグレーション

Webex コンタクト センターは現在、以下のインテグレーションをサポートしています。

  • Google Dialogflow CX
  • Google Dialogflow ES

Dialogflow CX エージェントは、エンドユーザとの同時会話を処理する仮想エージェントです。 人の言語の違いを理解する自然言語理解モジュールです。 システムに必要な会話のタイプを処理するエージェント ボットを設計および構築できます。 CX の詳細については、Google のマニュアルを参照してください。

仮想エージェントと発信者の会話は、Agent Desktop の [音声テキスト] ウィジェットに表示されます。

「エージェントの発言」フルフィルメント レスポンスが Dialogflow CX で設定されている場合にのみ、会話が [音声テキスト] ウィジェットに表示されます。

前提条件

VAV プロバイダーと統合するには、次のタスクを完了してください。

サポートされている機能

Dialogflow CX での Virtual-Agent-Voice は以下の機能をサポートします。

  • 部分的な応答
  • カスタムイベント

部分的な応答

CX のパーシャル レスポンス機能を設定して、Dialogflow エージェントが Webhook 経由でレスポンスを取得する間、ユーザに通知することができます。 詳細については、 「Dialogflow CX でパーシャル レスポンスを設定する」を参照してください

カスタムイベント

CX でカスタム イベントとカスタム ペイロード機能を設定できます。 カスタム ペイロード機能は、ペイロード情報を Google CX アプリケーションから処理のためにクライアント側に送信します。 カスタムイベント機能は、クライアント側の API を使用して、CX アプリケーションの下で起動される特定のイベントを選択するのに役立ちます。 詳細については、 Dialogflow CX でカスタム イベントを構成するを参照してください

仮想エージェント V2 アクティビティの設定

仮想エージェント V2 アクティビティは、連絡先にリアルタイムの会話体験を提供します。 通話フローに仮想エージェント V2 アクティビティを追加し、音声ベースの AI 対応の会話を処理できます。 発信者が話すと、システムはその音声に一致する仮想エージェントの最適な意図を検索します。 また、対話式音声自動応答(IVR)体験の一部として発信者を支援します。

結果

仮想エージェントと発信者の間の会話の結果に基づいて発生するアクティビティの出力パスを示します。

  • 処理済み(Handled) - 結果は、仮想エージェントの実行が完了するとトリガーされます。

  • エスカレート済み(Escalated) - 通話を人間のエージェントにエスカレートする必要がある場合に結果がトリガーされます。

エラー処理

仮想エージェントと発信者の会話中に発生したエラーに対するアクティビティの出力パスを示します。

エラー(Errored) - エラーの場合、フローがこのパスを使用します。

はじめる前に

エントリポイントを構成し、ルーティングフローを選択します (フローデザイナーでフローを作成した後)。 詳細については、 チャンネルをセットアップするを参照してください。

1

Management Portal のナビゲーションバーから、[ルーティング戦略(Routing Strategy)] > [フロー(Flow)] の順に選択します。

2

[新規] をクリックします。

3

[フロー名(Flow Name)] フィールドに一意の名前を入力します。

4

[フローの構築の開始(Start Building Flow)] をクリックします。 [フローデザイナー(Flow Designer)] ウィンドウが表示されます。

5

仮想エージェント V2 アクティビティをアクティビティライブラリからメインフローキャンバスにドラッグアンドドロップします。

6

[全般設定(General Settings)] で、次の操作を行います。

  1. [アクティビティラベル] フィールドに、アクティビティの名前を入力します。

  2. [アクティビティの説明] フィールドに、アクティビティの説明を入力します。

7

[ 会話体験] 設定で、次のいずれかのオプションを選択します:

8

[状態イベント(State Event)] 設定で、[イベント名 - イベントデータ(Event Name - Event Data)] カラムにカスタムイベント名とデータを入力します。 状態イベントは、エージェントボットで設定されているイベントハンドラをトリガーするメカニズムです。エージェントボットでは、イベントの処理方法を設定できます。

  • イベント名–(オプション) サードパーティの統合型 AI プラットフォームで定義されたイベントの名前を示します。

  • イベントデータ–(オプション) システムが (定義されたイベント名の一部として) 統合型サードパーティ AI プラットフォームに送信する JSON データを示します。

イベント名とデータは、静的な値または式の形式で指定できます。 式には、{{ variable }} の構文を使用します。 以下は、発信者にカスタムのウェルカムメッセージで応答するように設定された状態イベントの例です。

イベント名: CustomWelcome

イベントデータ: {"Name": "John"}

9

[詳細設定(Advanced Settings)] で、次の操作を行います。

  1. [発言速度(Speaking Rate)] フィールドに数値または式を入力して、音声出力の速度を増減します。

    • 数値入力の有効値は、0.25~4.0 の範囲です。 デフォルト値は 1.0 です。

      たとえば、値を 0.5 に設定すると、音声の出力速度が理想的な速度よりも遅くなります。 値を 2 に設定すると、音声の出力速度が理想的な速度よりも速くなります。

    • 式には、{{variable}} の構文を使用できます。

  2. [ボリュームゲイン(Volume Gain)] フィールドに数値または式を入力して、音声出力のボリュームを増減します。

    • 数値入力の有効値は、-96.0~16.0 デシベル(dB)の範囲です。 デフォルト値は 0.0 dB です。

    • 式には、{{variable}} の構文を使用できます。

  3. [音の間隔(Pitch)] フィールドに数値または式を入力して、音声出力の間隔を増減します。

    • 数値入力の有効値は、-20.0~20.0 ヘルツ(Hz)の範囲です。 デフォルト値は 0.0 Hz です。

    • 式には、{{variable}} の構文を使用できます。

  4. [終了遅延(Termination Delay)] フィールドに数値を入力します。 これを設定すると、仮想エージェントは、アクティビティが停止してフローの次のステップに進む前に、最後のメッセージを完了できます。

    たとえば、システムが通話をエージェントにエスカレーションする前に仮想エージェントから発信者に何かを示したい場合は、エスカレーションの前の、最後のメッセージの発信が完了するまでの時間を設定します。

    数字入力の有効な値の範囲は 030 秒です。 デフォルト値は 15 秒です。

    終了遅延 の値を 0 に設定すると、システムは発信者に対して最後の音声メッセージを再生することはありません。

  5. Agent Desktop に仮想エージェントと発信者の会話の音声テキストを表示するには、[会話の音声テキストの有効化(Enable Conversation Transcript)] チェックボックスをオンにします。

    生の音声テキストは、動的 URL からも使用できます。 この URL は、HTTP リクエストを含む音声テキストから特定のセクションを抽出します。

10

[アクティビティの出力変数(Activity Output Variables)] では、仮想エージェントと発信者の会話中に発生したイベントの出力ステータスを格納する変数のリストを表示できます。

  • VirtualAgentV2.TranscriptURL–仮想エージェントと発信者の会話の音声テキストを示す URL を保存します。

    解析アクティビティを使用して、仮想エージェントの音声テキストからパラメータを抽出します。

  • VirtualAgentV2.MetaData–フルフィルメントまたはカスタム イベント処理の一部としてエージェント ボットから受信した JSON データを保存します。 このデータを使用して、フロービルダーでさらに多くのビジネスロジックを構築できます。

  • VirtualAgentV2.StateEventName–システムがカスタム状態イベントをトリガーした後に、システムがエージェント ボットから受け取るカスタム イベントの名前を保存します。

  • 現在、サポートされている言語は en-US のみです。

  • u-law コーデックのみサポートされています。

  • 通話がライブエージェントに転送されると、発信者と仮想エージェントの会話の音声テキストが Agent Desktop のトランスクリプトガジェットに表示されます(Agent Desktop でトランスクリプトガジェットが設定されている場合のみ)。

Dialogflow ES エージェントは、エンドユーザとの同時進行の会話を処理する仮想エージェントです。 人の言語の違いを理解する自然言語理解モジュールです。 システムに必要な会話のタイプを処理するエージェント ボットを設計および構築できます。 Dialogflow ES の詳細については、 Google ドキュメントを参照してください。

仮想エージェントと発信者の会話は、Agent Desktop の [音声テキスト] ウィジェットに表示されます。 音声テキスト ウィジェットに会話が表示されるのは、Dialogflow ES で [応答] が設定されている場合のみです。

前提条件

Dialogflow ES と統合するには、以下のタスクを完了します。

仮想エージェント V2 アクティビティの設定

次世代プラットフォームを使用する顧客は、フロー デザイナーで仮想エージェント V2 アクティビティを設定できます。

仮想エージェント V2 アクティビティは、連絡先にリアルタイムの会話体験を提供します。 通話フローに仮想エージェント V2 アクティビティを追加し、音声ベースの AI 対応の会話を処理できます。 発信者が話すと、システムはその音声に一致する仮想エージェントの最適な意図を検索します。 また、対話式音声自動応答(IVR)体験の一部として発信者を支援します。

通話フローの同じブランチでの複数の仮想エージェント V2 アクティビティはサポートされていません。

結果

仮想エージェントと発信者の間の会話の結果に基づいて発生するアクティビティの出力パスを示します。

  • 処理済み-仮想エージェントの実行が完了したときに結果がトリガーされます。

  • エスカレート済み-通話を人間のエージェントにエスカレートする必要がある場合、結果がトリガーされます。

エラー処理

仮想エージェントと発信者の会話中に発生したエラーに対するアクティビティの出力パスを示します。

エラー– フローはエラー シナリオでこのパスをたどります。

デフォルトのシステムレベル設定

以下の設定は、デフォルトでシステム内部で定義されています。 これらの設定はユーザ インターフェイスに表示されず、変更できません。

  • 無効または無入力エラーを処理するための無限の数の再試行。

  • 割り込みは対話中に仮想エージェントに割り込むことができます。

  • DTMF 終端記号 = #. この設定は入力の終了を示します。

  • DTMF「入力なしタイムアウト」= 5 秒。 この設定では、仮想エージェントが発信者の入力を待つ時間を指定します。

  • DTMF 桁間タイムアウト = 3 秒。 この設定では、仮想エージェントが会話フローの中で移動する前に、発信者からの次の DTMF 入力を待つ時間を指定します。

はじめる前に

  • Dialogflow エージェントをセットアップする。 Google Cloud での Dialogflow エージェントの構築の詳細については、次を参照してください。 エージェントを構築する

  • Control Hub で Google CCAI コネクタを設定し、CCAI 設定を作成します。

  • エントリ ポイントを構成し、ルーティング フローを選択します (フロー デザイナーでフローが作成されたら)。 詳細については、次を参照してください。 チャネルのセットアップ

1

ログイン Control Hub、を選択します サービス > コンタクトセンター > フロー

2

[ フローの管理 ] をクリックしてから、[ フローの作成] をクリックします

3

[フロー名 ] フィールドで一意の名前を入力し、[ フローの作成を開始] をクリックします[フローデザイナー(Flow Designer)] ウィンドウが表示されます。

4

仮想エージェント V2 アクティビティをアクティビティライブラリからメインフローキャンバスにドラッグアンドドロップします。

5

[全般設定(General Settings)] で、次の操作を行います。

  1. [アクティビティラベル] フィールドに、アクティビティの名前を入力します。

  2. [アクティビティの説明] フィールドに、アクティビティの説明を入力します。

6

[ 会話体験 ] 設定で、以下の Contact Center AI 設定オプションのいずれかを選択します。

  • 静的–デフォルトの PSTN 地域内で会話を処理する CCAI 設定を選択します。

    Contact Center AI の構成は、Control Hub で構成された CCAI 機能に基づいて入力されます。

  • 変数–通話がリモートまたはデフォルト以外の PSTN 地域から発信されている間に、発信者と同じロケーション内で会話を処理するように CCAI 設定を選択します。 この変数は PSTN 地域を対応する Google プロファイル地域にマッピングします。

    変数 CCAI config の設定方法の詳細については、「仮想エージェントと音声の地域メディアを設定する 」のステップ 68 を参照してください。
    • VAV フローが機能するためには、フローにグローバル変数を設定して、仮想エージェントのデフォルトの入力言語と出力音声を構成する必要があります。 フローにグローバル変数を追加する方法の詳細は、  グローバル変数を参照してください。
    • VAV のデフォルトの入力言語と出力音声をオーバーライドする場合は、フローの仮想エージェント V2 アクティビティの前に 変数の設定 アクティビティを含めます。

      カスタム入力言語の場合は、Set Variable アクティビティを次のように設定します。

      • 変数を Global_Language に設定します。

      • 変数の値を必要な言語コード(fr-CA など)に設定します。

      カスタム出力音声の場合は、Set Variable アクティビティを次のように設定します。

      • 変数を Global_VoiceName に設定します。

      • 変数の値を必要な出力音声名コード(en-US-Standard-D など)に設定します。

      ES でサポートされている音声と言語の詳細については、 サポートされている音声と言語を参照してください。

7

[状態イベント(State Event)] 設定で、[イベント名 - イベントデータ(Event Name - Event Data)] カラムにカスタムイベント名とデータを入力します。 状態イベントは、一致したテキストや音声入力を必要とせずにインテントをトリガーするメカニズムです。 インテントをトリガーするカスタム イベントを定義できます。 Dialogflow ES でイベントのインテントを設定する方法については、 Google ドキュメントを参照してください

  • イベント名–(オプション) サードパーティの統合型 AI プラットフォームで定義されたイベントの名前を示します。

  • イベントデータ–(オプション) システムが (定義されたイベント名の一部として) 統合型サードパーティ AI プラットフォームに送信する JSON データを示します。

イベント名とデータは、静的な値または式の形式で指定できます。 式には、{{ variable }} の構文を使用します。 以下は、発信者にカスタムのウェルカムメッセージで応答するように設定された状態イベントの例です。

イベント名: CustomWelcome

イベントデータ: {"Name": "John"}

8

[詳細設定(Advanced Settings)] で、次の操作を行います。

  1. [発言速度(Speaking Rate)] フィールドに数値または式を入力して、音声出力の速度を増減します。

    • 数字入力の有効な値は 0.25 4.0 の範囲です。 デフォルト値は 1.0 です。

      たとえば、値を 0.5 に設定すると、音声の出力速度が理想的な速度よりも遅くなります。 値を 2 に設定すると、音声の出力速度が理想的な速度よりも速くなります。

    • 式には、{{variable}} の構文を使用できます。

  2. [ボリュームゲイン(Volume Gain)] フィールドに数値または式を入力して、音声出力のボリュームを増減します。

    • 数値入力の有効な値は、-96.0 16.0 デシベル (db) の範囲です。 デフォルト値は 0.0 dB です。

    • 式には、{{variable}} の構文を使用できます。

  3. [音の間隔(Pitch)] フィールドに数値または式を入力して、音声出力の間隔を増減します。

    • 数値入力の有効値は、-20.0~20.0 ヘルツ(Hz)の範囲です。 デフォルト値は 0.0 Hz です。

    • 式には、{{variable}} の構文を使用できます。

  4. [終了遅延(Termination Delay)] フィールドに数値を入力します。 これを設定すると、仮想エージェントは、アクティビティが停止してフローの次のステップに進む前に、最後のメッセージを完了できます。

    たとえば、システムが通話をエージェントにエスカレーションする前に仮想エージェントから発信者に何かを示したい場合は、エスカレーションの前の、最後のメッセージの発信が完了するまでの時間を設定します。

    数字入力の有効な値の範囲は 030 秒です。 デフォルト値は 15 秒です。

    終了遅延 の値を 0 に設定すると、システムは発信者に対して最後の音声メッセージを再生することはありません。

  5. Agent Desktop に仮想エージェントと発信者の会話の音声テキストを表示するには、[会話の音声テキストの有効化(Enable Conversation Transcript)] チェックボックスをオンにします。

    生の音声テキストは、動的 URL からも使用できます。 この URL は、HTTP リクエストを含む音声テキストから特定のセクションを抽出します。

9

[アクティビティの出力変数(Activity Output Variables)] では、仮想エージェントと発信者の会話中に発生したイベントの出力ステータスを格納する変数のリストを表示できます。

  • VirtualAgentV2.TranscriptURL–仮想エージェントと発信者の会話の音声テキストを示す URL を保存します。

    解析アクティビティを使用して、仮想エージェントの音声テキストからパラメータを抽出します。

  • VirtualAgentV2.MetaData および VirtualAgentV2.StateEventName 変数は適用できません。

  • 現在、サポートされている言語は en-US のみです。

  • U-law コーデックのみがサポートされます。

  • 通話がライブエージェントに転送されると、発信者と仮想エージェントの会話の音声テキストが Agent Desktop のトランスクリプトガジェットに表示されます(Agent Desktop でトランスクリプトガジェットが設定されている場合のみ)。

IVR 音声テキストとグローバル変数

管理者は、エージェントに、会話の IVR の音声テキストを表示したり、コール フローで設定された構成に基づいてグローバル (旧称 CAD) 変数を表示または編集するアクセス権を付与できます。

エージェントは、会話形式の IVR の音声テキストと、管理者がコール フローで設定した権限に基づいて、会話形式の IVR 音声テキストから抽出されたグローバル変数を表示できます。 Agent Desktop の会話型 IVR 音声テキストの詳細は、 IVR 音声テキスト ウィジェットを参照してください。

Agent Desktop 中のグローバル変数に関する詳細は、 通話関連データ変数を入力するを参照してください。