仮想エージェント - 音声(VAV)は、Cisco Webex Contact Center のセルフサービス機能で、音声自動応答(IVR)プラットフォームとクラウドベースの AI サービスを統合するのに役立ちます。 VAV は、発信者にインテリジェントで自動化されたアシスタンスを提供する、人間のようなやりとりをサポートします。 VAV 機能を使用すると、発信者が IVR フローで問題を迅速かつ効率的に解決し、人間のエージェント宛てのコールを減らすことができます。

VAV では、自然言語理解(NLP)、自動音声認識(ASR)、音声変換(TTS)などの技術を使用して、発信者の意図を理解し、パーソナライズされた関連する音声応答を提供します。

VAV には次の利点があります。

  • 発信者のクエリにリアルタイムですばやく応答することができます。

  • 仮想エージェントが会話を処理できない場合に、発信者をライブエージェントにルーティングすることができます。

Cisco Webex Contact Center では、サービスプロバイダー固有の統合コネクタを介してコンタクトセンター AI(CCAI)サービスを使用します。 お客様は、AI サービスを使用して仮想エージェントを設計し、複雑な IVR コールフローを作成できます。


  • この機能は、Cisco のサブスクリプションサービスでのみ使用できます。

  • この機能は、Real Time Media Service(RTMS)音声プラットフォーム上の米国のデータセンター展開でのみサポートされています。

Cisco Webex Contact Center は現在、次の統合をサポートしています。

Google Dialogflow CX

Dialogflow CX エージェントは、エンドユーザとの同時会話を処理する仮想エージェントです。 人の言語の違いを理解する自然言語理解モジュールです。 システムに必要な会話のタイプを処理するためにエージェント ビルド を設計およびビルドできます。 CX の詳細については、Google のマニュアルを参照してください。

仮想エージェントと発信者との会話は、電話画面の [スクリプト] ウィジェットに表示 Agent Desktop。


会話は、ダイアログフローの CX で [エージェントの応答(Agent 5011) の応答が設定されている場合にのみ、スクリプトのウィジェットに表示されます。

前提条件

VAV プロバイダーと統合するには、次のタスクを完了してください。

部分応答機能は、Webhook 応答がバックグラウンドで要求を処理するのに時間がかかる間、中間メッセージを再生して通話中に発信者を呼び出し元に対応します。 DialoglyCX では、通常、Webhook 要求が応答の受信に時間がかかる。 要求の処理中に発信者に対する暫定応答がない場合、発信者は完全にサイレント状態に保たれ、発信者がコールを電話を切る可能性があります。 これを防ぐために、部分的な応答を設定して、要求が引き続き処理されているという通知を発信者に通知できます。

  • 部分応答の詳細については、ストリーミングおよび処理のための 部分応答 API してください。

  • Webhook の詳細については、Webhook のマニュアル を参照 してください。


  • Webhook が部分的な応答の前または中に実際の応答を返す場合、システムは部分応答を停止し、発信者に対する最終的な応答を再生します。

  • Virtual Agent V2 アクティビティから受信された最初のプロンプト応答は、部分的な応答をサポートされていません。

  • 発信者がエージェントの応答を中断するように、部分的な応答プロンプトで割り込みを有効にすることはできません。

1

Dialogflow CX コンソールで、プロジェクトとエージェントを選択します。

2

[CX エージェント(CX agent)] 画面で、[ビルド(Build)] タブに移動し、コンタクトセンターアプリケーションから履行が必要なこのフローで、必要なフローと必要なページ([開始/フローの終了/セッションの終了(Start/End Flow/End Session)])を選択します。

選択したページの詳細が表示されます。
3

[ルート(Routes)] セクションで、遷移をトリガーするカスタム終了基準を満たすルートと条件を定義します。

4

このルートの [履行] セクションで、[ダイアログの追加(Add dialogue)] をクリックして [カスタムペイロード] を選択します。


 

カスタムペイロードのみを定義します。 その他のダイアログオプションは追加しません。

5

次の形式で、CX から送信されるペイロードを定義する Execute_Request タイプのカスタムペイロードを追加します。

{ "Execute_Request":{ "Event_Name": "<イベント名>", "Data" : { "Params":{ "<param1 名>": "<param1 の値>", "<param2 名>": "<param2 の値" }

 

意思決定マッピング用に、このイベント名をフローデザイナーの仮想エージェント V2 アクティビティの [状態イベント名(State Event Name)] にマップしてください。

6

フローの再開時に同じページに遷移するよう設定するには、[遷移(Transition)] セクションの [ページ(Page)] を選択します。

7

フロービルダーアプリケーションでイベントハンドラを作成し、イベント名を入力します。 詳細については、https://cloud.google.com/dialogflow/cx/docs/reference/rest/v3/EventHandler を参照してください。

仮想エージェント V2 アクティビティは、連絡先にリアルタイムの会話体験を提供します。 通話フローに仮想エージェント V2 アクティビティを追加し、音声ベースの AI 対応の会話を処理できます。 発信者が話すと、システムはその音声に一致する仮想エージェントの最適な意図を検索します。 また、対話式音声自動応答(IVR)体験の一部として発信者を支援します。

結果

仮想エージェントと発信者の間の会話の結果に基づいて発生するアクティビティの出力パスを示します。

  • 処理済み(Handled) - 結果は、仮想エージェントの実行が完了するとトリガーされます。

  • エスカレート済み(Escalated) - 通話を人間のエージェントにエスカレートする必要がある場合に結果がトリガーされます。

エラー処理

仮想エージェントと発信者の会話中に発生したエラーに対するアクティビティの出力パスを示します。

エラー(Errored) - エラーの場合、フローがこのパスを使用します。

はじめる前に

Management Portal で、次のタスクを完了します。

1

Management Portal のナビゲーションバーから、[ルーティング戦略(Routing Strategy)] > [フロー(Flow)] の順に選択します。

2

[新規] をクリックします。

3

[フロー名(Flow Name)] フィールドに一意の名前を入力します。

4

[フローの構築の開始(Start Building Flow)] をクリックします。 [フローデザイナー(Flow Designer)] ウィンドウが表示されます。

5

仮想エージェント V2 アクティビティをアクティビティライブラリからメインフローキャンバスにドラッグアンドドロップします。

6

[全般設定(General Settings)] で、次の操作を行います。

  1. [アクティビティラベル] フィールドに、アクティビティの名前を入力します。

  2. [アクティビティの説明] フィールドに、アクティビティの説明を入力します。

7

[会話体験(Conversational Experience)] 設定で、[コンタクトセンターの AI 設定] ドロップダウンメニューからコンタクトセンターの AI 設定の名前を選択します。

コンタクトセンターの AI 設定は、制御ハブで設定されている CCAI 機能に基づいて入力されます。

VAV のデフォルトの入力言語と出力音声を上書きする場合は、フローの仮想エージェント V2 アクティビティの前に Set Variable アクティビティを含めます。

カスタム入力言語の場合は、Set Variable アクティビティを次のように設定します。

  • 変数を Global_Language に設定します。

  • 変数の値を必要な言語コード(fr-CA など)に設定します。

カスタム出力音声の場合は、Set Variable アクティビティを次のように設定します。

  • 変数を Global_VoiceName に設定します。

  • 変数の値を必要な出力音声名コード(en-US-Standard-D など)に設定します。

CX でサポートされる音声と言語の詳細については、サポートされている音声と言語を参照してください。

8

[状態イベント(State Event)] 設定で、[イベント名 - イベントデータ(Event Name - Event Data)] カラムにカスタムイベント名とデータを入力します。 状態イベントは、エージェントボットで設定されているイベントハンドラをトリガーするメカニズムです。エージェントボットでは、イベントの処理方法を設定できます。

パラメータ

説明

イベント名

(オプション)統合されているサードパーティ製の AI プラットフォームで定義されているイベントの名前を示します。

イベントデータ

(オプション)システムが(定義されたイベント名の一部として)統合されたサードパーティ製の AI プラットフォームに送信する JSON データを示します。

イベント名とデータは静的な値または式の形式で指定できます。 式には、{{ variable }} の構文を使用します。 以下は、発信者にカスタムのウェルカムメッセージで応答するように設定された状態イベントの例です。

イベント名: CustomWelcome

イベントデータ: {"Name": "John"}

9

[詳細設定(Advanced Settings)] で、次の操作を行います。

  1. [発言速度(Speaking Rate)] フィールドに数値または式を入力して、音声出力の速度を増減します。

    • 数値入力の有効値は、0.25~4.0 の範囲です。 デフォルト値は 1.0 です。

      たとえば、値を 0.5 に設定すると、音声の出力速度が理想的な速度よりも遅くなります。 値を 2 に設定すると、音声の出力速度が理想的な速度よりも速くなります。

    • 式には、{{variable}} の構文を使用できます。

  2. [ボリュームゲイン(Volume Gain)] フィールドに数値または式を入力して、音声出力のボリュームを増減します。

    • 数値入力の有効値は、-96.0~16.0 デシベル(dB)の範囲です。 デフォルト値は 0.0 dB です。

    • 式には、{{variable}} の構文を使用できます。

  3. [音の間隔(Pitch)] フィールドに数値または式を入力して、音声出力の間隔を増減します。

    • 数値入力の有効値は、-20.0~20.0 ヘルツ(Hz)の範囲です。 デフォルト値は 0.0 Hz です。

    • 式には、{{variable}} の構文を使用できます。

  4. [終了遅延(Termination Delay)] フィールドに数値を入力します。 これを設定すると、仮想エージェントは、アクティビティが停止してフローの次のステップに進む前に、最後のメッセージを完了できます。

    たとえば、システムが通話をエージェントにエスカレーションする前に仮想エージェントから発信者に何かを示したい場合は、エスカレーションの前の、最後のメッセージの発信が完了するまでの時間を設定します。

    数値入力の有効値は、0~30 秒の範囲です。 デフォルト値は 3 秒です。

  5. Agent Desktop に仮想エージェントと発信者の会話の音声テキストを表示するには、[会話の音声テキストの有効化(Enable Conversation Transcript)] チェックボックスをオンにします。

    生の音声テキストは、動的 URL からも使用できます。 この URL は、HTTP リクエストを含む音声テキストから特定のセクションを抽出します。

10

[アクティビティの出力変数(Activity Output Variables)] では、仮想エージェントと発信者の会話中に発生したイベントの出力ステータスを格納する変数のリストを表示できます。

出力変数

説明

VirtualAgentV2.TranscriptURL

仮想エージェントと発信者の会話の音声テキストを指定する URL が格納されます。


 

解析アクティビティを使用して、仮想エージェントの音声テキストからパラメータを抽出します。

VirtualAgentV2.MetaData

エージェントボットから受け取った JSON データを、履行またはカスタムイベントの一部として保存します。 このデータを使用して、フロービルダーでさらに多くのビジネスロジックを構築できます。

VirtualAgentV2.StateEventName

システムがカスタム状態イベントをトリガーした後に、エージェントボットからシステムが受信するカスタムイベントの名前が格納されます。


 
  • 現在、サポートされている言語は en-US のみです。

  • u-law コーデックのみサポートされています。

  • 通話がライブエージェントに転送されると、発信者と仮想エージェントの会話の音声テキストが Agent Desktop のトランスクリプトガジェットに表示されます(Agent Desktop でトランスクリプトガジェットが設定されている場合のみ)。