仮想エージェント - 音声(VAV)は、Cisco Webex Contact Center のセルフサービス機能で、音声自動応答(IVR)プラットフォームとクラウドベースの AI サービスを統合するのに役立ちます。 VAV は、発信者にインテリジェントで自動化されたアシスタンスを提供する、人間のようなやりとりをサポートします。 VAV 機能により、発信者は IVR フロー内で問題を迅速かつ効率的に解決できるようになり、人間のエージェントに向けられる通話が削減されます。

VAV では、自然言語理解(NLP)、自動音声認識(ASR)、音声変換(TTS)などの技術を使用して、発信者の意図を理解し、パーソナライズされた関連する音声応答を提供します。

VAV には次の利点があります。

  • 発信者のクエリにリアルタイムですばやく応答することができます。

  • 仮想エージェントが会話を処理できない場合に、発信者をライブエージェントにルーティングすることができます。

Cisco Webex Contact Center では、サービスプロバイダー固有の統合コネクタを介してコンタクトセンター AI(CCAI)サービスを使用します。 AI サービスを使用して仮想エージェントを設計し、複雑な IVR コールフローを作成できます。

  • この機能は、Cisco のサブスクリプションサービスでのみ使用できます。

地域メディアサービス

CCAI サービスは地域化をサポートします。 CCAI サービスは、次世代 (RTMS) プラットフォームのデフォルトおよびリモート PSTN リージョンの両方で利用できます。 詳細については、 「Virtual Agent-Voice の地域メディアを構成する」 の記事を参照してください。

サポートされている統合

Webex Contact Center は現在、次の統合をサポートしています。

  • Google Dialogflow CX
  • Google Dialogflow ES
  • 独自の仮想エージェントを導入する

Dialogflow CX エージェントは、エンドユーザとの同時会話を処理する仮想エージェントです。 人の言語の違いを理解する自然言語理解モジュールです。 システムに必要な会話の種類を処理するエージェント ボットを設計および構築できます。 CX の詳細については、Google のマニュアルを参照してください。

仮想エージェントと発信者間の会話は、Agent Desktop のトランスクリプト ウィジェットに表示されます。

会話は、Dialogflow CX で「エージェントの発言」フルフィルメント応答が設定されている場合にのみ、トランスクリプト ウィジェットに表示されます。

前提条件

VAV プロバイダーと統合するには、次のタスクを完了してください。

サポートされている機能

Dialogflow CX を使用した Virtual-Agent-Voice は、次の機能をサポートしています。

  • 部分的な応答
  • カスタムイベント
  • カスタムパラメータ

部分的な応答

Dialogflow エージェントが Webhook を通じて応答を取得している間にユーザに通知するように、CX で部分応答機能を設定できます。 詳細については、 Dialogflow CX で部分レスポンスを構成するをご覧ください

カスタムイベント

CX では、カスタム イベントとカスタム ペイロード機能を構成できます。 カスタム ペイロード機能は、Google CX アプリケーションからクライアント側にペイロード情報を送信して処理します。 カスタム イベント機能は、クライアント側の API を使用して、CX アプリケーションで呼び出される特定のイベントを選択するのに役立ちます。 詳細については、 Dialogflow CX でカスタム イベントを構成する をご覧ください。

カスタムパラメータ

パラメータは、Agent Builder コンソールまたは Dialogflow CX コンソールで設定できます。 Google Dialogflow CX アプリケーションは、これらのパラメータを Webex Contact Center アプリケーションに送信し、さらに処理します。 詳細については、 Dialogflow CX でカスタムパラメータを構成するを参照してください。

仮想エージェント V2 アクティビティを構成する

仮想エージェント V2 アクティビティは、連絡先にリアルタイムの会話体験を提供します。 通話フローに仮想エージェント V2 アクティビティを追加し、音声ベースの AI 対応の会話を処理できます。 発信者が話すと、システムはその音声に一致する仮想エージェントの最適な意図を検索します。 また、対話式音声自動応答(IVR)体験の一部として発信者を支援します。

結果

仮想エージェントと発信者の間の会話の結果に基づいて発生するアクティビティの出力パスを示します。

  • 処理済み(Handled) - 結果は、仮想エージェントの実行が完了するとトリガーされます。

  • エスカレート済み(Escalated) - 通話を人間のエージェントにエスカレートする必要がある場合に結果がトリガーされます。

エラー処理

仮想エージェントと発信者の会話中に発生したエラーに対するアクティビティの出力パスを示します。

エラー(Errored) - エラーの場合、フローがこのパスを使用します。

はじめる前に

エントリ ポイントを構成し、ルーティング フローを選択します (フロー デザイナーでフローを作成した後)。 詳細については、「 チャネルを設定する」を参照してください。

1

Management Portal のナビゲーションバーから、[ルーティング戦略(Routing Strategy)] > [フロー(Flow)] の順に選択します。

2

[新規] をクリックします。

3

[フロー名(Flow Name)] フィールドに一意の名前を入力します。

4

[フローの構築の開始(Start Building Flow)] をクリックします。 [フローデザイナー(Flow Designer)] ウィンドウが表示されます。

5

仮想エージェント V2 アクティビティをアクティビティライブラリからメインフローキャンバスにドラッグアンドドロップします。

6

[全般設定(General Settings)] で、次の操作を行います。

  1. [アクティビティラベル] フィールドに、アクティビティの名前を入力します。

  2. [アクティビティの説明] フィールドに、アクティビティの説明を入力します。

7

会話エクスペリエンス 設定で、次のいずれかのオプションを選択します。

  • 静的コンタクト センター AI 構成コンタクト センター AI 構成 ドロップダウン リストから CCAI 構成名を選択します。

    CCAI 構成名は、Control Hub で構成されている CCAI 機能に基づいて入力されます。

  • 可変コンタクト センター AI 構成 – 通話の発信元地域に基づいて CCAI 構成 ID を動的に選択できるフロー変数を選択します。 この変数は、会話を処理するために、PSTN リージョンを対応する Google プロフィール リージョンにマッピングします。

    変数 CCAI 構成を構成する方法の詳細については、 「Virtual Agent-Voice の地域メディアを構成する」 の記事の手順 6 ~ 8 を参照してください。
    • VAV フローを機能させるには、フロー内のグローバル変数を設定して、仮想エージェントのデフォルトの入力言語と出力音声を構成する必要があります。 フローにグローバル変数を追加する方法の詳細については、「  フロー デザイナーのグローバル変数」を参照してください。

    • VAV のデフォルトの入力言語と出力音声をオーバーライドする場合は、フロー内の仮想エージェント V2 アクティビティの前に 変数の設定 アクティビティを含めます。

      カスタム入力言語の場合は、Set Variable アクティビティを次のように設定します。

      • 変数を Global_Language に設定します。

      • 変数の値を必要な言語コード(fr-CA など)に設定します。

      カスタム出力音声の場合は、Set Variable アクティビティを次のように設定します。

      • 変数を Global_VoiceName に設定します。

      • 変数の値を必要な出力音声名コード(en-US-Standard-D など)に設定します。

      CX でサポートされる音声と言語の詳細については、サポートされている音声と言語を参照してください。

8

[状態イベント(State Event)] 設定で、[イベント名 - イベントデータ(Event Name - Event Data)] カラムにカスタムイベント名とデータを入力します。 状態イベントは、エージェントボットで設定されているイベントハンドラをトリガーするメカニズムです。エージェントボットでは、イベントの処理方法を設定できます。

  • イベント名 – (オプション) 統合されたサードパーティ AI プラットフォームで定義されているイベントの名前を示します。

  • イベント データ – (オプション) システムが統合されたサードパーティ AI プラットフォームに (定義されたイベント名の一部として) 送信する JSON データを示します。

イベント名とデータを静的な値または式の形式で指定できます。 式には、{{ variable }} の構文を使用します。 以下は、発信者にカスタムのウェルカムメッセージで応答するように設定された状態イベントの例です。

イベント名: CustomWelcome

イベントデータ: {"Name": "John"}

9

[詳細設定(Advanced Settings)] で、次の操作を行います。

  1. [発言速度(Speaking Rate)] フィールドに数値または式を入力して、音声出力の速度を増減します。

    • 数値入力の有効値は、0.25~4.0 の範囲です。 デフォルト値は 1.0 です。

      たとえば、値を 0.5 に設定すると、音声の出力速度が理想的な速度よりも遅くなります。 値を 2 に設定すると、音声の出力速度が理想的な速度よりも速くなります。

    • 式には、{{variable}} の構文を使用できます。

  2. [ボリュームゲイン(Volume Gain)] フィールドに数値または式を入力して、音声出力のボリュームを増減します。

    • 数値入力の有効値は、-96.0~16.0 デシベル(dB)の範囲です。 デフォルト値は 0.0 dB です。

    • 式には、{{variable}} の構文を使用できます。

  3. [音の間隔(Pitch)] フィールドに数値または式を入力して、音声出力の間隔を増減します。

    • 数値入力の有効値は、-20.0~20.0 ヘルツ(Hz)の範囲です。 デフォルト値は 0.0 Hz です。

    • 式には、{{variable}} の構文を使用できます。

  4. [終了遅延(Termination Delay)] フィールドに数値を入力します。 これを設定すると、仮想エージェントは、アクティビティが停止してフローの次のステップに進む前に、最後のメッセージを完了できます。

    たとえば、システムが通話をエージェントにエスカレーションする前に仮想エージェントから発信者に何かを示したい場合は、エスカレーションの前の、最後のメッセージの発信が完了するまでの時間を設定します。

    数値入力の有効な値は 0 ~ 30 秒の範囲です。 デフォルト値は 15 秒です。

    終了遅延 の値を 0 に設定すると、システムは発信者に対して最後の音声メッセージを再生しません。

  5. Agent Desktop に仮想エージェントと発信者の会話の音声テキストを表示するには、[会話の音声テキストの有効化(Enable Conversation Transcript)] チェックボックスをオンにします。

    生の音声テキストは、動的 URL からも使用できます。 この URL は、HTTP リクエストを含む音声テキストから特定のセクションを抽出します。

10

[アクティビティの出力変数(Activity Output Variables)] では、仮想エージェントと発信者の会話中に発生したイベントの出力ステータスを格納する変数のリストを表示できます。

  • VirtualAgentV2.TranscriptURL – 仮想エージェントと発信者間の会話のトランスクリプトを指す URL を格納します。

    解析アクティビティを使用して、仮想エージェントの音声テキストからパラメータを抽出します。

  • VirtualAgentV2.MetaData – フルフィルメントまたは処理カスタム イベントの一部としてエージェント ボットから受信した JSON データを格納します。 このデータを使用して、フロービルダーでさらに多くのビジネスロジックを構築できます。

  • VirtualAgentV2.StateEventName – システムがカスタム状態イベントをトリガーした後に、システムがエージェント ボットから受信するカスタム イベントの名前を格納します。

  • 現在、サポートされている言語は en-US のみです。

  • u-law コーデックのみサポートされています。

  • 通話がライブエージェントに転送されると、発信者と仮想エージェントの会話の音声テキストが Agent Desktop のトランスクリプトガジェットに表示されます(Agent Desktop でトランスクリプトガジェットが設定されている場合のみ)。

Dialogflow ES エージェントは、エンドユーザとの同時会話を処理する仮想エージェントです。 人の言語の違いを理解する自然言語理解モジュールです。 システムに必要な会話の種類を処理するエージェント ボットを設計および構築できます。 Dialogflow ES の詳細については、 Google ドキュメントをご覧ください。

仮想エージェントと発信者間の会話は、Agent Desktop のトランスクリプト ウィジェットに表示されます。 会話は、Dialogflow ES で「応答」が設定されている場合にのみ、トランスクリプト ウィジェットに表示されます。

前提条件

Dialogflow ES と統合するには、次のタスクを完了します。

仮想エージェント V2 アクティビティの設定

次世代プラットフォームを使用するお客様は、フロー デザイナーで仮想エージェント V2 アクティビティを構成できます。

仮想エージェント V2 アクティビティは、連絡先にリアルタイムの会話体験を提供します。 通話フローに仮想エージェント V2 アクティビティを追加し、音声ベースの AI 対応の会話を処理できます。 発信者が話すと、システムはその音声に一致する仮想エージェントの最適な意図を検索します。 また、対話式音声自動応答(IVR)体験の一部として発信者を支援します。

コールフロー内の同じブランチで複数の仮想エージェント V2 アクティビティはサポートされていません。

結果

仮想エージェントと発信者の間の会話の結果に基づいて発生するアクティビティの出力パスを示します。

  • 処理済み–仮想エージェントの実行が完了すると結果がトリガーされます。

  • エスカレート–通話を人間のエージェントにエスカレーションする必要がある場合に結果がトリガーされます。

エラー処理

仮想エージェントと発信者の会話中に発生したエラーに対するアクティビティの出力パスを示します。

エラー発生– フローは、どのエラー シナリオでもこのパスをたどります。

デフォルトのシステムレベル設定

以下の設定は、システム内部でデフォルトで定義されています。 これらの設定はユーザ インターフェイスに表示されず、変更できません。

  • 無効なエラーまたは入力なしエラーを処理するための再試行回数は無制限です。

  • 割り込みを有効にすると、対話中に仮想エージェントを中断できます。

  • DTMF 終了シンボル = #。 この設定は入力の終了を示します。

  • DTMF「無入力タイムアウト」= 5 秒。 この設定は、仮想エージェントが発信者の入力を待機する時間の長さを示します。

  • DTMF「桁間タイムアウト」= 3 秒。 この設定は、仮想エージェントが会話フローに進む前に、発信者からの次の DTMF 入力を待機する時間の長さを示します。

はじめる前に

  • Dialogflow エージェントを設定します。 Google Cloud で Dialogflow エージェントを構築する方法の詳細については、以下をご覧ください。 エージェントを構築する

  • Google CCAI コネクタを構成し、コントロール ハブで CCAI 構成を作成します。

  • エントリ ポイントを構成し、ルーティング フローを選択します (フロー デザイナーでフローが作成されたら)。 詳細については、 チャンネルを設定する

1

Control Hub にログインし、 [サービス] > [コンタクトセンター] > [フロー] を選択します

2

[フローの管理] をクリックし、 [フローの作成] をクリックします。

3

フロー名 フィールドに一意の名前を入力し、 フローの構築を開始をクリックします。 [フローデザイナー(Flow Designer)] ウィンドウが表示されます。

4

仮想エージェント V2 アクティビティをアクティビティライブラリからメインフローキャンバスにドラッグアンドドロップします。

5

[全般設定(General Settings)] で、次の操作を行います。

  1. [アクティビティラベル] フィールドに、アクティビティの名前を入力します。

  2. [アクティビティの説明] フィールドに、アクティビティの説明を入力します。

6

会話エクスペリエンス 設定で、次のいずれかの Contact Center AI 構成オプションを選択します。

  • 静的 – デフォルトの PSTN リージョン内での会話を処理するための CCAI 設定を選択します。

    Contact Center AI 構成は、Control Hub で構成されている CCAI 機能に基づいて入力されます。

  • 変数 – 通話がリモートまたはデフォルト以外の PSTN 地域から発信されているときに、発信者と同じ場所内での会話を処理するための CCAI 設定を選択します。 この変数は、PSTN リージョンを対応する Google プロフィール リージョンにマッピングします。

    変数 CCAI 構成を構成する方法の詳細については、「 仮想エージェント音声の地域メディアの構成 」ドキュメントの手順 6 ~ 8 を参照してください。
    • VAV フローを機能させるには、フロー内のグローバル変数を設定して、仮想エージェントのデフォルトの入力言語と出力音声を構成する必要があります。 フローにグローバル変数を追加する方法の詳細については、  「グローバル変数」を参照してください。

    • VAV のデフォルトの入力言語と出力音声をオーバーライドする場合は、フロー内の仮想エージェント V2 アクティビティの前に 変数の設定 アクティビティを含めます。

      カスタム入力言語の場合は、Set Variable アクティビティを次のように設定します。

      • 変数を Global_Language に設定します。

      • 変数の値を必要な言語コード(fr-CA など)に設定します。

      カスタム出力音声の場合は、Set Variable アクティビティを次のように設定します。

      • 変数を Global_VoiceName に設定します。

      • 変数の値を必要な出力音声名コード(en-US-Standard-D など)に設定します。

      ES でサポートされている音声と言語の詳細については、 サポートされている音声と言語 を参照してください。

7

[状態イベント(State Event)] 設定で、[イベント名 - イベントデータ(Event Name - Event Data)] カラムにカスタムイベント名とデータを入力します。 状態イベントは、一致するテキストや音声入力を必要とせずにインテントをトリガーするメカニズムです。 インテントをトリガーするカスタム イベントを定義できます。 Dialogflow ES でイベントのインテントを設定する方法については、 Google ドキュメントをご覧ください。

  • イベント名 – (オプション) 統合されたサードパーティ AI プラットフォームで定義されているイベントの名前を示します。

  • イベント データ – (オプション) システムが統合されたサードパーティ AI プラットフォームに (定義されたイベント名の一部として) 送信する JSON データを示します。

イベント名とデータを静的な値または式の形式で指定できます。 式には、{{ variable }} の構文を使用します。 以下は、発信者にカスタムのウェルカムメッセージで応答するように設定された状態イベントの例です。

イベント名: CustomWelcome

イベントデータ: {"Name": "John"}

8

[詳細設定(Advanced Settings)] で、次の操作を行います。

  1. [発言速度(Speaking Rate)] フィールドに数値または式を入力して、音声出力の速度を増減します。

    • 数値入力の有効な値は 0.25 ~ 4.0 の範囲です。 デフォルト値は 1.0 です。

      たとえば、値を 0.5 に設定すると、音声の出力速度が理想的な速度よりも遅くなります。 値を 2 に設定すると、音声の出力速度が理想的な速度よりも速くなります。

    • 式には、{{variable}} の構文を使用できます。

  2. [ボリュームゲイン(Volume Gain)] フィールドに数値または式を入力して、音声出力のボリュームを増減します。

    • 数値入力の有効な値は -96.0 ~ 16.0 デシベル (dB) の範囲です。 デフォルト値は 0.0 dB です。

    • 式には、{{variable}} の構文を使用できます。

  3. [音の間隔(Pitch)] フィールドに数値または式を入力して、音声出力の間隔を増減します。

    • 数値入力の有効値は、-20.0~20.0 ヘルツ(Hz)の範囲です。 デフォルト値は 0.0 Hz です。

    • 式には、{{variable}} の構文を使用できます。

  4. [終了遅延(Termination Delay)] フィールドに数値を入力します。 これを設定すると、仮想エージェントは、アクティビティが停止してフローの次のステップに進む前に、最後のメッセージを完了できます。

    たとえば、システムが通話をエージェントにエスカレーションする前に仮想エージェントから発信者に何かを示したい場合は、エスカレーションの前の、最後のメッセージの発信が完了するまでの時間を設定します。

    数値入力の有効な値は 0 ~ 30 秒の範囲です。 デフォルト値は 15 秒です。

    終了遅延 の値を 0 に設定すると、システムは発信者に対して最後の音声メッセージを再生しません。

  5. Agent Desktop に仮想エージェントと発信者の会話の音声テキストを表示するには、[会話の音声テキストの有効化(Enable Conversation Transcript)] チェックボックスをオンにします。

    生の音声テキストは、動的 URL からも使用できます。 この URL は、HTTP リクエストを含む音声テキストから特定のセクションを抽出します。

9

[アクティビティの出力変数(Activity Output Variables)] では、仮想エージェントと発信者の会話中に発生したイベントの出力ステータスを格納する変数のリストを表示できます。

  • VirtualAgentV2.TranscriptURL – 仮想エージェントと発信者間の会話のトランスクリプトを指す URL を格納します。

    解析アクティビティを使用して、仮想エージェントの音声テキストからパラメータを抽出します。

  • VirtualAgentV2.MetaData および VirtualAgentV2.StateEventName 変数は適用されません。

  • 現在、サポートされている言語は en-US のみです。

  • U-law コーデックのみがサポートされます。

  • 通話がライブエージェントに転送されると、発信者と仮想エージェントの会話の音声テキストが Agent Desktop のトランスクリプトガジェットに表示されます(Agent Desktop でトランスクリプトガジェットが設定されている場合のみ)。

Bring Your Own Virtual Agent (BYOVA) 機能を使用すると、顧客とパートナーは独自の AI ベースの仮想音声エージェントを Webex Contact Center ソリューションに統合できます。 新しい BYOVA インターフェースを使用すると、パートナーと顧客は独自の仮想エージェント テクノロジを導入し、Control Hub でホストできます。

管理者は、コントロール ハブから次の操作を実行できます。

  • サードパーティの仮想エージェント ベンダーを表示します。
  • 必要なベンダーを選択します。
  • サードパーティの AI ベンダーから提供された認証資格情報を使用してコネクタを設定します。

サードパーティの AI ベンダーが提供する仮想エージェントを使用するには、必要なライセンスが必要です。

前提条件

サードパーティの AI エージェントと統合するには、次のタスクを完了します。

仮想エージェント V2 アクティビティの設定

次世代プラットフォームを使用するお客様は、フロー デザイナーで仮想エージェント V2 アクティビティを構成できます。

仮想エージェント V2 アクティビティは、連絡先にリアルタイムの会話体験を提供します。 通話フローに仮想エージェント V2 アクティビティを追加し、音声ベースの AI 対応の会話を処理できます。 発信者が話すと、システムはその音声に一致する仮想エージェントの最適な意図を検索します。 また、対話式音声自動応答(IVR)体験の一部として発信者を支援します。

コールフロー内の同じブランチで複数の仮想エージェント V2 アクティビティはサポートされていません。

結果

仮想エージェントと発信者の間の会話の結果に基づいて発生するアクティビティの出力パスを示します。

  • 処理済み – 仮想エージェントの実行が完了すると結果がトリガーされます。

  • エスカレーション済み – 通話を人間のエージェントにエスカレーションする必要がある場合に結果がトリガーされます。

エラー処理

仮想エージェントと発信者の会話中に発生したエラーに対するアクティビティの出力パスを示します。

エラー発生 – フローは、どのエラー シナリオでもこのパスをたどります。

デフォルトのシステムレベル設定

以下の設定は、システム内部でデフォルトで定義されています。 これらの設定はユーザ インターフェイスに表示されず、変更できません。

  • 無効なエラーまたは入力なしエラーを処理するための再試行回数は無制限です。

  • 割り込みを有効にすると、対話中に仮想エージェントを中断できます。

  • DTMF 終了シンボル = #。 この設定は入力の終了を示します。

  • DTMF「無入力タイムアウト」= 5 秒。 この設定は、仮想エージェントが発信者の入力を待機する時間の長さを示します。

  • DTMF「桁間タイムアウト」= 3 秒。 この設定は、仮想エージェントが会話フローに進む前に、発信者からの次の DTMF 入力を待機する時間の長さを示します。

はじめる前に

  • Dialogflow エージェントを設定します。 Google Cloud で Dialogflow エージェントを構築する方法の詳細については、以下をご覧ください。 エージェントを構築する

  • Google CCAI コネクタを構成し、コントロール ハブで CCAI 構成を作成します。

  • エントリ ポイントを構成し、ルーティング フローを選択します (フロー デザイナーでフローが作成されたら)。 詳細については、 チャンネルを設定する

1

ログインする コントロールハブ、選ぶ サービス > コンタクトセンター > フロー

2

クリック フローを管理する クリックします フローを作成する

3

フロー名 フィールドに一意の名前を入力し、 フローの構築を開始をクリックします[フローデザイナー(Flow Designer)] ウィンドウが表示されます。

4

仮想エージェント V2 アクティビティをアクティビティライブラリからメインフローキャンバスにドラッグアンドドロップします。

5

[全般設定(General Settings)] で、次の操作を行います。

  1. [アクティビティラベル] フィールドに、アクティビティの名前を入力します。

  2. [アクティビティの説明] フィールドに、アクティビティの説明を入力します。

6

会話エクスペリエンス 設定で、次のいずれかの Contact Center AI 構成オプションを選択します。

  • 静的 – デフォルトの PSTN リージョン内での会話を処理するための CCAI 設定を選択します。

    Contact Center AI 構成は、Control Hub で構成されている CCAI 機能に基づいて入力されます。

  • 変数 – 通話がリモートまたはデフォルト以外の PSTN 地域から発信されているときに、発信者と同じ場所内での会話を処理するための CCAI 設定を選択します。 この変数は、PSTN リージョンを対応する Google プロフィール リージョンにマッピングします。

    変数 CCAI 構成を構成する方法の詳細については、「 仮想エージェント音声の地域メディアの構成 」ドキュメントの手順 6 ~ 8 を参照してください。
    • VAV フローを機能させるには、フロー内のグローバル変数を設定して、仮想エージェントのデフォルトの入力言語と出力音声を構成する必要があります。 フローにグローバル変数を追加する方法の詳細については、  「グローバル変数」を参照してください。

    • VAV のデフォルトの入力言語と出力音声をオーバーライドする場合は、フロー内の仮想エージェント V2 アクティビティの前に 変数の設定 アクティビティを含めます。

      カスタム入力言語の場合は、Set Variable アクティビティを次のように設定します。

      • 変数を Global_Language に設定します。

      • 変数の値を必要な言語コード(fr-CA など)に設定します。

      カスタム出力音声の場合は、Set Variable アクティビティを次のように設定します。

      • 変数を Global_VoiceName に設定します。

      • 変数の値を必要な出力音声名コード(en-US-Standard-D など)に設定します。

      ES でサポートされている音声と言語の詳細については、 サポートされている音声と言語 を参照してください。

7

[状態イベント(State Event)] 設定で、[イベント名 - イベントデータ(Event Name - Event Data)] カラムにカスタムイベント名とデータを入力します。 状態イベントは、一致するテキストや音声入力を必要とせずにインテントをトリガーするメカニズムです。 インテントをトリガーするカスタム イベントを定義できます。 Dialogflow ES でイベントのインテントを設定する方法については、 Google ドキュメントをご覧ください。

  • イベント名 – (オプション) 統合されたサードパーティ AI プラットフォームで定義されているイベントの名前を示します。

  • イベント データ – (オプション) システムが統合されたサードパーティ AI プラットフォームに (定義されたイベント名の一部として) 送信する JSON データを示します。

イベント名とデータを静的な値または式の形式で指定できます。 式には、{{ variable }} の構文を使用します。 以下は、発信者にカスタムのウェルカムメッセージで応答するように設定された状態イベントの例です。

イベント名: CustomWelcome

イベントデータ: {"Name": "John"}

8

[詳細設定(Advanced Settings)] で、次の操作を行います。

  1. [発言速度(Speaking Rate)] フィールドに数値または式を入力して、音声出力の速度を増減します。

    • 数値入力の有効な値は 0.25 ~ 4.0 の範囲です。 デフォルト値は 1.0 です。

      たとえば、値を 0.5 に設定すると、音声の出力速度が理想的な速度よりも遅くなります。 値を 2 に設定すると、音声の出力速度が理想的な速度よりも速くなります。

    • 式には、{{variable}} の構文を使用できます。

  2. [ボリュームゲイン(Volume Gain)] フィールドに数値または式を入力して、音声出力のボリュームを増減します。

    • 数値入力の有効な値は -96.0 ~ 16.0 デシベル (dB) の範囲です。 デフォルト値は 0.0 dB です。

    • 式には、{{variable}} の構文を使用できます。

  3. [音の間隔(Pitch)] フィールドに数値または式を入力して、音声出力の間隔を増減します。

    • 数値入力の有効値は、-20.0~20.0 ヘルツ(Hz)の範囲です。 デフォルト値は 0.0 Hz です。

    • 式には、{{variable}} の構文を使用できます。

  4. [終了遅延(Termination Delay)] フィールドに数値を入力します。 これを設定すると、仮想エージェントは、アクティビティが停止してフローの次のステップに進む前に、最後のメッセージを完了できます。

    たとえば、システムが通話をエージェントにエスカレーションする前に仮想エージェントから発信者に何かを示したい場合は、エスカレーションの前の、最後のメッセージの発信が完了するまでの時間を設定します。

    数値入力の有効な値は 0 ~ 30 秒の範囲です。 デフォルト値は 15 秒です。

    終了遅延 の値を 0 に設定すると、システムは発信者に対して最後の音声メッセージを再生しません。

  5. Agent Desktop に仮想エージェントと発信者の会話の音声テキストを表示するには、[会話の音声テキストの有効化(Enable Conversation Transcript)] チェックボックスをオンにします。

    生の音声テキストは、動的 URL からも使用できます。 この URL は、HTTP リクエストを含む音声テキストから特定のセクションを抽出します。

9

[アクティビティの出力変数(Activity Output Variables)] では、仮想エージェントと発信者の会話中に発生したイベントの出力ステータスを格納する変数のリストを表示できます。

  • VirtualAgentV2.TranscriptURL – 仮想エージェントと発信者間の会話のトランスクリプトを指す URL を格納します。

    解析アクティビティを使用して、仮想エージェントの音声テキストからパラメータを抽出します。

  • VirtualAgentV2.MetaData および VirtualAgentV2.StateEventName 変数は適用されません。

  • 現在、サポートされている言語は en-US のみです。

  • U-law コーデックのみがサポートされます。

  • 通話がライブエージェントに転送されると、発信者と仮想エージェントの会話の音声テキストが Agent Desktop のトランスクリプトガジェットに表示されます(Agent Desktop でトランスクリプトガジェットが設定されている場合のみ)。

IVR トランスクリプトと Agent Desktop のグローバル変数

管理者は、エージェントに、会話型 IVR トランスクリプトを表示するためのアクセス権と、コールフローで設定された構成に基づくグローバル (以前は CAD と呼ばれていました) 変数を表示または編集するためのアクセス権を付与できます。

エージェントは、管理者がコールフローに設定した権限に基づいて、会話型 IVR トランスクリプトと、会話型 IVR トランスクリプトから抽出されたグローバル変数を表示できます。 Agent Desktop の会話型 IVR トランスクリプトの詳細については、 IVR トランスクリプト ウィジェット を参照してください。

Agent Desktop のグローバル変数の詳細については、「 呼び出しに関連付けられたデータ変数を入力する」を参照してください。