가상 상담사-음성(VAV)은 대화식 음성응답(IVR) 플랫폼을 클라우드 기반 AI 서비스와 통합할 수 있도록 도와주는 Webex Contact Center의 셀프 서비스 기능입니다. VAV는 발신자에게 지능적이고 자동화된 지원을 제공하는 사람과 같은 상호 작용을 지원합니다. VAV 기능을 통해 발신자는 IVR 흐름에서 문제를 빠르고 보다 효율적으로 해결할 수 있으며, 사람 상담사로 가는 통화량을 줄일 수 있습니다.

VAV는 NLP(자연어 처리), ASR(자동 음성 인식), TTS(텍스트-음성 변환)와 같은 기술을 사용하여 발신자의 의도를 이해하고 개인화된 관련 음성 응답을 제공합니다.

VAV는 다음과 같은 이점이 있습니다.

  • 실시간으로 발신자의 쿼리에 신속하게 응답하는 기능.

  • 가상 상담사가 대화를 처리할 수 없는 경우 발신자를 라이브 상담사에게 라우팅하는 기능.

Webex Contact Center는 서비스 제공자별 통합 커넥터를 통해 CCAI(컨텍 센터 AI) 서비스를 사용합니다. 고객은 AI 서비스를 사용하여 가상 삼담사를 설계하고 복잡한 IVR 통화 흐름을 만들 수 있습니다.


  • 이 기능은 Cisco 구독 서비스에서만 사용할 수 있습니다.

  • 이 기능은 [RTMS (실시간 미디어 서비스) 음성 플랫폼에서 US 데이터 센터 배포에 대해서만 지원 됩니다.

Webex Contact Center는 현재 다음 통합을 지원합니다.

Google Dialogflow CX

Dialogflow CX 상담사는 최종 사용자와의 동시 대화를 처리하는 가상 상담사입니다. 이는 인간 언어의 뉘앙스를 이해하는 자연어 이해 모듈입니다. 상담원 인공 지능 설계 및 작성을 통해 시스템에 필요한 대화 유형을 처리할 수 있습니다. CX에 대한 자세한 내용은 Google 설명서를 참조하십시오.

가상 에이전트와 발신자 간의 대화가 Agent Desktop의 [녹음] 위젯에 표시 됩니다.


' 상담원 ' 통화 응답이 Dialogflow CX에 설정 된 경우에만 대화가 [성적] 위젯에 표시 됩니다.

사전 요건

VAV 제공자와 통합하려면 다음 작업을 완료하십시오.

  • 제어 허브의 Google CCAI 커넥터와 같은 서비스 제공자별 통합 커넥터를 구성합니다. 자세한 내용은 Webex Contact Center에 대한 통합 커넥터 설정 문서의 Google CCAI 커넥터 구성을 참조하십시오.

  • 제어 허브에 CCAI(컨택 센터 AI) 기능을 만듭니다. 자세한 내용은 컨택 센터 AI 구성 만들기 문서를 참조하십시오. 시스템에서 흐름 제어 구성에 사용할 수 있는 CCAI 구성 ID를 생성합니다.

부분 응답 기능은 중간 메시지를 재생 하는 동안 통화 중에 발신자를 사용 하는 반면, webhook 응답은 백그라운드에서 요청을 처리 하는 데 시간이 걸립니다. Dialogflow CX에서는 일반적으로 webhook 요청이 응답을 수신 하는 데 더 오래 걸립니다. 요청을 처리 하는 동안 발신자에 게 임시 응답이 없는 경우 발신자는 완전히 자동으로 유지 되며 발신자가 통화를 끊는 문제가 발생할 수 있습니다. 이를 방지 하려면 해당 요청이 여전히 처리 되 고 있음을 발신자에 게 알리기 위해 부분 응답을 구성할 수 있습니다.


  • Webhook이 부분 응답 전후에 실제 응답을 반환 하는 경우 시스템은 부분 응답을 중지 하 고 발신자에 대 한 최종 응답을 재생 합니다.

  • 가상 에이전트 V2 활동에서 수신 되는 첫 번째 프롬프트 응답은 부분 응답을 지원 하지 않습니다.

  • 부분 응답 프롬프트에 대해 참여를 활성화 하 여 발신자가 상담원의 응답을 중단할 수 있습니다.

1

Dialogflow CX 콘솔에서 프로젝트와 상담사를 선택합니다.

2

CX 상담사 화면에서 빌드 탭으로 이동한 다음 이 흐름에서 컨텍 센터 애플리케이션에서 실행이 필요한 필수 흐름 및 필수 페이지(시작/종료흐름/세션 종료)를 선택합니다.

선택한 페이지 세부 정보가 나타납니다.
3

경로 섹션 아래에서 전환을 트리거하는 사용자 지정 종료 기준을 충족하는 경로 및 조건을 정의합니다.

4

이 경로에서 실행 섹션 아래에서 대화 추가 옵션을 클릭하고 사용자 정의 페이로드를 선택합니다.


 

사용자 정의 페이로드만 정의합니다. 다른 대화 옵션은 추가하지 마십시오.

5

다음 형식으로 CX에서 전송할 페이로드를 정의하는 Execute_Request 유형의 사용자 정의 페이로드를 추가합니다.

{ "Execute_Request":{ "Event_Name": "<이벤트 이름>", "Data" : { "Params":{ "<param1 이름>": "<param1 value>", "<param2 이름>": "<param2 값>" }

 

의사 결정 매핑을 위해 이 이벤트 이름을 흐름 디자이너의 가상 상담사 V2 활동에 있는 상태 이벤트 이름에 매핑해야 합니다.

6

흐름을 다시 시작할 때 동일한 페이지로 전환하도록 설정하려면 전환 섹션에서 페이지를 선택합니다.

7

이벤트 처리기를 만들고 흐름 빌더 애플리케이션에서 이벤트 이름을 제공합니다. 자세한 내용은 https://cloud.google.com/dialogflow/cx/docs/reference/rest/v3/EventHandler를 참조하십시오.

가상 상담사 V2 활동은 연락처에게 실시간으로 대화하는 경험을 제공합니다. 가상 상담사 V2 활동을 통화 흐름에 추가하여 음성 기반 AI 지원 대화를 처리할 수 있습니다. 발신자가 말하는 경우 시스템은 해당 음성을 가상 상담사에서 가장 적합한 의도와 일치시킵니다. 또한 대화식 음성응답(IVR) 환경의 일부로서 발신자를 지원합니다.

결과

가상 상담사와 발신자 간의 대화 결과를 기반으로 발생하는 활동에 대한 출력 경로를 나타냅니다.

  • 처리됨 – 가상 상담사 실행이 완료될 때 결과가 트리거됩니다.

  • 에스컬레이션됨 - 통화를 사람 상담사에게 에스컬레이션해야 하는 경우 결과가 트리거됩니다.

오류 처리

가상 상담사와 발신자 간의 대화 중에 발생하는 모든 오류에 대한 활동의 출력 경로를 나타냅니다.

오류 발생 – 흐름은 모든 오류 시나리오에서 이 경로를 사용합니다.

시작하기 전에

관리 포털에서 다음 작업을 완료합니다.

1

관리 포털(CCMP) 내비게이션 바에서 라우팅 전략 > 흐름을 선택합니다.

2

새로 만들기를 클릭합니다.

3

흐름 이름 필드에 고유한 이름을 입력합니다.

4

흐름 빌드 시작을 클릭합니다. 흐름 디자이너 창이 나타납니다.

5

활동 라이브러리 에서 기본 흐름 캔버스로 가상 상담사 V2 활동을 끌어서 놓습니다.

6

일반 설정에서 다음 작업을 수행합니다.

  1. 활동 레이블 필드에 활동의 이름을 입력합니다.

  2. 활동 설명 필드에 활동에 대한 설명을 입력합니다.

7

대화 경험 설정의 컨텍 센터 AI 구성 드롭다운 목록에서 컨텍 센터 AI 구성 이름을 선택합니다.

컨텍 센터 AI 구성은 제어 허브에 구성된 CCAI 기능을 기반으로 채워집니다.

VAV에 대한 기본 입력 언어 및 출력 음성을 재정의하려는 경우 흐름에서 가상 상담사 V2 활동 앞에 변수 설정 활동을 포함합니다.

사용자 정의 입력 언어의 경우 변수 설정 활동을 다음과 같이 구성합니다.

  • 변수를 Global_Language로 설정합니다.

  • 변수 값을 필요한 언어 코드(예: fr-CA)로 설정합니다.

사용자 정의 출력 음성의 경우 변수 설정 활동을 다음과 같이 구성합니다.

  • 변수를 Global_VoiceName으로 설정합니다.

  • 변수 값을 필요한 출력 음성 이름 코드(예: en-US-Standard-D)로 설정합니다.

CX에서 지원되는 음성 및 언어에 대한 자세한 내용은 지원되는 음성 및 언어를 참조하십시오.

8

상태 이벤트설정에서 이벤트 이름 - 이벤트 데이터 열에 사용자 정의 이벤트 이름과 데이터를 입력합니다. 상태 이벤트는 상담사 봇에 구성된 이벤트 처리기를 트리거하는 메커니즘입니다. 상담사 봇에서 이벤트를 처리하는 방법을 구성할 수 있습니다.

매개 변수

설명

이벤트 이름

(선택 사항) 통합 타사 AI 플랫폼에 정의된 이벤트의 이름을 나타냅니다.

이벤트 데이터

(선택 사항) 시스템이 (정의된 이벤트 이름의 일부로) 통합 타사 AI 플랫폼에 전송하는 JSON 데이터를 나타냅니다.

정적 값 또는 식의 형태로 이벤트 이름과 데이터를 지정할 수 있습니다. 식의 경우 {{ variable }} 구문을 사용합니다. 다음은 사용자 정의 환영 메시지를 발신자에게 말하도록 구성된 상태 이벤트의 예입니다.

이벤트 이름: customwelcome

이벤트 데이터: {"Name": "John"}

9

고급 설정에서 다음 작업을 수행합니다.

  1. 말하는 속도 필드에 음성 출력 속도를 증가시키거나 감소시킬 숫자 값 또는 식을 입력합니다.

    • 숫자 입력에 유효한 값은 0.25~4.0 범위에 있습니다. 기본값은 1.0입니다.

      예를 들어 값이 0.5로 설정된 경우, 음성의 출력 속도가 이상적인 속도보다 느려집니다. 값으로 2를 설정하면 음성의 출력 속도가 이상적인 속도보다 빨라집니다.

    • 식의 경우 {{variable}} 구문을 사용할 수 있습니다.

  2. 볼륨 게인 필드에 음성 출력 볼륨을 증가시키거나 감소시킬 숫자 값 또는 식을 입력합니다.

    • 숫자 입력에 유효한 값은 –96.0~16.0 데시벨(dB) 범위에 있습니다. 기본값은 0.0 dB입니다.

    • 식의 경우 {{variable}} 구문을 사용할 수 있습니다.

  3. 피치 필드에 음성 출력 피치를 증가시키거나 감소시킬 숫자 값 또는 식을 입력합니다.

    • 숫자 입력에 유효한 값은 –20.0~20.0 헤르츠(Hz) 범위에 있습니다. 기본값은 0.0 Hz입니다.

    • 식의 경우 {{variable}} 구문을 사용할 수 있습니다.

  4. 종료 지연 필드에 숫자 값을 입력합니다. 이 설정을 사용하면 가상 상담사가 활동을 중지하고 흐름의 다음 단계로 이동하기 전에 마지막 메시지를 완료할 수 있습니다.

    예를 들어 시스템에서 상담사에게 통화를 에스컬레이션하기 전에 가상 상담사가 발신자에게 무언가를 표시하도록 하려면 에스컬레이션 전에 최종 메시지를 완료하는 데 걸리는 시간을 고려하십시오.

    숫자 입력에 유효한 값은 0~30 초 범위에 있습니다. 기본값은 3초입니다.

  5. Agent Desktop에서 대화 내용 활성화 확인란을 선택하여 가상 상담사와 발신자 간의 대화 내용을 표시할 수 있습니다.

    원시 대화 내용은 동적 URL을 통해 사용할 수도 있습니다. 이 URL은 HTTP 요청을 사용하여 대화 내용의 특정 섹션을 추출합니다.

10

활동 출력 변수에서는 가상 상담사와 발신자 간의 대화 중에 발생하는 이벤트의 출력 상태를 저장하는 변수 목록을 볼 수 있습니다.

출력 변수

설명

VirtualAgentV2.TranscriptURL

가상 상담사와 발신자 간 대화 내용을 가리키는 URL을 저장합니다.


 

구문 분석 활동을 사용하여 가상 상담사 대화 내용에서 매개 변수를 추출합니다.

VirtualAgentV2.MetaData

실행 또는 처리 사용자 정의 이벤트의 일부로 상담사 봇으로부터 수신된 JSON 데이터를 저장합니다. 이 데이터를 사용하여 흐름 작성기에서 더 많은 비즈니스 논리를 빌드할 수 있습니다.

VirtualAgentV2.StateEventName

시스템이 사용자 정의 상태 이벤트를 트리거한 후 시스템이 상담사 봇으로부터 수신하는 사용자 정의 이벤트의 이름을 저장합니다.


 
  • 현재 유일하게 지원되는 언어는 en-US입니다.

  • u-law 코덱만 지원됩니다.

  • 통화가 라이브 상담사로 전환되면 발신자와 가상 상담사 간의 대화 내용이 Agent Desktop의 대화 내용 가젯에 표시됩니다(Agent Desktop에 대화 내용 가젯이 구성된 경우에만 해당).