Khách hàng có đang nói dối Chatbot của bạn không?
Các hệ thống dịch vụ khách hàng tự động sử dụng các công cụ như biểu mẫu trực tuyến, chatbot và các giao diện kỹ thuật số khác ngày càng trở nên phổ biến trong nhiều ngành công nghiệp. Những công cụ này mang lại nhiều lợi ích cho cả công ty và khách hàng của họ – nhưng nghiên cứu mới cho thấy chúng cũng có thể phải trả giá: Thông qua hai thí nghiệm đơn giản, các nhà nghiên cứu phát hiện ra rằng mọi người có khả năng nói dối khi tương tác với hệ thống kỹ thuật số cao gấp đôi so với khi nói chuyện cho một con người. Điều này là do một trong những lực lượng tâm lý chính khuyến khích chúng ta trung thực là mong muốn nội tại để bảo vệ danh tiếng của chúng ta và tương tác với một cỗ máy về cơ bản ít gây ra rủi ro về danh tiếng hơn là nói chuyện với một con người thực sự. Tin tốt là các nhà nghiên cứu cũng phát hiện ra rằng những khách hàng có nhiều khả năng gian lận sẽ thường chọn sử dụng hệ thống liên lạc kỹ thuật số (thay vì con người), giúp các công ty có cơ hội xác định những người dùng có nhiều khả năng gian lận hơn. Tất nhiên, không có loại bỏ sự thiếu trung thực kỹ thuật số. Nhưng với sự hiểu biết tốt hơn về tâm lý khiến mọi người ít nhiều có khả năng nói dối, các tổ chức có thể xây dựng hệ thống ngăn chặn gian lận, xác định các trường hợp gian lận có khả năng xảy ra và chủ động khuyến khích mọi người trung thực hơn.
Hãy tưởng tượng bạn vừa đặt một đơn hàng trực tuyến từ Amazon. Điều gì có thể ngăn bạn tuyên bố rằng giao hàng không bao giờ đến và yêu cầu hoàn lại tiền – ngay cả khi hàng thực sự đến như đã hứa? Hoặc giả bạn vừa mua một chiếc điện thoại mới và ngay lập tức làm rơi, nứt màn hình. Bạn gửi yêu cầu thay thế và hệ thống tự động sẽ hỏi sản phẩm đến nơi có bị hỏng hay không, hay hư hỏng là do lỗi của bạn. bạn nói gì?
Không trung thực không phải là một hiện tượng mới. Nhưng khi chatbot, biểu mẫu trực tuyến và các giao diện kỹ thuật số khác ngày càng trở nên phổ biến hơn trên nhiều ứng dụng dịch vụ khách hàng, việc bẻ cong sự thật để tiết kiệm một khoản tiền đã trở nên dễ dàng hơn bao giờ hết. Làm thế nào các công ty có thể khuyến khích khách hàng của họ trung thực trong khi vẫn thu được lợi ích của các công cụ tự động?
Để khám phá câu hỏi này, tôi và các đồng tác giả đã tiến hành hai thí nghiệm đơn giản cho phép chúng tôi đo lường hành vi trung thực theo cách không phô trương. Đầu tiên, một nhà nghiên cứu yêu cầu những người tham gia lật một đồng xu mười lần và nói với họ rằng họ sẽ nhận được giải thưởng tiền mặt tùy thuộc vào kết quả. Chúng tôi đã yêu cầu một số người tham gia báo cáo kết quả lật xu của họ cho nhà nghiên cứu thông qua cuộc gọi điện video hoặc trò chuyện, trong khi những người khác báo cáo kết quả của họ thông qua biểu mẫu trực tuyến hoặc bot trợ lý giọng nói. Họ tung đồng xu ở chế độ riêng tư, vì vậy không có cách nào để biết liệu có bất kỳ người tham gia cá nhân nào nói dối hay không, nhưng chúng tôi có thể ước tính tỷ lệ gian lận cho một nhóm người tham gia (vì tổng thể, chỉ 50% số lần tung đồng xu sẽ thành công).
Chúng tôi đã tìm thấy gì? Trung bình, khi những người tham gia báo cáo với một người, họ báo cáo 54,5% số lần lật đồng xu thành công, tương ứng với tỷ lệ gian lận ước tính là 9%. Ngược lại, khi họ báo cáo với một máy, họ đã gian lận 22% thời gian. Nói cách khác, có thể sẽ xảy ra một chút gian lận – nhưng những người tham gia của chúng tôi có khả năng gian lận khi nói chuyện với một hệ thống kỹ thuật số cao hơn gấp đôi so với khi nói chuyện với con người. Chúng tôi cũng phát hiện ra rằng gian lận trắng trợn, mà chúng tôi định nghĩa là báo cáo tỷ lệ thành công cao đến mức phi lý của chín hoặc mười lần tung đồng xu thành công, phổ biến hơn ba lần khi báo cáo với máy so với khi báo cáo với con người.
Tiếp theo, chúng tôi xác định thông qua một cuộc khảo sát tiếp theo rằng cơ chế tâm lý chính thúc đẩy hiệu ứng này là mức độ quan tâm của người tham gia đối với danh tiếng cá nhân của họ. Chúng tôi đã hỏi một loạt câu hỏi được thiết kế để đo lường mối quan tâm của người tham gia về cách nhà nghiên cứu xem họ như thế nào và chúng tôi nhận thấy rằng những người đã báo cáo việc tung đồng xu của họ với máy cảm thấy ít gần gũi với nhà nghiên cứu hơn rất nhiều và kết quả là họ ít hơn rất nhiều quan tâm đến danh tiếng cá nhân của họ, hơn là những người đã báo cáo với nhà nghiên cứu. Do đó, chúng tôi đưa ra giả thuyết rằng việc nhân hóa hệ thống báo cáo kỹ thuật số (trong trường hợp của chúng tôi, bằng cách cung cấp cho nó giọng nói của con người thay vì giao diện chỉ có văn bản) có thể làm cho nó giống con người hơn và do đó khiến những người tham gia lo lắng hơn về việc duy trì danh tiếng của họ và ít có khả năng nói dối. Tuy nhiên, chúng tôi nhận thấy rằng những người tham gia vẫn gian lận nhiều như vậy, cho thấy rằng nếu mọi người biết họ đang tương tác với một chiếc máy, thì việc cung cấp cho chiếc máy đó các tính năng của con người khó có thể tạo ra nhiều sự khác biệt.
Để chắc chắn, có thể những tiến bộ trong các hệ thống AI giống con người một cách thuyết phục có thể biến đây trở thành một chiến lược hiệu quả hơn trong tương lai. Nhưng hiện tại, rõ ràng là các công cụ kỹ thuật số làm cho gian lận trở nên phổ biến hơn rất nhiều và không có cách khắc phục nhanh chóng rõ ràng nào.
Tin tốt là, thử nghiệm thứ hai của chúng tôi đã xác định được một chiến lược có thể giúp các công ty giải quyết vấn đề này: Mặc dù không loại bỏ được sự thiếu trung thực, nhưng có thể dự đoán ai có nhiều khả năng nói dối rô bốt và sau đó thúc đẩy những người dùng đó sử dụng kênh giao tiếp của con người.
Trong thử nghiệm này, trước tiên, chúng tôi đánh giá xu hướng gian lận chung của những người tham gia bằng cách yêu cầu họ lật đồng xu mười lần và báo cáo kết quả qua một biểu mẫu trực tuyến, sau đó phân loại họ thành “có khả năng là kẻ gian lận” và “có khả năng là người nói thật”. Trong phần tiếp theo của thử nghiệm, chúng tôi đưa ra cho họ sự lựa chọn giữa việc báo cáo số lần tung đồng xu của họ với con người hoặc thông qua một biểu mẫu trực tuyến. Nhìn chung, khoảng một nửa số người tham gia thích hình thức con người và một nửa thích hình thức trực tuyến – nhưng khi chúng tôi xem xét kỹ hơn, chúng tôi nhận thấy rằng “những kẻ gian lận” có nhiều khả năng chọn hình thức trực tuyến hơn, trong khi “những người nói sự thật” thích để báo cáo cho một con người. Điều này cho thấy rằng những người có nhiều khả năng gian lận chủ động cố gắng tránh các tình huống mà họ phải làm như vậy với một người (chứ không phải với một cỗ máy), có lẽ là do nhận thức có ý thức hoặc tiềm thức rằng nói dối con người sẽ tốt hơn về mặt tâm lý. khó chịu.
Do đó, nếu những người không trung thực có xu hướng tự chọn vào các kênh truyền thông kỹ thuật số, điều này có thể mang lại một con đường để phát hiện và giảm gian lận tốt hơn. Cụ thể, việc thu thập dữ liệu về việc liệu khách hàng có chọn sử dụng các kênh giao tiếp ảo thay vì con người hay không có thể bổ sung cho nỗ lực hiện tại của các công ty nhằm xác định những người dùng có nhiều khả năng gian lận hơn, cho phép các tổ chức này tập trung nguồn lực phát hiện gian lận hiệu quả hơn. Tất nhiên, khách hàng có thể tìm ra những gì các công ty đang làm và cố gắng đánh lừa hệ thống bằng cách chọn nói chuyện với một đại lý thực sự, do đó tránh bị gắn cờ là rủi ro cao hơn – nhưng đây thực sự là đôi bên cùng có lợi, vì theo nghiên cứu của chúng tôi, họ sẽ có nhiều khả năng cư xử trung thực hơn nếu họ nói chuyện với một con người.
Cuối cùng, không có cách chữa trị nào cho sự thiếu trung thực trong kỹ thuật số. Rốt cuộc, nói dối với một người máy không cảm thấy tồi tệ bằng nói dối với khuôn mặt của con người thật. Mọi người có dây để bảo vệ danh tiếng của họ, và máy móc về cơ bản không gây ra mối đe dọa về danh tiếng như con người. Nhưng với sự hiểu biết tốt hơn về tâm lý khiến mọi người ít nhiều có khả năng nói dối, các tổ chức có thể xây dựng hệ thống có thể xác định các trường hợp gian lận có khả năng xảy ra và lý tưởng là khuyến khích mọi người trung thực hơn.
Thế giới bản tin | Vina Aspire News
Vina Aspire – Vững bảo mật, trọn niềm tin
Nguồn : https://hbr.org/2022/05/are-customers-lying-to-your-chatbot