На одном языке с клиентом: нужна ли чат-боту «человечность»?
По мере того как чат-боты становятся умнее и адекватнее, перед разработчиками и всем обществом встает вопрос: до какой степени робот должен напоминать нам обычного собеседника? Должен ли он шутить, иногда и сквернословить, делать замечания или даже вовсе отказываться от общения? Какими еще свойствами должен обладать бот, если речь идет о финансовых (страховых) продуктах?
Исследования показали, что подавляющее большинство людей ради быстрых и точных ответов готовы общаться с чат-ботами, а не с людьми. Неудивительно, что вслед за своими клиентами в мессенджеры массово идут корпорации — в виде чат-ботов, естественно. Пионерами в этом направлении стали финансовые, в том числе страховые, компании. Например, в каталоге российских технологических стартапов раздел «чат-боты, коммуникации» сегодня насчитывает около 40 проектов, лидируя по их количеству вместе со стартапами из сферы «маркетинг».
Стоит отметить, что по сравнению с любыми другими программами, встречающимися нам в повседневной жизни, финансовые боты имеют свою специфику. Дело в том, что робота довольно легко научить предлагать различные товары, подбирая их по конкретному запросу клиента. Куда сложнее дело обстоит не когда клиент выбирает из списка, а в случае продажи ему товара или услуги. Тут необходимы серьезные наработки в области ИИ.
При этом конкретно страховой чат-бот должен уметь не только общаться, но и распознавать тексты с фотографиями. Например, для удаленной оценки имущества в целях страхования или тем более в рамках урегулирования убытков. Кроме того, бот должен «отработать» обращение для противодействия возможному фроду, проверить заявление клиента на соответствие внутреннему регламенту, отправить платежное поручение в банк и так далее.
Одновременно в сфере финансовых услуг и в страховании в частности очень важна омниканальность: когда клиент, начав общение, например, по телефону, может далее продолжить его в чат-боте или приложении. Причем происходить это должно бесшовно, человек должен не снова задавать оператору или боту возникший у него вопрос, а просто продолжать разговор. Соответственно, возникает проблема полноценной идентификации клиента во всех возможных каналах связи. Тем более что страховые продукты сопровождает и масса дополнительных сервисов (от медицинских чекапов до помощи на дорогах). Все заявки клиента на получение этих услуг и его коммуникация с их исполнителями также могут обрабатываться страховым чат-ботом.
Иными словами, речь идет о множестве довольно рутинных процедур, которые, к слову, раннее у страховщиков занимали дни, а то и недели. Сегодня технологии позволяют на порядки сократить временные и финансовые затраты на этот процесс. Недавно компания Lemonade, которая специализируется на страховании имущества, поставила рекорд, за три секунды урегулировав страховой случай по заявлению клиента об украденной вещи.
Однако в этом случае речь идет уже о следующей ступени развития ботов, о работе на перспективу. Пока же мы чаще сталкиваемся с ними в рутинных процессах, пытаясь найти ответ на свой вопрос. Отмечу, что корпорации тратят огромные деньги на обучение операторов, на постоянное совершенствование скриптов, наконец, на администрирование всего фронт-офиса, ведь нет ничего важнее, чем контакт с клиентом, особенно первый, когда речь идет о продаже продукта и услуги.
А если на том конце провода робот? Тут все не так однозначно, к сожалению. По признанию самих разработчиков, современный искусственный интеллект пока находится на уровне развития годовалого ребенка. К тому же первые исследования в этой области показали, что как только человек убеждается, что перед ним машина, он сразу начинает ее «проверять на прочность»: провоцировать, грубить, употреблять ненормативную лексику и так далее. Поэтому компании, которые дорожат самым ценным — доверием клиентов, — не спешат внедрять ботов в процесс общения. Или делают это крайне осторожно, используя так называемый гибридный подход, когда часть вопросов отдается на откуп роботам, другие закрывают операторы совместно с роботами, а какую-то (и немалую) часть вопросов оператор никогда не отдаст машине.
Однако роботы уже успели доказать свою незаменимость. В самом общем виде эту незаменимость можно выразить так: роботы лучше людей там, где необходима обработка больших массивов информации. Использование человека на таких участках либо экономически бессмысленно (машина все равно быстрее), либо под запретом из-за «человеческого фактора» (фактора человеческой ошибки).
Несколько лет назад гендиректор Microsoft Сатья Наделла так сформулировал задачу разработчиков: у пользователей должна быть возможность общаться с компьютером на привычном для них языке, а компьютер должен понимать контекст, в котором происходит общение, и распознавать личность пользователя. В случае успеха это станет революцией в способах взаимодействия человека с компьютером. В Microsoft давно экспериментируют с «необычными» ботами. Так, бот по имени Zo напоминает доброго, но своенравного ребенка, который сворачивает беседу, если не знает, как ответить. А про бота по имени Tay говорят, что он слишком часто ругается. Есть и другие наработки, и не только у Microsoft. Так, про «Алису» от «Яндекса» говорят, что она тоже умеет грубить, настаивать на своем мнении и даже знает, где спрятать труп. Все это довольно мило, даже порою сложно отличить, где правда, а где — красивый маркетинг.
Читайте также: Чат-боты для бизнеса: как робот помогает вашей компании
Так что же следует понимать под «человечностью» робота? Пожалуй, релевантность выдач поисковых запросов. И тут не стоит забывать, что поисковая система представляет собой такого же робота. Сколько людей, столько и мнений относительно конфигурации и содержания робота. Вряд ли всем понравится, если робот будет беспрестанно шутить, пытаться «разрядить» обстановку с помощью оскомину набивших «мимимишных картинок» или мемов. Человечность бота — это прежде всего его обучаемость. То есть она заключается в способности машины понять, что с пользователем можно вести себя именно так, а не иначе.
Автор: Андрей Бурлак