Конфиденциальность, безопасность, точность: как чат-боты с искусственным интеллектом решают ваши самые серьезные проблемы с данными

Опубликовано: 2023-08-24

ChatGPT — потрясающий инструмент: миллионы людей используют его для всего: от написания эссе и изучения отпусков до подготовки программ тренировок и даже создания приложений. Потенциал генеративного ИИ кажется безграничным.

Но когда дело доходит до использования генеративного ИИ для обслуживания клиентов, что означает обмен данными, запросами и разговорами ваших клиентов, насколько вы действительно можете доверять ИИ? Чат-боты с генеративным искусственным интеллектом основаны на больших языковых моделях (LLM), обученных на огромном количестве наборов данных, полученных из Интернета. Хотя возможности, которые открывает доступ к такому количеству данных, являются новаторскими, они вызывают ряд проблем, связанных с регулированием, прозрачностью и конфиденциальностью.

С тех пор, как мы запустили Fin, нашего бота на базе искусственного интеллекта, мы увидели беспрецедентный уровень энтузиазма по поводу потенциала искусственного интеллекта в обслуживании клиентов. Но мы также столкнулись с множеством вопросов, многие из которых подпадают под две общие темы:

  1. Безопасность и конфиденциальность информации клиентов обеспечивает чат-бот с искусственным интеллектом.
  2. Точность и достоверность информации, которую чат-бот с искусственным интеллектом предоставляет клиентам.

Здесь мы рассмотрим самые важные моменты, которые необходимо понять: как чат-боты с искусственным интеллектом влияют на безопасность и конфиденциальность данных в разных отраслях, а также то, как мы подходим к этим проблемам, когда дело касается финансов.

Безопасность и конфиденциальность данных

Ни одна компания не может позволить себе рисковать данными клиентов. Доверие является основой любых отношений между бизнесом и клиентом, и клиенты должны быть уверены, что к их информации обращаются с осторожностью и защищают в высшей степени . Генеративный ИИ предлагает безграничные возможности, но также поднимает важные вопросы о безопасности данных клиентов. Как всегда, технологии развиваются быстрее, чем рекомендации и лучшие практики, и мировые регулирующие органы изо всех сил стараются не отставать.

ЕС и GDPR

Возьмем, к примеру, ЕС. Общий регламент по защите данных (GDPR) является одним из самых строгих нормативных актов, касающихся персональных данных, в мире. Теперь, когда генеративный ИИ изменил правила игры, какое место он занимает в рамках GDPR? Согласно исследованию влияния GDPR на ИИ, проведенному Европейской парламентской службой, существует определенная напряженность между GDPR и такими инструментами, как ChatGPT, которые обрабатывают огромные объемы данных для целей, которые явно не объяснены людям, которые первоначально предоставили эти данные. .

Тем не менее, в отчете говорится, что существуют способы применения и развития существующих принципов, чтобы они соответствовали расширяющемуся использованию искусственного интеллекта и больших данных. Чтобы полностью достичь этой последовательности, в настоящее время в ЕС обсуждается Закон об искусственном интеллекте, а принятие жесткого набора правил, применимых к развертывающим системы искусственного интеллекта как внутри ЕС, так и за его пределами, ожидается в конце 2023 года – более чем через год после этого . ChatGPT был выпущен в ноябре 2022 года.

«Хотя регулирование догоняет быстрый прогресс генеративного искусственного интеллекта, ответственность лежит на поставщиках чат-ботов с искусственным интеллектом, чтобы гарантировать, что безопасность данных является их главным приоритетом».

Тем временем в США

США по-прежнему находятся на ранних стадиях регулирования и законотворчества в области искусственного интеллекта, но обсуждения продолжаются, и семь крупнейших технологических компаний взяли на себя добровольные соглашения в таких областях, как обмен информацией, тестирование и прозрачность. Примером может служить обязательство добавлять водяной знак к контенту, создаваемому ИИ. Это простой шаг, но важный для пользовательского контекста и понимания.

Хотя эти шаги отмечают некоторый прогресс, для таких секторов, как здравоохранение, неизвестные могут стать препятствием для внедрения ИИ. В статье в Журнале Американской медицинской ассоциации говорится, что эту технологию можно использовать до тех пор, пока пользователь избегает ввода защищенной медицинской информации (PHI). В качестве дальнейшего шага такие поставщики, как OpenAI , сейчас разрабатывают соглашения о деловых партнерствах, которые позволят клиентам с этими вариантами использования соблюдать такие правила, как HIPAA и SOC-2 , при использовании их продуктов.

Короче говоря, хотя регулирование догоняет быстрый прогресс генеративного искусственного интеллекта, ответственность лежит на поставщиках чат-ботов с искусственным интеллектом, которые должны гарантировать, что безопасность данных является их главным приоритетом, а также быть искренними и прозрачными со своими клиентами.

Как Fin обеспечивает безопасность и конфиденциальность данных

Здесь, в Intercom, мы очень серьезно относимся к защите данных, и это было основным компонентом каждого решения, которое мы принимали с тех пор, как начали создавать нашего чат-бота с искусственным интеллектом. Вот наиболее насущные вопросы, которые мы получаем от групп обслуживания клиентов о том, как их данные и данные их клиентов будут собираться, обрабатываться и храниться.

Как Fin будет обрабатывать мой контент поддержки?

Fin основан на сочетании моделей, включая GPT-4 от OpenAI, и будет обрабатывать ваш контент поддержки через эти LLM через определенные промежутки времени, чтобы предоставлять ответы на запросы клиентов.

Как Fin будет обрабатывать данные разговоров с клиентами?

Во время каждого разговора с клиентом все данные разговора будут дословно отправляться в OpenAI, включая любую личную информацию в разговоре.

Будет ли мой контент поддержки или данные разговоров с клиентами использоваться для обучения или улучшения моделей?

Это общий вопрос. Многие боты с искусственным интеллектом используют данные, с которыми они работают, для обучения новых моделей или улучшения существующих, и поставщики называют это своим преимуществом. В Intercom мы категорически не согласны с этой точкой зрения: защищенные разговоры и отзывы ваших клиентов никогда не будут использоваться для обучения сторонних моделей, которые мы используем для работы Fin.

Эрик Фицджеральд, безопасность конфиденциальности данных (1)

Будут ли мои данные сохранены OpenAI?

Нет – мы подписались на политику нулевого хранения данных, что означает, что ни одна из ваших данных не будет храниться OpenAI в течение какого-либо периода времени.

Повлияет ли мой регион размещения данных на мою возможность использовать Fin?

В настоящее время Fin могут использовать только клиенты, размещающие свои данные в США. В соответствии с условиями хостинга данных Intercom в ЕС мы соглашаемся хранить данные наших клиентов (включая любые личные данные) на территории ЕС. OpenAI в настоящее время не предлагает хостинг в ЕС, поэтому любая личная информация, которая отправляется им в рамках интеграции с Intercom, должна обрабатываться в США и может не соответствовать условиям хостинга данных Intercom в ЕС или Австралии. Мы работаем над тем, чтобы в будущем Fin стал доступен большему количеству регионов.

Точность и достоверность ответов ИИ-бота

Различные модели больших языков имеют разные сильные стороны, но на данный момент OpenAI GPT-4 обычно считается одним из лучших доступных LLM с точки зрения надежности. В Intercom мы начали экспериментировать с ChatGPT OpenAI, как только он был выпущен, осознавая его потенциал полностью изменить способ работы службы поддержки клиентов. На этом этапе «галлюцинации», тенденция ChatGPT просто придумывать правдоподобно звучащий ответ, когда он не знал ответа на вопрос, были слишком большим риском, чтобы ставить его перед клиентами.

«Чат-бот с искусственным интеллектом хорош настолько, насколько хороши данные, на которых он обучен»

После выпуска ChatGPT мы видели сотни примеров этих галлюцинаций, разбросанных по социальным сетям, от веселых до слегка пугающих. Учитывая, что источником данных для обучения ChatGPT был «весь Интернет до 2021 года», неудивительно, что некоторые детали были неверными.

По сути, качество чат-бота с искусственным интеллектом зависит от данных, на которых он обучается. В контексте обслуживания клиентов набор данных низкого качества может предоставить клиентам ответы, которые могут нанести ущерб бренду вашей компании – независимо от того, являются ли они неточными, нерелевантными или неуместными – что приводит к разочарованию клиентов, снижению ценности, которую клиент получает от вашего продукта, и в конечном итоге, влияя на лояльность к бренду.

Выпуск GPT-4 в марте 2023 года наконец предложил решение. Как сказал наш старший директор по машинному обучению Фергал Рид в интервью econsultancy.com: «Мы впервые познакомились с GPT-4 и сразу же были впечатлены усиленной защитой от галлюцинаций и более продвинутыми возможностями естественного языка. Мы почувствовали, что технология перешла тот порог, когда ее можно было использовать перед клиентами».

«Компаниям необходимо контролировать информацию, которую получают их клиенты, чтобы гарантировать ее точность, актуальность и актуальность для их продукта»

Несмотря на невероятную точность GPT-4, он поначалу не пригоден для обслуживания клиентов «из коробки». Компаниям необходимо контролировать информацию, которую получают их клиенты, чтобы гарантировать ее точность, актуальность и актуальность для их продукта. Добавив наше собственное программное обеспечение в GPT-4, мы создали ограждения, которые ограничивали доступную информацию бота конкретным источником, назначенным командами наших клиентов.

Итак, как только вы убедитесь, что данные ваших клиентов в безопасности с помощью Fin, вы захотите быть полностью уверены в том, что Fin будет получать информацию из надежных источников, которые вы контролируете, чтобы предоставлять нужную информацию вашим клиентам.

На каком LLM работает Fin?

Fin основан на сочетании больших языковых моделей, включая GPT-4 от OpenAI , самую точную на рынке и гораздо менее склонную к галлюцинациям, чем другие.

Могу ли я выбрать контент, из которого Fin будет получать ответы?

Fin черпает ответы из указанных вами источников , будь то ваш справочный центр, библиотека контента поддержки или любой общедоступный URL-адрес, указывающий на ваш собственный контент. Таким образом, вы можете быть уверены в точности всей информации, которую Fin использует для ответа на вопросы ваших клиентов, и, отслеживая производительность Fin, вы можете расширять, улучшать или дорабатывать контент, на котором работает ИИ-бот.

Что будет делать Фин, если он не знает ответа на вопрос?

Fin похож на любого хорошего агента службы поддержки: если он не может найти ответ на вопрос, наши средства машинного обучения гарантируют, что он признает, что не знает, и беспрепятственно передает разговор представителю службы поддержки, чтобы обеспечить неизменно высокое качество опыт поддержки. В отличие от ChatGPT или некоторых других чат-ботов службы поддержки клиентов с искусственным интеллектом, Fin никогда не будет отвечать и всегда будет предоставлять источники ответов, которые он предоставляет, из вашего контента поддержки.

Могут ли мои клиенты получить доступ к представителю службы поддержки, если захотят?

Ваша служба поддержки знает ваших клиентов лучше, чем кто-либо другой, и очень важно, чтобы ваши клиенты имели к ним легкий доступ. Fin предлагает клиентам возможность немедленно направить свой запрос представителю службы поддержки. Если клиент рад попробовать Fin, но не знает ответа на свой вопрос, мы создали ограждения машинного обучения, которые побуждают Fin задавать уточняющие вопросы, сортировать запрос и передавать его нужной команде для решения. .

Узнайте больше о том, как работает Fin, или посетите наш справочный центр, чтобы получить дополнительную информацию о наших мерах по обеспечению безопасности и конфиденциальности данных.

Демо-финал CTA