Confidentialité, sécurité, précision : comment les chatbots IA répondent à vos préoccupations les plus profondes en matière de données
Publié: 2023-08-24ChatGPT est un outil incroyable : des millions de personnes l'utilisent pour tout faire, de la rédaction d'essais à la recherche de vacances en passant par la préparation de programmes d'entraînement et même la création d'applications. Le potentiel de l’IA générative semble infini.
Mais lorsqu'il s'agit d'utiliser l'IA générative pour le service client, ce qui signifie partager les données, les requêtes et les conversations de vos clients, dans quelle mesure pouvez-vous réellement faire confiance à l'IA ? Les chatbots d'IA générative sont alimentés par de grands modèles de langage (LLM) formés sur un grand nombre d'ensembles de données extraits d'Internet. Même si les possibilités offertes par l’accès à autant de données sont révolutionnaires, elles soulèvent toute une série de préoccupations en matière de réglementation, de transparence et de confidentialité.
Depuis que nous avons lancé Fin, notre robot alimenté par l'IA, nous avons constaté un engouement sans précédent pour le potentiel de l'IA dans le service client. Mais nous avons également rencontré de nombreuses questions, dont beaucoup relèvent de deux thèmes généraux :
- La sécurité et la confidentialité des informations que les clients fournissent au chatbot IA.
- L'exactitude et la fiabilité des informations que le chatbot IA fournit aux clients.
Nous aborderons ici les éléments les plus importants à comprendre sur la façon dont les chatbots IA affectent la sécurité et la confidentialité des données dans tous les secteurs, et la manière dont nous abordons ces problèmes en ce qui concerne Fin.
Sécurité et confidentialité des données
Aucune entreprise ne peut se permettre de prendre des risques avec les données clients. La confiance est le fondement de toute relation entreprise-client, et les clients doivent être sûrs que leurs informations sont traitées avec soin et protégées au plus haut degré . L’IA générative offre des opportunités infinies, mais elle soulève également des questions importantes sur la sécurité des données clients. Comme toujours, la technologie évolue plus rapidement que les directives et les meilleures pratiques, et les régulateurs mondiaux se démènent pour suivre le rythme.
L'UE et le RGPD
Prenons l’exemple de l’UE. Le Règlement Général sur la Protection des Données (RGPD) est l’une des forces réglementaires les plus strictes au monde en matière de données personnelles. Maintenant que l’IA générative a changé la donne, où se situe-t-elle dans le cadre du RGPD ? Selon une étude sur l'impact du RGPD sur l'IA réalisée par le Service du Parlement européen, il existe une certaine tension entre le RGPD et des outils comme ChatGPT, qui traitent des quantités massives de données à des fins non explicitement expliquées aux personnes qui ont initialement fourni ces données. .
Cela dit, le rapport révèle qu'il existe des moyens d'appliquer et de développer les principes existants afin qu'ils soient cohérents avec l'utilisation croissante de l'IA et du Big Data. Pour parvenir pleinement à cette cohérence, la loi sur l’IA est actuellement en débat au sein de l’UE, et un ensemble de réglementations strictes, s’appliquant aux déploiements de systèmes d’IA tant à l’intérieur qu’à l’extérieur de l’UE, est attendue fin 2023 – plus d’un an après. ChatGPT est sorti en novembre 2022.
« Alors que la réglementation rattrape les progrès rapides de l’IA générative, il incombe aux fournisseurs de chatbots IA de s’assurer qu’ils maintiennent la sécurité des données comme leur priorité absolue. »
Pendant ce temps, aux États-Unis
Les États-Unis en sont encore aux premiers stades de réglementation et de législation en matière d’IA, mais des discussions sont en cours et sept des plus grandes entreprises technologiques se sont engagées à conclure des accords volontaires concernant des domaines tels que le partage d’informations, les tests et la transparence. Un exemple est l’engagement d’ajouter un filigrane au contenu généré par l’IA – une étape simple, mais importante pour le contexte et la compréhension de l’utilisateur.
Bien que ces étapes marquent un certain progrès, pour des secteurs comme celui de la santé, les inconnues peuvent représenter un obstacle à l’adoption de l’IA. Un article paru dans le Journal of the American Medical Association suggère que la technologie peut toujours être utilisée tant que l'utilisateur évite de saisir des informations de santé protégées (PHI). Dans une étape supplémentaire, des fournisseurs comme OpenAI développent actuellement des accords de partenariat commercial qui permettraient aux clients concernés par ces cas d'utilisation de se conformer aux réglementations telles que HIPAA et SOC-2 lors de l'utilisation de leurs produits.
En bref, alors que la réglementation rattrape les progrès rapides de l’IA générative, il incombe aux fournisseurs de chatbots IA de s’assurer qu’ils maintiennent la sécurité des données comme leur priorité absolue et qu’ils soient francs et transparents avec leurs clients.
Comment Fin gère la sécurité et la confidentialité des données
Chez Intercom, nous prenons la protection des données extrêmement au sérieux, et cela a été un élément majeur de chaque décision que nous avons prise depuis que nous avons commencé à créer notre chatbot IA. Voici les questions les plus urgentes que nous recevons des équipes du service client sur la manière dont leurs données, ainsi que celles de leurs clients, seront collectées, traitées et stockées.
Comment Fin gérera-t-il mon contenu d’assistance ?
Fin est alimenté par un mélange de modèles, dont le GPT-4 d'OpenAI, et traitera votre contenu d'assistance via ces LLM à des intervalles spécifiés pour répondre aux requêtes des clients.
Comment Fin gérera-t-il les données de conversation client ?
Au cours de chaque conversation client, toutes les données de la conversation seront envoyées textuellement à OpenAI, y compris toute information personnellement identifiable contenue dans la conversation.
Mon contenu d’assistance ou mes données de conversation client seront-ils utilisés pour former ou améliorer des modèles ?
C'est une question courante. De nombreux robots IA intègrent les données avec lesquelles ils travaillent pour former de nouveaux modèles ou améliorer ceux existants, et les fournisseurs citent cela comme un point fort. Chez Intercom, nous sommes fermement en désaccord avec cette perspective : les conversations et les commentaires sécurisés de vos clients ne seront jamais utilisés pour former les modèles tiers que nous utilisons pour alimenter Fin.
Mes données seront-elles conservées par OpenAI ?
Non, nous avons adhéré à la politique Zero Data Retention, ce qui signifie qu'aucune de vos données ne sera conservée par OpenAI pendant une période de temps quelconque.
Ma région d’hébergement de données affectera-t-elle ma capacité à utiliser Fin ?
Actuellement, Fin ne peut être utilisé que par les clients hébergeant leurs données aux États-Unis. Conformément aux conditions d'hébergement de données d'Intercom dans l'UE , nous acceptons de stocker les données de nos clients (y compris les données personnelles) au sein de l'UE. OpenAI n'offre actuellement pas d'hébergement dans l'UE, donc toutes les informations personnelles qui leur sont envoyées dans le cadre de leur intégration avec Intercom doivent être traitées aux États-Unis et peuvent ne pas être conformes aux conditions d'hébergement de données d'Intercom dans l'UE ou l'UA. Nous travaillons à rendre Fin accessible à davantage de régions à l'avenir.
Précision et fiabilité des réponses du robot IA
Différents grands modèles de langage ont des atouts différents, mais pour le moment, le GPT-4 d'OpenAI est généralement considéré comme l'un des meilleurs LLM disponibles en termes de fiabilité. Chez Intercom, nous avons commencé à expérimenter ChatGPT d'OpenAI dès sa sortie, reconnaissant son potentiel à transformer totalement le fonctionnement du service client. À ce stade, les « hallucinations », la tendance de ChatGPT à simplement inventer une réponse plausible lorsqu'il ne connaissait pas la réponse à une question, constituaient un risque trop important pour être présenté aux clients.
« La qualité d'un chatbot IA dépend des données sur lesquelles il est formé »
Nous avons vu des centaines d'exemples de ces hallucinations répandus sur les réseaux sociaux à la suite de la sortie de ChatGPT, allant d'hilarants à légèrement terrifiants. Étant donné que la source de données de formation de ChatGPT concernait « tout Internet avant 2021 », il n'est pas surprenant que certains détails soient incorrects.
Essentiellement, la qualité d’un chatbot IA dépend des données sur lesquelles il est formé. Dans un contexte de service client, un ensemble de données de mauvaise qualité exposerait les clients à des réponses susceptibles de nuire à la marque de votre entreprise – qu'elles soient inexactes, non pertinentes ou inappropriées – conduisant à la frustration des clients, diminuant la valeur qu'ils tirent de votre produit et en fin de compte, ce qui a un impact sur la fidélité à la marque.
La sortie de GPT-4 en mars 2023 a finalement proposé une solution. Comme l'a déclaré Fergal Reid, notre directeur principal de l'apprentissage automatique, dans une interview avec econsultancy.com : « Nous avons eu un premier aperçu de GPT-4 et avons été immédiatement impressionnés par les protections accrues contre les hallucinations et les capacités de langage naturel plus avancées. Nous avons estimé que la technologie avait franchi le seuil où elle pouvait être utilisée devant les clients.
"Les entreprises doivent contrôler les informations que leurs clients reçoivent pour s'assurer qu'elles sont exactes, à jour et pertinentes pour leur produit"
Malgré l’incroyable précision de GPT-4, il n’est pas adapté au premier abord au service client « prêt à l’emploi ». Les entreprises doivent contrôler les informations que leurs clients reçoivent pour garantir qu'elles sont exactes, à jour et pertinentes pour leur produit. En ajoutant notre propre logiciel propriétaire à GPT-4, nous avons créé des garde-fous qui limitaient les informations disponibles du bot à une source spécifique désignée par les équipes de nos clients.
Ainsi, une fois que vous vous êtes assuré que les données de vos clients sont en sécurité avec Fin, vous voudrez être totalement sûr que Fin extraira des informations de sources fiables que vous contrôlez, pour fournir les bonnes informations à vos clients.
Par quel LLM Fin est-il propulsé ?
Fin est alimenté par un mélange de grands modèles de langage, y compris le GPT-4 d'OpenAI , le plus précis du marché et beaucoup moins sujet aux hallucinations que les autres.
Puis-je choisir le contenu à partir duquel Fin extrait ses réponses ?
Fin tire ses réponses des sources que vous spécifiez , qu'il s'agisse de votre centre d'aide, de votre bibliothèque de contenu d'assistance ou de toute URL publique pointant vers votre propre contenu. De cette façon, vous pouvez être sûr de l'exactitude de toutes les informations que Fin utilise pour répondre aux questions de vos clients et, à mesure que vous surveillez les performances de Fin, vous pouvez développer, améliorer ou développer le contenu qui alimente le robot IA.
Que fera Fin s’il ne connaît pas la réponse à une question ?
Fin est comme tout bon agent d'assistance : s'il ne trouve pas la réponse à une question, nos garde-fous d'apprentissage automatique garantissent qu'il admet qu'il ne sait pas et transmet de manière transparente la conversation à un représentant d'assistance pour garantir une qualité constante. expérience de soutien. Contrairement à ChatGPT ou à certains autres chatbots du service client IA, Fin n'inventera jamais de réponse et fournira toujours des sources pour les réponses qu'il fournit à partir de votre contenu d'assistance.
Mes clients peuvent-ils accéder à un représentant d'assistance humaine s'ils le souhaitent ?
Votre équipe d'assistance connaît vos clients mieux que quiconque et il est essentiel que vos clients y aient facilement accès. Fin offre aux clients la possibilité de diriger immédiatement leur requête vers un représentant du support humain. Si le client est heureux d'essayer Fin, mais qu'il ne connaît pas la réponse à sa question, nous avons créé des garde-fous d'apprentissage automatique pour inciter Fin à poser des questions de clarification, à trier la requête et à la transmettre à la bonne équipe pour la résoudre. .
Découvrez-en plus sur le fonctionnement de Fin ou consultez notre centre d'aide pour plus d'informations sur nos mesures de sécurité et de confidentialité des données.