Privacidad, seguridad y precisión: cómo los chatbots de IA manejan sus preocupaciones más profundas sobre los datos

Publicado: 2023-08-24

ChatGPT es una herramienta increíble: millones de personas la utilizan para hacer de todo, desde escribir ensayos e investigar sobre vacaciones hasta preparar programas de entrenamiento e incluso crear aplicaciones. El potencial de la IA generativa parece infinito.

Pero cuando se trata de utilizar IA generativa para el servicio al cliente, lo que significa compartir los datos, consultas y conversaciones de sus clientes, ¿cuánto puede confiar realmente en la IA? Los chatbots de IA generativa funcionan con grandes modelos de lenguaje (LLM) entrenados en una gran cantidad de conjuntos de datos extraídos de Internet. Si bien las posibilidades que surgen del acceso a esa cantidad de datos son innovadoras, plantea una serie de preocupaciones en torno a la regulación, la transparencia y la privacidad.

Desde que lanzamos Fin, nuestro robot impulsado por IA, hemos visto niveles de entusiasmo sin precedentes por el potencial de la IA en el servicio al cliente. Pero también nos hemos encontrado con muchas preguntas, muchas de ellas relacionadas con dos temas generales:

  1. La seguridad y privacidad de la información que los clientes proporcionan al chatbot de IA.
  2. La precisión y confiabilidad de la información que el chatbot de IA proporciona a los clientes.

Aquí, cubriremos los aspectos más importantes que debemos comprender sobre cómo los chatbots de IA están afectando la seguridad y la privacidad de los datos en todas las industrias, y la forma en que abordamos estos problemas cuando se trata de Fin.

Seguridad y privacidad de los datos

Ninguna empresa puede permitirse el lujo de correr riesgos con los datos de los clientes. La confianza es la base de toda relación entre empresa y cliente, y los clientes deben sentirse seguros de que su información se trata con cuidado y se protege al más alto nivel . La IA generativa ofrece infinitas oportunidades, pero también plantea preguntas importantes sobre la seguridad de los datos de los clientes. Como siempre, la tecnología está evolucionando más rápido que las directrices y las mejores prácticas, y los reguladores globales están luchando por mantenerse al día.

La UE y el RGPD

Tomemos como ejemplo la UE. El Reglamento General de Protección de Datos (GDPR) es una de las fuerzas reguladoras más estrictas que cubren datos personales en el mundo. Ahora que la IA generativa ha cambiado las reglas del juego, ¿dónde se ubica dentro del marco del RGPD? Según un estudio sobre el impacto del GDPR en la IA realizado por el Servicio Parlamentario Europeo, existe una cierta tensión entre el GDPR y herramientas como ChatGPT, que procesan cantidades masivas de datos para fines no explicados explícitamente a las personas que originalmente proporcionaron esos datos. .

Dicho esto, el informe encontró que hay formas de aplicar y desarrollar los principios existentes para que sean consistentes con el uso cada vez mayor de la IA y los big data. Para lograr plenamente esta coherencia, la Ley de IA se está debatiendo actualmente en la UE, y se espera un conjunto firme de regulaciones, que se aplicarán a los implementadores de sistemas de IA tanto dentro como fuera de la UE, para finales de 2023, más de un año después. ChatGPT se lanzó en noviembre de 2022.

"Si bien la regulación se pone al día con el rápido progreso de la IA generativa, la responsabilidad recae en los proveedores de chatbots de IA para garantizar que mantengan la seguridad de los datos como su máxima prioridad"

Mientras tanto, en EE.UU.

Estados Unidos aún se encuentra en las primeras etapas de regulación y elaboración de leyes en lo que respecta a la IA, pero las discusiones están en curso y siete de las empresas tecnológicas más grandes se han comprometido a firmar acuerdos voluntarios en áreas como el intercambio de información, las pruebas y la transparencia. Un ejemplo es el compromiso de agregar una marca de agua al contenido generado por IA: un paso simple, pero importante para el contexto y la comprensión del usuario.

Si bien estos pasos marcan cierto progreso, para sectores como la industria de la salud, las incógnitas pueden representar un obstáculo para la adopción de la IA. Un artículo en el Journal of the American Medical Association sugirió que la tecnología aún se puede emplear siempre que el usuario evite ingresar información médica protegida (PHI). Como paso adicional, proveedores como OpenAI ahora están desarrollando acuerdos de socios comerciales que permitirían a los clientes con estos casos de uso cumplir con regulaciones como HIPAA y SOC-2 mientras usan sus productos.

En resumen, mientras la regulación se pone al día con el rápido progreso de la IA generativa, los proveedores de chatbots de IA tienen la responsabilidad de garantizar que mantengan la seguridad de los datos como su máxima prioridad y sean sinceros y transparentes con sus clientes.

Cómo gestiona Fin la seguridad y la privacidad de los datos

Aquí en Intercom, nos tomamos muy en serio la protección de datos y ha sido un componente importante de cada decisión que hemos tomado desde que comenzamos a construir nuestro chatbot de IA. Estas son las preguntas más urgentes que recibimos de los equipos de servicio al cliente sobre la forma en que se recopilarán, manejarán y almacenarán sus datos y los de sus clientes.

¿Cómo manejará Fin mi contenido de soporte?

Fin funciona con una combinación de modelos, incluido GPT-4 de OpenAI, y procesará su contenido de soporte a través de estos LLM en intervalos específicos para brindar respuestas a las consultas de los clientes.

¿Cómo manejará Fin los datos de las conversaciones con los clientes?

Durante cada conversación con el cliente, todos los datos de la conversación se enviarán palabra por palabra a OpenAI, incluida cualquier información de identificación personal dentro de la conversación.

¿Se utilizará mi contenido de soporte o datos de conversaciones con clientes para entrenar o mejorar modelos?

Ésta es una pregunta común. Muchos robots de IA incorporan los datos con los que trabajan para entrenar nuevos modelos o mejorar los existentes, y los proveedores lo citan como una fortaleza. En Intercom, no estamos de acuerdo con esta perspectiva: las conversaciones y comentarios seguros de sus clientes nunca se utilizarán para entrenar ninguno de los modelos de terceros que utilizamos para impulsar Fin.

Seguridad de la privacidad de los datos de Eric Fitzgerald (1)

¿OpenAI conservará mis datos?

No, nos hemos suscrito a la política de retención de datos cero, lo que significa que OpenAI no conservará ninguno de sus datos durante ningún período de tiempo.

¿Mi región de alojamiento de datos afectará mi capacidad de utilizar Fin?

Actualmente, Fin solo puede ser utilizado por clientes que alojen sus datos en los EE. UU. Según los términos de alojamiento de datos de la UE de Intercom , aceptamos almacenar los datos de nuestros clientes (incluidos los datos personales) dentro de la UE. Actualmente, OpenAI no ofrece alojamiento en la UE, por lo que cualquier información personal que se les envíe como parte de su integración con Intercom debe procesarse en los EE. UU. y puede no cumplir con los términos de alojamiento de datos de la UE o la UA de Intercom. Estamos trabajando para que Fin sea accesible a más regiones en el futuro.

Precisión y confiabilidad de las respuestas del robot de IA

Los diferentes modelos de lenguajes grandes tienen diferentes fortalezas, pero en este momento, GPT-4 de OpenAI generalmente se considera uno de los mejores LLM disponibles en términos de confiabilidad. En Intercom, comenzamos a experimentar con ChatGPT de OpenAI tan pronto como se lanzó, reconociendo su potencial para transformar totalmente la forma en que funciona el servicio al cliente. En esa etapa, las "alucinaciones", la tendencia de ChatGPT a simplemente inventar una respuesta que sonara plausible cuando no sabía la respuesta a una pregunta, eran un riesgo demasiado grande para exponerlo a los clientes.

"Un chatbot con IA es tan bueno como los datos con los que está entrenado"

Vimos cientos de ejemplos de estas alucinaciones esparcidas por las redes sociales tras el lanzamiento de ChatGPT, desde divertidas hasta ligeramente aterradoras. Teniendo en cuenta que la fuente de datos de entrenamiento de ChatGPT era "todo Internet antes de 2021", no sorprende que algunos detalles fueran incorrectos.

Básicamente, un chatbot de IA es tan bueno como los datos con los que está entrenado. En un contexto de servicio al cliente, un conjunto de datos de baja calidad expondría a los clientes a respuestas que podrían dañar la marca de su empresa (ya sean inexactas, irrelevantes o inapropiadas), generando frustración en el cliente, disminuyendo el valor que el cliente obtiene de su producto y en última instancia, impactando la lealtad a la marca.

El lanzamiento de GPT-4 en marzo de 2023 finalmente ofreció una solución. Como dijo nuestro director senior de aprendizaje automático, Fergal Reid, en una entrevista con econsultancy.com: “Echamos un vistazo temprano a GPT-4 e inmediatamente quedamos impresionados con las mayores protecciones contra las alucinaciones y las capacidades más avanzadas del lenguaje natural. Sentimos que la tecnología había cruzado el umbral en el que podía usarse frente a los clientes”.

"Las empresas necesitan controlar la información que reciben sus clientes para garantizar que sea precisa, actualizada y relevante para su producto"

A pesar de la increíble precisión de GPT-4, al principio no es adecuado para un servicio de atención al cliente "listo para usar". Las empresas necesitan controlar la información que reciben sus clientes para garantizar que sea precisa, actualizada y relevante para su producto. Al agregar nuestro propio software propietario a GPT-4, creamos barreras de seguridad que limitaban la información disponible del bot a una fuente específica designada por los equipos de nuestros clientes.

Entonces, una vez que se haya asegurado de que los datos de sus clientes estén seguros con Fin, querrá estar totalmente seguro de que Fin extraerá información de fuentes confiables que usted controle para brindar la información correcta a sus clientes.

¿Qué LLM impulsa Fin?

Fin funciona con una combinación de grandes modelos de lenguaje, incluido el GPT-4 de OpenAI , el más preciso del mercado y mucho menos propenso a alucinaciones que otros.

¿Puedo elegir el contenido del que Fin obtiene sus respuestas?

Fin obtiene sus respuestas de las fuentes que usted especifica , ya sea su centro de ayuda, biblioteca de contenido de soporte o cualquier URL pública que apunte a su propio contenido. De esa manera, puede confiar en la exactitud de toda la información que Fin utiliza para responder las preguntas de sus clientes y, a medida que monitorea el desempeño de Fin, puede ampliar, mejorar o elaborar el contenido que impulsa el robot de IA.

¿Qué hará Fin si no sabe la respuesta a una pregunta?

Fin es como todo buen agente de soporte: si no puede encontrar la respuesta a una pregunta, nuestras barreras de seguridad de aprendizaje automático garantizan que admita que no sabe y pasa la conversación sin problemas a un representante de soporte para garantizar una alta calidad constante. experiencia de soporte. A diferencia de ChatGPT u otros chatbots de servicio al cliente con IA, Fin nunca inventará una respuesta y siempre proporcionará fuentes de las respuestas que proporciona a partir de su contenido de soporte.

¿Pueden mis clientes acceder a un representante de soporte humano si así lo desean?

Su equipo de soporte conoce a sus clientes mejor que nadie y es fundamental que sus clientes tengan fácil acceso a ellos. Fin ofrece la opción a los clientes de dirigir inmediatamente su consulta a un representante de soporte humano. Si el cliente está contento de probar Fin, pero no sabe la respuesta a su pregunta, hemos creado barreras de seguridad de aprendizaje automático para que Fin haga preguntas aclaratorias, clasifique la consulta y se la entregue al equipo adecuado para que la resuelva. .

Obtenga más información sobre cómo funciona Fin o consulte nuestro centro de ayuda para obtener más información sobre nuestras medidas de privacidad y seguridad de datos.

CTA de demostración