Datenschutz, Sicherheit, Genauigkeit: Wie KI-Chatbots mit Ihren größten Datenproblemen umgehen

Veröffentlicht: 2023-08-24

ChatGPT ist ein erstaunliches Tool – Millionen von Menschen nutzen es für alles, vom Schreiben von Aufsätzen über die Urlaubsrecherche bis hin zur Vorbereitung von Trainingsprogrammen und sogar der Erstellung von Apps. Das Potenzial generativer KI scheint endlos zu sein.

Aber wie sehr können Sie KI wirklich vertrauen, wenn es darum geht, generative KI für den Kundenservice zu nutzen, also die Daten, Anfragen und Gespräche Ihrer Kunden zu teilen? Generative KI-Chatbots basieren auf großen Sprachmodellen (LLMs), die auf einer großen Anzahl von Datensätzen aus dem Internet trainiert werden. Obwohl die Möglichkeiten, die sich aus dem Zugriff auf so viele Daten ergeben, bahnbrechend sind, wirft er eine Reihe von Bedenken hinsichtlich Regulierung, Transparenz und Datenschutz auf.

Seit wir Fin, unseren KI-gestützten Bot, auf den Markt gebracht haben, erleben wir eine beispiellose Begeisterung für das Potenzial von KI im Kundenservice. Aber wir sind auch auf viele Fragen gestoßen, von denen viele unter zwei übergreifende Themen fallen:

  1. Die Sicherheit und Vertraulichkeit der Informationen, die Kunden dem KI-Chatbot zur Verfügung stellen.
  2. Die Genauigkeit und Vertrauenswürdigkeit der Informationen, die der KI-Chatbot den Kunden liefert.

Hier behandeln wir die wichtigsten Dinge, die es zu verstehen gilt, wenn es darum geht, wie sich KI-Chatbots branchenübergreifend auf die Datensicherheit und den Datenschutz auswirken, und wie wir diese Probleme im Finanzbereich angehen.

Datensicherheit und Datenschutz

Kein Unternehmen kann es sich leisten, mit Kundendaten Risiken einzugehen. Vertrauen ist die Grundlage jeder Geschäfts-Kunden-Beziehung, und Kunden müssen sich darauf verlassen können, dass ihre Daten mit Sorgfalt behandelt und im höchsten Maße geschützt werden . Generative KI bietet endlose Möglichkeiten, wirft aber auch wichtige Fragen zur Sicherheit von Kundendaten auf. Wie immer entwickelt sich die Technologie schneller weiter als die Richtlinien und Best Practices, und die globalen Regulierungsbehörden bemühen sich, Schritt zu halten.

Die EU und die DSGVO

Nehmen wir zum Beispiel die EU. Die Datenschutz-Grundverordnung (DSGVO) ist eine der strengsten Regulierungsmaßnahmen für personenbezogene Daten weltweit. Nun, da die generative KI das Spiel verändert hat, wo steht sie im Rahmen der DSGVO? Laut einer vom Dienst des Europäischen Parlaments durchgeführten Studie über die Auswirkungen der DSGVO auf die KI besteht ein gewisses Spannungsverhältnis zwischen der DSGVO und Tools wie ChatGPT, die riesige Datenmengen für Zwecke verarbeiten, die den Personen, die diese Daten ursprünglich bereitgestellt haben, nicht ausdrücklich erklärt werden .

Der Bericht stellte jedoch fest, dass es Möglichkeiten gibt, die bestehenden Prinzipien so anzuwenden und weiterzuentwickeln, dass sie mit der zunehmenden Nutzung von KI und Big Data im Einklang stehen. Um diese Konsistenz vollständig zu erreichen, wird das KI-Gesetz derzeit in der EU diskutiert. Ende 2023 – also mehr als ein Jahr später – wird mit einem festen Regelwerk gerechnet, das für Betreiber von KI-Systemen sowohl innerhalb als auch außerhalb der EU gelten soll ChatGPT wurde im November 2022 veröffentlicht.

„Während die Regulierung mit den rasanten Fortschritten der generativen KI Schritt hält, liegt die Verantwortung bei den Anbietern von KI-Chatbots, sicherzustellen, dass die Datensicherheit oberste Priorität hat.“

Mittlerweile in den USA

Die USA befinden sich in Bezug auf KI noch in einem frühen Stadium der Regulierung und Gesetzgebung, aber die Diskussionen sind im Gange und sieben der größten Technologieunternehmen haben sich zu freiwilligen Vereinbarungen in Bereichen wie Informationsaustausch, Tests und Transparenz verpflichtet. Ein Beispiel ist die Verpflichtung, durch KI generierte Inhalte mit einem Wasserzeichen zu versehen – ein einfacher Schritt, aber wichtig für den Benutzerkontext und das Verständnis.

Während diese Schritte einen gewissen Fortschritt darstellen, könnten für Sektoren wie die Gesundheitsbranche die Unbekannten ein Hindernis für die Einführung von KI darstellen. In einem Artikel im Journal of the American Medical Association wurde darauf hingewiesen, dass die Technologie weiterhin eingesetzt werden kann, solange der Benutzer die Eingabe geschützter Gesundheitsinformationen (PHI) vermeidet. Als weiteren Schritt entwickeln Anbieter wie OpenAI nun Geschäftspartnerverträge, die es Kunden mit diesen Anwendungsfällen ermöglichen würden, bei der Nutzung ihrer Produkte Vorschriften wie HIPAA und SOC-2 einzuhalten.

Kurz gesagt: Während die Regulierung mit den rasanten Fortschritten der generativen KI Schritt hält, liegt die Verantwortung bei den Anbietern von KI-Chatbots, sicherzustellen, dass die Datensicherheit oberste Priorität hat und sie gegenüber ihren Kunden offen und transparent sind.

Wie Fin mit Datensicherheit und Datenschutz umgeht

Hier bei Intercom nehmen wir den Datenschutz sehr ernst und er war ein wichtiger Bestandteil jeder Entscheidung, die wir getroffen haben, seit wir mit der Entwicklung unseres KI-Chatbots begonnen haben. Hier sind die dringendsten Fragen, die wir von Kundendienstteams zur Art und Weise erhalten, wie ihre Daten und die Daten ihrer Kunden erfasst, verarbeitet und gespeichert werden.

Wie wird Fin mit meinen Supportinhalten umgehen?

Fin basiert auf einer Mischung von Modellen, einschließlich GPT-4 von OpenAI, und verarbeitet Ihre Supportinhalte in bestimmten Abständen über diese LLMs, um Antworten auf Kundenanfragen bereitzustellen.

Wie wird Fin mit Kundengesprächsdaten umgehen?

Während jedes Kundengesprächs werden alle Gesprächsdaten wörtlich an OpenAI gesendet, einschließlich aller persönlich identifizierbaren Informationen im Gespräch.

Werden meine Supportinhalte oder Kundengesprächsdaten zum Trainieren oder Verbessern von Modellen verwendet?

Dies ist eine häufige Frage. Viele KI-Bots integrieren die Daten, mit denen sie arbeiten, um neue Modelle zu trainieren oder bestehende zu verbessern, und die Anbieter nennen dies als Stärke. Bei Intercom stimmen wir dieser Sichtweise entschieden nicht zu – die sicheren Gespräche und das Feedback Ihrer Kunden werden niemals zum Trainieren eines der Drittanbietermodelle verwendet, die wir zur Unterstützung von Fin verwenden.

Eric Fitzgerald Datenschutzsicherheit (1)

Werden meine Daten von OpenAI gespeichert?

Nein – wir haben uns der Richtlinie „Zero Data Retention“ angeschlossen, was bedeutet, dass keine Ihrer Daten für einen bestimmten Zeitraum von OpenAI gespeichert werden.

Wird sich meine Datenhosting-Region auf meine Fähigkeit auswirken, Fin zu nutzen?

Derzeit kann Fin nur von Kunden genutzt werden, die ihre Daten in den USA hosten. Gemäß den EU-Datenhosting-Bedingungen von Intercom erklären wir uns damit einverstanden, die Daten unserer Kunden (einschließlich aller personenbezogenen Daten) innerhalb der EU zu speichern. OpenAI bietet derzeit kein EU-Hosting an, daher müssen alle personenbezogenen Daten, die im Rahmen der Integration mit Intercom an sie gesendet werden, in den USA verarbeitet werden und entsprechen möglicherweise nicht den EU- oder AU-Datenhosting-Bedingungen von Intercom. Wir arbeiten daran, Fin in Zukunft für mehr Regionen zugänglich zu machen.

Genauigkeit und Vertrauenswürdigkeit der Antworten des KI-Bots

Verschiedene große Sprachmodelle haben unterschiedliche Stärken, aber derzeit gilt GPT-4 von OpenAI im Hinblick auf die Vertrauenswürdigkeit allgemein als eines der besten verfügbaren LLMs . Bei Intercom haben wir sofort nach seiner Veröffentlichung mit dem Experimentieren mit ChatGPT von OpenAI begonnen und erkannten dessen Potenzial, die Art und Weise, wie der Kundenservice funktioniert, völlig zu verändern. Zu diesem Zeitpunkt waren „Halluzinationen“, die Tendenz von ChatGPT, einfach eine plausibel klingende Antwort zu erfinden, wenn es die Antwort auf eine Frage nicht wusste, ein zu großes Risiko, um es den Kunden vor Augen zu führen.

„Ein KI-Chatbot ist nur so gut wie die Daten, auf denen er trainiert wird.“

Nach der Veröffentlichung von ChatGPT sahen wir in den sozialen Medien Hunderte von Beispielen dieser Halluzinationen, die von urkomisch bis leicht erschreckend reichten. Wenn man bedenkt, dass die Trainingsdatenquelle von ChatGPT „das gesamte Internet vor 2021“ war, ist es nicht verwunderlich, dass einige Details falsch waren.

Im Wesentlichen ist ein KI-Chatbot nur so gut wie die Daten, auf denen er trainiert wird. Im Kundenservice-Kontext würde ein minderwertiger Datensatz Kunden mit Antworten aussetzen, die der Marke Ihres Unternehmens schaden könnten – unabhängig davon, ob sie ungenau, irrelevant oder unangemessen sind –, was zu Frustration beim Kunden führt und den Wert verringert, den der Kunde von Ihrem Produkt erhält Dies wirkt sich letztendlich auf die Markentreue aus.

Die Veröffentlichung von GPT-4 im März 2023 bot endlich eine Lösung. Wie unser Senior Director für maschinelles Lernen, Fergal Reid, in einem Interview mit econsultancy.com sagte: „Wir haben einen frühen Einblick in GPT-4 erhalten und waren sofort beeindruckt von den verbesserten Schutzmaßnahmen gegen Halluzinationen und den fortschrittlicheren Fähigkeiten der natürlichen Sprache.“ Wir hatten das Gefühl, dass die Technologie die Schwelle überschritten hatte, an der sie vor den Augen der Kunden eingesetzt werden konnte.“

„Unternehmen müssen die Informationen, die ihre Kunden erhalten, kontrollieren, um sicherzustellen, dass diese korrekt, aktuell und für ihr Produkt relevant sind.“

Trotz der unglaublichen Genauigkeit von GPT-4 ist es zunächst nicht für den Kundenservice „out of the box“ geeignet. Unternehmen müssen die Informationen, die ihre Kunden erhalten, kontrollieren, um sicherzustellen, dass diese korrekt, aktuell und für ihr Produkt relevant sind. Durch das Hinzufügen unserer eigenen proprietären Software zu GPT-4 haben wir Leitplanken geschaffen, die die verfügbaren Informationen des Bots auf eine bestimmte, von den Teams unserer Kunden benannte Quelle beschränkten.

Sobald Sie also sichergestellt haben, dass Ihre Kundendaten bei Fin sicher sind, möchten Sie absolut sicher sein, dass Fin Informationen aus vertrauenswürdigen Quellen bezieht, die Sie kontrollieren, um Ihren Kunden die richtigen Informationen bereitzustellen.

Von welchem ​​LLM wird Fin betrieben?

Fin basiert auf einer Mischung aus großen Sprachmodellen, darunter GPT-4 von OpenAI , dem genauesten auf dem Markt und weitaus weniger anfällig für Halluzinationen als andere.

Kann ich den Inhalt auswählen, aus dem Fin seine Antworten bezieht?

Fin bezieht seine Antworten aus von Ihnen angegebenen Quellen , sei es Ihr Help Center, Ihre Support-Inhaltsbibliothek oder eine öffentliche URL, die auf Ihre eigenen Inhalte verweist. Auf diese Weise können Sie sich auf die Richtigkeit aller Informationen verlassen, die Fin zur Beantwortung der Fragen Ihrer Kunden verwendet, und während Sie die Leistung von Fin überwachen, können Sie den Inhalt, der den KI-Bot antreibt, erweitern, verbessern oder weiterentwickeln.

Was wird Fin tun, wenn es die Antwort auf eine Frage nicht kennt?

Fin verhält sich wie jeder gute Support-Mitarbeiter: Wenn er die Antwort auf eine Frage nicht findet, stellen unsere Schutzmaßnahmen für maschinelles Lernen sicher, dass er zugibt, dass er es nicht weiß, und leitet das Gespräch nahtlos an einen Support-Mitarbeiter weiter, um eine gleichbleibend hohe Qualität sicherzustellen Support-Erfahrung. Im Gegensatz zu ChatGPT oder einigen anderen KI-Kundendienst-Chatbots erfindet Fin nie eine Antwort und liefert immer Quellen für die Antworten, die es aus Ihren Support-Inhalten liefert.

Können meine Kunden bei Bedarf auf einen menschlichen Supportmitarbeiter zurückgreifen?

Ihr Support-Team kennt Ihre Kunden besser als jeder andere und es ist entscheidend, dass Ihre Kunden einfachen Zugang zu ihnen haben. Fin bietet Kunden die Möglichkeit, ihre Anfrage sofort an einen menschlichen Supportmitarbeiter zu richten. Wenn der Kunde Fin gerne ausprobiert, aber die Antwort auf seine Frage nicht kennt, haben wir Leitplanken für maschinelles Lernen entwickelt, um Fin zu veranlassen, klärende Fragen zu stellen, die Anfrage zu selektieren und sie zur Lösung an das richtige Team weiterzuleiten .

Erfahren Sie mehr über die Funktionsweise von Fin oder besuchen Sie unser Hilfecenter für weitere Informationen zu unseren Datensicherheits- und Datenschutzmaßnahmen.

Demo-Fin-CTA