Antivirenscanner update

Was ist ChatGPT und welche Risiken haben Unternehmen in der Nutzung?

ChatGPT ist heute in aller Munde und wird weltweit sowohl positiv als auch negativ erwähnt. Doch warum ist das so? Schließlich handelt es sich „nur“ um eine Software mit jener man chatten kann. Dennoch kommt es mit der zunehmenden Verbreitung des Chatbots immer wieder zu datenschutzrelevanten Vorfällen in großen Unternehmen, die mittlerweile größere Ausmaße annehmen. Erst vor kurzem wurde bekannt, dass Daten des Konzerns „Samsung“ im Zuge von Chatsitzungen wieder preisgegeben wurden. Doch wie kommt es zu solchen Datenschutzverletzungen und worauf muss ich als Unternehmen achten um die Risiken deutlich zu reduzieren?

Wie funktioniert ChatGPT?

ChatGPT ist ein Sprachmodell, das von OpenAI auf Basis der GPT-3.5-Architektur entwickelt wurde. Es ist darauf ausgelegt, menschenähnliche Konversationen mit hoher Genauigkeit zu führen und kann in vielen verschiedenen Anwendungen eingesetzt werden. Dazu gehören beispielsweise Chatbots, virtuelle Assistenten und Spracherkennungssysteme. Zur Verbesserung der Daten und Antworten werden alle eingegebenen Chats und Bewertungen zum Trainieren des Systems genutzt. Dabei ist es unerheblich, ob sensible Daten oder bereits bekannte Infos eingegeben werden.

Wenn Sie in ChatGPT eine Frage oder einen Satz eingeben, analysiert das System den eingegebenen Text und versucht, eine passende Antwort oder Fortsetzung zu generieren, indem es auf das gespeicherte Wissen und Muster in den von ihm trainierten Texten zugreift.

Um das zu erreichen, verwendet ChatGPT eine sogenannte Transformer-Architektur, die in der Lage ist, Beziehungen zwischen Wörtern und Sätzen zu verstehen und kontextbezogene Antworten zu generieren. Das System wählt dann basierend auf dem Kontext und der Wahrscheinlichkeit der Antwort, die beste Antwort aus, die es generieren kann.

Die Risiken von ChatGPT in Unternehmen

Obwohl ChatGPT ein leistungsfähiges Tool ist, das Unternehmen dabei helfen kann ihre Geschäftsprozesse zu optimieren und die Kundenzufriedenheit zu steigern, gibt es auch potenzielle Sicherheitsrisiken, die man berücksichtigen muss. Wir bei Zettasecure überwachen diese Risiken sehr genau, da es auch im Securitykontext relevante Punkte gibt auf jene wir hier genauer eingehen möchten:

  1. Datenschutzrisiken: Chatbots sammeln Daten über Benutzer, um ihre Antworten zu verbessern und eine personalisierte Erfahrung zu bieten. Dies kann jedoch zu Datenschutzverletzungen führen, wenn sensible Informationen eingegeben werden. Darum ist es um so wichtiger geworden die User*innen darauf zu trainieren, wie mit solchen Chatbots umgegangen werden darf. Alternativ kann man die Nutzung komplett untersagen und Unternehmensweit zu blockieren.
  2. Sicherheitsrisiken: Chatbots können Opfer von Hackerangriffen werden, die darauf abzielen auf sensible Daten zuzugreifen. Dadurch können die Userdaten, als auch Chatinfos, geleakt werden. Dieser Punkt trifft auf so gut wie alle Onlineplattformen zu. Der Umgang mit Onlinediensten und der Unternehmens-E-Mail-Adresse muss somit in einer Richtlinie geregelt werden.
  3. Ethikrisiken: Chatbots können voreingenommen oder diskriminierend sein, insbesondere wenn sie auf ungenauen Daten oder menschlicher Vorurteile basieren. Bitte achten Sie deswegen bei der Verwendung des Chatbots darauf, dass solche Fehler von einem Menschen gefiltert werden.
  4. Rechtliche Risiken: Aktuell ist nicht bekannt, wie mit Code aus einem Chatbot umgegangen werden darf und wer Urheberrechtlich dafür verantwortlich ist. Darum ist es anzuraten in dem aktuellen Stadium der Rechtslage diese Software nicht für die Entwicklung von Programmen zu nutzen.
  5. Ungenaue Antworten: ChatGPT hat aktuell keinen Zugang zu Informationen aus dem Internet und verwendet somit alle Daten, die bis zum Jahr 2021 darin eingepflegt wurden. Zusätzlich dazu werden die Eingaben der User*innen genutzt, um den Wissensstand permanent zu verbessern. Das kann zu ungenauen antworten führen, weil dieser Chatbot auch keine eingebaute „Ich weiß es leider nicht“ Antwort hat. Nach außen hin wirkt es somit so, als würde immer alles zutreffen, was nicht zu 100% der Fall ist. Bitte berücksichtigen Sie das und bewerten Sie alle antworten immer auf Basis der Plausibilität und anderen Quellen.

Fazit

Chatbots wie ChatGPT können Nutzer*innen bei der Lösung von Problemen und der Erleichterung von Aufgaben helfen. Es ist jedoch wichtig, sich bewusst zu sein, dass ihre Nutzung auch Risiken birgt, insbesondere in Bezug auf Datenschutz, Sicherheit und Ethik. Nur durch eine strikte Umsetzung von internen Richtlinien und Trainings ist es möglich diese Risiken abzuschwächen. Ganz verhindern kann man diese nur, indem die Nutzung untersagt wird. Beachten Sie dabei aber bitte, dass das zwar auf Unternehmensgeräten möglich ist, aber nicht auf den privaten. Ein User, der das Produkt nutzen möchte, findet somit immer einen Weg. Eine Schulung, in jener die Risiken vermittelt werden, ist somit erstrebenswerter.

One Comment

  1. ChatGPT Deutsch

    Liebes ZettaSecure-Team,

    vielen Dank für diesen informativen Beitrag rund um ChatGPT und die Risiken, die Unternehmen bei der Nutzung beachten sollten. Es ist wichtig, dass wir uns bewusst sind, wie KI-Modelle wie ChatGPT genutzt werden können, aber auch die potenziellen Herausforderungen, die damit einhergehen können. Die Sicherheit und der Datenschutz müssen immer oberste Priorität haben.

    Beste Grüße,
    GPTOnline

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert