Riesgos corporativos derivados del uso de ChatGPT

Unternehmensrisiken, die sich aus der Nutzung von ChatGPT ergeben

 


Ende November 2022 wurde der von der OpenAI-Organisation entwickelte Chatbot-Prototyp für künstliche Intelligenz (KI), ChatGPT, veröffentlicht. Einige Monate später, im März 2023, wurde die neueste Version des Chatbots, das GPT-4-Modell, veröffentlicht. Seine Verwendung wurde immer beliebter, was einige Länder wie Italien dazu veranlasste, darüber nachzudenken, wie der Dienst die ihm zur Verfügung gestellten Informationen verwaltet. Anschließend sperrte das Land ChatGPT wegen Nichteinhaltung des Schutzes personenbezogener Daten für zwanzig Tage. Nach diesem Zeitraum nahm OpenAI eine Reihe von Änderungen vor, um den Betrieb fortzusetzen, wie z. B. die detaillierte Darstellung, welche personenbezogenen Daten erfasst werden, wie sie verarbeitet werden und die Möglichkeit für Benutzer, die Verwendung der Daten in anderen KIs zu verweigern. Derzeit ist die Europäische Union dabei, den ersten Standard für KI zu entwickeln. Dies würde sich auch auf die generative KI auswirken, die von der ChatGPT-Gesellschaft verwendet wird /20230601STO93804/eu-ai-law-first-regulation-on-artificial-intelligence" target="_blank">[1]. Es wird voraussichtlich Ende 2023 fertig sein.

Das Erscheinen von ChatGPT als öffentlich zugänglicher Dienst markierte einen neuen historischen Moment im Cyber-Bereich. Eine große Anzahl von Nutzern forderte die KI mit ihrem Einfallsreichtum heraus und testete ihre Benutzerfreundlichkeit, wie die 67 Millionen Google-Ergebnisse für die Frage belegen: Warum ChatGPT verwenden? Die Antworten auf die Frage sind breit gefächert und decken eine Vielzahl von Bereichen ab, in denen die Nutzung des Dienstes mit böswilliger Absicht erwähnt werden sollte: Generierung neuer Malware oder Inhalte für effektiveres Phishing.

Für Benutzer hat sich die Fähigkeit der KI, Probleme schnell zu lösen, gegenüber der Tatsache durchgesetzt, dass es sich um eine von einer Organisation bereitgestellte Dienstleistung handelt und dass sie dank der bereitgestellten Schulungen und Daten in Zukunft Vorteile erzielen könnte. OpenAI präsentiert sich jedoch als gemeinnützige Organisation und mit dem Ziel, sichere KI für die Menschheit zu schaffen. Dies hätte dazu beigetragen, das Vertrauen der Verbraucher zu stärken.

Ebenso scheint das Sprichwort „Information ist Macht“ in Vergessenheit zu geraten. Das Vertrauen der Benutzer könnte zu dieser massiven Vergesslichkeit beigetragen haben. Heutzutage ist die Internetpräsenz eines Durchschnittsmenschen ziemlich hoch und es mangelt an einer Vorstellung davon, welche Folgen dies mit sich bringen kann. In diesem Sinne stellen Benutzer Anfragen an ChatGPT, die die Bereitstellung persönlicher oder vertraulicher Informationen beinhalten, wie z. B. das Erstellen eines Lebenslaufs, das Verfassen eines rechtsgültigen Vertrags, die Auswahl eines Kandidaten aus mehreren PDF-Dokumenten usw.

Dieses Vertrauen in den Dienst hat die Ausweitung des Einsatzes von KI von der persönlichen auf die Unternehmensebene gefördert. Diese Situation führt dazu, dass die Festlegung von Grenzwerten in Unternehmen eine Notwendigkeit darstellt. Große Unternehmen wie Samsung haben die Nutzung aufgrund von Vorfällen im Zusammenhang mit dem Verlust von Unternehmensinformationen bereits verboten oder eingeschränkt.

Derzeit gibt es Kontroversen über die Verwendung der an ChatGPT übermittelten Informationen, da diese Technologie zwar behauptet, keine Daten zu speichern, zahlreiche Benutzer jedoch auf von anderen bereitgestellte Informationen zugreifen könnten (siehe interner Produktentwicklungscode < a href="https://hipertextual .com/2023/04/chatgpt-employees-samsung-filtran-informacion-confidencial#:~:text=Die%20empresa%20permite%20que%20einige%20ihrer%20Mitarbeiter haben die %20autorisierte%20Nutzung%20auf%20Ihrem %20teams%20of%20work." target="_blank">[2] oder Lizenzen für Windows 11 Pro[3]).

Auch in den Antworten wurden Fehler festgestellt, entweder weil sie falsch waren oder weil sie erfunden waren, wie es bei einem amerikanischen Anwalt der Fall war, der ChatGPT für seine rechtliche Argumentation in einem Dokument nutzte, das er dem Prozess vorlegte und in dem die KI erfunden hatte Es gibt keine rechtlichen Präzedenzfälle, daher könnte er nun sanktioniert werden[4].

Darüber hinaus ist zu bedenken, dass ChatGPT auch im Bereich der Cybersicherheit nicht unfehlbar ist. Als Dienst erfordert die Nutzung einen Benutzernamen, ein E-Mail-Konto, eine Mobiltelefonnummer und ein Passwort. Derzeit wurden bereits erste Datenlecks mit der Offenlegung von rund 100.000 Benutzerkonten entdeckt[5]. Die durchgesickerten Informationen enthalten nicht nur die für den Zugriff auf den Dienst erforderlichen Informationen, sondern auch die an ChatGPT gesendeten Informationen, also die Aufzeichnung der Gespräche, die ein bestimmter Benutzer mit der KI geführt hat.

Zusammenfassend lässt sich sagen, dass die Unternehmensrisiken, die sich aus dem Einsatz von KI ergeben, zahlreich und vielfältig sind, wie z. B. der Einsatz von persönlichen oder vertraulichen Informationen (Eigentum des Unternehmens oder für die es in der Verantwortung des Unternehmens liegt) bei Abfragen, mögliche Sicherheitsverletzungen und Datenlecks in den Dienst und sogar die Akzeptanz der Prämisse, dass das KI-Urteil einen größeren Wert hat als das eigene. Vor diesem Hintergrund müssen sich Unternehmen fragen: Lohnt es sich, diese Risiken einzugehen?


Noelia B., Intelligence Analyst.



Zurück zum Blog

Hinterlasse einen Kommentar

Bitte beachten Sie, dass Kommentare vor der Veröffentlichung genehmigt werden müssen.