Riesgos corporativos derivados del uso de ChatGPT

ChatGPT erabiltzeak sortzen dituen arrisku korporatiboak

Celia Catalán

 


2022ko azaroaren amaieran, OpenAI erakundeak garatutako adimen artifizialaren (AI) chatbot prototipoa, ChatGPT, argitaratu zen. Hilabete batzuk geroago, 2023ko martxoan, chatbot-aren azken bertsioa kaleratu zen, GPT-4 eredua. Bere erabilera ezaguna egiten hasi zen, eta zenbait herrialdek, esaterako, Italia, zerbitzuak ematen zitzaion informazioa nola kudeatzen zuen aztertzera eraman zuen. Ondoren, herrialdeak ChatGPT blokeatu zuen hogei egunez datu pertsonalen babesa ez betetzeagatik. Epe hori igarota, OpenAIk hainbat aldaketa egin zituen funtzionatzen jarraitzeko, hala nola: zer datu pertsonal biltzen diren zehatz-mehatz erakustea, nola tratatzen diren eta erabiltzaileek beste AI batzuetan datuak erabiltzeari uko egiteko aukera. Gaur egun Europar Batasuna IAri buruzko lehen estandarra garatzen ari da, honek ChatGPT-ek erabiltzen duen AI sortzaileari ere eragingo lioke[1]. 2023aren amaieran prest egotea espero da.

ChatGPT publikoari irekitako zerbitzu gisa agertzeak une historiko berri bat markatu zuen ziber-eremuan. Erabiltzaile kopuru handi batek AI erronka jarri zion bere asmamenarekin eta haren erabilgarritasuna probatu zuten, Google-ren 67 milioi emaitzek frogatu dutenez: Zergatik erabili ChatGPT? Galderaren erantzunak zabalak eta askotarikoak dira, arlo ugari hartzen dituzte, non aipatzekoa den zerbitzua asmo maltzur batekin erabiltzea: malware edo eduki berriak sortzea phishing eraginkorragorako.

Erabiltzaileentzat, AIren gaitasuna arazoak azkar konpontzeko gailendu da erakunde batek eskaintzen duen zerbitzu bat dela eta etorkizunean onurak lor ditzakeela emandako prestakuntzari eta datuei esker. Hala ere, OpenAI irabazi asmorik gabeko erakunde gisa aurkezten da eta gizateriarentzako AI segurua sortzeko helburuarekin. Horrek kontsumitzaileen konfiantza sortzen parte hartuko luke.

Era berean, “informazioa boterea da” esaera ahaztuta dagoela dirudi. Erabiltzaileen konfiantzak ahanztura handi horretan lagundu zezakeen. Gaur egun, pertsonaren batez besteko Interneten esposizioa nahiko altua da eta horrek ekar ditzakeen ondorioei buruzko perspektiba falta da. Ildo horretatik, erabiltzaileek informazio pertsonala edo konfidentziala ematea dakarten eskaerak egiten dizkiote ChatGPTri, hala nola: curriculuma sortzea, legezko kontratua idaztea, hautagai bat hautatzea PDF dokumentu batzuen artean, etab.

Zerbitzuarekiko konfiantza horrek AIren erabilera maila pertsonaletik korporaziora hedatzea bultzatu du. Egoera honek mugak ezartzea beharrezkoa da enpresetan. Samsung bezalako korporazio handiek dagoeneko debekatu edo mugatu dute haren erabilera, informazio korporatiboaren galerarekin lotutako gertakarien ondorioz.

Gaur egun, polemika dago ChatGPT-i emandako informazioaren erabilerari buruz, izan ere, teknologia horrek datuak ez dituela gordetzen dioen arren, erabiltzaile askok beste batzuek emandako informazioa atzitu ahal izan zuten (ikus produktuaren barneko garapenaren kodea < a href="https://hipertextual .com/2023/04/chatgpt-employees-samsung-filtran-informacion-confidencial#:~:text=The%20empresa%20permite%20que%20some%20of%20its%20employees,%20authorized%20use it%20on%20 %20teams%20of%20work." target="_blank">[2] edo Windows 11 Pro-rako lizentziak[3]).

Emandako erantzunetan ere akatsak atzeman dira, faltsuak direlako edo asmatuak direlako, bere argudio juridikorako ChatGPT erabili zuen abokatu estatubatuar bati gertatu zitzaion bezala, epaiketara aurkeztu zuen eta AIk asmatu zuen dokumentu batean. aurrekari legalak ez daude, beraz, orain zigortua izan liteke[4].


Laburbilduz, AI erabileratik eratorritako arrisku korporatiboak ugariak eta askotarikoak dira, hala nola, informazio pertsonala edo konfidentziala kontsultetan erabiltzea (enpresaren jabetza edo haren kudeaketaz arduratzen dena), segurtasun-hauste posibleak eta datu-ihesak. zerbitzuan sartu eta baita AIren epaiak norberarenak baino balio handiagoa duelako premisa onartzea ere. Horregatik guztiagatik, erakundeek euren buruari galdetu beharko diote: merezi al dute arrisku horiek hartzea?


Noelia B., Intelligence Analyst.



Itzuli blogera

Utzi iruzkin bat

Kontuan izan iruzkinak argitaratu aurretik onartu behar direla.