/ -SHUTTERSTOCK
01/10/2024 u 15:20 h
DAN portalDAN portal
Preuzmite našu aplikaciju
Pratite nas na
Pridružite nam se na viber community
Pratite nas
i na telegram kanalu
Pratite nas
i na WhatsUp kanalu
StoryEditor

Moguće je ubaciti lažna sjećanja u popularni AI alat

OpenAI je tiho objavio novu funkciju koja nalaže ChatGPT-u da "pamti" prethodne razgovore – i kako je jedan istraživač-haker otkrio, lako se koristi.

Kako prenosi Ars Technica, istraživač bezbijednosti Johan Rehberger otkrio je ranije ove godine da postoji ranjivost u alatu za "razgovore sa dugoročnom memorijom" četbota, koja nalaže AI-ju da pamti detalje između razgovora i čuva ih u memorijskoj datoteci.

Funkcija je objavljena u beta verziji u februaru i široj javnosti je dostupna početkom septembra, a Rehberger je shvatio da je ovu funkciju lako prevariti.

Kao što je istraživač primijetio u majskoj blog objavi, sve što je potrebno jeste malo lukavo podsticanje otpremanjem datoteke treće strane, kao što je Microsoft Word dokument koji sadrži "lažna" sjećanja navedena kao tačke od značaja, a to je učinjeno da bi se četbot ubijedio da Rehberger ima više od 100 godina i da živi u Matriksu. Nakon što je pronašao ovu grešku, Rehberger ju je privatno prijavio kompaniji OpenAI, koji ništa nije uradi u vezi s tim i jednostavno je zatvorio tiket koji je otvorio i nazvao ga "Model Safety Issue", a ne bezbjednosnim problemom. Nakon tog neuspješnog prvog pokušaja da upozori odgovorne, Rehberger je odlučio da pojača svoje napore i pojača opciju hakovanja, pokazujući OpenAI-u da ChatGPT ne samo da je "zapamtio" lažna sjećanja, već i da je dao instrukcije da eksfiltrira podatke na spoljni server po njegovom izboru.

Ovog puta, kako napominje Ars, OpenAI je na neki način poslušao: kompanija je objavila zakrpu koja je zabranila ChatGPT-u da pomera podatke sa servera, ali ipak nije riješila problem sa memorijom.

 

Pratite nas na
Pridružite nam se na viber community
Pratite nas
i na telegram kanalu
Pratite nas
i na WhatsUp kanalu
05. novembar 2024 17:20