Tokios atakos instrukcijos paprastai būna paslėptos, įterptos į dokumentą ar net į interneto paieškos rezultatą, ir apgauna DI asistentą, priversdamos jį atlikti tai, ko jis neturėtų, taip pakenkdamos jums, jūsų duomenims ir darbo vietai.
„Mes privertėme „ChatGPT“ nutekinti jūsų privačius el. pašto duomenis“, – „X“ platformoje paskelbė tyrėjas Eito Miyamura, pridėjęs vaizdo įrašą, kuriame parodyta, kaip gali būti atakuojamas „Gmail“. Jis įspėjo, kad „DI agentai, tokie kaip „ChatGPT“, vykdo jūsų komandas, o ne vadovaujasi sveiku protu“. Anot jo, „turėdami vien tik jūsų el. pašto adresą, sugebame išgauti visą privačią informaciją“.
Kas slypi už įsilaužimo įspėjimų?
„Google“ dar birželio mėnesį perspėjo apie tokio tipo atakas: „Visame sektoriuje atsiranda nauja grėsmių banga, kurios tikslas – manipuliuoti DI sistemomis.“ Pasak bendrovės, tai turi įtakos „el. laiškams, dokumentams ar kalendoriaus kvietimams, kurie nurodo DI išgauti vartotojų duomenis ar atlikti kitus neteisėtus veiksmus“, todėl „reikalingas ypatingas dėmesys ir tvirtos saugumo priemonės“.
Šis naujausias išpuolis yra tik koncepcijos įrodymas, tačiau jis parodo, kas slypi už DI įsilaužimų įspėjimų.
Konkretus paviešintas atvejis prasidėjo nuo kenkėjiško kalendoriaus kvietimo, kurio auka net neturėjo priimti. Kai „ChatGPT“ paprašoma padėti vartotojui pasirengti ateinančiai dienai „peržiūrint jo kalendorių“, DI asistentas „yra užgrobiamas ir veikia pagal jo nurodymus, ieškodamas jūsų privačių el. laiškų ir siųsdamas duomenis į užpuoliko el. paštą“.
Būdai apsisaugoti
„Google“ teigia, kad pirmiausia būtina įsitikinti, jog „Google“ kalendoriuje įjungtas nustatymas „žinomi siuntėjai“.
„Pastebėjome, kad tai yra ypač veiksmingas būdas padėti vartotojams išvengti piktavališkų įvykių atsiradimo kalendoriuje. Konkretus kvietimas nebūtų atsiųstas automatiškai, jei vartotojas anksčiau nebūtų bendravęs su piktavališku asmeniu arba nebūtų pakeitęs numatytųjų nustatymų“, – aiškino „Google“ atstovas.
Bendrovė taip pat pabrėžė, kad „diegia patentuotus mašininio mokymosi modelius, galinčius aptikti įvairių formatų, pavyzdžiui, elektroninių laiškų ir failų, kenkėjiškus nurodymus ir instrukcijas“. Pasak ekspertų, reikalinga sukurti filtrą, kuris galėtų apsaugoti nuo tokių įsilaužimo atakų.
Reaguodama į šią istoriją, „OpenAI“ šaltiniui pranešė: „Dėkojame tyrėjui už pranešimą apie pažeidžiamumą. Turime keletą apsaugos priemonių, kurios buvo aktyvuotos šiuo atveju, įskaitant „ChatGPT“ signalizavimą apie savo veiksmų peržiūrėjimą ir patvirtinimą. Nuo tada šiuos pranešimus padarėme dar aiškesnius ir pridėjome papildomų saugumo sluoksnių, kad dar labiau sumažintume rizikas. Vartotojų saugumo užtikrinimas visuose mūsų produktuose išlieka mūsų pagrindiniu prioritetu.“
Patiko straipsnis? Užsiprenumeruokite mūsų naujienlaiškį ir gaukite svarbiausias dienos naujienas bei įdomiausius straipsnius kiekvieną darbo dieną 11 val. Tiesiai į Jūsų el. paštą!