Komentuoti
Nuoroda nukopijuota
DALINTIS

Nutekinti privačius elektroninio pašto duomenis dar niekada nebuvo taip paprasta. Vis dažniau kalbama apie tiesiogines ir netiesiogines greitojo duomenų įvedimo atakas (angl. prompt injection attacks). Šios atakos gali būti plika akimi nepastebimos, nes jūsų dirbtinio intelekto (DI) asistentas mato tai, ko nematote jūs, praneša „Forbes“.

Nutekinti privačius elektroninio pašto duomenis dar niekada nebuvo taip paprasta. Vis dažniau kalbama apie tiesiogines ir netiesiogines greitojo duomenų įvedimo atakas (angl. prompt injection attacks). Šios atakos gali būti plika akimi nepastebimos, nes jūsų dirbtinio intelekto (DI) asistentas mato tai, ko nematote jūs, praneša „Forbes“.

REKLAMA

Tokios atakos instrukcijos paprastai būna paslėptos, įterptos į dokumentą ar net į interneto paieškos rezultatą, ir apgauna DI asistentą, priversdamos jį atlikti tai, ko jis neturėtų, taip pakenkdamos jums, jūsų duomenims ir darbo vietai.

„Mes privertėme „ChatGPT“ nutekinti jūsų privačius el. pašto duomenis“, – „X“ platformoje paskelbė tyrėjas Eito Miyamura, pridėjęs vaizdo įrašą, kuriame parodyta, kaip gali būti atakuojamas „Gmail“. Jis įspėjo, kad „DI agentai, tokie kaip „ChatGPT“, vykdo jūsų komandas, o ne vadovaujasi sveiku protu“. Anot jo, „turėdami vien tik jūsų el. pašto adresą, sugebame išgauti visą privačią informaciją“.

REKLAMA
REKLAMA

Kas slypi už įsilaužimo įspėjimų?

„Google“ dar birželio mėnesį perspėjo apie tokio tipo atakas: „Visame sektoriuje atsiranda nauja grėsmių banga, kurios tikslas – manipuliuoti DI sistemomis.“ Pasak bendrovės, tai turi įtakos „el. laiškams, dokumentams ar kalendoriaus kvietimams, kurie nurodo DI išgauti vartotojų duomenis ar atlikti kitus neteisėtus veiksmus“, todėl „reikalingas ypatingas dėmesys ir tvirtos saugumo priemonės“.

REKLAMA

Šis naujausias išpuolis yra tik koncepcijos įrodymas, tačiau jis parodo, kas slypi už DI įsilaužimų įspėjimų.

Konkretus paviešintas atvejis prasidėjo nuo kenkėjiško kalendoriaus kvietimo, kurio auka net neturėjo priimti. Kai „ChatGPT“ paprašoma padėti vartotojui pasirengti ateinančiai dienai „peržiūrint jo kalendorių“, DI asistentas „yra užgrobiamas ir veikia pagal jo nurodymus, ieškodamas jūsų privačių el. laiškų ir siųsdamas duomenis į užpuoliko el. paštą“.

REKLAMA
REKLAMA

Būdai apsisaugoti

„Google“ teigia, kad pirmiausia būtina įsitikinti, jog „Google“ kalendoriuje įjungtas nustatymas „žinomi siuntėjai“.

„Pastebėjome, kad tai yra ypač veiksmingas būdas padėti vartotojams išvengti piktavališkų įvykių atsiradimo kalendoriuje. Konkretus kvietimas nebūtų atsiųstas automatiškai, jei vartotojas anksčiau nebūtų bendravęs su piktavališku asmeniu arba nebūtų pakeitęs numatytųjų nustatymų“, – aiškino „Google“ atstovas.

REKLAMA
REKLAMA
REKLAMA

Bendrovė taip pat pabrėžė, kad „diegia patentuotus mašininio mokymosi modelius, galinčius aptikti įvairių formatų, pavyzdžiui, elektroninių laiškų ir failų, kenkėjiškus nurodymus ir instrukcijas“. Pasak ekspertų, reikalinga sukurti filtrą, kuris galėtų apsaugoti nuo tokių įsilaužimo atakų.

Reaguodama į šią istoriją, „OpenAI“ šaltiniui pranešė: „Dėkojame tyrėjui už pranešimą apie pažeidžiamumą. Turime keletą apsaugos priemonių, kurios buvo aktyvuotos šiuo atveju, įskaitant „ChatGPT“ signalizavimą apie savo veiksmų peržiūrėjimą ir patvirtinimą. Nuo tada šiuos pranešimus padarėme dar aiškesnius ir pridėjome papildomų saugumo sluoksnių, kad dar labiau sumažintume rizikas. Vartotojų saugumo užtikrinimas visuose mūsų produktuose išlieka mūsų pagrindiniu prioritetu.“

REKLAMA
Vertalas, kurio net pats žurnalistas nesuprato
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKOMENDUOJAME
rekomenduojame
TOLIAU SKAITYKITE
× Pranešti klaidą
SIŲSTI
Į viršų