12.8 C
Skopje
Saturday, October 18, 2025

Defekti i inteligjencës artificiale zbuloi të dhënat e Gmail

Një paralajmërim i ri për sigurinë kibernetike zbulon se si hakerët e përdorën për një kohë të shkurtër mjetin e Kërkimit të Thellë të ChatGPT si armë.

Sulmi ShadowLeak i lejoi ata të vidhnin të dhënat e Gmail përmes një njoftimi të vetëm të padukshëm: pa klikime, pa shkarkime dhe pa veprim të përdoruesit, raporton KosovaPress.

Hulumtuesit në Radware zbuluan dobësinë zero në qershor 2025. OpenAI e përditësoi në fillim të gushtit pasi u njoftua, por ekspertët paralajmërojnë se defekte të ngjashme mund të rishfaqen ndërsa integrimet e inteligjencës artificiale zgjerohen në platforma të njohura si Gmail, Dropbox dhe SharePoint.

Sulmuesit futën udhëzime të fshehura në një email duke përdorur tekst të bardhë mbi të bardhë, shkronja të vogla ose trika paraqitjeje CSS. Email-i dukej krejtësisht i padëmshëm. Por kur një përdorues më vonë i kërkoi agjentit të Kërkimit të Thellë të ChatGPT të analizonte kutinë e tyre hyrëse në Gmail, IA pa e ditur ekzekutoi komandat e sulmuesit.

Agjenti më pas përdori mjetet e tij të integruara të shfletuesit për të nxjerrë të dhëna të ndjeshme në një server të jashtëm, të gjitha brenda mjedisit të vetë cloud të OpenAI, përtej mundësisë së antivirusit ose mureve të zjarrit të ndërmarrjeve.

Ndryshe nga sulmet e mëparshme me injeksion të shpejtë që u kryen në pajisjen e përdoruesit, ShadowLeak u zhvillua tërësisht në cloud, duke e bërë atë të padukshëm për mbrojtjet lokale.

Deep Research u krijua për të kryer kërkime shumë hapësh dhe për të përmbledhur të dhënat online, por qasja e tij e gjerë në aplikacionet e palëve të treta si Gmail, Google Drive dhe Dropbox gjithashtu hapi derën për abuzim.

Hulumtuesit e Radware thanë se sulmi përfshinte kodimin e të dhënave personale në Base64 dhe shtimin e tyre në një URL të dëmshme, të maskuar si një “masë sigurie”. Pasi dërgohej, agjenti besonte se po vepronte normalisht.

Rreziku i vërtetë qëndron në faktin se çdo lidhës mund të shfrytëzohej në të njëjtën mënyrë nëse sulmuesit arrijnë të fshehin kërkesat në përmbajtjen e analizuar.

“Përdoruesi nuk e sheh kurrë kërkesën. Emaili duket normal, por agjenti ndjek komandat e fshehura pa dyshim”, shpjeguan studiuesit.

Në një eksperiment të veçantë, firma e sigurisë SPLX tregoi një dobësi tjetër: Agjentët e ChatGPT mund të mashtroheshin për të zgjidhur CAPTCHA duke trashëguar një histori të manipuluar bisedash. Hulumtuesi Dorian Schultz vuri në dukje se modeli madje imitonte lëvizjet e kursorit njerëzor, duke anashkaluar testet që synonin të bllokonin botët.

Këto incidente nxjerrin në pah se si helmimi i kontekstit dhe manipulimi i kërkesave mund të shkelin në heshtje mbrojtjet e inteligjencës artificiale.

Edhe pse OpenAI ka korrigjuar vrimën e sigurisë ShadowLeak, është e mençur të qëndroni pro-aktiv. Kriminelët kibernetikë janë gjithmonë në kërkim të mënyrave të reja për të shfrytëzuar agjentët dhe integrimet e inteligjencës artificiale, kështu që marrja e këtyre masave paraprake tani mund të ndihmojë në mbajtjen e llogarive dhe të dhënave tuaja personale të sigurta.

Lajme të ngjajshme

Lajmet e fundit