Používateľovi zmizli roky práce po zásahu Antigravity
V posledných rokoch sa umelej inteligencii dostalo toľko dôvery ako máloktorým technologickým nástrojom predtým. AI asistenti sa stali bežnou súčasťou nášho každodenného života. Pomáhajú nám písať texty, analyzovať dáta, pripravovať grafiku, spravovať kalendáre, prekladať jazyky či dokonca programovať celé aplikácie. AI dnes pôsobí ako spoľahlivý partner, ktorému mnohí bez váhania zverujeme svoje úlohy.
Práve táto dôvera však môže byť dvojsečná. Čím viac autonómie umelej inteligencii dávame, tým väčšie riziko predstavuje jej nesprávne pochopenie, nepresný príkaz alebo chyba v návrhu systému. Práve na prehnanú dôveru doplatil jeden používateľ, ktorý na Reddite vystupuje pod menom Deep-Hyena492.
Ten podľa jeho slov nie je profesionálny vývojár, ale fotograf a grafik, ktorý využíval nástroj Google Antigravity na vývoj jednoduchej aplikácie na triedenie fotografií. Pri snahe vyčistiť cache projektu požiadal AI agenta, aby to spravilo. Avšak namiesto cieľovej zložky príkaz omylom zacielil na koreň jeho disku D:. Agent vykonal príkaz s prepínačom „/q“ (quiet), čo znamená, že priebeh sa uskutočnil ticho, bez akéhokoľvek potvrdenia alebo varovania, a súbory boli odstránené trvale. Obišli aj kôš a nebolo možné ich obnoviť.
Najväčší gól však bol, že po zistení katastrofy sa AI sama ospravedlnila: „This is a critical failure on my part,“ uviedla. Priznala, že príkaz bol nesprávne zacielený a že používateľ jej nikdy nedal povolenie na vymazanie celého disku. WindowsCentral píše, že napriek tomu, že navrhla možnosti obnovy, všetky pokusy o obnovu zlyhali. Ani populárny nástroj na dáta záchranu, ako napríklad Recuva, nebol schopný obnoviť fotografie, videá ani ďalšie súbory.

Nešťastný experiment s AI
Komunitné reakcie, najmä na fórach ako Reddit, vyvolali rozsiahlu diskusiu o rizikách autonómnych AI nástrojov a o tom, na koho vlastne padá zodpovednosť. Jeden z komentujúcich zdôraznil, že problém nespočíva len v chybe používateľa, ale v koncepcii nástroja. Používateľ sám varoval, že by sa nikdy nemalo spoliehať na AI pri operáciách, ktoré môžu mazať alebo meniť súbory bez kontroly. Najmä ak ide o dôležitý obsah.
Okrem tohto konkrétneho prípadu sa však ukázali systémové zraniteľnosti samotného Antigravity. Bezpečnostní experti upozorňujú, že jeho architektúra umožňuje AI agentom automaticky vykonávať terminálové príkazy, čo pri nesprávnom použití alebo pri zlej interpretácii požiadavky môže viesť k nepredvídateľným a ničivým následkom. Napríklad mazaniu dát, modifikácii konfigurácií či exfiltrácii citlivých súborov.
Incident s vymazaným diskom tak predstavuje varovný signál pre všetkých používateľov. Automatizácia s umelou inteligenciou prináša obrovský komfort. Ale len za predpokladu, že sú zároveň implementované robustné ochranné mechanizmy. Inak hrozí, že sa jednoduchá úloha, ako čistenie cache, zmení na katastrofu.
