„Moja Tesla ma chcela utopiť!“
V uplynulých dňoch vyvolalo veľký rozruch video zachytávajúce incident so systémom Full Self-Driving (FSD) automobilky Tesla, ktoré sa rýchlo rozšírilo na sociálnych sieťach. Majiteľ vozidla Daniel Milligan v ňom tvrdí, že jeho auto sa s aktivovaným pokročilým asistenčným systémom pokúsilo odviezť ho priamo do jazera.
Krátky klip, ktorý zverejnil na platforme X, ukazuje, ako vozidlo pri bežnej jazde namiesto pokračovania po ceste odbočuje smerom k loďovej rampe vedúcej priamo do vody.
My Tesla tried to drive me into a lake today! FSD version 14.2.2.4 (2025.45.9.1)@Tesla @aelluswamy pic.twitter.com/ykWZFjUm8k
— Daniel Milligan (@lilmill2000) February 16, 2026
Vodič napokon musel zasiahnuť a prevziať kontrolu nad riadením, aby zabránil možnej nehode. Incident sa podľa portálu Electrek odohral len chvíľu po nasadení novšej verzie softvéru FSD 14.2.2.4 s označením build 2025.45.9.1. Okamžite tak otvoril diskusiu o spoľahlivosti a bezpečnosti autonómnych technológií.
Automobilka k najnovšej aktualizácii neposkytla podrobné poznámky k vydaniu. Označila ju však za vyladenú a optimalizovanú verziu, ktorá priamo nadväzuje na predchádzajúce vydanie 14.2.2.3. Podľa doterajších informácií séria 14.2 priniesla najmä technické zlepšenia v oblasti spracovania obrazu. Konkrétne modernizovaný neurónový vizuálny enkóder s vyšším rozlíšením spracovávaných dát. Ten má umožniť presnejšie vyhodnocovanie situácií v reálnom čase a zlepšiť celkovú orientáciu vozidla v priestore.
Video však naznačuje, že systém si nesprávne vyhodnotil prostredie a namiesto cesty identifikoval betónovú rampu do jazera ako legitímnu trasu. Ešte znepokojujúcejšie je tvrdenie majiteľa, že podobné správanie zaznamenal na tom istom mieste opakovane. To vyvoláva otázky či nejde o ojedinelý výpadok, ale o hlbší problém v spracovaní vizuálnych dát neurónovou sieťou, na ktorej je FSD postavené.
Spoločnosť Tesla dlhodobo presadzuje filozofiu takzvaného „vision-only“ prístupu, teda využívania kamier a umelej inteligencie bez podpory LiDAR senzorov. Tento koncept presadzuje aj generálny riaditeľ Elon Musk, ktorý opakovane tvrdí, že kamery a pokročilé neurónové siete postačujú na bezpečné autonómne riadenie. Kritici však poukazujú na to, že práve absencia ďalších senzorov môže spôsobovať chyby pri rozpoznávaní netradičných alebo menej častých situácií. V prípade jazera mohol systém vyhodnotiť hladkú vodnú plochu ako pokračovanie cesty, prípadne nedokázal správne interpretovať značenie a kontext prostredia.

Autonómne riadenie v problémoch
Celý prípad má navyše naozaj zlé načasovanie. Prichádza totiž v čase, keď americký úrad National Highway Traffic Safety Administration (NHTSA) už dlhšie preveruje fungovanie asistenčných systémov Tesly vrátane Autopilota a FSD.
Vyšetrovanie sa týka celkom 2,88 miliónov vozidiel. Sústreďuje sa pritom na prípady, keď systém nereagoval adekvátne na prekážky, dopravné značenie či núdzové situácie. Incident s jazdou smerom do jazera tak môže byť ďalším argumentom pre regulátorov, ktorí požadujú prísnejší dohľad nad testovaním a marketingom týchto technológií.
Podľa dostupných údajov eviduje americký regulátor najmenej 58 incidentov, ktoré sa spájajú s fungovaním FSD. V 14 prípadoch išlo o dopravné nehody a celkovo bolo hlásených 23 zranení. Vyšetrovanie sa zameriava predovšetkým na situácie, v ktorých mal systém nesprávne reagovať pri prejazde križovatkami na červenú alebo pri vjazde do protismeru.
Treba však zdôrazniť, že FSD je stále klasifikovaný ako asistenčný systém úrovne 2. To znamená, že vodič musí mať neustále ruky na volante a byť pripravený zasiahnuť. V tomto prípade sa práve rýchla reakcia vodiča postarala o to, že nedošlo k vážnej nehode. Napriek tomu incident podkopáva dôveru časti verejnosti v schopnosti autonómneho riadenia.
