Známý youtuber a bývalý inženýr NASA Mark Rober zveřejnil video, ve kterém ukazuje, že autonomní Tesla selhala při rozpoznávání falešné překážky. Má to ale háčky, na které se podíváme.
V posledních dnech se internetem šíří video od Marka Robera, v němž se Tesla řízená systémem Autopilot rozjede proti falešné zdi. Výsledek? Auto narazí. Vypadá to jako jasné selhání Tesly a jejích autonomních systémů. Jenže jak se ukazuje, celá situace má řadu podivností a nejasností, které vyvolaly kritické reakce od komunity zaměřené na autonomní řízení.
Jedním z hlavních problémů je samotná metodologie testu. Přestože Rober tvrdí, že chtěl ukázat limity současné technologie, ve skutečnosti test vůbec nevyužil plné autonomní řízení od Tesly – tzv. Full Self-Driving (FSD). Místo toho aktivoval základní Autopilot jen několik vteřin před nárazem. A to jen v některých záběrech – v jiných se zdá, že vůbec aktivní nebyl. Výsledky testu tak podle mnoha odborníků nemají žádnou vypovídací hodnotu.
Celé video Marka Robera se tváří jako seriózní technologický experiment. Jenže autor zcela opomenul vysvětlit klíčové rozdíly mezi dvěma zásadními technologiemi od Tesly: základním Autopilotem a plným autonomním řízením (FSD). Zatímco Autopilot zvládá udržování v pruhu a adaptivní tempomat, FSD umí navigovat skrze městský provoz, obcházet překážky, zastavovat na značkách a mnoho dalšího.
Mark přitom tvrdil, že nevidí rozdíl mezi těmito dvěma režimy – což je z pohledu vědce naprosto nepřijatelné. Aktivace FSD nevyžaduje zadání adresy, jak tvrdil. Navíc test prováděl na Tesle s hardwarem 3, zatímco nejnovější verze s hardwarem 4 nabízí výrazně vyšší rozlišení kamer (4K místo Full HD) a desetinásobně výkonnější výpočetní čip.
Další test, provedený nezávislým youtuberem AI Driver, jasně ukázal rozdíl. Při použití správně aktivovaného FSD systém bez problémů rozpoznal překážku a zastavil. Stejný výsledek přinesl i test s nejnovějším Cybertruckem, který je vybaven již zmíněným hardwarem 4.
Video Marka Robera navíc neukázalo transparentní záznamy. Různé střihy, odlišné záběry a nejasnosti kolem aktivace Autopilota vyvolaly další pochybnosti. Například nebylo jasné, proč záběr končí těsně před nárazem nebo proč volant v klíčovém momentu prudce cukne – což naznačuje ruční zásah do řízení, který by deaktivoval autopilota.
Nad celým videem se vznáší také podezření na střet zájmů. Rober spolupracoval s firmou Luminar, výrobcem LIDAR senzorů, které ve videu vyšly jako vítězové. Ačkoliv tvrdí, že video nebylo sponzorované, je známým faktem, že CEO Lumináru daroval Roberovi čtyři miliony dolarů na jiný projekt a že ve videu test prováděl zaměstnanec této firmy.
LIDAR technologie sice dokáže dobře detekovat vzdálenosti, ale není bez chyb – například při silném dešti, sněžení nebo kouři může vyhodnotit falešně překážky a zastavit vozidlo bezdůvodně. To však ve videu vůbec nezaznělo.
Jedním z největších kamenů úrazu celého videa je způsob, jakým bylo prezentováno – jako vědecký experiment s cílem odhalit limity autonomních technologií. Realita však ukazuje něco zcela jiného. Mnoho aspektů testu, včetně střihu záběrů, způsobu nasvícení a nejasného zapnutí autopilota, připomíná spíše pokus o vytvoření dramatického efektu než o důsledné technické ověření schopností vozidla.
Navíc zveřejnění videa pouhé tři dny před oznámením finančních výsledků firmy Luminar, jejíž technologie byla ve videu ukázána jako spolehlivější, vyvolává další pochybnosti. Celé to tak působí jako promyšlená snaha ovlivnit veřejné mínění a potenciálně i hodnotu akcií firmy, než jako nezávislý a objektivní test. Luminar navíc krátce po zveřejnění video promoval na své oficiální stránce – než jej v tichosti stáhl, když se začala zvedat vlna kritiky.
Kritici oprávněně upozorňují, že skutečná vědecká metoda vyžaduje transparentnost, replikovatelnost a jednoznačné definování podmínek testu. Nic z toho video Marka Robera nenabízí. Naopak – jeho přístup ukazuje na nepochopení samotného fungování testovaného systému a záměrné opomenutí klíčových technických rozdílů, které mají zásadní vliv na výsledek.
To neznamená, že bychom měli přehlížet limity vizuálních systémů, jaké Tesla používá. Naopak – je důležité o nich otevřeně diskutovat. Jenže srovnávat LIDAR s kamerovým systémem bez toho, aby byly popsány jejich silné i slabé stránky, je zavádějící. Vědecká férovost vyžaduje, aby byly informace podány vyváženě – což se zde nestalo.
Celý případ ukazuje, jak snadno může být technická diskuze ovlivněna osobními sympatiemi, marketingovými cíli nebo nepochopením technologie. A právě v době, kdy se autonomní řízení stává stále více součástí každodenní reality, je důležité, aby podobné testy vycházely z faktů – nikoliv dojmu nebo agendy.
Video vyvolalo bouřlivou reakci nejen mezi technologickými nadšenci, ale i mezi odborníky z praxe. A právem. Ukazuje se totiž, že i mediálně známá osobnost s vědeckým zázemím může nevědomky (nebo úmyslně?) zmanipulovat veřejnost, pokud chybí základní porozumění technologii, kterou se rozhodne testovat.
Video Marka Robera, které mělo původně poukázat na limity autonomních systémů Tesly, se nakonec ukázalo jako velmi problematické z hlediska objektivity i technické přesnosti. Ignorování plného autonomního režimu, nedostatečná transparentnost testu a možné konflikty zájmů vedou k otázce, zda nešlo spíše o marketingový tah než seriózní vědecký experiment. Pokud vás téma zajímá více do hloubky, rozhodně doporučujeme zhlédnout kompletní video na kanále Na Dabačina, kde najdete i další důležité souvislosti a reakce odborné komunity.
Jsem šéfredaktor serveru zaměřeného na elektromobilitu, oblast, která představuje budoucnost dopravy. Moje vášeň pro technologii a udržitelný rozvoj mě přivedla k tomuto zaměření, kde mohu spojit svůj zájem o inovace s odpovědností vůči životnímu prostředí.
Autor
Jan Piechaczek