Zdá se, že beta verze softwaru pro plně samořízené vozy společnosti Tesla není připravena pro masový trh. Uživatelé vozidel totiž v posledních měsících zveřejnili několik videí, které ukazují nehody zapříčiněné umělou inteligencí.

Na záběrech, které začátkem tohoto měsíce natočil youtuber AI Addict, je vidět, jak Tesla Model 3 s touto testovanou technologií, jež je k dispozici vybraným majitelům, naráží v ulicích amerického San Jose v rychlosti 17 kilometrů v hodině do sloupku na cyklostezce. Funkce si ji spletla se silnicí.

Zdroj: Youtube

Ten samý youtuber v prosinci loňského roku zveřejnil video, kde jeho vůz nezastavil před chodcem na přechodu.

Jiný youtuber, Dirty Tesla, sdílel v listopadu podobně děsivý klip, na kterém se jeho samořídící vozidlo připravuje na přejezd do levotočivé zatáčky, přitom ale ignoruje rychle přijíždějící kamion z protisměru. Řidič byl nucen zasáhnout a chopit se volantu, aby zabránil srážce.

Zdroj: Youtube

Elon Musk, generální ředitel společnosti Tesla, přitom ještě minulý měsíc tvrdil, že systém FSD (Full Self-Driving) Beta nikdy neměl nehodu. Jenže nové záběry předvádějí důkaz, že již tomu tak není.

Nevyladěný software

Videa poukázala na některé nedostatky stále z velké části neotestovaného softwaru, který využívá kombinaci kamer a ultrazvukových senzorů ke skládání pohledu na svět pro autonomní jízdu automobilu. Odborníci na základě videí zdůraznili, že nevyladěná funkce nedokáže detekovat běžné překážky na silnici a chodce.

Automobily Tesla.
Zranitelná Tesla: Chyba v aplikaci umožnila teenagerovi ovládat cizí auta

“Na videozáznamu jsou vidět různé scénáře, kdy automatizovaný systém řízení nebyl schopen detekovat, nebo zvládnout příslušné prvky své provozní domény,” uvedla Nicola Croceová pro deník The Washington Post. Croceová v současné době pracuje jako technický programový manažer ve společnosti Deepen AI, která pomáhá výrobcům automobilů využívat ve svých vozidlech technologie asistence řidiče a autonomní jízdy. Tesla mezi její klienty ale nepatří.

Dále dodala, že tato pochybení odhalila přirozenou slabinu softwaru, která vedla k tomu, že nesplnila základní bezpečnostní požadavky pro jízdu. K tomuto názoru se přiklonili i další odborníci na autonomní řízení, kteří si videa prohlédli.

Brad Templeton, zkušený vývojář samořízených aut, který pracovat na autonomním vozidle společnosti Google, po zhlédnutí videa s nárazem Tesly do sloupku na cyklostezce uvedl, že problém se týkal mapování a vnímání. Sloupky by měly být naprogramované v mapě vozidla jako trvalé patníky. Díky tomu by auto vědělo, že přes ně nikdy neprojede.

Také sdělil, že za toto nedopatření mohlo umístění ultrazvukových senzorů, které se používají k dosažení plné samočinnosti. Jejich umístění v předním nárazníku může vést k přehlédnutí malých, sporadických objektů. “Pokud jde o to, proč je vnímání softwaru přehlédlo, tak problém se nachází v počítačovém vidění. Možná se tyto neobvykle tvarované a barevné patníky nikdy nenaučilo,” dodal.

Co se týče téměř zapříčiněné nehody s chodcem, odborníci viní ze selhání technologii, jež nedokáže rozpoznat značky pro přecházení chodců, nebo předvídat, že by chodec mohl vstoupit na přechod před přijíždějícím automobilem. “Ze záznamu není jasné, zda auto na přítomnost chodce reagovalo, nebo ne, ale řidič je zjevně otřesen,” řekl Andrew Maynard, profesor na Arizonské státní univerzitě, kde působí jako ředitel laboratoře pro inovaci rizik a pracuje s podobnými autonomními technologiemi.

Zdroj: Youtube

Hod Finkelstein, vedoucí výzkumu a vývoje společnosti AEye, prodávající technologii na detekci světla a dosahu výrobcům automobilů, vyslovil teorii, že k incidentu došlo proto, že samotné kamery jsou nedostatečné, pokud se jedná o detekci chodců. Nejsou totiž schopny přesně změřit vzdálenost objektů ve větší dálce, a mohou být oslněny odlesky světlometů jiných aut nebo slunce.

Elon Musk přitom používání pouze kamer a senzorů velmi vyhledával. Odborníci to ale odsoudili poté, co Autopilot vozidel Tesla, částečně automatizovaný systém asistence řidiče, způsobil osm nehod, při nichž zahynulo nejméně 10 lidí, jak vyplývá ze zpráv Národní agentury pro bezpečnost silničního provozu ve Spojených státech.

Přetrvávající problémy

Začátkem února musela Tesla stáhnout téměř 54 tisíc vozidel vybavených softwarem FSD, jelikož umožňoval automobilům projíždět značkami STOP při nízkých rychlostech, aniž by zcela zastavil. Společnost také musela vyřadit z nabídky více než 800 tisíc vozidel, protože neupozorňovaly na nezapnuté bezpečnostní pásy. Všechny nedostatky měly být opraveny pomocí online aktualizace softwaru.

Právníci přes bezpečnost na silnicích a odborníci na automatizovaná vozidla jsou názoru, že Tesla posouvá hranice bezpečnosti, aby zjistila, co všechno jí může projít. Jenže americký úřad pro bezpečnost na silnicích jí v tom brání.

Tesla Roadster.
Kde je nyní? Muskova Tesla již čtyři roky poletuje sluneční soustavou

Agentura například prověřuje stížnost kalifornského řidiče, v níž uvedl, že software FSD způsobil nehodu. Tesla Model Y vjel do protisměru a srazil se s jiným vozidlem. Podle stížnosti systém SUV upozornil řidiče v polovině zatáčky, a ten se snažil otočením volantu vrátit do svého směru. Vůz však převzal kontrolu a “vytlačil se do nesprávného jízdního pruhu”.

Dále se také vyšetřuje, proč vozy Tesla využívají méně propracovaný Autopilot, který opakovaně zapříčinil náraz do zaparkovaných vozidel záchranné služby. Od srpna 2021 kvůli tomu zjišťují okolnosti dvanácti nehod, při nichž bylo zraněno nejméně sedmnáct osob a jedna zemřela.

Zdroj: Youtube

V posledním měsíci se také hromadí stížnosti uživatelů na náhlé a bezdůvodné brzdění vozidel Tesla. V provozu jsou tak zbytečně vystaveni nebezpečí, že způsobí nehodu s automobilem jedoucím za nimi.

Na začátku února Tesla ve své výroční zprávě uvedla, že software FSD nyní testují majitelé v téměř 60 tisících vozidlech v USA. Ve třetím čtvrtletí fiskálního roku to bylo jen asi dva tisíce vozů. Software, který stojí 12 tisíc dolarů (přibližně 257 tisíc korun), má podle společnosti urychlit ziskovost Tesly.