Elon Musk przyznaje, że nie docenił trudności w ulepszaniu Autopilota. Flagowym producentem samochodów elektrycznych Tesli jest system Autopilot.
Ich niezawodność i bezpieczeństwo stają się coraz trudniejsze do osiągnięcia.
Oprogramowanie Full-Self Driving nadal jest ogromnym wyzwaniem dla firmy Muska, jak niedawno zauważył miliarder.
Haha, FSD 9 beta jest już wkrótce dostępny, przysięgam!
Uogólnione prowadzenie pojazdu to trudny problem, ponieważ wymaga rozwiązania dużej części sztucznej inteligencji w świecie rzeczywistym. Nie spodziewałem się, że będzie to takie trudne, ale z perspektywy czasu trudność jest oczywista.
Nic nie ma większej swobody niż rzeczywistość.
— Elon Musk (@elonmusk) 3 lipca 2021
W ten weekend Musk zauważył: „Wkrótce pojawi się wersja beta FSD 9 (…) Przysięgam!”. Obiecał to już w 2018, a następnie w 2019. Już w 2021 robi to ponownie.
„Rozpowszechniona jazda autonomiczna to trudny problem, ponieważ wymaga rozwiązania dużej części sztucznej inteligencji w świecie rzeczywistym” – wyjaśnił dyrektor generalny Tesli. „Nie spodziewaliśmy się, że będzie to aż tak skomplikowane, ale z perspektywy czasu trudność jest oczywista”.
„Nic nie ma większego stopnia swobody niż rzeczywistość” — stwierdził Musk.
Elon Musk i krytyka Autopilota
Przypomina The Verge, że Tesla dba o bezpieczeństwo autopilota, ale tak długo, jak kierowca pozostaje uważny za kierownicą. Niedawno dodał do swojego systemu wykrywania kamerę, która monitoruje w taki czy inny sposób użytkownika.
Znajdź (pustą!) drogę z ostrym zakrętem i skieruj na nią autopilota. Dla większego bezpieczeństwa upewnij się, że poza zakrętem jest dodatkowa przestrzeń, abyś mógł złapać samochód, zanim wpadnie na rzeczy i bum!
(to jest 2021.4.18.3 btw)Pamiętaj, aby zawsze uważać na AP! pic.twitter.com/g4ukeo82X5
— zielony (@greentheonly) 4 lipca 2021
Stało się to w Chinach: pojazd z systemem Autopilot Tesli rozbił się, gdy nie był w stanie bezpiecznie skręcić. Film, pokazany przez użytkownika @greentheonly, pokazuje, jak samochód „wydaje kilka alertów przed ostatecznym przejęciem, z którego rezygnujemy”. Zdarza się to w 50% testów, według użytkownika cytowanego przez The Verge.
Tymczasem w kwietniu grupa inżynierów zademonstrowała na filmie, jak oszukać system autopilota. Celem było uruchomienie go bez osoby siedzącej przed kierownicą.
Oficjalny kanał YouTube Consumer Reports zamieścił kontrowersyjny film pokazujący, w jaki sposób udało im się oszukać systemy Modelu Y, aby autopilot działał bez kogoś za kierownicą.
Wystarczyło zapiąć pas bezpieczeństwa kierowcy, zastosować łańcuch i kilka podstawowych przeciwwag, aby Autopilot działał płynnie.
„W naszej ocenie”, zauważa Consumer Reports, „system nie tylko nie upewnił się, że kierowca zwraca uwagę. Ale nie było też w stanie stwierdzić, czy w ogóle był tam kierowca”.
„Zwolennicy bezpieczeństwa i badacze Consumer Reports twierdzą, że pokazuje to, że systemy monitorowania kierowców muszą pracować ciężej, aby uniemożliwić kierowcom korzystanie z systemów w przewidywalnie niebezpieczny sposób”.
Większe bezpieczeństwo, to wszystko
Według The Verge „liczba otwartych dochodzeń w sprawie wypadków samochodowych z udziałem Tesli Autopilot wydaje się rosnąć w odwrotnym stosunku do oczekiwań klientów dotyczących zdolności Muska do spełnienia jego obietnic”.
Na razie wszystko, co pozostało do zrobienia, to dalej pracować… ale bez przechwałek. Droga jest jeszcze długa, zanim zapewnimy bezpieczeństwo Tesli kierowców.