Аппетит Илона Маска к разрушению, уничтожению и энтропии.

Волна судебных исков утверждает, что программное обеспечение Tesla для самостоятельного вождения опасно разрекламировано. Что его слепые пятна могут рассказать нам о неуравновешенном генеральном директоре компании?
ОтКристофер Кокс
17 января 2023 г.
Обновлено в 7:15 по восточному времени.
Вначале у программного обеспечения была прискорбная привычка наносить удары по полицейским машинам. Никто не знал, почему, хотя у инженеров Теслы были некоторые хорошие предположения: неподвижные объекты и мигающие огни, казалось, обманывали ИИ. — не менее 10 раз за чуть более трех лет.
Для компании, которая зависела от безудержного оптимизма среди инвесторов, чтобы поддерживать высокую цену своих акций — Тесла в какой-то момент стоила больше, чем Тойота, Хонда, Фольксваген, Мерседес, БМВ, Форд и Дженерал Моторс вместе взятые — эти крахи могут показаться катастрофой. Проблема. Но Илону Маску, исполнительному директору Tesla, они предоставили возможность. Каждое столкновение генерировало данные, и с достаточным количеством данных компания могла ускорить разработку первого в мире по-настоящему беспилотного автомобиля. Он так сильно верил в это видение, что оно привело его к безумным предсказаниям: «Мое предположение относительно того, когда мы сочтем, что для кого-то безопасно заснуть и проснуться в месте назначения: вероятно, ближе к концу следующего года». Маск сказал в 2019 году: «Я бы сказал, что уверен в этом. Это не вопросительный знак».
Будущее Tesla может зависеть от того, знали ли водители, что они участвуют в этом эксперименте по сбору данных, и если да, то соответствовала ли их склонность к риску готовность Маска. Я хотел услышать от жертв некоторых из более мелких аварий, но они, как правило, делятся на две категории, ни одна из которых не предрасполагает их к разговору: они либо любили Теслу и Маска, либо не хотели говорить прессе ничего негативного. , либо судились с компанией и хранили молчание по совету адвоката. (Умайр Али, чья Tesla врезалась в дорожное ограждение в 2017 году, придумал другое оправдание: «Запишите меня как отклоненного от интервью, потому что я не хочу злить самого богатого человека в мире».)
Потом я нашел Дэйва Ки. 29 мая 2018 года Tesla Model S 2015 года Ки везла его домой от дантиста в режиме автопилота. Это был маршрут, по которому Ки уже ездил бессчетное количество раз: двухполосное шоссе, ведущее к холмам над пляжем Лагуна в Калифорнии. Припаркованного полицейского внедорожника, который развернул машину и толкнул внедорожник на тротуар. Никто не пострадал.
Ки, 69-летний бывший предприниматель в области программного обеспечения, беспристрастно взглянул на собственную аварию с точки зрения инженера. «Проблема со стационарными объектами — извините, это звучит глупо — заключается в том, что они не двигаются», — сказал он. В течение многих лет у искусственного интеллекта Теслы были проблемы с отделением неподвижных объектов от фона. Вместо того чтобы расстраиваться из-за того, что компьютер не разобрался в такой, казалось бы, элементарной проблеме, Ки утешился, узнав, что причина сбоя была в известном программном ограничении, а не в какой-то черной лебединой катастрофе.
Прошлой осенью я попросил Ки съездить со мной на место аварии. Он сказал, что сделает меня лучше; он возил меня туда, используя новый режим полного самостоятельного вождения Теслы, который все еще находился в стадии бета-тестирования. Я сказал Ки, что удивлен, что он все еще ездит на Tesla, не говоря уже о доплате — FSD сейчас стоит 15 000 долларов — за новые автономные функции. Если бы моя машина попыталась меня убить, я бы сменил марку. Но спустя месяцы и годы после того, как его Model S разобрали, он купил еще три.
Мы встретились за завтраком в кафе в Лагуна-Бич, примерно в трех милях от места крушения. Ки был одет в черную футболку с V-образным вырезом, шорты цвета хаки и сандалии: полупенсионный шик Южной Калифорнии. Когда мы подошли к нашему столу, он запер двери своей красной модели S 2022 года выпуска, а боковые зеркала сложились, как уши собаки, когда ее гладят.
Ки принес с собой четырехстраничную записку, которую он набросал для нашего интервью, в которой перечислялись факты об аварии, разбитые на такие подзаголовки, как «Технология полного самостоятельного вождения Tesla (обсуждение)». Он из тех людей, которые ходят с целой батареей полностью сформированных мнений по самым важным жизненным вопросам — компьютерам, программам, упражнениям, деньгам — и готовы поделиться ими. Он был особенно обеспокоен тем, что я понимаю, что Autopilot и FSD спасают жизни: «Данные показывают, что их уровень аварийности во время бета-тестирования намного меньше, чем у других автомобилей», — гласил один пункт в 11-балльной Calibri. «Замедление FSD Beta приведет к большему количеству аварий и гибели людей на основе достоверных статистических данных».