«Развитие общего ИИ наполняет меня ужасом», — заявил исследователь после ухода из OpenAI
«Когда я думаю о том, где растить будущую семью или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?»

Стивен Адлер, бывший исследователь и технический руководитель программы OpenAI, поднял тревогу по поводу скорости развития общего искусственного интеллекта (AGI).
В посте на платформе X Адлер сообщил, что покинул компанию в середине ноября после четырех лет работы в сфере оценки безопасности, контроля агентов и подготовки IAG.
«Это была дикая поездка со множеством глав: оценка опасных возможностей, безопасность и контроль агентов, IAG и онлайн-идентификация и т. д. Мне будет не хватать многих его частей», — написал Адлер.
Однако он выразил обеспокоенность нынешними темпами развития этой технологии, заявив, что они его «пугают».
Бывший исследователь OpenAI задается вопросом о будущем человечества в свете прогресса ИИ.
«Когда я думаю о том, где растить будущую семью или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?» — размышлял он.
На мой взгляд, гонка за создание ИИ — это очень рискованная авантюра с огромными потерями. Ни одна лаборатория сегодня не имеет решения для выравнивания ИИ. И чем быстрее мы мчимся, тем меньше вероятность, что кто-то успеет его найти. — Стивен Адлер (@sjgadler) 27 января 2025 г.
Адлер также отметил, что конкуренция между лабораториями ИИ за достижение согласованности ИИ «чрезвычайно высока по риску» и что в настоящее время «ни одна лаборатория не имеет решения для согласования ИИ».
Он также подверг критике нынешний баланс в отрасли, где давление, требующее быстрых действий, может привести к пренебрежению безопасностью.
«Даже если лаборатория хочет ответственно подходить к разработке IAG, другие могут пойти на компромиссы, чтобы добиться этого, что может иметь катастрофические последствия», — предупредил он.
Чтобы решить эти проблемы, эксперт призвал лаборатории ИИ быть более открытыми в отношении правил безопасности, необходимых для сдерживания этой гонки за лидерство.
Он также проявил интерес к изучению методов контроля, обнаружения схем и случаев обеспечения безопасности, пригласив своих коллег также внести свой вклад.
На данный момент бывший исследователь OpenAI взял перерыв, но его опасения относительно будущего ИИ находят отклик в технологическом сообществе в то время, когда развитие искусственного интеллекта продолжает ускоряться без четких решений по устранению рисков, которые он несет, включая ядерные.
меня ИИ больше напрягает, чем радует. как бы машина не взбунтовалась против людей
Да, уж...
Спасибо за информацию
Меня ИИ бесит
Доброе вечер однако ж! Ознакомился с публикацией. Хорошего вечера!