Александр
Александр Подписчиков: 1115
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 10.2М

«Развитие общего ИИ наполняет меня ужасом», — заявил исследователь после ухода из OpenAI

9 дочитываний
7 комментариев
Эта публикация уже заработала 2,90 рублей за дочитывания
Зарабатывать

«Когда я думаю о том, где растить будущую семью или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?»

Стивен Адлер, бывший исследователь и технический руководитель программы OpenAI, поднял тревогу по поводу скорости развития общего искусственного интеллекта (AGI).

В посте на платформе X Адлер сообщил, что покинул компанию в середине ноября после четырех лет работы в сфере оценки безопасности, контроля агентов и подготовки IAG.

«Это была дикая поездка со множеством глав: оценка опасных возможностей, безопасность и контроль агентов, IAG и онлайн-идентификация и т. д. Мне будет не хватать многих его частей», — написал Адлер.

Однако он выразил обеспокоенность нынешними темпами развития этой технологии, заявив, что они его «пугают».

Бывший исследователь OpenAI задается вопросом о будущем человечества в свете прогресса ИИ.

«Когда я думаю о том, где растить будущую семью или сколько откладывать на пенсию, я не могу не задаться вопросом: доживет ли человечество до этого момента?» — размышлял он.

На мой взгляд, гонка за создание ИИ — это очень рискованная авантюра с огромными потерями. Ни одна лаборатория сегодня не имеет решения для выравнивания ИИ. И чем быстрее мы мчимся, тем меньше вероятность, что кто-то успеет его найти. — Стивен Адлер (@sjgadler) 27 января 2025 г.

Адлер также отметил, что конкуренция между лабораториями ИИ за достижение согласованности ИИ «чрезвычайно высока по риску» и что в настоящее время «ни одна лаборатория не имеет решения для согласования ИИ».

Он также подверг критике нынешний баланс в отрасли, где давление, требующее быстрых действий, может привести к пренебрежению безопасностью.

«Даже если лаборатория хочет ответственно подходить к разработке IAG, другие могут пойти на компромиссы, чтобы добиться этого, что может иметь катастрофические последствия», — предупредил он.

Чтобы решить эти проблемы, эксперт призвал лаборатории ИИ быть более открытыми в отношении правил безопасности, необходимых для сдерживания этой гонки за лидерство.

Он также проявил интерес к изучению методов контроля, обнаружения схем и случаев обеспечения безопасности, пригласив своих коллег также внести свой вклад.

На данный момент бывший исследователь OpenAI взял перерыв, но его опасения относительно будущего ИИ находят отклик в технологическом сообществе в то время, когда развитие искусственного интеллекта продолжает ускоряться без четких решений по устранению рисков, которые он несет, включая ядерные.

7 комментариев
Понравилась публикация?
16 / 0
нет
0 / 0
Подписаться
Донаты ₽
Комментарии: 7
Отписаться от обсуждения Подписаться на обсуждения
Популярные Новые Старые

меня ИИ больше напрягает, чем радует. как бы машина не взбунтовалась против людей

+2 / 0
картой
Ответить
раскрыть ветку (0)
Автор ©: Атом
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 10.4М

Да, уж...

+2 / 0
картой
Ответить
раскрыть ветку (0)

Спасибо за информацию

+2 / 0
картой
Ответить
раскрыть ветку (0)

Меня ИИ бесит

+1 / 0
картой
Ответить
раскрыть ветку (0)

Доброе вечер однако ж! Ознакомился с публикацией. Хорошего вечера!

+1 / 0
картой
Ответить
раскрыть ветку (0)

Нейросети: угроза или помощник? Что на самом деле думают россияне

Нейросети сегодня у всех на слуху. Одни их боятся, другие не могут без них работать. А как на самом деле к ним относится большинство? Ответ даёт масштабный опрос ФОМ. Оказывается, в обществе — тихий раскол:...

Цифровое бессмертие: душа, отлитая в данных.

Мы вступаем в эпоху, где понятие «наследие» переживает фундаментальную трансформацию. От высеченных в камне иероглифов и пожелтевших писем — к интерактивным цифровым сущностям, способным вести диалог с будущим.

Генеральный директор Microsoft AI предупреждает о надвигающейся опасности со стороны «кажущегося разумным» ИИ

В эссе, опубликованном в его личном блоге , соучредитель DeepMind и Inflection AI утверждает, что спор о том, может ли ИИ обладать подлинным сознанием, пока что является отвлекающим манёвром.

Один из руководителей Google предупреждает: ИИ разрушит карьеры врачей и юристов

Джад Тарифи, один из пионеров искусственного интеллекта в Google, выступил с предостережением, вызвавшим резонанс в академическом и профессиональном мире. Он заявил, что будущее таких устоявшихся профессий,...

Бывший руководитель Google предлагает заменить политиков искусственным интеллектом. Отличная идея

В своём выступлении в подкасте «Дневник генерального директора» Гавдат заявил, что «единственный способ для нас добиться лучшего и преуспеть как вид — это заменить злодеев наверху искусственным интеллектом».

Ученые использовали ИИ для поиска новых законов физики... и нашли их

В прорывном исследовании, объединяющем экспериментальную физику и машинное обучение, учёные из Университета Эмори использовали программу искусственного интеллекта для открытия новых удивительных законов физики.

Яндекс Go доверил выбор маршрута ИИ

Иногда кажется, что город живёт своей жизнью и подстраиваться под него приходится вручную: проверять погоду, смотреть пробки, гадать, приедет ли такси быстро или проще пройтись пешком. В Яндекс Go решили,...

Уничтожение человечества: как по мнению ИИ это надо делать. Жду комментариев

Мы делаем друг с другом одну и ту же ошибку: покупаем удобство в обмен на смысл. Сегодня удобнее оставаться дома, сегодня проще не читать, не отвечать, не жертвовать своим комфортом ради общего блага.

Звёздное сияние Ижоры в Межстоличьи /Статья третья незапланированная /Интермедия.

У меня есть невыполненное обязательство перед собой. "Звездное сияние Ижоры в Межстоличьи. Часть вторая "Жар-птица"" Я действительно нашёл несколько статей, и они постоянно «висят» на экране моего монитора,...
Главная
Коллективные
иски
Добавить Видео Опросы