Индустрия искусственного интеллекта и исследователи подписали заявление, предупреждающее о риске «вымирания»
Вашингтон
Десятки лидеров индустрии ИИ, ученых и даже некоторые знаменитости во вторник призвали снизить риск глобального уничтожения из-за искусственного интеллекта, утверждая в кратком заявлении, что угроза исчезновения ИИ должна быть главным глобальным приоритетом.
«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в заявлении, опубликованном Центром безопасности ИИ.
Заявление было подписано ведущими представителями отрасли, в том числе генеральным директором OpenAI Сэмом Альтманом; так называемый «крестный отец» ИИ Джеффри Хинтон; топ-менеджеры и исследователи из Google DeepMind и Anthropic; Кевин Скотт, главный технический директор Microsoft; Брюс Шнайер, пионер интернет-безопасности и криптографии; защитник климата Билл МакКиббен; и музыкант Граймс, среди прочих.
В заявлении подчеркивается широкая озабоченность по поводу конечной опасности неконтролируемого искусственного интеллекта. Эксперты в области искусственного интеллекта говорят, что обществу еще далеко до разработки общего искусственного интеллекта, который является предметом научной фантастики; современные передовые чат-боты в значительной степени воспроизводят шаблоны, основанные на обучающих данных, которые они получили, и не думают сами за себя.
Тем не менее, поток ажиотажа и инвестиций в индустрию ИИ привел к призывам к регулированию в самом начале эпохи ИИ, до того, как произойдут какие-либо серьезные неудачи.
Заявление последовало за вирусным успехом ChatGPT от OpenAI, который помог усилить гонку вооружений в технологической отрасли по сравнению с искусственным интеллектом. В ответ растущее число законодателей, правозащитных групп и технических инсайдеров забили тревогу по поводу того, что новый урожай чат-ботов на базе ИИ может распространять дезинформацию и вытеснять рабочие места.
Хинтон, чья новаторская работа помогла сформировать сегодняшние системы искусственного интеллекта, ранее сказал, что решил оставить свою должность в Google и «разоблачить» технологию после того, как «внезапно» понял, «что эти вещи становятся умнее нас».
Дэн Хендрикс, директор Центра безопасности ИИ, заявил во вторник в Твиттере, что заявление, впервые предложенное Дэвидом Крюгером, профессором ИИ в Кембриджском университете, не мешает обществу решать другие виды риска ИИ, такие как алгоритмическая предвзятость. Или дезинформация.
Хендрикс сравнил заявление, сделанное во вторник, с предупреждениями ученых-атомщиков, «предупреждающих о тех самых технологиях, которые они создали».
«Общество может управлять несколькими рисками одновременно; это не «или/или», а «да/и», — написал Хендрикс в Твиттере. «С точки зрения управления рисками было бы безрассудно расставлять приоритеты исключительно в отношении существующего вреда, также было бы безрассудно игнорировать их».