Саммит в Великобритании направлен на решение острых вопросов, связанных с передовыми рисками ИИ
БЛЕТЧЛИ ПАРК – Чиновники от цифровых технологий, руководители технологических компаний и исследователи собираются в среду в историческом поместье недалеко от Лондона, чтобы обсудить и лучше понять экстремальные риски, связанные с передовым искусственным интеллектом.
Так называемый пограничный ИИ относится к новейшим и наиболее мощным системам, которые доводят технологию до предела, но могут таить в себе пока неизвестные опасности. Они опираются на базовые модели, которые управляют чат-ботами, такими как ChatGPT от OpenAI и Bard от Google, и обучаются на обширных массивах информации, почерпнутой из Интернета.
Ожидается, что около 100 человек из 28 стран, включая Китай, примут участие в двухдневном саммите премьер-министра Великобритании Риши Сунака по безопасности ИИ, хотя британское правительство отказалось раскрывать список приглашенных.
Одной из самых высокопоставленных делегатов является вице-президент США Камала Харрис, которая должна присутствовать на второй день саммита после выступления с отдельной речью по ИИ в Лондоне в среду.
Генеральный директор Tesla Илон Маск также планирует обсудить искусственный интеллект с Сунаком в прямом эфире в четверг вечером. Технический миллиардер был среди тех, кто ранее в этом году подписал заявление, в котором выразил тревогу по поводу опасностей, которые ИИ представляет для человечества.
Также ожидаются президент Европейской комиссии Урсула фон дер Ляйен и руководители американских компаний, занимающихся искусственным интеллектом, таких как антрополог и влиятельные ученые-компьютерщики, такие как Йошуа Бенгио, один из “крестных отцов” ИИ.
Встреча проходит в Блетчли-парке, бывшей сверхсекретной базе взломщиков кодов времен Второй мировой войны, которая считается местом рождения современных компьютеров.
Одна из главных целей Sunak - добиться согласия делегатов по первому в истории коммюнике о природе рисков искусственного интеллекта. Он сказал, что технология открывает новые возможности, но предупреждает об угрозе ИИ для человечества, поскольку он может быть использован для создания биологического оружия или использоваться террористами для сеяния страха и разрушений.
Только правительства, а не компании, могут обезопасить людей от опасностей, связанных с ИИ, заявил Сунак на прошлой неделе. Однако в той же речи он также призвал не торопиться с регулированием технологий ИИ, заявив, что сначала их нужно полностью понять.
Харрис, тем временем, подчеркнет необходимость решения проблем здесь и сейчас, включая “уже причиняемый обществу вред, такой как предвзятость, дискриминация и распространение дезинформации”.
На этой неделе она укажет на исполнительный указ президента Байдена, устанавливающий гарантии ИИ, как на доказательство того, что США подают пример в разработке правил для искусственного интеллекта, которые работают в общественных интересах.
Чиновник Белого дома на условиях анонимности рассказал подробности выступления Харрис, чтобы обсудить ее замечания заранее.