Сергей Анатольевич
Сергей А Подписчиков: 39

IT-компании создают новый орган по безопасности

3 дочитывания
1 комментарий
Эта публикация уже заработала 0,15 рублей за дочитывания
Зарабатывать

Форум Frontier Model Forum - последний признак того, что промышленность опережает политиков, которые хотят обуздать ИИ.

Ведущие компании, занимающиеся разработкой искусственного интеллекта, объявили о планах создания отраслевого органа для разработки стандартов безопасности для быстро развивающихся технологий, опередив вашингтонских политиков, которые все еще обсуждают, нужен ли правительству США собственный регулятор в области искусственного интеллекта.

Компании Google, OpenAI, Microsoft и Anthropic, создающие ChatGPT, представили форум Frontier Model Forum, который, по словам представителей компаний, будет способствовать развитию исследований в области безопасности ИИ и технической оценки следующего поколения систем ИИ, которые, по прогнозам компаний, будут еще более мощными, чем большие языковые модели, на которых сейчас работают такие чат-боты, как Bing и Bard. Форум также будет служить центром обмена информацией между компаниями и правительствами о рисках, связанных с ИИ.

"Крайне важно, чтобы компании, работающие в области ИИ, особенно те, которые работают над созданием самых мощных моделей, придерживались общих позиций и продвигали продуманные и адаптируемые методы обеспечения безопасности, чтобы мощные инструменты ИИ приносили максимально возможную пользу", - говорится в заявлении Анны Маканжу, вице-президента OpenAI по глобальным вопросам. Это заявление основывается на добровольных обещаниях компаний, данных в пятницу Белому дому, представить свои системы на независимое тестирование и разработать инструменты для оповещения общественности о том, что изображение или видео было сгенерировано искусственным интеллектом.

Ведущие технологические компании подписали обещание Белого дома идентифицировать изображения, созданные искусственным интеллектом

Инициатива, выдвинутая промышленностью, является последним признаком того, что компании опережают усилия правительства по выработке правил разработки и внедрения ИИ, поскольку политики в Вашингтоне начинают бороться с потенциальной угрозой быстро развивающейся технологии. Однако некоторые утверждают, что такое вовлечение промышленности в этот процесс сопряжено с определенными рисками. В течение многих лет политики заявляли, что Силиконовой долине нельзя доверять создание собственных ограждений, после того как в течение более десяти лет происходили нарушения конфиденциальности, угрозы демократии по всему миру и инциденты, подвергавшие опасности детей в Интернете.

Сенатор Джош Хоули (Josh Hawley, R-Mo.) заявил, что компании, занимающиеся разработкой искусственного интеллекта, - это те же фирмы, которые уклонялись от надзора во время борьбы социальных сетей с регулирующими органами, назвав, в частности, Google, Meta** и Microsoft в качестве разработчиков и инвесторов искусственного интеллекта.

"Мы говорим об одних и тех же людях", - сказал Хоули.

Компаниям Кремниевой долины не чуждо саморегулирование. Компании, работающие в социальных сетях, создали Глобальный интернет-форум по борьбе с терроризмом, который они используют для обмена информацией о террористических угрозах на своих сервисах. Известно, что компания Meta** создала Наблюдательный совет, состоящий из независимых экспертов, финансируемых компанией, который принимает решения по сложным вопросам модерации контента, включая решение компании о запрете доступа к тогдашнему президенту Дональду Трампу после терактов 6 января.

Подобные инициативы, осуществляемые под руководством компании, подвергаются критике со стороны защитников прав потребителей, которые считают, что они перекладывают ответственность на сторонних экспертов. Защитники потребителей также критикуют органы саморегулирования за то, что они отвлекают внимание политиков, срывая принятие законов, необходимых для борьбы со злоупотреблениями в отрасли.

Законодатели в Конгрессе находятся на ранних стадиях разработки системы противодействия угрозе ИИ. Правительственные агентства начинают заниматься этой зарождающейся технологией, а Федеральная торговая комиссия находится на начальной стадии расследования деятельности OpenAI. Политики в Европе уже несколько лет работают над собственным законодательством в области ИИ, но даже их более совершенные предложения еще не вступили в силу.

В то же время политики заставляют компании предпринимать добровольные шаги по снижению потенциальных рисков ИИ после того, как недавний релиз ChatGPT продемонстрировал, как ИИ может быть использован для мошенничества, подрыва демократии и угрозы рабочим местам. Все четыре компании, входящие в состав Model Forum, приняли участие в принятом Белым домом обязательстве в отношении ИИ, которое также включало в себя обязательства по обмену данными о безопасности систем ИИ с правительством и сторонними научными организациями. Некоторые руководители технологических компаний также приняли участие в Пакте ЕС об искусственном интеллекте - добровольном соглашении с регулирующими органами, призванном начать подготовку к предстоящему законодательству блока.

Форум находится на ранней стадии разработки, но его организаторы утверждают, что он может стать частью уже существующих правительственных инициатив по решению проблем ИИ. В ближайшие месяцы группа создаст консультативный совет, который будет определять ее стратегию и приоритеты. Компании-учредители также определят объем финансирования, состав рабочей группы и устав.

Форум моделей открыт для компаний, разрабатывающих мощные модели, которые "превосходят возможности, имеющиеся в настоящее время в наиболее совершенных существующих моделях". Участники должны продемонстрировать приверженность принципам безопасности и готовность работать над совместными инициативами. Google и Microsoft уже являются учредителями некоммерческой организации Partnership on AI, созданной в 2016 году для разработки лучших практик ответственного использования искусственного интеллекта.

Форум, посвященный возможностям будущих моделей искусственного интеллекта, отражает заявления генерального директора OpenAI Сэма Альтмана, сделанные им в мае-июне во время громкого мирового турне, в ходе которого он встретился с десятками мировых лидеров. В переполненных аудиториях от Сингапура до Иордании Альтмана спрашивали, помогут ли OpenAI сообщения о его призывах к регулированию в Конгрессе и навредят ли они его конкурентам. В каждом случае Альтман пытался заверить аудиторию, что, по его мнению, сейчас нет необходимости действовать.

"Мы не выступаем за регулирование существующих моделей. Мы не выступаем за регулирование моделей с открытым кодом. Мы не выступаем за то, чтобы остановить развитие малых компаний. Я считаю, что это было бы огромной ошибкой", - заявил Альтман в начале июня в Аммане (Иордания). "Мы хотим сказать, что если кто-то - мы, кто-то другой, но, скорее всего, мы - создаст модель, которая будет такой же умной, как вся человеческая цивилизация, будет обладать мощью всей человеческой цивилизации, я думаю, что это заслуживает некоторого регулирования", - добавил он, пожав плечами.

В этот момент Альтман, как правило, уводил разговор в сторону от бюрократии, которую так не любят предприниматели и энтузиасты искусственного интеллекта, пришедшие послушать его выступление, и к идее создания глобального агентства, подобного Международному агентству по атомной энергии, наблюдательному органу ООН по атомной энергии.

Facebook**** сделает свой ИИ бесплатным для использования, расширяя доступ к мощным технологиям

Компания Meta**, которая ранее в этом месяце открыла свободный доступ к своей модели искусственного интеллекта Llama 2 для проведения исследований и создания новых продуктов, заметно отсутствовала на форуме. Представитель OpenAI Кайла Вуд заявила, что это лишь "первоначальный запуск" и что форум приглашает к участию другие компании.

1 комментарий
Понравилась публикация?
9 / 0
нет
0 / 0
Подписаться
Донаты ₽
* * запрещённая в России экстремистская организация или лицо, причастное к экстремистской деятельности
* * * * Instagram/Facebook принадлежит компании Meta, признанной экстремистской организацией и запрещенной в РФ
Комментарии: 1
Отписаться от обсуждения Подписаться на обсуждения
Популярные Новые Старые

Спасибо за информацию

0
картой
Ответить
раскрыть ветку (0)
Главная
Коллективные
иски
Добавить Видео Опросы