Почему Глава Google предупреждает о потенциальной опасности ИИ

Искусственный интеллект (ИИ) скоро повлияет на «каждый продукт каждой компании», заявил в воскресенье генеральный директор Google и Alphabet Сундар Пичаи, предупредив об опасностях, которые технология представляет для секторов занятости, и распространении дезинформации.
«Нам как обществу нужно адаптироваться к этому»
— сказал Пичаи.
Он добавил, что рост рабочих мест и устойчивость будут нарушены для отраслей, которые полагаются на тех, кого он назвал «работниками умственного труда», таких, как писатели, бухгалтеры и даже инженеры, разрабатывающие программное обеспечение.
В прошлом месяце Google запустил своего «чат бота» с искусственным интеллектом Bard. Это последовало за дебютом ChatGPT от OpenAI в сети в 2022 году, который получил широкую огласку благодаря своей способности составлять академические статьи и писать сложные и подробные отрывки прозы на человекоподобном языке, среди других утилит.
Однако у чата ботов с искусственным интеллектом — и особенно у ChatGPT — были свои критики. Ранее в этом месяце он был запрещен в Италии из-за потенциальных проблем с конфиденциальностью, в то время как технологические гиганты Илон Маск и Стив Возняк вместе с десятками ученых призвали приостановить эксперименты с искусственным интеллектом. Технология должна быть «тщательно проверена и контролироваться независимыми внешними экспертами», — говорится в открытом письме.
Сундар Пичаи также предупредил о потенциальных рисках ИИ. По его словам, распространение фейк новостей, видео и изображений будет «намного масштабнее и «может причинить вред». Google ранее опубликовал в Интернете документ, призывающий к регулированию технологии, чтобы гарантировать, что она «соответствует человеческим ценностям, включая мораль».
Он уточнил:
«Это не компания должна решать. Вот почему я думаю, что в разработке этого должны участвовать не только инженеры, но и социологи, специалисты по этике, философы и так далее».
По словам Пичаи, в искусственном интеллекте остается «черный ящик», который мы «не до конца понимаем».
И ChatGPT, и Bard не обошлись без ошибок. Когда Барда попросили объяснить инфляцию, он порекомендовал ему прочитать пять книг, чтобы лучше понять тему, ни одной из которых не существовало. ChatGPT также не справился с некоторыми базовыми задачами и, как сообщается, давал правдоподобно звучащие, но совершенно неверные ответы на запросы.
К своему сожалению, ничего в ИИ не понимаю
ничего страшного , может позже поймете.