Я хочу поддержать «Медузу»
истории

ИИ-поисковик Google сошел с ума. Он путает шутки с реальностью, советует есть камни для пищеварения и готовить пиццу с клеем

Источник: Meduza

Пару недель назад Google показала новую функцию AI Overviews, которая должна была улучшить поиск с помощью искусственного интеллекта. Но что-то пошло не так — пользователи из США, получившие к ней доступ, быстро смогли сломать систему своими запросами. В результате ИИ начал выдавать безумные, а иногда и опасные рекомендации.

Компания обещала научить свой поиск отвечать на сложные вопросы с помощью ИИ

AI Overviews — это краткое резюме перед основными результатами поиска, которое генерирует искусственный интеллект. На презентации представители компании рассказывали, что функция создана в первую очередь для комплексных запросов, в которых нужно учитывать сразу несколько параметров. Например, в сопроводительном ролике поисковик просили составить план питания на неделю для студента, живущего в общежитии, с фокусом на бюджетных блюдах, которые можно готовить в микроволновке.

Search in the Gemini era | Google I/O 2024

Google

Предполагалось, что ИИ сможет проанализировать наиболее частые ответы, сопоставить их с заложенными в запросе параметрами, например местоположением пользователя, и предложить оптимальный вариант. В идеальном сценарии пользователю даже не пришлось бы переходить по ссылкам.

Оказалось, что искусственный интеллект не может отличить правду от троллинга — и дает максимально сомнительные советы

Быстро выяснилось, что как раз со сложными запросами новый поиск Google справляется хуже всего. Пользователи, которые опробовали новую функцию, пишут, что в разделе AI Overview можно встретить ложные, а иногда и опасные для жизни ответы. Одна из проблем заключается в том, что ИИ не может отличить серьезную информацию от шуток и троллинга. Один из наиболее популярных примеров — рекомендация добавить клей в пиццу, чтобы сыр держался лучше.

Искусственный интеллект взял этот ответ из старого поста на Reddit, опубликованного 11 лет назад. Кто-то из пользователей тогда в шутку предложил использовать нетоксичный клей для решения проблемы, а Google, не найдя более подходящего ответа на запрос, предложил его для блока AI Overview.

Журналистка Business Insider решила пойти дальше и последовать совету искусственного интеллекта. Она приготовила пиццу с использованием клея и написала про это тред в X (бывшем твиттере). И по видео можно понять, что проблема с сыром действительно решена!

По соцсетям разошелся и другой пример, когда ИИ якобы взял ответ с Reddit и выдал его за рекомендацию. Один из пользователей опубликовал скриншот с вопросом, что делать, если находишься в депрессии; а Google в ответ якобы посоветовал прыгнуть с моста Золотые Ворота в Сан-Франциско. Однако позже The New York Times со ссылкой на представительницу Google Лару Левин сообщил, что система никогда не выдавала такой ответ.

В изначальной версии текста мы не учли комментарий Левин о том, что этот скриншот — фейковый. Редакция приносит читателям свои извинения.

Иногда Google советует пользователям есть камни, ссылаясь на рекомендации геологов из Калифорнийского университета в Беркли (ИИ уточняет, что это жизненно важный источник минералов и витаминов, полезных для пищеварения). Но не больше одного маленького камня в день! На самом деле эту информацию Google взял из заметки The Onion, сайта с вымышленными сатирическими новостями.

Другой вредный совет от ИИ: он «разрешает» курить по 2–3 сигареты в день во время беременности, ссылаясь на некие рекомендации врачей, но не уточняя источник информации (конечно же, это неправда).

На вопрос, как долго можно смотреть на солнце, Google уверенно отвечает: от пяти до 15 минут. А если у вас темная кожа — то почему-то и все 30.

Google оправдывается тем, что запросы «очень необычные». Но именно для них и создавали AI Overview

В Google уже отреагировали на претензии пользователей. Представительница компании Меган Фарнсворт в своем комментарии для The Verge отметила, что подобные ошибки возникают из-за «очень необычных запросов и не отражают опыт большинства людей». Она добавила, что сотрудники компании не смогли воспроизвести некоторые из упомянутых запросов, а часть скриншотов оказалась подделкой.

Тем не менее компания уже приняла меры и использует упомянутые примеры для того, чтобы дальше совершенствовать свой продукт. Также разработчики отключили AI Overview (судя по всему, вручную) для определенных запросов. Пользователи соцсетей действительно заметили, что некоторые ответы ИИ уже невозможно воспроизвести.

Михаил Герасимов

Magic link? Это волшебная ссылка: она открывает лайт-версию материала. Ее можно отправить тому, у кого «Медуза» заблокирована, — и все откроется! Будьте осторожны: «Медуза» в РФ — «нежелательная» организация. Не посылайте наши статьи людям, которым вы не доверяете.