Когда пользователь Bluesky, Грег Дженнер(по данным Engadget) решил пошутить и вбил в Google запрос «you can’t lick a badger twice meaning» («нельзя лизнуть барсука дважды – значение»), он получил ответ… и не просто ответ, а уверенное объяснение, будто эта фраза – старая народная мудрость.
По версии Google AI Overviews, это якобы означает: «Нельзя дважды обмануть одного и того же человека».
Проблема в том, что этой идиомы не существует – она полностью выдумана. Но AI Google не просто ответил, он ещё и объяснил смысл, не признав, что фраза абсурдная.
Google внедряет AI-обзоры (AI Overviews) в поиск, чтобы давать краткие ответы на вопросы. Но у таких систем есть главный недостаток — «галлюцинации», когда ИИ выдумывает несуществующие факты с полной уверенностью.
Теперь любой пользователь может ввести бредовую фразу вроде:
- «прыгать через чайник в полнолуние значение»
- «не гладь слона против шерсти смысл»
И Google всё равно выдаст ответ, как будто это проверенное знание.
Компания говорит, что такие случаи возникают из-за “data voids” — когда в интернете почти нет информации по запросу. Google обещает, что уже внедряет обновления, чтобы исключить появление ИИ-обзоров на подобных запросах.
Но пока — предупреждение о том, что «ИИ — экспериментальный» — единственное, что отличает вымысел от факта.
«Гуглить» — раньше значило проверить факт. Теперь же это может означать получить уверенный, но ложный ответ от ИИ. Это подрывает доверие к поиску как к инструменту для получения знаний.