Технологічний гігант Google намагається розв’язати проблему дико неточних результатів порад, отриманих завдяки пошуковому інструменту на основі штучного інтелекту. Функція AI Overviews, яка створює короткий текстовий огляд результатів пошуку, перетворилася на піар-катастрофу для пошукового гіганта.
Як зазначає PYMNTS, користувачі у мережі за останні кілька днів ділилися в соціальних мережах результатами відповідей. Google AI Overviews від Google рекомендував “з’їдати принаймні один маленький камінчик на день”, оскільки “каміння є життєво важливим джерелом мінералів і вітамінів”, пропонував додавати клей у начинку для піци, також підкреслював, що куріння під час вагітності є здоровим.
Представник Google повідомив, що компанія “вживає швидких заходів”, щоб видалити певні запити. Там підкреслили, що багато з прикладів, які там побачили, були незвичайними запитами. Також там бачили приклади, які назвали підробленими або такими, які там не змогли відтворити.
Одна з фундаментальних проблем полягає в тому, що інструменти генеративного ШІ не знають, що є істинним, а що — наприклад, популярною іронією. В інтернеті не буде багато статей про шкоду споживання каміння, але є дуже популярна сатирична стаття від The Onion про поїдання каміння. Вочевидь, ШІ від Google базував своє резюме на тому, що є популярним, а не на тому, що відповідало дійсності.