Співробітники Google неодноразово критикували чат-бота Bard у внутрішніх переписках, благаючи компанію не запускати його. Про це повідомляється у звіті Bloomberg із посиланням на свідчення 18 діючих та колишніх працівників Google.
“Bard гірше, ніж просто безкорисний”, “Надає небезпечні поради”, “Будь ласка, не запускайте його” – це приклади відгуків співробітників техногіганта про чат-бота, розробленого Google у спробі наздогнати OpenAI у гонці ШІ. Раніше в компанії заявляли, що аналізуватимуть відгуки перших тестувальників як зовні, так і в середині компанії. Проте пізніше, за даними видання, Google не враховувала оцінку ризику, представлену внутрішньою командою, згідно з якою Bard не був готовим до загального використання. В березні Google все одно відкрив доступ до “експериментального” чат-бота для всіх бажаючих.
Google, очевидно, відійшов убік від етичних проблем, намагаючись не відставати від таких конкурентів, як Microsoft і OpenAI. Компанія часто рекламує свою безпеку та етику в роботі зі штучним інтелектом, але вже давно піддається критиці за те, що надає перевагу бізнесу.
Наприкінці 2020 – на початку 2021 року компанія звільнила двох дослідників — Тімніта Гебру та Маргарет Мітчелл — після того, як вони написали дослідницьку статтю, яка викриває недоліки в тих самих мовних системах штучного інтелекту, які лежать в основі таких чат-ботів, як Bard. Однак тепер, коли ці системи загрожують пошуковій бізнес-моделі Google, компанія, здається, ще більше зосереджена на бізнесі, а не на безпеці.
Аргументом тих, хто з цим не погоджується, є те, що для розробки та захисту ШІ-систем необхідне публічне тестування, а шкода від чат-ботів наразі мінімальна. Так, вони можуть створити шкідливий текст і надавати оманливу інформацію, але це роблять і величезна кількість інших джерел в інтернеті.
Вас також зацікавить – Google втратила $100 млрд ринкової вартості за один день через помилку свого нового чат-бота