Лондонська страхова компанія Lloyd’s of London представила новий страховий продукт, що допомагатиме підприємствам розв’язувати проблеми, пов’язані з некоректною роботою систем штучного інтелекту. Як повідомляє Financial Times, цей крок відбувається на тлі зростаючих побоювань щодо ризиків фінансових втрат через помилки чи так звані “галюцинації” чат-ботів.
Новий страховий продукт розробив стартап Armilla. Поліси Armilla покривають витрати на судові позови проти бізнесу, якщо його клієнт або інша третя сторона зазнали шкоди через неналежну роботу ШІ-продукту. Хоча компанії активно впроваджують штучний інтелект для підвищення ефективності, деякі інструменти, такі як чат-боти обслуговування клієнтів, призвели до помилок — коли ШІ вигадує інформацію.
Наслідки використання невірогідної інформації можуть бути серйозними: помилкові рішення, фінансові втрати та шкода репутації компанії. Існують також складні питання щодо відповідальності, коли залучені системи штучного інтелекту.
“Якщо ви прибираєте людину з процесу або якщо людина перекладає свою відповідальність на ШІ, хто буде відповідальним за помилки?” – зазначив генеральний директор NILG.AI Келвін Фернандес.
У багатьох випадках відповідальність несе компанія, яка використовує чат-бот. Наприклад, Virgin Money перепросив на початку цього року, коли його чат-бот дорікнув клієнту за використання слова “virgin”. Також авіакомпанія Air Canada опинилася в суді торік, коли її ШІ-помічник вигадав знижку в розмові з клієнтом. За даними Financial Times, новий страховий поліс покрив би збитки від продажу квитків за зниженою ціною, якби було встановлено, що чат-бот Air Canada працював нижче очікувань.
Нагадаємо – країни Європейського Союзу постали перед фінансовими труднощами, які можуть завадити ефективному впровадженню нового Закону про штучний інтелект, відомого як AI Act. Закон про штучний інтелект ЄС, ухвалений у липні 2024 року, вважається найбільш всеохопним законодавством такого типу у світі. Він встановлює ризикоорієнтовану систему регулювання, яка поділяє технології штучного інтелекту на категорії залежно від рівня ризику.