Найбільші технологічні компанії уклали знакову міжнародну угоду про безпеку штучного інтелекту на Сеульському саміті з безпеки штучного інтелекту. ШІ-компанії домовилися про новий раунд зобов’язань щодо забезпечення безпечного розвитку технології.
Як зазначає CNBC, підписантами так званих Frontier AI Safety Commitments стали 16 технологічних компаній з Північної Америки, Азії та Близького Сходу, серед яких Amazon, Anthropic, Google, IBM, Meta, Microsoft, OpenAI, Samsung, xAI та інші. У світлі цієї угоди компанії з різних країн візьмуть на себе добровільні зобов’язання забезпечити безпечну розробку своїх найсучасніших моделей штучного інтелекту.
Зобов’язання стосуються лише так званих прикордонних моделей. Цей термін відноситься до технології, що лежить в основі генеративних систем ШІ, таких як сімейство великих мовних моделей GPT від OpenAI, на яких працює популярний чат-бот ChatGPT.
Розробники моделей ШІ погодилися опублікувати рамки безпеки, в яких викладено, як вони будуть оцінювати виклики, пов’язані з їхніми передовими моделями, наприклад, запобігання зловживанню технологією з боку недобросовісних суб’єктів. Ці рамки включатимуть “червоні лінії” для технологічних компаній, які визначатимуть види ризиків, пов’язаних з граничними системами ШІ, які вважатимуться “неприпустимими”. Ці ризики включають, але не обмежуються автоматизованими кібератаками та загрозою біологічної зброї.
Для реагування на такі екстремальні обставини компанії заявили, що планують запровадити “вимикач”, який припинить розробку їхніх моделей ШІ, якщо вони не зможуть гарантувати зниження цих ризиків.
Пакт розширює попередній набір зобов’язань, взятих на себе компаніями, які беруть участь у розробці генеративного програмного забезпечення для ШІ, в листопаді минулого року.
Компанії погодилися отримати інформацію щодо цих порогових значень від “довірених суб’єктів”, в тому числі за необхідності, від урядів своїх країн, перш ніж оприлюднити їх до наступного запланованого саміту AI Action Summit у Франції на початку 2025 року.