Інститут безпеки штучного інтелекту США при Національному інституті стандартів і технологій (NIST) оголосив про підписання угод про співпрацю з компаніями Anthropic та OpenAI. Угоди передбачають формальну співпрацю в галузі досліджень, тестування та оцінки безпеки ШІ.
Як зазначається у релізі NIST, меморандуми встановлюють рамки для надання інституту доступу до основних нових моделей ШІ цих компаній: як до публічного випуску цих моделей, так і після нього. Це дозволить дослідникам інституту проводити дослідження та оцінку моделей на різних етапах їх розробки та впровадження.
Робота, як підкреслюється, проводитиметься у тісній співпраці з британським Інститутом безпеки ШІ.
Ця угода створює основу для спільних досліджень у сфері штучного інтелекту в декількох ключових напрямках: розробки методів оцінки можливостей ШІ-моделей, виявлення та оцінки потенційних ризиків безпеки, пов’язаних з цими моделями, а також створення методів для зменшення виявлених ризиків. Співпраця спрямована на комплексне дослідження як потенціалу, так і можливих загроз нових моделей ШІ, а також на розробку стратегій для забезпечення їх безпечного використання.
Інститут планує надавати зворотній зв’язок Anthropic та OpenAI щодо потенційних покращень безпеки їхніх моделей. Оцінки, проведені в рамках цих угод, допоможуть розвинути безпечну, надійну та довірену розробку і використання ШІ.
Ці угоди базуються на виконавчому наказі адміністрації Байдена-Гарріс щодо ШІ та добровільних зобов’язаннях, взятих провідними розробниками моделей ШІ. U.S. AI Safety Institute було створено у 2023 році після видання виконавчого наказу про безпечну, надійну та довірену розробку і використання штучного інтелекту.