Колишній дослідник безпеки в OpenAI Леопольд Ашенбреннер розповів про своє звільнення з команди суперузгодження компанії. За його словами, причиною стало те, що він “наступив декому на хвіст”, написавши та поширивши кілька документів, пов’язаних з безпекою в OpenAI.
Як зазначає Business Insider, Ашенбреннер стверджує, що після “серйозного інциденту з безпекою” він написав меморандум, в якому зазначив, що заходи безпеки компанії є “жахливо недостатніми” для захисту від крадіжки “ключових алгоритмічних секретів іноземними суб’єктами”. Цей меморандум він поширив серед кількох членів ради директорів OpenAI, після чого отримав попередження від відділу кадрів про те, що його занепокоєння щодо шпигунства з боку Комуністичної партії Китаю є “расистськими” та “неконструктивними”.
Згодом, за словами Ашенбреннера, його звільнили, звинувативши у витоку конфіденційної інформації. Мова йде про “документ мозкового штурму щодо готовності, заходів безпеки та захисту”, необхідних для розробки штучного загального інтелекту (AGI), який дослідник поширив серед трьох зовнішніх експертів для отримання відгуків.
OpenAI визнала конфіденційним рядок про “планування AGI на 2027-2028 роки та не встановлення термінів готовності”, хоча, за словами Ашенбреннера, CEO компанії Сем Альтман часто публічно говорить на подібні теми.
Представник OpenAI заявив, що занепокоєння, висловлені Ашенбреннером всередині компанії та раді директорів, “не призвели до його звільнення”, і хоча вони поділяють його прихильність до створення безпечного AGI, вони не згодні з багатьма його заявами про роботу компанії.