OpenAI, Anthropic та Google почали співпрацювати для протидії копіюванню своїх моделей штучного інтелекту. Йдеться про спроби Китаю та інших гравців ринку ШІ отримувати результати роботи моделей і використовувати їх для створення власних аналогів.
Як пише Bloomberg, компанії обмінюються інформацією в межах Frontier Model Forum – організації, яку вони створили разом із Microsoft у 2023 році. Вони прагнуть виявляти випадки, коли хтось намагається перенавчити свої моделі на основі відповідей чужих систем, порушуючи правила використання.
В OpenAI заявили, що китайська компанія DeepSeek могла використовувати цей підхід для розвитку своїх моделей. Раніше також повідомлялося про перевірки щодо можливого несанкціонованого доступу до даних американських систем. У Anthropic окремо зазначали, що подібні практики застосовують й інші лабораторії.
Американські розробники вважають такі дії економічною та безпековою загрозою. За їхніми оцінками, нелегальне перенавчання може коштувати індустрії мільярди доларів щороку. Окрім цього, існує ризик створення моделей без захисних обмежень, які можуть використовуватися у шкідливих цілях.
Раніше DeepSeek звинуватили у використанні даних Google Gemini для навчання своєї моделі R1-0528. Також у грудні 2024 року деякі розробники помітили, що попередня модель DeepSeek V3 іноді ідентифікує себе як ChatGPT, що може свідчити про навчання на основі логів чатів OpenAI.

