Провідні розробники штучного інтелекту, Anthropic, OpenAI, xAI та Meta, не відповідають новим глобальним стандартам безпеки. Про це йдеться у дослідженні AI Safety Index від некомерційної організації Future of Life Institute, яка займається питаннями безпеки штучного інтелекту.
Про це пише Reuters. Незалежна група експертів оцінила практики компаній і дійшла висновку, що попри активні перегони за створенням систем рівня суперінтелекту, жодна з них не має достатньо пропрацьованої стратегії контролю таких моделей. Дослідження оприлюднили на тлі зростання суспільних побоювань щодо надпотужних ШІ-систем.
Президент Future of Life Institute та професор MIT Макс Тегмарк заявив, що на тлі скандалів із ШІ-системами та впливом ШІ на психічне здоров’я компанії залишаються мало регульованими. Водночас вони виступають проти обов’язкових стандартів безпеки, вкладаючи сотні мільярдів доларів у розвиток нових моделей.
У Google DeepMind відповіли, що компанія «продовжить розвивати механізми безпеки та управління відповідно до зростання можливостей моделей». xAI надіслала автоматичну відповідь «Legacy media lies». Anthropic, OpenAI, Meta, Z.ai, DeepSeek та Alibaba Cloud не прокоментували результати індексу.
Нагадаємо – Принц Гаррі та його дружина Меган Маркл увійшли до групи відомих науковців, політичних діячів та публічних осіб, які закликали призупинити розробку надрозумного штучного інтелекту, так званого суперінтелекту. Заяву оприлюднила Future of Life Institute.

