После обвинений в плагиате и судебных исков OpenAI запустила центр оценки безопасности своих моделей ИИ

После обвинений в плагиате и судебных исков OpenAI запустила центр оценки безопасности своих моделей ИИ
19:00, 16 Май.

OpenAI запустила новый веб-ресурс — Центр оценок безопасности — для публикации информации о безопасности своих моделей искусственного интеллекта. Запуск состоялся 14 мая 2025 года, центр призван повысить прозрачность деятельности компании, которая в последнее время столкнулась с рядом судебных исков, обвиняющих её в незаконном использовании авторских материалов для обучения своих моделей ИИ.

В частности, The New York Times утверждает, что OpenAI случайно удалила доказательства в деле о плагиате.

Центр оценок безопасности будет регулярно обновляться и предоставлять данные о таких аспектах, как частота галлюцинаций моделей, наличие вредоносного контента в их ответах, а также эффективность работы моделей по заданным инструкциям и попытки обхода ограничений.

Так OpenAI планирует расширить информацию, предоставляемую ранее в рамках «системных карт», которые содержали лишь начальные данные о мерах безопасности каждой модели.

Источник: x.com/OpenAI «По мере развития знаний об оценке ИИ мы стремимся делиться своим прогрессом в разработке более масштабируемых способов измерения возможностей и безопасности моделей», — говорится в заявлении OpenAI.

Компания подчеркивает, что публикация части результатов оценок безопасности призвана не только улучшить понимание работы систем OpenAI, но и способствовать общим усилиям по повышению прозрачности в данной области.

OpenAI также заявляет о намерении более активно взаимодействовать с сообществом по вопросам безопасности. В Центре оценок безопасности можно найти информацию о различных моделях, включая GPT-4.

1–4.5. Однако OpenAI отмечает, что представленные данные являются лишь «моментальным состоянием» и рекомендует обращаться к системным картам, оценкам и другим публикациям для получения более полной информации.

При этом остаётся существенное ограничение ресурса: оценки и выбор информации для публикации осуществляет сама компания OpenAI.

Это оставляет вероятность, что не все проблемы и недостатки моделей будут доведены до сведения общественности.

Рубрика: Наука и Hi-Tech. Читать весь текст на www.ixbt.com.