Каліфорнія, США – Відкритий скоротило час та ресурси, виділені на тестування безпеки його найпотужніших моделей штучного інтелекту (AI), що іскрить внутрішню та зовнішню стурбованість тим, що останні його випуски поспішають без належних гарантій.
Як повідомляється, компанія, що базується в Сан-Франциско, оцінюється в 300 мільярдів доларів, підштовхує запустити свою модель нового покоління, яка отримала назву “O3”. Але згідно з декількома джерелами, знайомими з цим процесом, оцінювачі безпеки, які раніше мали місяці для проведення ретельного тестування – тепер часто отримують лише дні для прапорця з потенційними ризиками.
«Ми провели більш ретельне тестування безпеки, коли [the technology] був менш важливим “, – сказав один з поточного оцінювача, називаючи процес” рецептом катастрофи “.
Конкурентний тиск, що рухає ярлики
Здається, що прискорений графік підживлюється, посилюючи тиск, щоб залишитися попереду в гонці AI Arms, оскільки OpenAI стикається з жорсткою конкуренцією від великих технологій, таких як Google, Метаі Елон Маск Xai.
Одна людина, яка бере участь у тестуванні O3, заявила, що модель розроблена для міркувань на високому рівні та вирішення проблем-можливості, які несуть більший ризик неправильного використання.
“Оскільки на це є більший попит, вони хочуть його швидше. Я сподіваюся, що це не катастрофічний неправильний крок, але це необачно. Це рецепт катастрофи”.
OpenAI визнав, що зробило свої процеси тестування більш ефективними за допомогою автоматизації, але наполягав на тому, що моделі все ще ретельно оцінюються на катастрофічні ризики.
Колишній співробітник OpenAI, попереджають експерти
Критики стверджують, що OpenAI не відповідає власним стандартам безпеки. Колишній дослідник безпеки OpenAI Стівен Адлер попередив, що компанія може недооцінювати найгірші ризики, пропустивши ключові оцінки, такі як тонкі налаштування тестів на своїх найсучасніших моделях для імітації сценаріїв зловживання-як інженерія більш трансмісивного вірусу.
“Це чудовий OpenAI, який встановлює таку високу планку, зобов'язуючись перевірити індивідуальні версії своїх моделей. Але якщо вона не дотримується цього зобов'язання, громадськість заслуговує на знання”, – сказав Адлер.
Тим часом колишні співробітники викликали занепокоєння щодо практики тестування OpenAI раніше “контрольно -контрольних пунктів”, а не остаточних версій моделей, що випускаються для публіки. “Погана практика випустити модель, яка відрізняється від тієї, яку ви оцінювали”, – сказав колишній технічний співробітник.
Наступне регулювання AI може змінити гру
Наразі немає глобальних стандартів для тестування моделі AI. Однак У мене є вчинок знадобиться обов'язкові перевірки безпеки для систем високого ризику. До цього часу більшість зусиль з безпеки залишаються добровільними.
“У нас хороший баланс того, як швидко ми рухаємось і наскільки ми ретельні”, – сказав Йоганнес Хайдекке, керівник систем безпеки OpenAI.
Детальніше тут читайте.