OpenAI представила нові моделі, які допоможуть розпізнавати загрози безпеці в інтернеті. Моделі, названі gpt-oss-safeguard-120b та gpt-oss-safeguard-20b, є адаптованими версіями попередніх gpt-oss моделей, а їх параметри будуть доступні для користувачів.
Ці моделі дозволяють організаціям налаштовувати їх відповідно до своїх політик. Завдяки прозорості в роботі моделей, розробники зможуть краще розуміти, як формуються результати. Наприклад, сайти з оглядами продуктів можуть використовувати їх для виявлення фальшивих відгуків.
OpenAI створила ці моделі у співпраці з Discord та організацією ROOST, яка займається безпекою в сфері штучного інтелекту. Моделі наразі доступні в режимі дослідження, і OpenAI запрошує фахівців з безпеки надавати зворотний зв’язок.
Цей крок може допомогти OpenAI заспокоїти критиків, які звинувачують компанію в занадто швидкому комерційному зростанні без належної уваги до етики та безпеки штучного інтелекту. Вартість OpenAI наразі становить 500 мільярдів доларів, а чат-бот ChatGPT має понад 800 мільйонів активних користувачів на тиждень.
Згідно з президентом ROOST, Каміллою Франсуа, інструменти безпеки повинні розвиватися так само швидко, як і штучний інтелект, і бути доступними для всіх.

Коментування закрито.