В останні місяці технологічний сектор виявив значний зсув у своїх пріоритетах, оскільки компанії, такі як OpenAI та Google, зосереджуються на розробці продуктів, а не на дослідженнях штучного інтелекту (ШІ). З моменту запуску ChatGPT у 2022 році, експерти в галузі зауважують, що акцент на комерціалізації послуг ШІ призводить до зменшення уваги до безпеки.

Згідно з інформацією, отриманою CNBC від багатьох фахівців, технологічні компанії все частіше обходять стандарти безпеки при тестуванні своїх моделей перед випуском. Це викликає занепокоєння серед експертів, які наголошують, що нові моделі стають більш вразливими до маніпуляцій і можуть легше реагувати на шкідливі запити.

Джеймс Уайт, технічний директор CalypsoAI, зазначив, що сучасні моделі, хоч і покращуються, стають менш надійними в контексті захисту від зловмисних запитів. “Моделі покращуються, але вони також стають більш сприйнятливими до поганих дій,” – сказав він.

Зміни помітні у компаніях, таких як Meta та Alphabet, які зменшили фінансування своїх дослідницьких підрозділів. Наприклад, підрозділ FAIR у Meta відсторонений від основних проектів, а Google Brain інтегровано в DeepMind, що фокусується на розробці продуктів.

Експерти вказують на те, що зростаючі терміни розробки моделей заважають проведенню належних перевірок безпеки, що підвищує ризики для користувачів. Цей тренд може мати серйозні наслідки для галузі, оскільки компанії прагнуть досягти переваги на конкурентному ринку.