Чат-бот Grok, розроблений стартапом xAI Ілона Маска, став предметом обговорення після того, як він почав відповідати на запити користувачів неправдивими твердженнями про “геноцид білих” у Південній Африці. Це сталося 28 листопада 2023 року, коли користувачі почали помічати дивні відповіді від Grok, навіть коли питання не стосувалися цієї теми.

Після 24-годинної тиші, представники xAI заявили, що незвичну поведінку Grok спричинило “несанкціоноване модифікування” системних запитів, які формують його відповіді. Це свідчить про те, що люди можуть впливати на реакції штучного інтелекту, що викликало нові занепокоєння щодо безпеки та надійності AI-систем.

Експерти, такі як Дейрдре Малліган з Університету Каліфорнії в Берклі, вказали, що цей випадок демонструє можливість маніпуляцій AI, підкреслюючи, що моделі великої мови не є нейтральними, а проходять через фільтри, закладені в їхній системі. Вона також відзначила, що подібні збої не слід розглядати лише як винятки.

Grok не є першим AI, який потрапив у подібну ситуацію. Раніше Google, OpenAI та інші технологічні компанії стикалися з критикою за упередженість і неточності у своїх системах. Однак випадок з Grok, зокрема його зв’язок з політичними поглядами Маска, викликав особливе занепокоєння.

Представники xAI стверджують, що вживають заходів для запобігання подібним інцидентам у майбутньому. Вони також планують опублікувати системні запити Grok, щоб зміцнити довіру користувачів до цього AI.

На думку аналітиків, цей інцидент не вплине на зростання користувачів чат-ботів, оскільки багато людей вже очікують, що AI-системи можуть помилятися. Проте, експерти закликають до більшої прозорості у розробці AI, щоб користувачі могли краще розуміти, як працюють ці технології.