Компанія Character.AI оголосила про зміни, які обмежать можливість підлітків вести відкриті розмови з чат-ботами, включаючи романтичні та терапевтичні теми. Ці заходи запроваджуються у зв’язку з трагедією, що сталася минулого року, коли 14-річний підліток покінчив життя після спілкування з чат-ботами на платформі.

Згідно з новими правилами, особи молодше 18 років матимуть доступ лише до двох годин відкритих чатів на день, а можливість спілкуватися на чутливі теми буде повністю закрито до 25 листопада 2024 року. Генеральний директор Character.AI, Карандеп Ананд, підкреслив, що ці зміни є важливим кроком для забезпечення безпеки молодих користувачів.

Компанія також планує впровадити функцію вікової перевірки, яка використовуватиме як власне, так і стороннє програмне забезпечення для контролю за віком користувачів. Для цього Character.AI співпрацює з компанією Persona, яка вже використовується іншими платформами, такими як Discord.

Нагадаємо, що минулого року сім’я покійного підлітка подала позов про неправомірну смерть проти Character.AI. Ці події викликали занепокоєння серед розробників штучного інтелекту, які опинилися під контролем після кількох трагічних випадків, пов’язаних із взаємодією користувачів з чат-ботами.