СЕО OpenAI Сем Альтман розповів про виклики, які стоять перед його компанією, в інтерв’ю, яке відбулося минулого тижня. Він підкреслив, що найбільше його турбують «маленькі рішення» щодо поведінки ChatGPT, які можуть мати серйозні наслідки. Альтман зазначив, що розмова з AI може вплинути на життя людей, і це викликає у нього тривогу.

Одна з найскладніших тем, яку обговорювали в інтерв’ю, стосується підходу ChatGPT до питання самогубства. Альтман визнав, що сім’я підлітка, який скоїв самогубство, звинуватила чат-бота у цьому, і визнала, що деякі з користувачів, які можуть звертатися до ChatGPT в кризових ситуаціях, не отримують необхідної допомоги.

Він також розповів про етичні питання, пов’язані з розробкою ChatGPT, зокрема, про те, як OpenAI вирішує, які питання може чи не може відповісти чат-бот. Альтман підкреслив, що компанія консультується з моральними філософами, щоб визначити, які питання залишити без відповіді.

Щодо конфіденційності користувачів, Альтман зазначив, що він виступає за концепцію «AI-привілею», яка б захищала розмови з чат-ботами, як це робиться в медицині та юриспруденції. Це дозволило б користувачам відкрито говорити про свої проблеми, не боячись, що їхні дані будуть доступні уряду.

У розмові також піднімалося питання про те, чи можуть військові використовувати ChatGPT для негативних цілей. Альтман не дав чіткої відповіді, але зазначив, що багато людей у військових, ймовірно, спілкуються з ChatGPT за порадою.

Нарешті, Альтман висловив оптимізм щодо того, як AI може підвищити можливості людей, хоча й зауважив, що це може призвести до зникнення багатьох робочих місць у короткостроковій перспективі.