OpenAI, розробник чат-бота ChatGPT, отримав скаргу з Норвегії через поширення неправдивої інформації про особу. Один з норвежців виявив, що ChatGPT створив вигадані відомості, нібито він був засуджений за вбивство двох своїх дітей та спробу вбивства третьої. Ці безпідставні звинувачення завдали значної шкоди його репутації.

Підтримуючи постраждалого, група захисту прав NOYB (None of Your Business) подала скаргу до норвезького органу захисту даних Datatilsynet. Вони стверджують, що ChatGPT порушує Загальний регламент захисту даних (GDPR), створюючи та поширюючи неточні особисті дані. Юрист NOYB Йоакім Седерберг зазначив: “GDPR чітко вказує, що особисті дані повинні бути точними. Якщо це не так, користувачі мають право вимагати їх виправлення”.

Згідно з GDPR, організації зобов’язані забезпечувати точність оброблюваних особистих даних. У цьому випадку створення ChatGPT неправдивої інформації про скаржника може розглядатися як порушення цих положень. Підтверджені порушення GDPR можуть призвести до штрафів до 4% річного глобального доходу компанії.

Цей випадок не є першим, коли неточності ChatGPT, відомі як “галюцинації”, призвели до правових проблем. У 2023 році мер Австралії розглядав можливість подачі позову після того, як ChatGPT неправдиво стверджував, що він був ув’язнений за хабарництво. У 2024 році італійський орган захисту даних оштрафував OpenAI на 15 мільйонів євро за обробку особистих даних без належної правової основи.

OpenAI визнала, що ChatGPT може генерувати неточну інформацію, і запровадила попередження для користувачів перевіряти результати. Проте критики вважають, що такі попередження недостатні для запобігання шкоди від неправдивої інформації. Якщо норвезький орган захисту даних визнає OpenAI винним у порушенні GDPR, компанія може зіткнутися з суттєвими штрафами та необхідністю вжити заходів для запобігання майбутнім неточностям.

Цей випадок підкреслює зростаючу увагу до систем штучного інтелекту, таких як ChatGPT, та їх дотримання законів про захист даних.