Всі новини | 29.07.2025 11:15
Глава OpenAI розповів, чому ChatGPT може становити загрозу для особистих даних

Обличчя ChatGPT і глава OpenAI Сем Альтман несподівано висловився проти використання хмарних АІ-чатботів, включно з власною розробкою. В одному подкасті Альтман прямо заявив, що набагато безпечніше запускати АІ-модель прямо на своєму комп'ютері.

Про це повідомляє РБК-Україна з посиланням на технологічний сайт PCWorld.

Причина - конфіденційність

"Люди розповідають ChatGPT найособистіші речі. Молодь використовує його як психотерапевта, коуча, радника зі стосунків. Але ж якби ви говорили про це з лікарем, адвокатом або психологом, це б підпадало під юридичну таємницю. Але з ChatGPT - ні", - заявив Альтман.

Так, OpenAI заявляє, що не ділиться вашими даними з третіми особами. Але юридичних гарантій на анонімність немає. І якщо суд зобов'яже компанію надати листування, вона, найімовірніше, це зробить.

"Якщо ви обговорюєте з ботом щось чутливе, а потім виникає судова справа, нас можуть зобов'язати надати ці дані", - підтвердив Альтман.

Він наголосив, що поки що не існує правової бази, яка захищала б розмови з АІ - як це роблять закони для лікарів, юристів і психотерапевтів.

Саме тому все більше користувачів звертаються до локальних LLM-моделей (Large Language Models), які працюють прямо на ПК - без підключення до хмари. Наприклад, GPT4All та інші. Такі моделі можна запускати з графічним або нейронним процесором, і вони не відправляють ваші дані на сервер.

Локальні чати можна не зберігати зовсім, а за необхідності - відразу видалити. Це особливо важливо, якщо ви не хочете, щоб ваші розмови спливли в неприємний момент.

Однак варто пам'ятати: якщо ваш комп'ютер вилучають за рішенням суду, видалення компрометуючих даних може бути розцінено як спроба приховати докази. Це вже кримінальна відповідальність.

Запуск локального ШІ-асистента - абсолютно легальний. Але якщо ви дійсно шукаєте емоційну підтримку або намагаєтеся розібратися в собі, краще звернутися до живого, кваліфікованого фахівця.

Вас може зацікавити:

  • ШІ-моделі почали передавати одна одній спотворюючі дані
  • Чим небезпечний доступ ШІ до ваших особистих даних
  • Дослідження виявило несподівані ризики використання ШІ як психолога