Згідно з Cointelegraph, генеральний директор OpenAI Сем Алтман висловив стурбованість щодо можливих юридичних наслідків обміну чутливою інформацією з AI-чатом компанії, ChatGPT. Під час недавнього інтерв'ю з подкастером Тео Воном Алтман підкреслив відсутність захисту конфіденційності для розмов з AI, порівнюючи це з юридичними привілеями, наданими для обговорень з терапевтами, юристами чи лікарями. Він зазначив, що якщо користувачі розкривають чутливу інформацію ChatGPT і виникає позов, OpenAI може бути змушена надати ці розмови.
Коментарі Алтмана звучать на фоні зростаючого використання AI для психологічної підтримки, медичних та фінансових консультацій. Він висловив свою думку, що розмови з AI повинні мати такі ж захисти конфіденційності, як і з професіоналами, такими як терапевти. Алтман також підкреслив відсутність юридичної основи для AI, описуючи це як значну проблему. Він зізнався, що обережно ставиться до використання AI для особистих справ через невизначеність щодо конфіденційності даних і прав власності. Алтман згадав, що політики, з якими він спілкувався, визнають необхідність швидких дій для вирішення цих проблем конфіденційності.
Окрім індивідуальної конфіденційності, Алтман висловив занепокоєння щодо ширших наслідків впровадження AI, зокрема щодо спостереження. Він припустив, що з поширенням AI уряди можуть збільшити спостереження, щоб запобігти зловживанням технологією з шкідливими цілями. Хоча Алтман визнав необхідність деяких компромісів у конфіденційності для колективної безпеки, він попередив про надмірне втручання уряду, наводячи історичні прецеденти, коли конфіденційність була надмірно порушена. Його коментарі підкреслюють термінову необхідність збалансованого підходу до конфіденційності та безпеки в епоху AI.