Microsoft може зберігати ваші розмови в Bing Chat

3 хв. читання

Ого. Microsoft може зберігати інформацію з ваших чатів Bing.

im 727554

Це, мабуть, цілком нормально, якщо ви ніколи не писали в чаті про те, що не хотіли б, щоб хтось читав, або якщо ви думали, що ваші чати Bing будуть видалені, або якщо ви вважали, що у вас більше приватності, ніж насправді є.

У своїх умовах надання послуг Microsoft оновила політику щодо штучного інтелекту. У новій політиці, яка була представлена 30 липня і набуває чинності 30 вересня, повідомляється: “У рамках надання послуг штучного інтелекту корпорація Microsoft оброблятиме та зберігатиме ваші вхідні дані, а також вихідні дані служби з метою моніторингу та запобігання зловживанню або шкідливому використанню служби”.

Читайте також: Bing впроваджує ШІ: 5 речей, які варто спробувати за допомогою нових інструментів пошуку Microsoft

Згідно з новим пунктом “Служби на основі штучного інтелекту” в умовах надання послуг Microsoft, Microsoft може зберігати ваші розмови з Bing, якщо ви не є корпоративним користувачем – і ми не знаємо, як довго.

Microsoft не одразу відповіла на запит Mashable про коментарі, а представник Microsoft відмовився коментувати Register, як довго компанія буде зберігати дані користувачів.

“Ми регулярно оновлюємо наші умови надання послуг, щоб краще відображати наші продукти і послуги”, – сказав представник компанії в заяві для Register. “Останнє оновлення Угоди про надання послуг Microsoft включає додавання формулювань, які відображають штучний інтелект у наших службах і його належне використання клієнтами”.

Крім зберігання даних, в новому пункті про служби ШІ з’явилися чотири додаткові політики. Користувачі не можуть використовувати послуги ШІ для “розкриття будь-яких базових компонентів моделей, алгоритмів і систем”. Користувачам не дозволяється витягувати дані з сервісів штучного інтелекту. Користувачі не можуть використовувати послуги ШІ для “створення, навчання або поліпшення (прямо чи опосередковано) будь-якої іншої послуги ШІ”. І нарешті, користувачі “несуть повну відповідальність за реагування на будь-які претензії третіх осіб щодо використання вами послуг штучного інтелекту відповідно до чинного законодавства (включаючи, але не обмежуючись цим, порушення авторських прав або інші претензії, пов’язані з контентом, що виводиться під час використання вами послуг штучного інтелекту)”.

Читайте також: ChatGPT проти Bing Chat: який чат-бот AI вам слід використовувати?

Тож, можливо, варто бути трохи обережнішими під час використання чатів Microsoft Bing або перейти в режим Bing Enterprise Chat – у липні Microsoft заявила, що не зберігає ці розмови.

Поділитися
Exit mobile version