OpenAI сталкивается с еще одной жалобой на нарушение конфиденциальности в Европейском союзе. Эта жалоба, поданная некоммерческой организацией по правам на конфиденциальность noyb от имени отдельного жалобника, направлена на неспособность его исследовательского ассистента по чатам ChatGPT исправить неверную информацию, которую он генерирует о людях.
Тенденция GenAI-инструментов создавать неправильную информацию хорошо известна. Но это также ставит технологию на путь столкновения с Общим регламентом ЕС о защите данных (GDPR) — который регулирует, как может обрабатываться личная информация пользователей региона.
Наказания за нарушение требований GDPR могут составлять до 4% глобального годового оборота. Гораздо важнее для такого ресурсосодержательного гиганта, как OpenAI: регуляторы по защите данных могут приказать внести изменения в способы обработки информации, поэтому применение GDPR может изменить ход работы генеративных AI-инструментов в ЕС.
OpenAI уже был вынужден внести некоторые изменения после раннего вмешательства итальянского органа по защите данных, который кратковременно привел к местной приостановке работы ChatGPT в 2023 году.
Теперь noyb подает последнюю жалобу GDPR против ChatGPT в австрийский орган по защите данных от имени неименованного жалобника (описанного как 'общественный деятель'), который обнаружил, что их искусственный интеллект создал неверную дату рождения.
В соответствии с GDPR, люди в ЕС имеют ряд прав, связанных с информацией о них, включая право на исправление ошибочных данных. noyb утверждает, что OpenAI не выполняет это обязательство в отношении выводов своего чатбота. Организация заявила, что компания отказала в запросе жалующегося на исправление неверного дня рождения, ответив, что технически невозможно его исправить.
Вместо этого было предложено фильтровать или блокировать данные по определенным запросам, таким как имя жалобника.
Политика конфиденциальности OpenAI утверждает, что пользователи, заметившие, что их искусственный интеллект сгенерировал 'фактически неверную информацию о вас', могут отправить 'запрос на исправление' через privacy.openai.com или написав по адресу dsar@openai.com. Однако она предостерегает, что 'в связи с технической сложностью работы наших моделей мы можем не быть в состоянии исправить неточность в каждом случае'.
В этом случае OpenAI предлагает пользователям запросить удаление своей личной информации из вывода ChatGPT полностью, заполнив веб-форму.
Проблема для гиганта искусственного интеллекта заключается в том, что права GDPR не являются à la carte. Люди в Европе имеют право на запрос исправления. Они также имеют право запросить удаление своих данных. Но, как указывает noyb, OpenAI не имеет права выбирать, какие из этих прав доступны.
Другие аспекты жалобы сосредоточены на проблемах прозрачности GDPR, с noyb утверждая, что OpenAI не может сказать, откуда берется информация, которую она генерирует о людях, и какие данные хранит чатбот о людях.
Это важно, поскольку, снова же, регулирование дает людям право на запрос такой информации, обратившись с так называемым запросом на доступ к субъекту (SAR). По мнению noyb, OpenAI неадекватно ответила на SAR жалобника, не раскрывая никакой информации о обрабатываемых данных, их источниках или получателях.
Прокомментировав жалобу в заявлении, Маартье де Граф, адвокат по защите данных в noyb, сказал: 'Придумывание ложной информации довольно проблематично само по себе. Но когда речь идет о ложной информации о людях, могут быть серьезные последствия. Очевидно, что компании в настоящее время не в состоянии заставить чатботы, как ChatGPT, соответствовать законодательству ЕС при обработке данных о людях. Если система не способна производить точные и прозрачные результаты, она не может использоваться для генерации данных о людях. Технология должна соответствовать законным требованиям, а не наоборот'.
Компания заявила, что просит австрийский DPA расследовать жалобу о обработке данных OpenAI, а также настоятельно просит его наложить штраф, чтобы обеспечить будущее соблюдение. Однако она добавила, что 'вероятно' дело будет рассмотрено с помощью сотрудничества в рамках ЕС.
OpenAI уже столкнулся с очень похожей жалобой в Польше. В сентябре прошлого года местный орган по защите данных начал расследование ChatGPT после жалобы на нарушение GDPR, поданной исследователем по конфиденциальности и безопасности, который также обнаружил, что не смог добиться исправления неверной информации о себе от OpenAI. В этой жалобе также говорится, что гигант ИИ не соблюдает требования прозрачности регуляции.
Итальянский орган по защите данных, тем временем, все еще проводит расследование ChatGPT. В январе было представлено проектное решение, сказав тогда, что он считает, что OpenAI нарушила GDPR в нескольких аспектах, включая отношение чатбота к производству дезинформации о людях. Выводы также касаются других ключевых вопросов, таких как законность обработки.
Итальянский орган дал OpenAI месяц на ответ на свои выводы. Окончательное решение остается в ожидании.
Теперь, с еще одной жалобой GDPR, отправленной на его исследовательского ассистента по чатам, риск того, что OpenAI столкнется с серией применения GDPR в различных странах-членах, возрос.
Осенью компания открыла региональный офис в Дублине — видимо, с целью снизить регуляторный риск путем передачи жалоб на конфиденциальность в Ирландскую комиссию по защите данных благодаря механизму GDPR, который предназначен для упрощения надзора за кросс-бордерными жалобами, направляя их в один орган государства-члена, где компания находится в 'основном установленной'.
Чатбот ChatGPT нарушает законы конфиденциальности Европы, сообщает OpenAI Итальянскому DPA
Польша открыла проверку нарушения конфиденциальности ChatGPT после жалобы GDPR