Крупные технологические компании, такие как Google, Adobe и Meta✴, вносят изменения в свою политику конфиденциальности, позволяющую им использовать данные пользователей для обучения моделей искусственного интеллекта (ИИ). Эти изменения часто вносятся незаметно и завуалированно, чтобы избежать негативной реакции.
Федеральная комиссия США по торговле (FTC) предупредила, что такие действия могут быть незаконными и нарушают обязательства компаний по защите конфиденциальности пользователей. Однако, согласно проведённому анализу The New York Times, компании тихо корректируют свои положения и условия, включая термины, связанные с ИИ, чтобы обеспечить себе юридическое прикрытие.
Напомним, Google внесла изменения в свою политику конфиденциальности в июле прошлого года, подчёркивая, что собирается использовать общедоступную информацию для обучения своих языковых ИИ-моделей. Adobe также обновила свои условия, что вызвало негативную реакцию пользователей, когда стало известно, что они могут потерять доступ к своим проектам, если не согласятся с новыми условиями. Тогда это привело к массовому отказу от подписки на сервисы компании.
Meta✴, со своей стороны, объявила в мае о намерении использовать общедоступные посты в Facebook✴ и Instagram✴ для обучения ИИ, но была вынуждена отложить эти планы из-за жалобы международной общественной организации по защите прав человека в интернете (European Center for Digital Rights, EDRi).
Пока неизвестно, какие меры предпримет FTC в ответ на растущую тенденцию изменений политики конфиденциальности с целью включения обучения ИИ на пользовательских данных.