Умный дом или умный шпион? ИИ пылесосов Ecovacs учится на ваших фотографиях

· SecurityLab.ru · Подписаться

В роботах-пылесосах Ecovacs, которые страдают от серьезных уязвимостей в области кибербезопасности, обнаружено, что они собирают фото, видео и голосовые записи, сделанные в домах пользователей, для обучения моделей искусственного интеллекта компании. Ecovacs, китайский производитель популярных моделей Deebot, утверждает, что пользователи добровольно участвуют в программе улучшения продукта, хотя при подключении через приложение на смартфоне не уточняется, какие данные будут собираться. Пользователям предлагают ознакомиться с деталями через ссылку, которой на указанной странице нет.

Согласно политике конфиденциальности Ecovacs, компания может собирать 2D и 3D карты домов, голосовые записи с микрофона и изображения с камер устройств для исследовательских целей. Даже после удаления таких данных они могут оставаться на серверах Ecovacs и использоваться для дальнейших разработок. Представители компании подтвердили, что собранные данные используются для обучения искусственного интеллекта, при этом информация якобы анонимизируется на уровне устройства.

Однако эксперты по кибербезопасности выражают обеспокоенность по поводу способности Ecovacs защитить такие данные. Ранее исследователь Деннис Гизе выявил уязвимости, позволяющие удаленно получить доступ к камерам пылесосов, что поставило под сомнение безопасность конфиденциальной информации пользователей. Исследователь также подчеркнул, что даже если компания не имеет злого умысла, она может стать жертвой промышленного шпионажа или действий других государств.

Ecovacs, стоимость которой оценивается в 4,6 миллиарда долларов, пообещала исправить обнаруженные проблемы в своих флагманских моделях уже в ноябре. Компания также заявила, что данные, собранные в рамках программы улучшения продуктов, анонимизируются перед отправкой на серверы, и доступ к ним ограничен строгими протоколами управления.

Случаи утечки изображений, сделанных роботами-пылесосами, уже имели место. В 2022 году интимные фотографии, сделанные устройствами iRobot , оказались в открытом доступе на Facebook, что вызвало шквал критики в отношении безопасности данных, собираемых такими устройствами. Эти утечки происходили из-за действий подрядчиков, нанятых для анализа собранных данных. Одна из компаний, ответственная за утечку данных, Scale AI, специализируется на создании данных для обучения алгоритмов, и её подрядчики ранее утекали изображения пользователей в социальные сети.

Тем временем исследователи из Австралийского центра робототехники разработали технологию , которая может предотвратить подобные инциденты. Она изменяет принцип работы камеры робота, делая изображения неузнаваемыми, при этом сохраняется достаточно информации для навигации. Это решение может стать ключом к повышению уровня конфиденциальности в будущем, но пока оно не готово для массового производства.