Корпорация Apple окончательно отказалась от идеи проверять фото на устройствах пользователей на предмет наличия детской порнографии. Полтора года назад, когда стало известно о планах запустить такую систему, в IT-индустрии встретили анонс критикой Apple и обвинениями в потенциальном нарушении конфиденциальности. Теперь корпорация признает, что дети могут быть защищены и без компаний, специально проверяющих личную информацию.
О том, что Apple собирается сканировать фотографии пользователей на их устройствах, чтобы выявлять случаи жестокого обращения с детьми, впервые стало известно 5 августа 2021 года из публикации Financial Times. Вскоре Apple подтвердила такие планы.
Предполагалось, что новая система будет сверять снимки пользователей с государственной базой данных подозрительных материалов — и, если бы алгоритм обнаруживал совпадение, отправлять сигнал сотрудникам Apple. Они бы вручную проводили проверку изображения на предмет нарушения прав детей и в случае необходимости связывались с полицией.
Анонс такой функции вызвал крупный резонанс в IT-сообществе сразу по нескольким причинам. Во-первых, специалисты и обычные пользователи устройств Apple начали опасаться злоупотребления функцией — точно ли она будет использоваться только для наказания тех, кто жестоко обращается с детьми? И не откроет ли Apple полицейским и спецслужбам доступ к данным законопослушных и ни в чем не подозреваемых граждан? А что может произойти, если такая функция попадет в руки мошенников? Эдвард Сноуден напрямую назвал нововведение «развертыванием массовой слежки».
Еще одна важная причина для беспокойства — отсутствие понимания, как именно алгоритм будет отличать детскую порнографию от условного фото детей, которое у себя дома сделал их родитель? Многим добавило тревоги то, что некоторые исследователи даже показали, как можно обмануть подобное программное обеспечение — и выдать одно фото за другое.
Apple пришлось несколько раз отвечать на обвинения, повторяя, что ее главная цель — защитить детей от тех, кто жестоко с ними обращается. А также ограничить распространение материалов с сексуализированным насилием над несовершеннолетними. Сначала корпорация объяснила, как именно будет работать проверка фото и как при этом процессе будут защищены персональные данные пользователей, а затем выпустила подробный FAQ. Отвечая на популярные вопросы, компания в том числе подчеркнула: она не собиралась сканировать все фотографии всех пользователей; алгоритм сделан так, что родителям с безобидными фотографиями их детей в ванной ничего не угрожает; доступ правительству она предоставлять не собирается, как и использовать технологию в других целях.
Объяснения со стороны Apple не помогли ей справиться с негативной реакцией IT-сообщества: в начале сентября 2021 года она объявила о приостановке программы. На тот момент это не означало полную отмену планов — в Apple сообщили, что им требуется дополнительное время на доработку функции. Впрочем, что конкретно компания собиралась исправить и когда намеревалась рассказать об изменениях, не уточнялось.
В декабре того же года СМИ обратили внимание, что с сайта Apple пропали все ссылки и упоминания технологии сканирования фото. Представитель компании Шейн Бауер это подтвердил, назвал ПО «сырым» и уточнил, что компания пока не отказалась от планов по его внедрению и работает над ним с учетом замечаний специалистов и правозащитников.
В итоге, спустя полтора года после анонса, 7 декабря 2022 года Apple объявила, что полностью отказалась от внедрения технологии. В заявлении говорится, что компания пошла на это решение в результате консультаций с экспертами:
Дети могут быть защищены без компаний, проверяющих личные данные. Мы продолжим работать с властями, защитниками прав детей и другими компаниями, чтобы защищать молодых людей и сохранять их право на неприкосновенность частной жизни — а также чтобы сделать интернет безопаснее для детей и для нас всех.
«Сексуализированное насилие над детьми можно предотвратить до того, как оно случится. Это то [направление], в которое мы вкладываем нашу энергию», — заявил в интервью The Wall Street Journal старший вице-президент Apple по разработке ПО Крейг Федериги. Он имел в виду уже работающую защиту детей от обнаженных фото и видео через iMessage, а также новые функции по усилению безопасности, анонсированные Apple 7 декабря и планируемые к запуску в начале 2023 года:
- новую возможность защитить Apple ID от мошенников — с использованием физических ключей безопасности вместо кода подтверждения с другого устройства;
- возможность проверить, что вы общаетесь в iMessage именно с тем человеком, с которым хотели, — можно запросить проверку контактного ключа. Код, который отобразится на обоих устройствах, можно сверить лично или во время звонка, например, по FaceTime;
- расширение защиты данных iCloud: если сейчас Apple использует сквозное шифрование для 14 типов пользовательских данных (например, пароли и данные о здоровье), то теперь собирается распространить его на 23 категории. Среди них — «Фото», «Заметки» и «Напоминания», iCloud Drive, закладки в Safari и облачные резервные копии.
Последним нововведением Apple уже недовольны спецслужбы — ФБР в заявлении для Washington Post сказало, что «глубоко обеспокоено угрозами, которые несет сквозное шифрование и шифрование с доступом только для пользователей». Такие меры Apple, по мнению бюро, усложняют его работу по «защите американского народа от преступных действий, начиная от кибератак и насилия в отношении детей и заканчивая наркоторговлей, организованной преступностью и терроризмом». ФБР также отметило, что спецслужбам нужен преднамеренный «законный доступ» к персональным данным пользователей.
Проблема распространения контента о жестоком обращении над детьми, в том числе сексуализированном насилии, остается реальной и усугубляется — но очевидно, что в будущем от правительств и IT-компаний ждут куда менее спорного способа ее решения.
iOS 15
Операционная система для ряда устройств Apple, выпущенная в сентябре 2021 года. Самая актуальная версия — iOS 16 (2022).
CSAM
Материалы, описывающие сексуализированное насилие над детьми (Child Sexual Abuse Material).
А в iCloud?
Apple на тот момент уже рассказала, что сканирует фотографии в iCloud на предмет насилия над детьми.
То есть?
В FAQ от Apple уточнялось, что компания собиралась сканировать только те фотографии, что пользователь устройства решил выгрузить в облачное хранилище iCloud. Если выключить выгрузку, то ПО работать не будет.
Что за база?
Речь о том, что Apple планировала не создавать собственную базу подозрительного контента с нуля, а использовать готовый архив снимков от Национального центра пропавших без вести и эксплуатируемых детей в США.
И сотрудники Apple видели бы фотографии пользователей?
Все немного сложнее. Сначала специальный алгоритм сопоставлял бы фотографии пользователей с государственной базой данных по хеш-суммам. Для ИИ все было бы понятно, тогда как сотрудники Apple изначально видели бы вместо фотографии лишь набор символов. Уже при необходимости во время ручной проверки Apple могла бы расшифровать фото.
А пользователь знал бы об этом?
Нет. В зависимости от того, подозрительный кадр или нет, изображение получало бы соответствующую пометку, не видную владельцу устройства.
О чем речь?
Начиная с iOS 15.2, Apple скрывает обнаженные фото в сообщениях детей, отправленных или полученных через iMessage. Кроме того что фото будет размытым, появится предупреждение об опасности такого контента. Опция отключена по умолчанию, но родители могут активировать ее через «Семейный доступ». Это нововведение, как и сканирование фото на устройствах, Apple анонсировала в августе 2021 года — и оно работает уже более года.