Вечером вчера произошло очень важное, однако мало замеченное российскими источниками дело: Apple официально подтвердили что будут проверять фотки в iCloud Photos на предмет CSAM (Child Sexual Abuse Material), т.е. детского порно. И более того, с помощью машинного обучения прямо на устройстве айфон будет вам намекать, о том что содержимое фоток может быть не совсем подходящим. Это касается не только фоток в айклауде, но и изображений, пересылаемых через iMessage и тп.

Почему это так важно: по сути Эппл признались, что они будут заниматься изучением фотографий, которые вы делаете. Без разницы с какой целью, это означает “цифровой досмотр” того, что вы делаете со своим устройством. Безусловно, борьба с детским порно важная тема, однако в современном мире если ты признался, что можешь досматривать фотки на предмет детского порно - ты автоматически сознался что можешь досматривать фотки, а значит правительства всего мира не замедлят прийти и намекнуть, что они хотели бы знать о содержимом ваших фоток. Не знаю как вы, а я очень, очень расстроен, настолько что даже поддерживаю EFF в их праведном гневе.

Даже то, что эппл обещает делать это все прямо на вашем устройстве не облегчает ситуацию. Ложные срабатывания бывают у любого алгоритма, это обязательно приведет к тому, что часть ваших невинных фоток будут размечены как детское порно. https://www.eff.org/deeplinks/2021/08/apples-plan-think-different-about-encryption-opens-backdoor-your-private-life
Guide on How to Download Instagram Videos Effortlessly