Apple впроваджує функцію для боротьби з дитячою порнографією, використовуючи штучний інтелект

Apple запускає функцію з виявлення забороненого контенту в iOS, спрямовану на захист дітей від CSAM.
Джерело: techno.nv.ua
Apple запустила нову функцію на основі штучного інтелекту, яка має на меті обмежити поширення контенту, пов’язаного із сексуальним насильством над дітьми (CSAM). Спершу ця функція з’явилася в Австралії, де системи компанії сканують фотографії та відео на пристроях iPhone та iPad у таких застосунках, як Повідомлення, AirDrop, Контакти та FaceTime. Окрім цього, функція сканує контент у деяких сторонніх додатках.
За допомогою машинного навчання пристрої зможуть виявляти заборонені зображення. У випадку виявлення ймовірного CSAM зображення буде розмито, а користувачеві з’явиться попередження про конфіденційність контенту. Дітям до 13 років для продовження використання пристрою доведеться ввести пароль. Для старших користувачів буде можливість продовжити перегляд із постійними нагадуваннями про можливість відмовитися.
Користувачі також зможуть повідомляти Apple про підозрілий контент. Пристрій готуватиме звіт із проблемним зображенням, контактною інформацією та попередніми повідомленнями. Ця інформація може бути передана правоохоронцям для подальших дій.
Apple планує запустити функцію глобально після завершення тестування в Австралії.
Вам сподобається:







