
Apple та Google попросять блокувати фотографії оголеного тіла, якщо вік користувача не буде підтверджено
в iCases BlogУ новому звіті йдеться, що британський уряд звернеться до Apple та Google із проханням заблокувати зйомку та поширення фотографій оголеного тіла, якщо користувач не буде підтверджено як повнолітній.
Останнім часом дедалі більше підтримки отримує концепція, за якою відповідальність за перевірку віку користувачів мають нести не окремі розробники, а самі магазини застосунків. У США це вже вилилося в законодавчу ініціативу під назвою App Store Accountability Act.
Логіка проста: замість того щоб щоразу доводити свій вік кожному окремому застосунку з віковими обмеженнями, користувач проходить перевірку лише один раз — безпосередньо в Apple або Google. Після цього система автоматично контролює доступ до контенту та програм відповідно до віку.
Apple наразі активно виступає проти такого підходу, однак ми вже писали, що саме ця модель може виявитися найбільш ефективною і збалансованою.
Apple і Google можуть зобов’язати блокувати оголені фото
Новий етап дискусії описує Financial Times. За інформацією видання, уряд Великої Британії планує звернутися до Apple та Google з вимогою посилити захист дітей від створення та перегляду оголених зображень.
Міністри хочуть, щоб у самі операційні системи були вбудовані алгоритми розпізнавання наготи. Такі механізми мають блокувати зйомку або обмін зображеннями інтимного характеру, якщо користувач не підтвердив свій дорослий статус.
Більше того, Міністерство внутрішніх справ Великої Британії наполягає на тому, щоб операційні системи взагалі не відображали жодного оголеного контенту на екрані без попередньої перевірки віку. Серед можливих способів підтвердження розглядаються біометричні дані або офіційні документи.
За даними джерел, відповідну заяву можуть зробити вже найближчими днями. Водночас формулювання ініціативи натякає, що наразі йдеться радше про рекомендацію, а не про жорстку законодавчу вимогу.
Що Apple уже робить зараз
Варто зазначити, що певні інструменти захисту дітей Apple уже має. Наприклад, у застосунку Messages для сімейних iCloud-акаунтів діє система попереджень. Якщо дитина отримує відверте зображення, воно спочатку розмивається, а на екрані з’являється повідомлення з поясненням.
Якщо ж користувач усе-таки вирішує відкрити фото, система додатково попереджає про чутливий контент і повідомляє, що батько або опікун, який керує сімейною групою, отримає сповіщення. Це рішення вже зараз показує, у якому напрямку Apple готова рухатися, хоча нові ініціативи можуть значно розширити ці обмеження.

