От дипфейков до груминга. В ООН предупредили о нарастающих угрозах ИИ для детей
KG

От дипфейков до груминга. В ООН предупредили о нарастающих угрозах ИИ для детей

Все самое интересное в Telegram

В сети распространяются огромные объемы вредоносного контента, создаваемого с помощью искусственного интеллекта. В связи с этим структуры ООН выступили со срочным призывом принять комплекс мер для защиты детей от насилия, эксплуатации и психологических травм.

Как сообщили в Службе новостей ООН, директор Бюро развития электросвязи Международного союза электросвязи (МСЭ), одного из агентств, подготовивших совместное заявление с рекомендациями и руководящими принципами, Космас Завазава рассказал о широком спектре угроз, с которыми сталкиваются дети. Речь идет о груминге, дипфейках, внедрении вредоносных функций в цифровые сервисы, кибербуллинге и доступе к неприемлемому контенту.

"Во время пандемии COVID-19 мы увидели, что многие дети, особенно девочки и девушки, подвергались онлайн-насилию, и во многих случаях это приводило к физическому вреду", - отметил он.

Организации, работающие в сфере защиты детей, сообщают, что злоумышленники могут использовать ИИ для анализа поведения ребенка в интернете, его эмоционального состояния и интересов, чтобы точнее выстраивать стратегию вовлечения и манипуляции. Указано, что ИИ также позволяет преступникам создавать поддельные изображения реальных детей, что привело к появлению новой формы сексуализированного вымогательства.

Согласно докладу независимого Института глобальной безопасности детей Childlight за 2025 год, в США число случаев сексуализированного насилия в отношении детей, совершенного с использованием технологий, выросло с 4 700 в 2023 году до более чем 67 тысяч в 2024-м.

Недостаток знаний об ИИ

В начале 2026 года целый ряд структур ООН, занимающихся вопросами защиты детей, подписали Совместное заявление об искусственном интеллекте и правах ребенка. В документе прямо говорится о серьезных рисках и о том, что общество пока не готово с ними справиться.

В заявлении подчеркивается низкий уровень знаний об ИИ среди детей, учителей, родителей и опекунов, а также нехватка технической подготовки у государственных органов в вопросах регулирования ИИ, защиты данных и оценки влияния технологий на права ребенка.

Ответственность технологических компаний

Отдельное внимание уделяется роли технологических гигантов. В заявлении отмечается, что большинство инструментов на базе ИИ - вместе с лежащими в их основе моделями, методами и системами - в настоящее время разрабатываются без учета интересов детей и их благополучия. "Мы действительно обеспокоены и хотим, чтобы частный сектор был вовлеченным, активным участником и стал частью общей истории, которую мы пишем вместе с другими агентствами ООН и партнерами, считающими, что технологии могут быть инструментом развития, но могут и приводить к ущербу", - заявил Завазава.

При этом он выразил уверенность, что компании готовы делать свои продукты безопаснее: "Сначала мы чувствовали, что они опасаются задушить инновации, но наш посыл очень ясен: при ответственном использовании ИИ можно получать прибыль, вести бизнес и сохранять долю рынка".

"Частный сектор - наш партнер, но мы обязаны бить тревогу, когда видим, что технологии могут привести к нежелательным последствиям", - добавил представитель МСЭ.

Вопрос прав ребенка

Это не первый раз, когда на подобные риски обращают внимание с правозащитной точки зрения: в 2021 году к Конвенции о правах ребенка были добавлены новые положения, отражающие вызовы цифровой эпохи. Тем не менее, по мнению агентств ООН, странам требуется больше практических ориентиров для эффективного регулирования, и в этой связи был подготовлен подробный перечень рекомендаций. "Дети выходят в онлайн во все более раннем возрасте, и их нужно защищать, - подчеркнул Завазава. - Именно поэтому мы разработали рекомендации по защите детей в интернете. Первая часть адресована родителям, вторая - учителям, третья - регулирующим органам, а четвертая – индустрии и частному сектору".

Ключевые рекомендации

  • Государствам следует укреплять системы регулирования ИИ, чтобы защищать права ребенка.
  • Международным организациям рекомендуется учитывать права детей во всех мерах и стратегиях, связанных с ИИ.
  • Правительства и компании должны обеспечивать прозрачность, подотчетность и безопасность систем ИИ.
  • Государствам необходимо предотвращать и пресекать насилие и эксплуатацию детей, совершаемые или усиливаемые с помощью ИИ.
  • Требуются более надежные, ориентированные на ребенка механизмы защиты данных.
  • Решения, принимаемые с помощью ИИ, должны учитывать наилучшие интересы и всестороннее развитие каждого ребенка.
  • ИИ должен быть инклюзивным и свободным от предвзятости, чтобы все дети могли получать равную пользу от технологий.
  • Мнение и опыт самих детей должны учитываться при разработке политики и систем ИИ.
  • Развитие ИИ должно способствовать экологической устойчивости и минимизировать долгосрочный вред для будущих поколений.

Фото на главной странице иллюстративное: zavtra.ru.

Есть тема? Пишите Kaktus.media в Telegram и WhatsApp: +996 (700) 62 07 60.
url: https://kaktus.media/539887