На этом фото, предоставленном семьей, изображен Адам Рейн. Фото предоставлено семьей Рейн.
5 минут чтения
Цель состоит в том, чтобы привлечение внимания общественности и внедрение сторонних стандартов спровоцировали, по словам генерального директора Common Sense Media Джеймса Стейера, «гонку за лидерство», в рамках которой технологические компании будут внедрять решения в области безопасности для улучшения своего положения на рынке.
Ведущие компании, занимающиеся искусственным интеллектом, инвестируют в исследования безопасности, чтобы «сделать свои модели максимально качественными, но независимой оценки этого нет», — заявил CNN Джон Джаннандреа, бывший руководитель отдела стратегии ИИ в Apple, вошедший в консультативный совет института. «Мы на самом деле не знаем, какие модели больше подходят для детей определенного возраста, чем другие, и я думаю, что единственный реальный способ это выяснить — это иметь независимый набор общедоступных стандартов».
Запуск чат-ботов происходит на фоне многочисленных исков, поданных семьями против компаний, занимающихся разработкой ИИ, которые утверждают, что чат-боты подстрекали их детей к самоубийствам. Недавнее расследование CNN показало, что чат-боты с ИИ давали подросткам, участвовавшим в тестовых аккаунтах, советы о том, как совершать насилие. Чат-бот Grok от xAI подвергся критике ранее в этом году за распространение изображений сексуального характера с участием женщин и детей в ответ на запросы пользователей о «цифровом раздевании». А растущее внедрение ИИ в школах поднимает вопросы о том, может ли эта технология препятствовать обучению.
«Я думаю, многие родители, педагоги и граждане считают, что мы переживаем катастрофический момент, поскольку искусственный интеллект меняет жизнь детей, семей, школ и, откровенно говоря, всего общества», — заявил Стейер в эксклюзивном интервью CNN перед объявлением о создании группы во вторник.
Независимые критерии безопасности молодежи
Институт начнет свою работу с годовым бюджетом в 20 миллионов долларов, при поддержке OpenAI, Anthropic и Pinterest, а также Фонда семьи Уолтон, управляющего директора Goldman Sachs Джина Сайкса и других филантропов. По данным Common Sense, спонсоры не будут иметь никакого влияния на деятельность или исследования группы.
В состав консультативного совета группы также войдут Мехран Сахами, заведующий кафедрой компьютерных наук Инженерной школы Стэнфордского университета; доктор Дженни Радески, директор отделения педиатрии развития и поведения Медицинской школы Мичиганского университета; и доктор Надин Берк Харрис, которая занимала пост первого в истории главного хирурга Калифорнии, — таким образом, группа объединит свой опыт в области исследований, разработки стандартов и создания технологических продуктов.
Институт проведет «тестирование на прочность» ведущих моделей и продуктов искусственного интеллекта, используемых молодежью, — стресс-тестирование для выявления потенциальных рисков или недостатков в системах безопасности. Затем результаты исследований будут опубликованы в виде удобных для потребителей руководств и разработаны стандарты безопасности ИИ для молодежи, или контрольные показатели, которые технологические компании смогут использовать для разработки или улучшения своей продукции. Публикация результатов исследований запланирована на этот месяц.
Компании, занимающиеся искусственным интеллектом, уже используют подобные эталонные показатели для измерения и сравнения своей производительности по другим параметрам. Группа надеется, что общественное давление, а также связи в отрасли, побудят компании, занимающиеся ИИ, включить эти стандарты в свои разработки и тестирование, а также внести изменения в систему безопасности для улучшения своих позиций.
«Контрольные показатели — это действительно жизненно важный инструмент для оценки и понимания того, приводят ли все эти инвестиции к созданию более качественных моделей», — сказала Джаннандреа. «Нам нужен контрольный показатель для оценки вреда, и в частности, вреда, причиняемого детям».
Одной из проблем для исследователей является темп развития ИИ. В отличие от физических продуктов, которые выпускаются с регулярной периодичностью и могут мало меняться после выхода на рынок, модели ИИ часто получают новые возможности обновления — и, следовательно, потенциально новые риски — еженедельно или ежемесячно.
Статья по теме

21 апреля 2026 года в Вашингтоне, округ Колумбия, группа родителей и активистов собралась у Капитолия США, чтобы добиваться принятия закона о безопасности в интернете. CNN
4 минуты чтения
Создание Института безопасности ИИ для молодежи в качестве отдельной организации позволит проводить еще более частые и масштабные исследования, чтобы идти в ногу с быстрым развитием моделей ИИ, сказал Стейер.
Организация Common Sense Media широко используется родителями и педагогами для оценки фильмов, видеоигр и других онлайн-платформ; по данным организации, ее платформы ежемесячно используют 150 миллионов человек. Она уже изучает риски, связанные с искусственным интеллектом. В прошлом году организация предупредила, что приложения-компаньоны на основе ИИ представляют «неприемлемые риски» для молодежи.
Также были опубликованы оценки рисков инструментов искусственного интеллекта, таких как ChatGPT, MetaAI и Grok от OpenAI. В этих отчетах инструменты ранжируются по шкале от «минимального риска» до «неприемлемого» по таким показателям, как безопасность детей, использование данных и надежность, и приводятся примеры того, где инструменты не соответствуют требованиям.
Институт безопасности молодежи в сфере ИИ стремится избежать повторения проблем безопасности, характерных для эпохи социальных сетей. Потребовались годы, прежде чем информаторы, расследования и судебные иски раскрыли весь масштаб рисков, которые социальные приложения представляют для молодежи. Ранее в этом году калифорнийское жюри признало Meta и YouTube виновными в том, что они сознательно вызывали зависимость и причиняли вред молодой женщине, что стало знаковым решением, принятым спустя десятилетия после запуска этих платформ.
В последние годы компании, работающие в сфере социальных сетей, внедрили целый ряд новых функций безопасности и родительского контроля — это признак того, что общественное давление может подтолкнуть к изменениям внутри технологических компаний, даже если многие семьи и эксперты считают, что этих изменений недостаточно.
«Дизайн социальных сетей и других технологий действительно влияет на то, какой потенциальный вред может быть причинен детям», — сказала Радески, изучавшая взаимосвязь технологий и благополучия молодежи.
По словам эксперта, группа «пытается действовать быстрее, чтобы разработка искусственного интеллекта в большей степени соответствовала потребностям детей».
Искусственный интеллект в сфере безопасности транспортных средств. Все темы. Facebook. Твит. Электронная почта. Ссылка. Темы. Ссылка скопирована! Подписаться.













