Правительство США обратилось к ведущим компаниям, занимающимся искусственным интеллектом, за советом о том, как использовать создаваемую ими технологию для защиты авиакомпаний, коммунальных предприятий и другой критически важной инфраструктуры, особенно от атак с использованием искусственного интеллекта.
Министерство внутренней безопасности заявило в пятницу, что в создаваемую им комиссию войдут руководители некоторых крупнейших мировых компаний и отраслей.
В список вошли исполнительный директор Google Сундар Пичаи, исполнительный директор Microsoft Сатья Наделла и исполнительный директор OpenAI Сэм Альтман, а также глава оборонных подрядчиков, таких как Northrop Grumman и авиаперевозчик Delta Air Lines.
Этот шаг отражает тесное сотрудничество правительства США с частным сектором, поскольку оно пытается устранить как риски, так и преимущества ИИ в отсутствие целевого национального закона об ИИ.
По сообщению DHS, группа экспертов даст рекомендации телекоммуникационным компаниям, операторам трубопроводов, электроэнергетическим компаниям и другим секторам о том, как они могут «ответственно» использовать ИИ. Группа также поможет подготовить эти сектора к «перебоям, связанным с ИИ».
«Искусственный интеллект — это преобразующая технология, которая может беспрецедентным образом продвигать наши национальные интересы», — заявил в своем пресс-релизе секретарь Министерства внутренней безопасности Алехандро Майоркас. «В то же время это представляет собой реальные риски — риски, которые мы можем смягчить, приняв передовой опыт и предприняв другие изученные, конкретные действия».
Среди других участников дискуссии — руководители таких поставщиков технологий, как Amazon Web Services, IBM и Cisco; производители чипов, такие как AMD; Разработчики моделей искусственного интеллекта, такие как Anthropic; и группы гражданских прав, такие как Комитет юристов за гражданские права согласно закону.
В него также входят чиновники федерального правительства, штатов и местных органов власти, а также ведущие ученые в области ИИ, такие как Фей-Фей Ли, содиректор Института человекоориентированного искусственного интеллекта Стэнфордского университета.
Совет по безопасности и защите ИИ, состоящий из 22 членов, стал результатом указа от 2023 года, подписанного президентом Джо Байденом, который призвал межотраслевой орган дать «рекомендации по повышению безопасности, устойчивости и реагированию на инциденты, связанные с использованием ИИ в критических ситуациях». инфраструктура».
Тот же указ привел в этом году к принятию общеправительственных правил, регулирующих то, как федеральные агентства могут приобретать и использовать ИИ в своих собственных системах. Правительство США уже использует машинное обучение или искусственный интеллект для более чем 200 различных целей, таких как мониторинг активности вулканов, отслеживание лесных пожаров и выявление дикой природы по спутниковым снимкам.