Главная » Мир » 2021 » Июнь » 25 »

США должны лучше защищать свой искусственный интеллект, утверждает Пентагон

25.06.2021 в 13:48 просмотров: 349 комментариев: 0 Мир
Заместитель министра обороны Кэтлин Хикс заявила, что по мере того, как Пентагон быстро создает и внедряет инструменты искусственного интеллекта, военных руководителей все больше беспокоит второстепенная проблема: безопасность искусственного интеллекта (ИИ).

Безопасность искусственного интеллекта в широком смысле означает обеспечение того, чтобы программы искусственного интеллекта не вызывали проблем, независимо от того, были ли они основаны на поврежденных или неполных данных, были плохо спроектированы или были взломаны злоумышленниками. 

О безопасности ИИ часто думают второстепенно, поскольку компании спешат создавать, продавать и внедрять инструменты машинного обучения. Но министерство обороны обязано уделить этому вопросу немного больше внимания, заявила Хикс в понедельник, 21 июня, на саммите Defense One Tech Summit. 

«Если вы посмотрите на подходы к оценке, валидации и верификации, это области, о которых мы знаем - работаете ли вы в коммерческом секторе, в государственном секторе и, конечно, если вы посмотрите за границу, с точки зрения безопасности мало что происходит", сказала она. 

По словам Нила Серебряного, основателя и генерального директора компании CalypsoAI, занимающейся безопасностью искусственного интеллекта, несмотря на то, что безопасность искусственного интеллекта еще не вызывала громких заголовков, широкое внедрение новых программ и процессов машинного обучения представляет собой обширное поле деятельности для атак злоумышленников. 

Его компания сканирует научные исследования, темную сеть и другие источники, чтобы найти угрозы для развернутых программ ИИ. Среди его клиентов - ВВС и Министерство внутренней безопасности.

В отчете Джорджтаунского центра безопасности и новых технологий, опубликованном в этом месяце, отмечается: «В настоящее время трудно проверить, что машинное обучение свободно от злонамеренного вмешательства. На самом деле, есть веские причины для беспокойства. Злоумышленники могут отравить три основных ресурса - инструменты машинного обучения, предварительно обученные модели машинного обучения и наборы данных для обучения - способами, которые чрезвычайно трудно обнаружить».
Аватар ludmilaandrush Варвара Арсеньева
Журналист/Sorokainfo
Комментарии 0
avatar
© Все права защищены: Копирование материалов сайта разрешено только при указании ссылки на источник - Sorokainfo.com 2015 - 2024