bannerbannerbanner
Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России

Коллектив авторов
Правовое регулирования искусственного интеллекта, роботов и объектов робототехники как условие формирования экономического лидерства в России

Полная версия

Риски использования киберфизических систем (КФС)

Отечественными учеными Куприяновским В.П., Намиотом Д.Е., Синяговым С.А. отмечено, что современные КФС «интегрирует в себе кибернетическое начало, компьютерные аппаратные и программные технологии, качественно новые исполнительные механизмы, встроенные в окружающую их среду и способные воспринимать ее изменения, реагировать на них, самообучаться и адаптироваться» [37, c. 22]. При этом неотъемлемым свойством КФС является связанность их физических компонентов посредством инфокоммуникационных технологий [38]. КФС соединяет физические процессы производства или иные другие процессы программно-электронными системами (к примеру, систему управления распределения электроэнергии), реализуемые путем непрерывного управления [39]. Это является отличительной чертой КФС и в то же время их слабым местом. Возможность удалённого доступа к физическим компонентам (оборудованию, автомобилям, кардиостимуляторам) даёт злоумышленнику возможность перехватить управление над ними. Таким образом, возникает риск, связанный с возможностью несанкционированного доступа, перехвата и злоумышленного изменения процесса управления физическим компонентом.

К примеру, в 2009 году вредоносное программное обеспечение Stuxnet вывело из строя центрифуги на иранском заводе по обогащению урана. В результате атаки иранская атомная промышленность была отброшена на несколько лет назад. В 2019 году атаке подверглась энергетическая система Венесуэлы. Злоумышленники получили контроль над системой управления электроснабжением в столице Венесуэлы и над системой управления гидроэлектростанции имени Симона Боливара и дистанционно отключили электрическую сеть. В результате атаки половина страны осталась без света.

Риск проникновения злоумышленника в киберфизическую систему не ограничивается одним ущербом экономике и промышленности государства. Последствием атаки на КФС может стать и смерть человека. Так, в проведённых в лабораторных условиях экспериментах исследователи продемонстрировали возможность удалённого доступа к кардиостимуляторам и изменения режима их работы, в результате чего человек, которому они имплантированы, может умереть. Также проводились эксперименты по получению удалённого доступа к системе управления автомобилем. Марин Ивезич, эксперт по информационной безопасности, указывают на трудность обнаружения следов таких атак. По мнению специалистов, криминалисты, расследующие подобные инциденты, «скорее всего, не обратят внимание на немногочисленные оставленные следы и сочтут смерть случайной» [40].

Итак, первый критерий классификации рисков использования КФС можно сформулировать как риск нанесения ущерба от несанкционированного доступа к удалённым устройствам (физическим компонентам) и их потенциальной злоумышленной компрометации.

Вторым критерием классификации рисков зачастую выступают три известных свойства информации: конфиденциальность, целостность, доступность (в английской номенклатуре – «CIA»: Confidentiality, Integrity, Availability).

По критерию CIA риски классифицируются в зависимости от влияния на вышеперечисленные свойства информации:

• Риск нарушения конфиденциальности информации в киберфизических системах;

• Риск нарушения целостности информации в киберфизических системах;

• Риск нарушения доступности информации в киберфизических системах.

При этом не без основания подчёркивается, что в киберфизических системах наибольшую опасность представляют риски целостности и доступности информации [41, 42]. Например, если злоумышленник получит доступ к информации, которая содержится в кардиостимуляторе, он сможет узнать ритм работы сердца, о возможных нарушениях в его работе, повседневном графике человека. Эта информация хоть и является персональными данными и охраняется законом, но нарушение её разглашение не так опасно, как нарушение целостности и доступности информации в кардиостимуляторе, которая может привести к сбоям в его работе или вообще к выводу прибора из строя, что для человека может иметь весьма трагичные последствия. Классификация рисков по свойствам информации является достаточно условной, так как многие угрозы воздействуют сразу на несколько вышеперечисленных свойств информации.

К тому же эксперты в области информационной безопасности сходятся во мнении, что общепринятая классификация рисков по свойствам информации не является исчерпывающей при использовании КФС. Так, Хью Бойз, руководитель отдела по кибербезопасности Института техники и технологий (Institution of Engineering and Technology), выделяет ещё два значимых для КФС свойства: управляемость/контроль и полезность [43]. В случае нарушения управляемости оператор системы, хотя может и видеть наличие проблемы, но исправить ситуацию будет уже не способен. В случае нарушения контроля за системой, оператор, даже имея возможность воздействовать на систему, не будет получать корректные сведения о её состоянии. Обращая внимания на полезность, как на свойство ХВС, Хью Бойз, приводит в пример потерю космического аппарата, целью которого был сбор климатической информации о Марсе. В ходе его разработки одна проектная группа внедрила систему, использующую метрические единицы измерения (км/ч), а другая группа использовала имперские единицы измерения (миль/час). В результате аппарат неправильно вошёл в атмосферу Марса и был уничтожен.

Вышеописанные риски с уверенностью могут быть применены к роботам и объектам робототехники, ведь роботы являются разновидностью КФС.

Риски использования роботов и объектов робототехники

Несмотря на то, что роботы хоть и могут действовать в определённой степени автономно, им всё же необходимы каналы связи с оператором. Возможность действовать полностью автономно у роботов может появиться только после внедрения в них технологий ИИ. Но этот шаг может принести даже больше рисков от использования роботов, чем имеется в настоящий момент. Однако, перейдём к рассмотрению роботов, как разновидности КФС.

Самой распространённой классификацией рисков использования роботов, соответственно, является вышеописанная при использовании КФС классификация рисков по свойствам информации: конфиденциальности, целостности и доступности. Анализируя разновидности рисков, эксперты по информационной безопасности акцентируют внимание на возможности утраты конфиденциальности бесед и тайны частной жизни в результате использования роботов. Хоть проблема утечки информации не является самой опасной для промышленных роботов и кардиостимуляторов, она является достаточно распространённой для роботов, использующихся в бытовых целях. В условиях домашнего использования роботов, когда отказ машины не приведёт ни к чему критичному, кроме чувства впустую потраченных денег, именно риск нарушения тайны частной жизни может иметь наибольшую опасность. Так, президент фонда «prpl Foundation» Арт Свифт утверждает, что производители роботов, спеша выйти на рынок со своей моделью, зачастую забывают об обеспечении безопасности своих изделий, результатом чего может стать утечка информации [44].

Не гораздо дальше в плане обеспечения безопасности ушли и производители промышленных роботов. В отчёте Trend Micro, компании, специализирующейся на обеспечении информационной безопасности, приведены результаты исследования роботов, предназначенных для промышленного производства от ряда известных производителей на предмет их информационной безопасности [45]. В результате исследования специалисты пришли к выводу, что все испытуемые роботы уязвимы к атаке извне. По мнению Дэна Вебера, технического директора компании Mocana: «Один из самых тревожных выводов в докладе Trend Micro об уязвимостях роботов, используемых в производстве – это то, как легко хакерам, в данном случае “исследователям”, обнаружить незащищённые промышленные устройства онлайн» [46]. Тревожно это потому, что злоумышленникам не составит труда не только проникнуть в сеть предприятия, но даже найти уязвимые точки для проникновения.

Кроме классификации рисков по свойствам информации существует также классификация рисков по видам атак, которые возможны в отношении роботов:

• Риск атаки, модифицирующей намерение. Это атака, направленная на искажение сообщений, передающихся к роботу. Она может преследовать цель, как изменения поведения робота, так и вывода его из строя. К данному типу атак так же относится и, так называемая, атака «отказа в обслуживании» (Denial of Service). Смысл данной атаки заключается в том, что робот оказывается перегружен входным трафиком. В результате чего происходит или остановка его работы, или задержка в реакции на поступающие команды

• Риск атаки, манипулирующей намерением. Это атака, направленная на модификацию сообщений, передающихся от роботов. Цель данной атаки очевидна – исказить сведения о состоянии машины.

• Риск захватывающей атаки. Это атака, в ходе которой злоумышленник полностью берёт под контроль связь между роботом и его оператором [47].

Вышеописанные классификации рисков сформированы исключительно через призму информационной безопасности. И это оправдано для КФС и роботов, которые согласно приведенным в начале раздела данного отчета понятиям являются просто машинами (или совокупностью машин) и представляют опасность только в случае их неисправной работы, вызванной внутренним сбоем или вмешательством извне.

Такие риски будут являться специфическими, и они могут зависеть от конкретного роботизированного устройства или применяемой инфокоммуникационной технологий в КФС.

В Российской Федерации принят ряд национальных стандартов, устанавливающих требования по безопасности эксплуатации роботов с учетом оценки рисков их использования. К примеру, в «ГОСТ Р 60.1.2.1—2016/ ИСО 10218—1:2011. Национальный стандарт Российской Федерации. Роботы и робототехнические устройства. Требования по безопасности для промышленных роботов. Часть 1. Роботы» [48] в приложении А в форме таблицы приведен список существенных опасностей для робота и его подсистем, состоящий из 10 типов или групп опасностей (механические, электрические, термические, эргономические; опасности от шума, вибраций, излучения, материалов/веществ; опасности, связанные с внешней средой, в которой используется машина; комбинации опасностей). Чтобы идентифицировать любые опасности, которые могут возникнуть, должен быть осуществлен анализ опасностей.

 

Общая оценка рисков должна быть выполнена для всех опасностей, выявленных при идентификации опасностей.

В «ГОСТ Р 60.2.2.1—2016/ИСО 13482:2014. Национальный стандарт Российской Федерации. Роботы и робототехнические устройства. Требования по безопасности для роботов по персональному уходу» список существенных опасностей роботов, предназначенных для персонального ухода, содержит 85 разновидностей. Данным стандартом предусмотрена общая оценка рисков, включающая не только идентификацию опасности с целью выявления любых опасностей, которые могут возникнуть для конкретного робота по персональному уходу, но и оценку рисков. При этом оценка риска должна быть выполнена для всех опасностей, выявленных при идентификации опасностей, «с обращением особого внимания на разные ситуации, в которых робот по персональному уходу может контактировать с объектами, связанными с безопасностью.

После того как все меры по безопасности конструкции и защите приняты, должен быть оценен остаточный риск робота по персональному уходу и должно быть обосновано, что этот риск снижен до приемлемого уровня» [49].

Благодаря системе технического нормирования [50] можно своевременно и гибко регулировать со стороны государства риски использования роботов и объектов робототехники.

Риски использования искусственного интеллекта (ИИ)

ИИ представляет собой совершенно новую сущность, субстанцию, одно только использование которого уже рождает множество этических, правовых и технических проблем. В отличие от роботов и киберфизических систем ИИ способен самостоятельно принимать решения и самообучаться. Негативные последствия от функционирования ИИ могут быть результатом не только откровенной ошибки при его разработке, иногда такие последствия становятся результатом самостоятельных действий ИИ, разработчики которого даже не могли их предугадать. В связи с этим использование ИИ само по себе может нести определённые угрозы, которые необходимо учитывать.

Как правило, риски использования ИИ подразделяют на общие и применительно к сфере информационной безопасности.

В подготовленном исследователями Оксфордского университета докладе под редакцией Пьерлуиджи Поганини, посвящённом основным угрозам человечеству, ИИ входит в число 12 рисков, которые потенциально могут уничтожить человеческую расу [51].

Данные риски в докладе классифицированы по 4 группам: Текущие риски; Внешние риски; Развивающиеся риски; Риски глобальной политики.

К первым исследователи отнесли глобальное потепление и угрозу ядерной войны. Ко вторым – возможность столкновения Земли с астероидом. Под рисками глобальной политики исследователи понимают риски, связанные с глобальным правительством. К развивающимся рискам были отнесены риски, создающиеся руками человека, как, например, синтетическая биология и ИИ. Относительно ИИ в докладе поддерживается следующее мнение: «Искусственный интеллект, похоже, обладает огромным потенциалом для целенаправленной работы по уничтожению человеческой расы. Хотя, синтетическая биология и нанотехнологии наряду с искусственным интеллектом могут стать ответом на многие существующие проблемы, однако, при неверном использовании, это, вероятно, может быть худшим инструментом против человечества» [51].

Анализируя риски использования ИИ, следует четко разграничивать понятия «сильного искусственного интеллекта» и «слабого искусственного интеллекта». Сильный ИИ – это интеллект, который подобно человеческому, может решать различные задачи, мыслить, адаптироваться к новым условиям [52]. То есть, по сути, интеллект, способный выполнять все те же функции, которые выполняет интеллект человека. На данный момент такого интеллекта не существует. Существует лишь слабый ИИ – интеллект, способный выполнять узкоспециализированные задачи [52].

Несмотря на то, что сильный ИИ – вещь из разряда фантастики, многие исследователи склонны считать, что его разработка вполне возможна. По мнению экспертов «Центра изучения экзистенциальной угрозы» при Кембриджском университете создание «сверхразума» возможно уже в этом столетии [53]. В связи с этим эксперты Центра отмечают наиболее высокие риски, связанные с таким ИИ. Они их разделяют на риски, связанные с несчастными случаями (safety risks), и на риски, связанные со злоупотреблением таким ИИ (security risks). К первым они относят возможность выхода из строя ИИ со всеми вытекающими катастрофическими последствиями (особенно, в случае если от функционирования ИИ зависит работа критически важной инфраструктуры). Ко вторым отнесены угроза попадания технологий в руки «плохих актёров» на международной арене и угроза дестабилизирующей гонки вооружений в области ИИ[2]. О рисках внедрения сильного ИИ можно много рассуждать, но это имеет мало практического смысла, так как, о чём уже говорилось выше, данные технологии отсутствуют в настоящее время. Поэтому перейдём к рискам использования слабого ИИ.

Так, эксперты говорят о возможности манипуляции общественным мнением посредством искусственного интеллекта [54]. Медиа-ресурсы уже давно и достаточно успешно используют автономные алгоритмы для целевого маркетинга. Но, если ИИ умеет подбирать интересующие пользователя товары, он также может, используя определённые личные данные, представить ему необходимую информацию в том виде и в том формате, в котором он сочтёт её наиболее достоверной, тем самым манипулируя восприятием пользователя.

Риск манипулирования общественным мнением вытекает из риска вторжения в личную жизнь пользователя посредством ИИ. Жизнь современного человека и так находится под постоянным присмотром различных систем сбора и анализа данных, начиная с сервисов целевой рекламы, и заканчивая камерами видеонаблюдения, которыми оборудованы все крупные мегаполисы. ИИ, в свою очередь, является эффективным инструментом для анализа всей собираемой информации. Аккумулируя информацию из нескольких источников, искусственный интеллект может достаточно точно формировать психологический и поведенческий портрет человека. Определять сферу его интересов, круг общения и многое другое. Сбор подобной информации о человеке может принести не только внутренний дискомфорт, но и определённые негативные материальные последствия. Например, в Китае уже введена система социального кредитования, согласно которой каждому гражданину присвоен личный балл на основании его поведения. Система оценивает надёжность граждан Китая по разным критериям, в том числе, по тому, ходят ли они по улице, покупают ли китайские товары, что они размещают в интернете. Люди с высокими баллами получают право получить скидки на счета по электроэнергии или лучшие процентные ставки по вкладам. Граждане с низким рейтингом наоборот ограничиваются в правах. Например, по некоторым данным, им может быть ограничен высокоскоростной интернет. По сведениям CBS почти 11 миллионов китайцев из-за введения рейтинга кредитования не смогут воспользоваться услугами авиаперевозчиков, а 4 миллиона – поездами [55]. В связи с этим отмечается такой риск использования ИИ как риск дискриминации.

Также эксперты отмечают ещё и риск несогласованности целей машин и людей. Связан он, тем, что команды, в которые человек закладывает определённый смысл, могут быть совершенно по-иному интерпретированы машиной. Например, команда «доставь меня в аэропорт как можно быстрее» может иметь крайне негативные последствия. Если не уточнить, что нужно соблюдать правила дорожного движения, так как человеческая жизнь ценнее потерянного времени, то ИИ может дословно исполнить указание и оставить за собой шлейф несчастных случаев и аварий.

Наносить вред ИИ может не только в результате недоработок разработчиков и неверной интерпретации команд, но и в результате определённого внешнего воздействия. Для того чтобы оценить опасность такого негативного влияния извне на ИИ обратимся к рискам использования ИИ с позиции информационной безопасности.

Но прежде следует сказать, что ИИ – это инструмент, средство достижения тех или иных целей и, соответственно, он, как и любой другой инструмент, может использоваться как в общественно полезных целях, так и в преступных целях. Специалисты в области информационной безопасности ожидают, что уже в ближайшем будущем ИИ может появиться на вооружении киберпреступников. Об этом, в частности, говорит Дэвид Капуано, коммерческий директор компании BluVector, занимающейся разработками решений в области кибербезопасности [56]. Эксперт предупреждает об опасности проведения злоумышленниками более мощных и неуловимых атак с использованием технологий ИИ. По мнению Д. Капуано, несмотря на то, что сейчас технологии осуществления атак с использованием ИИ находятся в зачаточном состоянии, в ближайшее время они будут стремительно развиваться. Способствовать этому будет увеличение потенциальной прибыли в результате проведения подобных атак и то, что между киберпреступниками налажен более активный обмен информацией и инновациями, чем между теми, кто им противостоит.

Эксперты предполагают, что ИИ может найти применение при осуществлении преступниками фишинговых атак (то есть, атак, направленных на обман пользователя, в результате чего он либо передаёт конфиденциальную информацию злоумышленнику, либо загружает вредоносное программное обеспечение на своё устройство). ИИ может способствовать автоматизации таких атак или упростить их проведение путём, например, синтезирования голоса человека [57]. Злоумышленники могут использовать ИИ также для поиска уязвимостей и для автоматизированного использования обнаруженных уязвимостей. Стоит подчеркнуть, что и сейчас существуют инструменты, автоматизирующие вышеуказанные процессы, однако, в случае использования ИИ, процесс поиска уязвимостей и их эксплуатации будет происходить совершенно в других масштабах и на совершенно ином уровне. В случае злонамеренного использования технологий ИИ возможно распространение ботнетов (компьютерных сетей, состоящих из устройств, зараженных вредоносным программным обеспечением, позволяющим использовать данные устройства в своих целях) без единого сервера управления. Борьба с такими ботнетами значительно усложнится, ведь обычно используемая тактика отключения управляющего сервера по отношению к таким ботнетам будет неэффективна. ИИ может быть использован для координации работы в автоматическом режиме обычных ботнетов, позволяя значительно расширить масштаб хакерских атак, в которых задействуются данные ботнеты. По мнению экспертов в области информационной безопасности серьёзную опасность представляет возможность создания искусственным интеллектом новых образцов вредоносного программного обеспечения. ИИ, анализируя недостатки вредоносного программного обеспечения, созданного человеком, способен сгенерировать более продвинутые его формы, значительно затрудняя обнаружение и нейтрализацию таких программ [58]. Кроме того, используя ИИ для разработки вредоносного программного обеспечения, киберпреступники могут сделать его устойчивым к сканированию тем искусственным интеллектом, задачей которого является обнаружением вредоносных программ [59].

Опасность представляет не только возможность использования технологий ИИ злоумышленниками, но и вполне благовидное использование программного обеспечения с поддержкой ИИ. По мнению Алекса Смита, директора по решениям в области информационной безопасности компании Intermedia, в результате распространения продуктов, использующих ИИ, компании столкнутся с ростом числа случайных уязвимостей и нарушений информационных безопасности, не связанных с действиями хакеров. В частности, эксперт отмечает, что без защиты могут остаться наборы данных, на основе которых обучался ИИ. Разглашение такой информации может иметь негативные последствия, как для имиджа компании, так и для тех, чьи сведения содержатся в такой выборке (особенно, если выборки составлены на основе данных из социальных сетей).

Кроме того, программные решения, основанные на технологиях ИИ, имеют свои слабые места и уязвимости. Например, исследователи отмечают следующие наиболее высокие риски по отношению к подобным программным решениям в результате эксплуатации тех или иных уязвимостей в алгоритме искусственного интеллекта [60]:

 

1. Риск атаки путём представления специально сформированных входных данных, чтобы исказить работу алгоритма искусственного интеллекта. Суть данной атаки заключается в том, что атакующий, вычисляя ошибки на выходе алгоритма по отношению к входным данным, может таким образом сформировать входные данные, чтобы на выходе получить интересующий его результат. Например, сформировав определённым образом код вредоносного программного обеспечения, атакующий может добиться того, чтобы проверяющий этот код искусственный интеллект счёл его заслуживающим доверия. Данная атака возможна в силу того, что выборка данных, на основании которых алгоритм проходил обучение, не всеобъемлюща. При получении входных данных, которые не содержались в обучающей выборке, алгоритм может выдать случайный результат.

2. Риск нарушения конфиденциальности обучающих данных. Атакующий, наблюдая, как алгоритм реагирует на те или иные входные данные, может вычислить те данные, на основании которых алгоритм обучался.

3. Риск «отравления» обучающих данных. В случае доступа к данным, которые используются для обучения искусственного интеллекта, атакующий может изменить их таким образом, чтобы алгоритм выдавал нужный атакующему результат.

4. Риск физической атаки. Под физической атакой подразумевается какие-то физические вмешательства в работу искусственного интеллекта, изменения во входных данных. В качестве примера исследователи приводят эксперимент, где системе обнаружения объектов должна была распознать знак «СТОП». В одном случае знак был не изменён. Во втором случае на знак были наклеены чёрные и белые прямоугольники. В результате в первом случае алгоритм без труда определил знак. Во втором случае система распознала его, как знак «Ограничение скорости 45». Алгоритм смог верно идентифицировать знак, лишь, когда оказался близко к нему, потенциально слишком поздно, чтобы остановиться и избежать аварии.

5. Риск ложноположительной атаки. Суть данной атаки заключается в том, что атакующий генерирует большое количество поддельных атак, предназначенных для большого количества ложных срабатываний. В результате защитник будет тратить много времени и ресурсов, вручную регулируя систему.

Существует также следующая классификация рисков, связанных с надёжностью решений, реализующих алгоритмы искусственного интеллекта:

• Риск несоответствия. Данный риск связан с тем, что система искусственного интеллекта развивается в ходе своего существования. В результате такого развития может оказаться, что система больше не соответствует изначальным проектным требованиям.

• Риск нарушения безопасности. Возможен в случае эксплуатации уязвимостей алгоритма искусственного интеллекта, в результате чего злоумышленник получает возможность манипулировать работой алгоритма.

• Риск некорректного поведения. Риск связан с тем, что система, использующая искусственный интеллект, требует постоянного контроля над правильностью функционирования и соответствия требованиям, предъявленных к ней на этапе проектирования.

• Риск утраты контроля. Возможен в случае, если механизмы контроля человеком работы алгоритма искусственного интеллекта недостаточно хорошо продуманы или реализованы.

• Риск снижения надёжности. Связан с достоверностью прогнозов, сделанных искусственным интеллектом.

В заключение хочется отметить важность анализа и учета рисков использования вышеуказанных систем и технологий, в том числе, с учётом требований информационной безопасности.

Выводы

1. Главным принципом оценки и управления рисками при использовании КФС, ИИ, роботов и объектов робототехники является принцип допустимости рисков. Обобщая различные виды рисков с учетом требований информационной безопасности, можно предложить авторскую концепцию их классификации с позиций их правового регулирования, сгруппировав на общие и специальные.

Общие риски подлежат классификации по известным и общепринятым свойствам информации: конфиденциальности, целостности и доступности. Правовые основы их выявления, оценки, управления и по необходимости минимизации должны содержаться в законодательстве и подзаконных актах.

Для оценки специальных рисков использования КФС, ИИ, роботов и объектов робототехники и установления обязательных требований их эксплуатации должно быть предусмотрено государственное регулирование при помощи системы технического нормирования, в том числе на основе международных стандартов и лучших зарубежных практик. Благодаря системе технического нормирования можно своевременно и гибко регулировать со стороны государства риски использования современных роботизированных и инфокоммуникационных технологий.

2. Наиболее высокие риски использования КФС и роботов с точки зрения информационной безопасности связаны с перехватом злоумышленником управления над ними или иным нарушением их нормального функционирования.

Проблема утечки информации является достаточно распространённой для роботов, использующихся в бытовых целях. Именно риск нарушения тайны частной жизни может иметь наибольшую опасность.

Результаты исследования роботов, предназначенных для промышленного производства от ряда известных производителей на предмет их информационной безопасности, продемонстрировали, что все испытуемые роботы уязвимы к атаке извне.

В связи с этим, полагаем наиболее значимой для обеспечения информационной безопасности эксплуатации роботов и объектов робототехники классификацию рисков по видам атак:

– Риск атаки, модифицирующей намерение. Это атака, направленная на искажение сообщений, передающихся к роботу. Она может преследовать цель, как изменения поведения робота, так и вывода его из строя. К данному типу атак так же относится и, так называемая, атака «отказа в обслуживании» (Denial of Service). Смысл данной атаки заключается в том, что робот оказывается перегружен входным трафиком. В результате чего происходит или остановка его работы, или задержка в реакции на поступающие команды

– Риск атаки, манипулирующей намерением. Это атака, направленная на модификацию сообщений, передающихся от роботов. Цель данной атаки очевидна – исказить сведения о состоянии машины.

– Риск захватывающей атаки. Это атака, в ходе которой злоумышленник полностью берёт под контроль связь между роботом и его оператором.

3. В случае с искусственным интеллектом система рисков несколько сложнее.

Во-первых, всерьёз рассматривается возможность использования злоумышленникам технологий искусственного интеллекта (роботы, например, беспилотные летательные аппараты, тоже могут использоваться преступниками, но опасность от их применения несопоставима с теми масштабами угрозы, которые возможны в случае использования искусственного интеллекта в преступных целях).

Во-вторых, алгоритмы искусственного интеллекта обладают свойством самообучения и видоизменения в процессе своего функционирования. Это значит, что если в начале своей работы алгоритм искусственного интеллекта может соответствовать требованиям информационной безопасности, то через некоторое время он уже может далеко отойти от них. Что создаёт тоже значительные риски с точки зрения кибербезопасности.

В-третьих, искажение работы алгоритма искусственного интеллекта возможно не только на стадии проектирования, разработки и эксплуатации (как в случае с роботами и киберфизическими системами), но и на стадии обучения. То есть, появляется ещё один способ компрометации системы, использующей искусственный интеллект.

И, в-четвёртых, дополнительные риски создаёт сам факт обучения искусственного интеллекта на настоящих, и зачастую конфиденциальных, данных, которые охраняются законом, в результате чего появляется угроза их компрометации. С другой стороны, в случае искусственного интеллекта, серьёзно снижаются риски воздействия на систему в момент её эксплуатации (то есть, по окончании разработки и обучения) по сравнению с киберфизическими системами, что значительно затрудняет атаки на неё извне.

2Аббревиатура ИИ, обозначает искусственный интеллект; РТ – робототехника.
1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18 
Рейтинг@Mail.ru