Купить решения «Лаборатории Касперского»
в интернет-магазине Kaspersky-Security.ru
ГлавнаяНовости→Госрегулирование искусственного интеллекта: зачем, почему, как | Блог Касперского

Госрегулирование искусственного интеллекта: зачем, почему, как | Блог Касперского

Каким должно быть госрегулирование ИИ и почему оно необходимо.

Я уже немного устал от новостей про искусственный интеллект, но придется потерпеть, потому что они будут сыпаться из каждого утюга еще год или два. Но и потом развитие ИИ, он же AI, не остановится, просто журналисты/блогеры/тиктокеры и прочие «говорящие головы» устанут от темы. А пока им подкидывают новости не только техногиганты, но и правительства: Великобритания отрегулирует ИИ с трех сторон, Китай вынес черновик законодательства по ИИ на общественное обсуждение, США хочет «алгоритмической ответственности», европейцы по традиции заседают и так далее. Пока создание и использование систем ИИ никак не ограничено, но, видимо, это ненадолго.

Тут, конечно, есть о чем поспорить — а нужно ли госрегулирование ИИ, и если да — то зачем и как?

Что регулировать

Что такое искусственный интеллект? Благодаря маркетологам так называют все — от новейших генеративных моделей вроде GPT-4 до простейших систем машинного обучения, в том числе тех, которые используются уже десятки лет. Помните Т9 на кнопочных телефонах? Знаете про автоматическую классификацию спама и вредоносных файлов? Используете рекомендации фильма на «Кинопоиске» и Netflix? За каждой из этих привычных технологий стоит алгоритм машинного обучения (ML). Мы внедряем такие технологии в наших продуктах почти два десятка лет, но всегда называли их скромно, «машинное обучение», потому что «искусственный интеллект» сразу наводит на мысли о говорящих космических кораблях и прочей фантастике. Такой фантастический компьютер, полностью способный мыслить по-человечески, должен обладать общим ИИ (AGI) или сверхинтеллектом (ASI). AGI/ASI пока не изобрели и вряд ли изобретут в обозримом будущем.

Так вот, если все виды ИИ мерить одной линейкой и все зарегулировать по полной программе, то практически всей ИТ-индустрии, да и многим смежным, придется несладко. Ну, к примеру, если у нас потребуют собирать согласие со всех «авторов» данных из обучающей выборки, мы как ИБ-компания окажемся в сложной ситуации. Мы же учимся на зловредах и спаме, авторы которых обычно не оставляют контактных данных. Более того, если данные собираются, а алгоритмы обучаются уже почти 20 лет, то насколько глубоко в прошлое нужно лезть?

Поэтому важно, чтобы законодатели слушали не маркетологов, а экспертов индустрии и обсуждали предмет возможного регулирования достаточно конкретно и узко: например, многоцелевые системы, обученные на больших объемах открытых данных, или системы, используемые в принятии решений с высоким уровнем ответственности и риска.

Это, конечно, означает, что новые способы применения ИИ потребуют частого пересмотра норм регулирования.

Зачем регулировать

Честно скажу, в Судный день с участием сверхинтеллекта в ближайшие 100 лет я не верю. Зато верю в кучу разнокалиберных неприятностей от бездумного применения черного компьютерного ящика.

Тем, кто не читал наши статьи о блеске и нищете машинного обучения, напомню, что с любым ИИ есть три большие проблемы:

  • непонятно, насколько хороши данные, на которых он обучался;
  • совсем непонятно, что он из этих данных «понял» и как принимает решения;
  • а главное — и разработчики, и пользователи алгоритма могут его неверно применять.

Тут может быть все: от злонамеренного использования до бездумного следования решениям ИИ. Яркие примеры из жизни: фатальные ошибки автопилота, зачастившие в мемах и даже новостях дипфейки, нелепая ошибка в найме школьных учителей, полицейские арестовали воришку, но это был другой человек, а ИИ-кадровик недолюбливает женщин. А еще на любой ИИ возможны атаки с помощью специально созданных враждебных образцов данных: автомобиль можно обмануть наклейками, из GPT-3 — вытащить личные данные, антивирус или EDR тоже пытаются обмануть. Кстати, атаки на ИИ боевых дронов, описанные в фантастике, уже не кажутся такими фантастичными.

В общем, по-настоящему масштабных проблем применение ИИ пока не принесло, но потенциал для серьезных провалов явно имеется. Поэтому регулирование имеет понятные приоритеты:

  1. отсутствие инцидентов с критической инфраструктурой (заводы — пароходы — ЛЭП — АЭС);
  2. минимизация физических угроз (самодвижущиеся повозки, ошибочные диагнозы);
  3. минимизация личного ущерба и бизнес-рисков (аресты или наем на основе ширины черепа, неверное определение спроса и закупок и тому подобное).

Цель регулирования — заставить пользователей и создателей ИИ следить за тем, чтобы не повышать этих рисков. И чем серьезней риск, тем активней заставлять.

В случае ИИ часто вспоминают еще один пункт — соблюдение норм морали, этики и, так сказать, психологического комфорта. Для этого добавляют требование оповещать людей, что они смотрят на несуществующий (нарисованный ИИ) объект, общаются с роботом, а не человеком, требование соблюдать авторские права при обучении ИИ и так далее.

Зачем это? Чтобы законодателей и создателей ИИ не взяли на вилы! В некоторых частях света это очень даже актуально (вспомним, например, протесты против Uber).

Как регулировать

Проще всего, конечно, все запретить, но пока до этого вроде никто не додумался. Да и запретить ИИ немногим проще, чем запретить компьютеры в целом. Поэтому все разумные попытки регулирования исходят из принципа «чем больше риск, тем строже требования».

Машинные модели, используемые для чего-то достаточно тривиального — вроде рекомендации товаров в магазине, — можно не регулировать. По мере нарастания сложности модели или же чувствительности сферы применения к производителям и пользователям системы могут применяться все более драконовские требования.

  • Предоставлять регуляторам или экспертам код модели и обучающий набор данных для проверки.
  • Доказывать корректность обучающего набора данных, в том числе отсутствие предвзятости (bias), чистоту авторских прав и так далее.
  • Доказывать корректность «выхлопа» ИИ, например отсутствие галлюцинаций.
  • Маркировать работу ИИ и ее результаты.
  • Корректировать модель и обучающий набор данных. Например, удалять из исходных данных людей с определенным цветом кожи или подавлять рецепты взрывчатки на выходе модели.
  • Тестировать ИИ на «враждебных» данных и корректировать его поведение при необходимости. Здесь бы Аль-Эфесби расстроился.
  • Контролировать, кто и зачем использует конкретный ИИ. Отказывать в определенных видах использования.
  • Тренировать ИИ большого размера или в определенной сфере, только получив разрешение от регулятора.
  • Доказывать, что ИИ безопасно применять для решения конкретной задачи. Это очень экзотический подход для ИТ-индустрии, но он хорошо знаком фармакологическим компаниям, производителям авиационной техники и многим другим отраслям, в которых фундаментальной ценностью является безопасность. Сначала пять лет обширных испытаний, получение разрешения регулятора и только потом выпуск продукта в использование.

Последнее кажется избыточно строгой мерой только до тех пор, пока не узнаешь, что уже были прецеденты, когда ИИ неверно назначал приоритеты лечения пациентов с астмой и пневмонией и пытался отправить людей домой вместо палаты интенсивной терапии.

Меры принуждения ко всему этому могут варьироваться от штрафа за нарушение ИИ-норм (по примеру европейских штрафов за нарушение GDPR, закона о личных данных) до получения лицензий на ведение деятельности в сфере ИИ и уголовной ответственности за нарушения законодательства (как это предлагают в Китае).

А как правильно?

Все сказанное в этом абзаце — мое личное мнение, но оно основано на 30 годах работы в индустрии и деятельном участии в развитии технологий — от машинного обучения до систем, построенных по принципу secure-by-design.

Во-первых, регулирование требуется. Без него ситуация в ИИ станет похожа на автодороги без ПДД. Или, ближе к нашей теме, на ситуацию со сбором персональных данных в Интернете конца нулевых — когда почти все собирают все, что плохо лежит. Наличие регулирования в первую очередь активизирует в компаниях — участниках рынка самодисциплину.

Во-вторых, нужны максимальная международная гармонизация регулирования и сотрудничество. Как это происходит с техническими стандартами сотовой связи, Интернета и так далее. В современных геополитических реалиях звучит утопично, но очень хотелось бы.

В-третьих, регулирование должно быть не слишком жестким, потому что отрасль динамично развивается, и душить ее — недальновидно. При этом нужен механизм частого пересмотра правил, чтобы поспевать за развитием технологий и рынка.

В-четвертых, правила, уровни риска и уровни защитных мер должны вырабатываться с привлечением множества экспертов-практиков.

В-пятых, не надо ждать десять лет. Про риски Интернета вещей и уязвимости в промышленном оборудовании мы говорим уже добрых десять лет, а документы вроде EU Cyber Resilience act появились (в черновиках!) только в прошлом году.

Все на этом! Кто дочитал до самого конца — большие молодцы, всем спасибо!


Источник: Лаборатория Касперского

18.05.2023