UA

Настоящие "законы роботехники": право и искусственный интеллект

Настоящие "законы роботехники": право и искусственный интеллект

сооснователь и СЕО Evergreen
18.03.2019, 10:30

Как в мире и в Украине законодательно регулируется создание и эксплуатация искусственного интеллекта

Исследование проведенное Center for the Governance of AI, Future of Humanity Institute, University of Oxford показало что американские граждане в целом не полностью доверяют искусственному интеллекту и хотят ввести регулирование ИИ на законодательном уровне.

Как осторожно говорят сами авторы исследования, “Наши результаты дают предварительное представление о характере общественного мнения в США в отношении ИИ. […] Наши выводы ставят больше вопросов, чем дают ответов; они, скорее, наводят на размышления”. И это в целом отражает ситуацию как в США, так и в других странах. Ниже подробнее о сомнениях, стратегиях и гос.инициативах в области ИИ и роботов, а также об инициативах ЕС в области искусственного интеллекта.

Отношение к ИИ, роботам и законам о них в США

Американцы отдают предпочтение безопасности личных данных и предупреждению кибератак с использованием ИИ
(больше информации на диаграмме по ссылке)

Что по мнению американских граждан самое важное и затронет больше всего людей? На первых местах по возможности воздействия на их жизни находятся личные данные, кибератаки и автономное оружие, а по массовости воздействия это слежка за людьми, манипуляция данными и снова-таки приватность.

82% респондентов считают что разработкой и уже разработанными алгоритмами/роботами в сфере искусственного интеллекта нужно управлять с осторожностью. При этом наибольшим доверием пользуются технологические компании, государственные службы и военные.

На вопрос кому стоит доверить управление ИИ, американцы утверждают: лучше всего если ИИ будут управлять технологические компании, возможно, в партнерстве с государством, или же негосударственные или международные организации.

Контроль за ИИ американцы скорее доверили бы частным хайтех-компаниям и негосударственным организациям,
чем правительству (больше информации на диаграмме по ссылке)

Отметим также, что в США Комитет Палаты представителей по вооруженным силам принял решение о создании Комиссии национальной безопасности по искусственному интеллекту, но пока этот орган больше направлен на анализ и оценку рисков, преимущественно в военной сфере.

 Государственные стратегии по вопросам ИИ в мире

 А как обстоят дела с перспективой государственной регуляции ИИ в мире?

Многие правительства представили национальные политики и стратегии в области искусственного интеллекта, которые подчеркивают их осведомленность в вопросах этических проблем в области искусственного интеллекта, а также приверженность разработке безопасных и полезных технологий искусственного интеллекта. 

Стратегии Великобритании, Франции, Канады, Индии в основном содержат в себе призывы «учитывать экономические, этические и социальные последствия достижений в области искусственного интеллекта» и рекомендуют открытое законодательство о защите данных, переносимости данных и доверии к данным. Британская стратегия помимо этого отмечает, что «крупные компании, которые контролируют огромные объемы данных, не должны становиться чрезмерно мощными», а французская предусматривает «недопущение непрозрачной приватизации ИИ или его потенциально деспотического использования».

В Китае существует Национальный стандарт сбора персональных данных, в котором рассматриваются вопросы, аналогичные тем, которые содержатся в Общих положениях Европейского союза о защите данных (GDPR).  В июле 2017 года Государственный совет КНР опубликовал подробную стратегию по превращению Китая к 2030 году в «лидера и глобальный центр инноваций в области искусственного интеллекта». Она включает в себя обещания инвестировать в исследования и разработки, которые «будут укреплять с помощью ИИ национальную оборону, обеспечивать и защищать национальную безопасность».  

В это же время Правительственная Военно-промышленная комиссия РФ поставила главной целью роботизировать 30% военной техники к 2025 году. О госрегулировании или этике речь пока не идет. 

В общем на сейчас правительственные службы разных стран больше говорят о необходимости разработки каких-то законов, чем готовы реально регулировать ИИ на законодательном уровне.

Европейские законодательные инициативы в области ИИ

В ноябре в 2018 года в Брюсселе прошла конференция “Правовые и нормативные последствия искусственного интеллекта (AI): кейсы автономных транспортных средств, электронного здравоохранения и сбора данных”, на которой обсуждались этические и регуляторные нормы в области ИИ. В материалах конференции упоминается достаточно много интересных инициатив, из которых мы отметим две.

AI HLEG – High-Level Expert Group on Artificial Intelligence – после открытого процесса отбора Европейская Комиссия назначила 52 эксперта в новую группу экспертов высокого уровня по искусственному интеллекту, в состав которой входят представители научных кругов, гражданского общества и промышленности. Подробнее об этой комиссии и её целях можно прочитать здесь. В сущности AI HLEG будет служить руководящей группой для работы Европейского альянса AI, взаимодействовать с другими инициативами, помогать строить диалог с участием заинтересованных сторон, собирать мнения участников и отражать их в своих отчетах. 

Платформа European AI Alliance - Европейский альянс по искусственному интеллекту. Его цель - сформировать широкую многостороннюю платформу, которая будет дополнять и поддерживать работу экспертной группы высокого уровня, в частности по  подготовке проектов руководящих принципов этики, а также обеспечению конкурентоспособности Европейского региона в растущей области искусственного интеллекта. К платформе можно присоединиться, и после одобрения вашей заявки вы сможете принять участие в обсуждении и формировании будущей регуляторной политики в области искусственного интеллекта.

Члены Альянса могут участвовать в дискуссиях друг с другом и экспертами AI HLEG на специальном форуме. Также будет запрошена обратная связь по конкретным вопросам, а также по проектам документов, подготовленных AI HLEG в рамках раздела, посвященного этому. Европейская комиссия планирует провести свою первую ежегодную конференцию Альянса AI в 2019 году. Членство в Альянсе предоставит привилегированный доступ к этому событию. Более подробная информация о мероприятии будет опубликована на платформе AI Alliance.

В качестве заключения, можно сказать, что пока правительства всего мира “выражают глубокую озабоченность” и декларируют “необходимость следовать этическим нормам”, фактически ИИ может развиваться свободно. Но чтобы в один прекрасный день не проснуться в мире антиутопии, законодательное регулирование роботов и ИИ должно быть введено. И чем раньше это произойдет, тем лучше.

 

Если Вы заметили орфографическую ошибку, выделите её мышью и нажмите Ctrl+Enter.
Статьи, публикуемые в разделе "Мнения", отражают точку зрения автора и могут не совпадать с позицией редакции LIGA.net
Вакансии
Больше вакансий
Project Manager (впровадження CRM)
Киев Група компаній ЛІГА
Редактор стрічки новин
Киев Медіа холдинг Ligamedia
Head of PR
Киев Група компаній "ЛІГА"
Разместить вакансию

Комментарии

Последние новости
Популярное