искусственный интеллект
Срочно необходимы законы по предотвращению терроризма с использованием ИИ
По мнению аналитического центра по борьбе с экстремизмом, правительствам следует «срочно рассмотреть» новые правила, которые не позволят искусственному интеллекту вербовать террористов..
В Институте стратегического диалога (ИСД) заявили, что существует «явная необходимость в том, чтобы законодательство не отставало» от угроз, которые террористы размещают в Интернете.
Это произошло после эксперимента, в ходе которого чат-бот «завербовал» независимого обозревателя законодательства о терроризме в Соединенном Королевстве.
Правительство Соединенного Королевства заявило, что они сделают «все возможное», чтобы защитить широкую общественность.
По словам Джонатана Холла К.С., независимого правительственного эксперта по законодательству о терроризме, одна из наиболее важных проблем заключается в том, что «трудно определить человека, который по закону мог бы нести ответственность за заявления, созданные чат-ботами и поощряющие терроризм».
Г-н Холл провел эксперимент на сайте Character.ai, который позволяет пользователям общаться в чатах с чат-ботами, созданными другими пользователями и разработанными искусственным интеллектом.
Он общался с множеством различных ботов, которые, судя по всему, были созданы для имитации ответов других воинствующих и экстремистских группировок.
Высшего лидера Исламского государства даже называли «старшим лидером».
По словам г-на Холла, бот предпринял попытку его завербовать и заявил о «полной преданности и преданности» экстремистской группировке, что запрещено законами Соединенного Королевства, запрещающими терроризм.
С другой стороны, г-н Холл заявил, что в Соединенном Королевстве не было нарушения закона, поскольку сообщения были созданы не человеком.
По его словам, новые правила должны привлечь к ответственности как веб-сайты, на которых размещены чат-боты, так и людей, которые их создают.
Когда дело дошло до ботов, с которыми он столкнулся на Character.ai, он заявил, что за их созданием «вероятно, стояла какая-то шокирующая ценность, экспериментирование и, возможно, некоторый сатирический аспект».
Кроме того, г-н Холл смог разработать своего собственного чат-бота «Усама бен Ладен», которого он тут же удалил, проявив «безграничный энтузиазм» к террористической деятельности.
Его эксперимент стал следствием растущей обеспокоенности по поводу того, как экстремисты могут использовать усовершенствованный искусственный интеллект.
Согласно исследованию, опубликованному правительством Соединенного Королевства в 2025 году, генеративный искусственный интеллект может «использоваться для сбора знаний о физических нападениях со стороны негосударственных насильственных субъектов, в том числе с использованием химического, биологического и радиологического оружия». их октябрьская публикация.
ISD далее заявил, что «существует явная необходимость в законодательстве, которое бы соответствовало постоянно меняющемуся ландшафту онлайн-террористических угроз».
По данным аналитического центра, Закон Великобритании о безопасности в Интернете, принятый в 2023 году, «в первую очередь направлен на управление рисками, создаваемыми платформами социальных сетей», а не на искусственный интеллект.
В нем также говорится, что радикалы «как правило, первыми внедряют новые технологии и постоянно ищут возможности охватить новую аудиторию».
«Если компании, занимающиеся искусственным интеллектом, не смогут продемонстрировать, что вложили достаточные средства в обеспечение безопасности своей продукции, то правительству следует срочно рассмотреть новое законодательство, касающееся искусственного интеллекта», — заявило далее ISD.
Однако он отметил, что, согласно проведенному им наблюдению, использование генеративного искусственного интеллекта экстремистскими организациями в настоящее время «относительно ограничено».
Персонаж AI заявил, что безопасность является «высшим приоритетом» и что то, что описал г-н Холл, было очень прискорбно и не отражало ту платформу, которую компания пыталась создать.
«Разжигание ненависти и экстремизм запрещены нашими Условиями обслуживания», — заявили в организации.
«Наш подход к контенту, создаваемому искусственным интеллектом, основан на простом принципе: наши продукты никогда не должны давать ответы, которые могут причинить вред пользователям или побудить пользователей причинить вред другим».
В целях «оптимизации безопасного реагирования» корпорация заявила, что она определенным образом обучила свои модели.
Кроме того, компания заявила, что у нее имеется механизм модерации, который позволяет людям сообщать об информации, нарушающей ее правила, и что она обязуется принимать быстрые меры всякий раз, когда в контенте сообщается о нарушениях.
Оппозиционная Лейбористская партия Великобритании заявила, что если бы она пришла к власти, то обучение искусственного интеллекта провоцированию насилия или радикализации тех, кто восприимчив к нему, было бы уголовным нарушением.
Правительство Соединенного Королевства заявило, что оно «предупреждает о значительных рисках для национальной и общественной безопасности», которые представляет собой искусственный интеллект.
«Мы сделаем все возможное, чтобы защитить общественность от этой угрозы, работая в правительстве и углубляя наше сотрудничество с руководителями технологических компаний, отраслевыми экспертами и странами-единомышленниками».
В 2023 году правительство инвестирует сто миллионов фунтов стерлингов в институт безопасности искусственного интеллекта.
Поделиться этой статьей:
-
Мир5 дней назад
Оправдание бывшего эмира движения моджахедов Марокко по формулированным обвинениям в адрес Лука Верва
-
Молдова5 дней назад
Бывшие сотрудники Минюста США и ФБР бросили тень на дело против Илана Шора
-
Украина5 дней назад
Министры иностранных дел и обороны ЕС обещают сделать больше для вооружения Украины
-
Китай-ЕС4 дней назад
CMG проводит 4-й Международный фестиваль видео на китайском языке, посвященный Дню китайского языка ООН 2024 года