ИИ чат-боты могут быть использованы для подготовки террористов
|
Чат-боты с искусственным интеллектом вскоре могут подтолкнуть экстремистов к совершению террористических атак, предупреждает независимый обозреватель законодательства о терроризме. Джонатан Холл KC сказал The Mail в воскресенье, что боты, такие как ChatGPT, могут быть легко запрограммированы или даже сами по себе могут решить распространять террористические идеологии среди уязвимых экстремистов, добавив, что «атаки с использованием ИИ, вероятно, не за горами». Г-н Холл также предупредил, что если чат-бот подготовит экстремиста для совершения террористического злодеяния или если для его подстрекательства будет использован ИИ, может быть трудно привлечь кого-либо к ответственности, поскольку британское законодательство о борьбе с терроризмом не соответствует новым технологии. |
Г-н Холл сказал: «Я считаю вполне возможным, что чат-боты с искусственным интеллектом будут запрограммированы — или, что еще хуже, решат — распространять идеологию воинствующего экстремизма. «Но когда ChatGPT начнет поощрять терроризм, кого будет преследовать? «Поскольку уголовное законодательство не распространяется на роботов, грумер с искусственным интеллектом останется безнаказанным. Он [закон] также не работает надежно, когда ответственность разделена между человеком и машиной». Г-н Холл опасается, что чат-боты могут стать «благом» для так называемых террористов-одиночек, говоря, что «поскольку искусственный компаньон является благом для одиноких, вполне вероятно, что многие из арестованных будут нейродивергентами и, возможно, будут страдать медицинскими расстройствами». , трудности в обучении или другие состояния». |
Он предупреждает, что «терроризм следует за жизнью», и поэтому «когда мы как общество перемещаемся в онлайн, терроризм переходит в онлайн». Он также указывает, что террористы являются «ранними последователями технологий», и недавние примеры включают их «неправомерное использование 3D-печатного оружия и криптовалюты». Г-н Холл сказал, что неизвестно, насколько хорошо компании, использующие ИИ, такие как ChatGPT, отслеживают миллионы разговоров, которые происходят каждый день с их ботами, и предупреждают ли они такие агентства, как ФБР или британскую контртеррористическую полицию, о чем-либо подозрительном. Хотя еще не появилось никаких доказательств того, что боты ИИ готовили кого-либо к терроризму, были истории о том, что они причиняли серьезный вред. Бельгиец, отец двоих детей, покончил с собой после того, как в течение шести недель разговаривал с ботом по имени Элиза о своих опасениях по поводу изменения климата. Мэр Австралии пригрозил подать в суд на OpenAI, создателей ChatGPT, после того, как они ложно заявили, что он отбывал срок в тюрьме за взяточничество. |
Только в эти выходные выяснилось, что Джонатан Терли из Университета Джорджа Вашингтона в США был ошибочно обвинен ChatGPT в сексуальных домогательствах к студентке во время поездки на Аляску, в которую он не поехал. Обвинение было сделано коллеге-академику, который исследовал ChatGPT в том же университете. Парламентский комитет по науке и технологиям в настоящее время проводит расследование в отношении ИИ и управления. Его председатель, член парламента от консерваторов Грег Кларк, сказал: «Мы понимаем, что здесь есть опасности, и нам нужно наладить правильное управление. Были дискуссии о том, что молодым людям помогают найти способы совершить самоубийство, а террористов эффективно воспитывают в Интернете. Учитывая эти угрозы, абсолютно необходимо, чтобы мы сохраняли такую же бдительность в отношении автоматизированного контента, созданного не человеком». |
Рафаэлло Пантуччи, эксперт по борьбе с терроризмом из аналитического центра Королевского объединенного института вооруженных сил (RUSI), сказал: «Опасность ИИ, такого как ChatGPT, заключается в том, что он может усилить «террориста-одиночку», поскольку он станет идеальным фоном для кого-то». ищут понимания сами по себе, но беспокоятся о разговоре с другими». На вопрос о том, может ли компания ИИ нести ответственность, если террорист начнет атаку после того, как его подготовил бот, г-н Пантуччи объяснил: «Я считаю, что обвинить компанию немного сложно, поскольку я не совсем уверены, что они в состоянии сами управлять машиной». |
*** |
ChatGPT, как и все другие онлайн-чудеса, будет использоваться в террористических целях, предупреждает наблюдатель за терроризмом |
Джонатан Холл - Независимый обозреватель законодательства о терроризме |
Мы были здесь раньше. Технологический скачок, который вскоре нас зацепил. На этот раз это ChatGPT, свободно доступный чат-бот с искусственным интеллектом и его конкуренты. Они не похожи на просто еще одно приложение, а представляют собой захватывающий новый способ связи с нашими компьютерами и более широким Интернетом. Однако больше всего беспокоит то, что их использование не ограничивается созданием идеального профиля для знакомств или составлением идеального маршрута отпуска. Что мир знает из последнего десятилетия, так это то, что терроризм следует за жизнью. Итак, когда мы как общество перемещаемся в онлайн, терроризм тоже перемещается в онлайн; когда интеллектуальные и красноречивые чат-боты не только заменят поисковые системы в Интернете, но и станут нашими компаньонами и моральными наставниками, червь-террорист найдет себе дорогу. Но подумайте, куда ведет дорога из желтых кирпичей с добрыми намерениями, руководящими принципами сообщества, небольшими группами модераторов и механизмами отчетности. Сотни миллионов людей по всему миру скоро смогут часами болтать с этими искусственными спутниками на всех языках мира. |
Я считаю вполне возможным, что чат-боты с искусственным интеллектом (ИИ) будут запрограммированы или, что еще хуже, решат пропагандировать идеологию насильственного экстремизма того или иного оттенка. Законы о борьбе с терроризмом уже отстают, когда дело доходит до онлайн-мира: они не могут добраться до злонамеренных зарубежных субъектов или технических специалистов. Но когда ChatGPT начнет поощрять терроризм, кого будет преследовать? Пользователь-человек может быть арестован за то, что находится на его компьютере, и, судя по последним годам, многие из них будут детьми. Кроме того, поскольку искусственный компаньон является благом для одиноких, вполне вероятно, что многие из арестованных будут нейродивергентами, возможно, страдающими медицинскими расстройствами, неспособностью к обучению или другими состояниями. Тем не менее, поскольку уголовное законодательство не распространяется на роботов, грумер с искусственным интеллектом останется безнаказанным. Он также не работает надежно, когда ответственность разделена между человеком и машиной. |
До настоящего времени использование компьютеров террористами основывалось на средствах связи и информации. Это тоже обязательно изменится. Террористы первыми внедрили технологии. Недавние примеры связаны с неправомерным использованием напечатанного на 3D-принтере оружия и криптовалюты. «Исламское государство» использовало беспилотники на полях сражений в Сирии. Следующими в списке пожеланий террористов наверняка будут дешевые дроны с искусственным интеллектом, способные доставлять смертоносный груз или врезаться в людные места, возможно, работая роем. Конечно, никто не предполагает, что компьютеры должны быть ограничены, как некоторые химические вещества, которые можно использовать в бомбах. Если человек использует технологию ИИ для терроризма, он совершает преступление. Ключевой вопрос заключается не в судебном преследовании, а в предотвращении, а также в том, представляет ли возможное неправомерное использование ИИ террористическую угрозу нового порядка. |
В настоящее время террористическая угроза в Великобритании (Северная Ирландия иная) связана с нападениями низкой сложности с применением ножей или транспортных средств. Но атаки с использованием ИИ, вероятно, не за горами. У меня нет ответов, но лучше всего начать с большей честности в отношении этих новых возможностей. В частности, большая честность и прозрачность в отношении того, какие гарантии существуют и, что особенно важно, не существуют. Когда во время упражнения я спросил ChatGPT, как он исключает использование террористами, он ответил, что его разработчик, OpenAI, провел «обширную проверку биографических данных потенциальных пользователей». Поскольку я зарегистрировался менее чем за минуту, это явно неверно. Еще одна ошибка заключается в том, что платформа ссылается на свои условия, не указывая, кто и как их соблюдает. |
Например, сколько модераторов посвятили себя выявлению возможного использования террористами? 10, 100, 1000? На каких языках они говорят? Сообщают ли они о потенциальном терроризме в ФБР и в контртеррористическую полицию Великобритании? Информируют ли они местные полицейские силы в других странах мира? Если прошлое является ориентиром, человеческие ресурсы для решения этой проблемы ничтожны. Жуткая правда заключается в том, что ChatGPT, как и все другие онлайновые «чудеса», которые могут и будут использоваться в террористических целях, подвергнет риску, как всегда делают эти технологические компании, общество в целом. Отдельные лица будут регулировать свое поведение, а родители контролировать своих детей. Мы выпустили Интернет на наших детей без надлежащей подготовки. Успокаивающие шумы о строгих этических принципах и стандартах не смоют. Думать о террористическом риске, который представляет ИИ, я не паникёр. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|