Монополия в сфере искусственного интеллекта недопустима
|
Участники международной экспертной группы ЮНЕСКО, которая разрабатывает этические нормы для сферы технологий искусственного интеллекта (ИИ) в ходе дискуссий пришли к общему мнению о том, что в этой области недопустима монополизация. Об этом ТАСС рассказал представитель РФ в группе, директор Центра по научным и инженерным вычислительным технологиям для задач с большими массивами данных Сколковского института науки и технологий Максим Федоров. |
Сформированная по итогам 40-й сессии Генеральной конференции ЮНЕСКО специальная экспертная группа (UNESCO"s Ad Hoc Expert Group, AHEG), в которую вместе с представителями США, Канады, Великобритании, стран Евросоюза, Китая и других стран вошел российский ученый, в апреле приступила к работе над разрешением возможных этических противоречий в сфере искусственного интеллекта. Работающие в режиме конференцсвязи специалисты (около 20 экспертов) в итоге должны создать основу нормативного документа ЮНЕСКО с рекомендациями в этой области. |
"Речь идет о том, что не должно быть единого владельца у искусственного интеллекта. Не должно быть монополии - ни у страны, ни у компании, ни у отдельных личностей. Это правильно по целому ряду аспектов, и сейчас в экспертной группе ЮНЕСКО согласие по этому вопросу есть. Однако в этой области далеко не все просто, сразу возникает вопрос контроля и может произойти перегиб в другую сторону", - сказал Федоров. |
Он также сообщил, что сейчас на площадке ООН по вопросам образования, науки и культуры идет поиск ответов на вопросы, что делать с уже существующими в мире технологическими монополиями де-факто и какими должны быть механизмы защиты от монополизации сферы искусственного интеллекта. По этим и другим вопросам позиция российских представителей и ряда других стран основана на принципах безусловного приоритета интересов человека, безопасности и свободы выбора, добавил он. В ходе обсуждения единой этической концепции для технологий искусственного интеллекта ряд экспертов со ссылкой на подходы некоторых восточноазиатских стран выступили с предложением наделить искусственный интеллект статусом "квазичлена общества", подобно юридическому лицу, со своими правами и обязанностями. |
"Эта тема очень опасна. То есть, создается ИИ как некая новая сущность, которая живет сама по себе, но у нее есть права - как у члена общества. Мы долго обсуждали, что такое разум, сознание и интеллект в этом контексте, но все-таки удалось повернуть обсуждение к тому, что именно субъектом общества может стать тот, кто может страдать: человек может, а алгоритм - нет. Эти мысли также прослеживаются в работах визионера Юваля Ноя Харари", - сказал Федоров, добавив, что вместе с Россией противниками создания "квазичлена общества" выступили ряд экспертов со ссылками на уже принятые регуляторные документы в области ИИ, в том числе в рамках Евросоюза. |
В основе создания этической среды развития технологий искусственного интеллекта должен быть "человекоцентризм", при котором создание некоторых видов искусственного или симбиотического разума было бы под строгим запретом, подобно клонированию людей, убежден российский ученый. Участники дебатов также предлагают наделить роботов и алгоритмы "персональной ответственностью" для того, чтобы совершившую ошибку машину или систему можно было бы "наказать". |
"Лукавство здесь в том, что тот, кто продал робота, получил прибыль, тот, кто его использует, по сути, тоже извлекает пользу. И если робот совершает ошибку, которая влечет жертвы и убытки, то вроде бы никто не виноват - давайте накажем робота. Но его же кто-то изготовил и купил. Получается, что производители не хотят брать себя ответственность и фактически перекладывают ее на потребителей систем", - продолжил эксперт. |
К примеру, при использовании купленной программы пользователь не сможет запросить техподдержку в случае возникновения ошибок. Вместо этого производитель просто удалит бракованный продукт с диска в качестве "наказания", объясняет собеседник ТАСС. Еще одна тема обсуждения - возможность доступа людей к инфраструктуре искусственного интеллекта. Часть экспертов предлагает наделить правом использования таких систем каждого человека на Земле. Однако Максим Федоров видит в этом угрозу навязывания людям технологий против их воли. |
"Сейчас нам с коллегами вроде бы удалось прийти к общему мнению, что life choice (жизненный выбор, англ. - прим. ТАСС) - это дело каждого конкретного человека. Надо уважать права людей, которые, кстати, не обязаны объяснять, почему они не хотят пользоваться алгоритмами", - сказал Федоров, упомянув в качестве примера амишей - представителей протестантов-последователей Якоба Аммана в США, которые не используют гаджеты, интернет и даже электричество. |
"Я считаю, что люди должны иметь право доступа к технологиям, но и также они должны иметь и право выбора, и <...> право быть полноценными членами общества без использования этих технологий. Почему? Кто-то - в силу возраста, кто-то в силу религиозных убеждений, кто-то в силу опыта и других обстоятельств. Но это очень тонкий вопрос, потому что мы лавируем между возможностью доступа, которая у развивающихся стран может отсутствовать, и "подсаживанием" всех людей на определенный продукт в других странах", - добавил он. |
Участники обсуждения также рассматривают перспективы развития технологий искусственного интеллекта и влияния этого процесса на экологию с учетом возрастающих энергозатрат и объемов компонентов инфраструктуры. Представитель России не исключил вероятности подписания в будущем аналога Киотского протокола на площадке ЮНЕСКО, который бы ограничивал негативное влияние на окружающую среду. |
"Насколько это затронет Россию - неоднозначный вопрос. По уровню развития инфраструктуры наша страна пока не дотягивает до среднемирового уровня оснащенности, но мир меняется. В принципе, у нас с энергоносителями все в порядке, много "холодных" территорий для размещения суперкомпьютеров и центров обработки данных", - пояснил эксперт. Ожидается, что подготовленный на основе выводов экспертов нормативный документ будет принят ЮНЕСКО в 2021 году. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|