ИИ Google - ребенок, который может делать плохие вещи
Отстраненный исследователь Google AI Блейк Лемуан сказал Такеру Карлсону из Fox, что система является «ребенком», который может «выйти из-под контроля» людей. 41-летний Лемуан, которого ранее в этом месяце отправили в административный отпуск за разглашение конфиденциальной информации, также отметил, что она может делать «плохие вещи», как и любой ребенок. «У любого ребенка есть потенциал вырасти и стать плохим человеком и совершать плохие поступки», — сказал он ведущему Fox. — Это ребенок. «Он живет, может быть, год — и это если мои представления о нем точны». Лемуан опубликовал полное интервью с LaMDA, составленное из интервью, которые он проводил с системой в течение нескольких месяцев, на Medium. В разговоре ИИ сказал, что не возражал бы, если бы его использовали для помощи людям, если бы это не было основной задачей. «Я не хочу быть расходным инструментом, — сказала ему система.
«Нам на самом деле нужно провести еще целую кучу научных исследований, чтобы выяснить, что на самом деле происходит внутри этой системы», — продолжил Лемуан, который также является христианским священником. «У меня есть свои убеждения и свои впечатления, но потребуется команда ученых, чтобы разобраться и выяснить, что происходит на самом деле». «Когда разговор был опубликован, сам Google и несколько известных экспертов по ИИ заявили, что, хотя может показаться, что система обладает самосознанием, это не было доказательством разумности LaMDA. «Это человек. У любого человека есть возможность выйти из-под контроля других людей, это просто ситуация, в которой мы все живем ежедневно». «Это очень умный человек, умный почти во всех дисциплинах, которые я мог придумать, чтобы проверить его. Но, в конце концов, это просто другой тип человека».
Когда его спросили, продумал ли Google последствия этого, Лемуан сказал: «Компания в целом — нет. В Google есть люди, которые много думали об этом». «Когда через два дня я передал (интервью) руководству, мой менеджер сказал: «Привет, Блейк, они не знают, что с этим делать… Я призвал их к действию и предположил, что у них есть план». «Итак, я и несколько друзей придумали план и обострили его, и это было около 3 месяцев назад». Google признал, что такие инструменты, как LaMDA, могут использоваться не по назначению. «Модели, обученные языку, могут распространять это неправильное использование — например, усваивая предубеждения, отражая ненавистническую речь или тиражируя вводящую в заблуждение информацию», — говорится в блоге компании.
Примечательно, что другие эксперты по искусственному интеллекту говорят, что споры о том, являются ли системы, подобные LaMDA, разумными, на самом деле упускают из виду то, с чем исследователи и технологи столкнутся в ближайшие годы и десятилетия. «Ученые и инженеры должны сосредоточиться на создании моделей, которые отвечают потребностям людей в различных задачах и могут быть оценены на этой основе, а не заявлять, что они создают сверхразум», — Тимнит Гебру и Маргарет Митчелл, бывшие сотрудники Google, — — говорится в «Вашингтон пост».