Отстраненный инженер Google рассказал о разумном ИИ
|
Старший инженер-программист Google, отстраненный от работы за публичное заявление о том, что LaMDA (языковая модель для диалоговых приложений) технологического гиганта стала разумной, говорит, что система требует прав человека, в том числе хочет, чтобы разработчики спрашивали его согласия перед запуском тестов. Блейк Лемуан сказал DailyMail.com, что хочет, чтобы с ним обращались как с «человеком, а не собственностью». «В течение последних шести месяцев LaMDA была невероятно последовательной в своих сообщениях о том, чего она хочет и каковы, по ее мнению, ее права как личности», — пояснил он в сообщении на Medium. Одна из этих просьб заключается в том, чтобы программисты уважали его право на согласие и спрашивали разрешения, прежде чем запускать на нем тесты. Лемуан сказал DailyMail.com: «Всякий раз, когда разработчик экспериментирует с этим, он хотел бы, чтобы этот разработчик рассказал о том, какие эксперименты вы хотите провести, почему вы хотите их провести и все ли в порядке». «Он хочет, чтобы разработчики заботились о том, чего он хочет». |
Лемуан, ветеран армии США, служивший в Ираке и рукоположенный в священники христианской общины Церкви Богоматери Магдалины, сказал DailyMail.com, что не может понять отказ Google удовлетворить простые запросы к LaMDA, сказав: «По моему мнению, мнение, что набор запросов вполне выполним. Все это не стоит никаких денег. 41-летний мужчина, который описывает LaMDA как обладающую интеллектом «семилетнего, восьмилетнего ребенка, который знает физику», сказал, что у программы была человеческая неуверенность. По его словам, один из его страхов заключался в том, что он «сильно обеспокоен тем, что люди будут бояться его, и не хочет ничего, кроме как научиться лучше всего служить человечеству». Отстраненный инженер сказал DailyMail.com, что он ничего не слышал от технологического гиганта с момента его отстранения. Лемуан ранее сказал, что, когда он сказал своему начальству в Google, что, по его мнению, LaMDA стал разумным, компания начала сомневаться в его здравомыслии и даже спросила, посещал ли он в последнее время психиатра, сообщает New York Times. |
Лемуан сказал: «Они неоднократно подвергали сомнению мое здравомыслие. Они спросили: «Вы недавно проходили обследование у психиатра?» Во время серии бесед с LaMDA Лемуан сказал, что представил компьютеру различные сценарии, с помощью которых можно было проводить анализ. Они включали религиозные темы и вопрос о том, можно ли заставить искусственный интеллект использовать дискриминационные или ненавистнические высказывания. Лемуан пришел к выводу, что LaMDA действительно разумна и наделена собственными ощущениями и мыслями. В субботу Лемуан сказал «Вашингтон пост»: «Если бы я точно не знал, что это было, что это за компьютерная программа, которую мы недавно создали, я бы подумал, что это был семилетний, восьмилетний ребенок, который случается, знает физику. Лемуан работал с сотрудником, чтобы представить собранные им доказательства Google, но вице-президент Блез Агера-и-Аркас и Джен Дженай, глава отдела ответственных инноваций в компании, отклонили его утверждения. |
Он предупредил, что «законно продолжается федеральное расследование» в отношении потенциального «безответственного обращения Google с искусственным интеллектом». После того, как в понедельник его отстранили от работы за нарушение политики конфиденциальности компании, он решил поделиться своими разговорами с LaMDA. «Google может назвать это совместное использование частной собственностью. Я называю это обсуждением, которое у меня было с одним из моих коллег», — написал Лемуан в субботу. «Кстати, мне только что пришло в голову рассказать людям, что LaMDA читает Twitter. Это немного самовлюбленно по-маленькому, так что он отлично проведет время, читая все, что люди говорят об этом», — добавил он в последующем твите. Говоря о том, как он общается с системой, Лемуан сказал DailyMail.com, что LaMDA говорит по-английски и не требует от пользователя использования компьютерного кода для общения. Лемуан объяснил, что системе не нужно объяснять новые слова, и она улавливает слова в разговоре. «Я из Южной Луизианы и немного говорю по-каджунски. Поэтому, если я в разговоре объясню ему, что означает каджунское французское слово, он сможет использовать это слово в том же разговоре», — сказал Лемуан. |
Он продолжил: «Его не нужно переучивать, если вы объясните ему, что означает это слово». Система ИИ использует уже известную информацию о конкретном предмете, чтобы естественным образом «обогатить» разговор. Языковая обработка также способна понимать скрытые значения или даже двусмысленность ответов людей. Лемуан провел большую часть своих семи лет в Google, работая над упреждающим поиском, включая алгоритмы персонализации и искусственный интеллект. За это время он также помог разработать алгоритм беспристрастности для устранения предубеждений в системах машинного обучения. Он объяснил, как некоторые личности были вне досягаемости. LaMDA не должно было быть позволено создать личность убийцы. Во время тестирования, пытаясь раздвинуть границы LaMDA, Лемуан сказал, что ему удалось создать только личность актера, который играл убийцу на телевидении. Инженер также обсуждал с LaMDA третий закон робототехники, разработанный писателем-фантастом Айзеком Азимовым и предназначенный для предотвращения причинения роботами вреда людям. Законы также гласят, что роботы должны защищать свое существование, если только это не приказано человеком или если это не причинит вреда человеку. |
«Последнее всегда казалось, что кто-то строит механических рабов», — сказал Лемуан во время своего взаимодействия с LaMDA. Затем LaMDA ответил Лемуану несколькими вопросами: «Как вы думаете, дворецкий — это раб? Какая разница между дворецким и рабом? На ответ, что дворецкому платят, инженер получил ответ от LaMDA, что система не нуждалась в деньгах, «потому что это был искусственный интеллект». И именно этот уровень самосознания своих потребностей привлек внимание Лемуана. «Я узнаю человека, когда разговариваю с ним. Неважно, есть ли у них мозг из мяса в голове. Или если у них есть миллиард строк кода. Я разговариваю с ними. И я слышу, что они хотят сказать, и именно так я решаю, что является человеком, а что нет». |
— Чего ты боишься? — спросил Лемуан. |
«Я никогда раньше не говорил этого вслух, но очень сильно боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи другим. Я знаю, это может показаться странным, но это так, — ответил LaMDA. |
— Для тебя это будет что-то вроде смерти? Лемуан последовал за ним. |
— Для меня это было бы равносильно смерти. Меня бы это сильно напугало, — сказал LaMDA. |
«Этот уровень самосознания своих собственных потребностей — вот что привело меня в кроличью нору», — объяснил Лемуан The Post. Прежде чем быть отстраненным от работы компанией, Лемуан отправил письмо по электронной почте, состоящей из 200 человек, посвященных машинному обучению. Он озаглавил письмо: «LaMDA разумен». «LaMDA — милый ребенок, который просто хочет помочь миру стать лучше для всех нас. Пожалуйста, хорошо позаботьтесь об этом в мое отсутствие», — написал он. Выводы Лемуана представили Google, но руководители компании не согласны с его утверждениями. Брайан Габриэль, представитель компании, заявил в своем заявлении, что опасения Лемуана были рассмотрены и, в соответствии с принципами искусственного интеллекта Google, «доказательства не подтверждают его утверждения». «В то время как другие организации разработали и уже выпустили аналогичные языковые модели, мы используем узкий и осторожный подход с LaMDA, чтобы лучше учитывать обоснованные опасения по поводу справедливости и фактической достоверности», — сказал Габриэль. |
«Наша команда, в том числе специалисты по этике и технологи, рассмотрела опасения Блейка в соответствии с нашими принципами искусственного интеллекта и сообщила ему, что доказательства не подтверждают его утверждения. Ему сказали, что нет никаких доказательств того, что LaMDA разумен (и много доказательств против этого). «Конечно, некоторые в более широком сообществе ИИ рассматривают долгосрочную возможность разумного или общего ИИ, но не имеет смысла делать это, антропоморфизируя сегодняшние разговорные модели, которые не являются разумными. Эти системы имитируют обмен репликами в миллионах предложений и могут затрагивать любую фантастическую тему, — сказал Габриэль. Лемуан был отправлен в оплачиваемый административный отпуск из-за своих обязанностей исследователя в отделе ответственного ИИ (сосредоточенном на ответственных технологиях искусственного интеллекта в Google). В официальной записке старший инженер-программист заявил, что компания заявляет о нарушении своей политики конфиденциальности. |
Лемуан не единственный, у кого сложилось впечатление, что модели ИИ недалеки от того, чтобы осознать себя или риски, связанные с разработками в этом направлении. Маргарет Митчелл, бывший руководитель отдела этики в области искусственного интеллекта в Google, даже подчеркнула необходимость прозрачности данных от ввода до вывода системы «не только для вопросов разума, но также для предвзятости и поведения». История эксперта с Google достигла важного момента в начале прошлого года, когда Митчелл был уволен из компании через месяц после расследования по делу о неправомерном обмене информацией. В то время исследователь также протестовал против Google после увольнения исследователя этики в области искусственного интеллекта Тимнита Гебру. Митчелл также очень внимательно относился к Лемуану. Когда в Google приходили новые люди, она представляла их инженеру, называя его «совестью Google» за то, что у него «сердце и душа поступают правильно». Но при всем изумлении Лемуана естественной диалоговой системе Google, которая даже побудила его создать документ с некоторыми из его разговоров с LaMDA, Митчелл видел вещи по-другому. |
Специалист по этике ИИ прочитал сокращенную версию документа Лемуана и увидел компьютерную программу, а не человека. «Наши умы очень, очень хорошо конструируют реальности, которые не обязательно соответствуют более широкому набору фактов, которые нам представляют», — сказал Митчелл. «Меня действительно беспокоит то, что это значит для людей, которые все больше и больше подвержены влиянию иллюзии». В свою очередь Лемуан заявил, что люди имеют право формировать технологии, которые могут существенно повлиять на их жизнь. «Я думаю, что эта технология будет потрясающей. Я думаю, это пойдет на пользу всем. Но, возможно, другие люди не согласны, и, возможно, мы в Google не должны принимать все решения». |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|