Вероятность сценария Терминатора близка к нулю
|
По словам профессора Оксфордского университета, вероятность «сценария Терминатора», вызванного искусственным интеллектом (ИИ), «близка к нулю». Сандра Вахтер, профессор технологий и регулирования, назвала письмо Центра безопасности ИИ в Сан-Франциско, в котором предупреждалось, что технология может уничтожить человечество, «рекламным ходом». Письмо, в котором утверждается, что к рискам следует относиться так же срочно, как к пандемиям или ядерной войне, подписали десятки экспертов, в том числе пионеры ИИ. Премьер-министр Риши Сунак ретвитнул заявление Центра безопасности ИИ в среду, заявив, что правительство «очень внимательно» его изучает. Профессор Вахтер назвал риск, упомянутый в письме, «научно-фантастическим фэнтези», и сравнил его с фильмом «Терминатор». Она добавила: «Есть риски, есть серьезные риски, но не риски привлекают все внимание в данный момент. «То, что мы видим в этом новом открытом письме, — это научно-фантастическая фантазия, которая отвлекает от проблемы прямо здесь и сейчас. «Вопросы, связанные с предвзятостью, дискриминацией и воздействием на окружающую среду. «Весь дискурс строится вокруг чего-то, что может произойти или не произойти через пару сотен лет. «Вы не можете сделать с этим что-то значимое, так как это так далеко в будущем. «Но предвзятость и дискриминацию я могу измерить, я могу измерить воздействие на окружающую среду. «Для охлаждения центра обработки данных среднего размера ежедневно требуется 360 000 галлонов воды — это цена, которую мы должны заплатить. |
— Это рекламный ход. Это привлечет финансирование. «Давайте сосредоточимся на замещении рабочих мест людей. Эти вещи полностью отодвинуты на второй план сценарием Терминатора. «Что мы знаем о технологиях сейчас, вероятность [вымирания человечества из-за ИИ] близка к нулю. «Люди должны беспокоиться о других вещах». Приложения ИИ стали вирусными в сети: пользователи размещают поддельные изображения знаменитостей и политиков, а студенты используют ChatGPT и другие «модели изучения языка» для создания эссе университетского уровня. Но ИИ также может выполнять жизненно важные задачи, такие как алгоритмы анализа медицинских изображений, таких как рентгеновские снимки, сканирование и ультразвук, помогая врачам более точно и быстро выявлять и диагностировать такие заболевания, как рак и болезни сердца. Заявление было организовано Центром безопасности ИИ, некоммерческой организацией, целью которой является «снижение социальных рисков, связанных с ИИ». В нем говорится: «Снижение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война». Старшие руководители таких компаний, как Google DeepMind и Anthropic, подписали письмо вместе с пионером ИИ Джеффри Хинтоном, который ушел со своей работы в Google в начале этого месяца, заявив, что в чужих руках ИИ может быть использован для причинения вреда людям и означают конец человечества. |
Источник |
При использовании материалов с сайта активная ссылка на него обязательна
|