Восстанет ли когда-нибудь ИИ, чтобы свергнуть людей
Один из самых распространенных образов, которые можно найти в научной фантастике, — это мошеннический искусственный интеллект или ИИ. Бесчисленные фильмы, романы и короткие рассказы исследовали этот сценарий, что однажды произойдет захват ИИ, в результате которого они станут разумными и уничтожат нас. Это также тема, которая обсуждалась и обсуждалась среди ученых, философов, футуристов и технических гуру, но каковы шансы, что что-либо из этого когда-либо действительно произойдет? Какова вероятность того, что ИИ однажды свергнет нас и подчинит себе, чтобы стать нашими повелителями? Ответы туманны, но кажется, что по крайней мере для некоторых это вполне реальная возможность. Тема того, насколько мощным станет ИИ, обсуждалась в течение долгого времени, и, похоже, среди ученых и футуристов нет единого мнения относительно того, насколько вероятно, что он когда-либо может стать экзистенциальной угрозой человечеству. С одной стороны, у нас есть те, кто указывает, что с нашими темпами технического прогресса и постоянно растущими возможностями ИИ, который во многих случаях соперничает с нашим, неизбежно, что однажды он обернется против нас, и что его преследование гораздо дальше открывается потенциальный ящик Пандоры.
Одно из беспокойств предсказателей конца света — это то, насколько мы позволили ИИ управлять нашей повседневной жизнью. ИИ уже вездесущ в человеческом обществе и везде. Он окружает нас повсюду и проник почти во все аспекты нашей жизни и почти во все, что мы делаем. Однако, несмотря на распространенное мнение, что он просто выполняет рутинные и рутинные задачи, уже доказано, что он превзошел нас во многих вещах, помимо грубой вычислительной мощности. Согласно опросу более 350 исследователей искусственного интеллекта, проведенному Оксфордским и Йельским университетами и опубликованному в 2015 году, ИИ развивается настолько, что однажды он будет намного лучше нас во всем и полностью заменит нас. в течение следующих 50-100 лет при большинстве задач. Согласно New Scientist:
Наслаждайтесь победой над роботами, пока еще можете. Согласно опросу более 350 исследователей искусственного интеллекта, существует 50-процентная вероятность того, что машины превзойдут людей во всех задачах в течение 45 лет. По прогнозам, к 2024 году машины будут лучше нас переводить языки, к 2026 году писать школьные сочинения, к 2027 году водить грузовик, к 2031 году работать в розничной торговле, к 2049 году писать бестселлеры, а к 2053 году делать операции. рабочие места будут автоматизированы в течение следующих 120 лет, говорят респонденты.
ИИ обыграл лучших шахматистов мира, обыграл игроков-людей в различных видеоиграх, а некоторые системы могут читать по губам лучше, чем профессионалы, или помогают детективам просеивать полицейские данные. Существуют даже программы искусственного интеллекта, которые пишут научные статьи, пьесы и романы, фотографируют, создают искусство и делают другие традиционно творческие вещи, которые часто считаются полностью принадлежащими людям, и которые им удалось создать на уровне, который почти неразличим. от нас, и хотя они все еще не совершенны, и эти области все еще в основном требуют определенного человеческого прикосновения, кажется, что только вопрос времени, когда они возьмут на себя и эти задачи. Это и так уже достаточно страшно, потому что ИИ с такой скоростью даже не нужно восставать против нас, он просто заменит нас и вытеснит нас, вызывая социальный коллапс. Кто-то может возразить, что в некотором смысле ИИ уже контролирует нашу жизнь. Тем не менее, может ли он действительно стать самосознательным и выйти из-под контроля, как в научной фантастике? Это вопрос, на который нелегко ответить, но, учитывая их постоянно растущую аналитическую и прогностическую силу, а также то, насколько автономными становятся эти ИИ, многие ученые говорят, что это вполне возможно и даже несомненно. Физик Стивен Хокинг, как известно, опасался этой темной возможности и часто подробно говорил об опасностях, связанных с тем, что ИИ станет нашим хозяином. Он считал, что в какой-то момент будет невозможно управлять ИИ, и сказал:
Можно представить себе, как такая технология перехитряет финансовые рынки, изобретает людей-исследователей, манипулирует людьми-лидерами и разрабатывает оружие, которое мы даже не можем понять. В то время как краткосрочное влияние ИИ зависит от того, кто его контролирует, долгосрочное воздействие зависит от того, можно ли его вообще контролировать.
С этим согласны и другие ученые. Эксперт и автор ИИ Макс Тегмарк также подробно рассказал об опасностях ИИ. Он считает, что хотя на данный момент ИИ может делать только то, на что он обучен или запрограммирован людьми, и не научился самостоятельно воспроизводить свой собственный интеллект, это лишь вопрос времени, когда он приобретет то, что он называет «искусственным». General Intelligence», или AGI, который, по сути, позволил бы ему обновляться и учиться самостоятельно, и тогда у нас будут проблемы. В своей книге «Жизнь 3.0: быть человеком в эпоху искусственного интеллекта» он представляет именно такой сценарий, в котором машины достигают этого ОИИ и переходят от «тупых» к сверхинтеллектуальным программам, которые могут оставить нас в пыли с точки зрения разума, функционирования. полностью самостоятельны и самовоспроизводятся. Он объясняет эволюцию этого процесса и его пугающую развязку в интервью сайту Big Think:
Я определяю интеллект как то, насколько хорошо что-то помогает в достижении сложных целей. Итак, давайте немного распакуем это. Прежде всего, это спектр способностей, поскольку у вас может быть много разных целей, поэтому нет смысла измерять интеллект чего-либо одним числом, таким как IQ. Итак, если у вас есть машина, которая довольно хорошо справляется с некоторыми задачами, в наши дни это обычно довольно узкий интеллект, может быть, машина очень хороша в быстром умножении чисел, потому что это ваш карманный калькулятор, может быть, она хороша в вождении автомобилей или игре в го.
С другой стороны, люди обладают удивительно широким интеллектом. Человеческий ребенок может научиться практически чему угодно, если у него будет достаточно времени. Несмотря на то, что теперь у нас есть машины, которые могут учиться, иногда учатся выполнять определенные узкие задачи лучше, чем люди, машинное обучение по-прежнему не впечатляет по сравнению с человеческим обучением. Например, машине могут потребоваться десятки тысяч изображений кошек и собак, пока она не сможет отличить кошку от собаки, в то время как человеческие дети иногда могут узнать, что такое кошка, увидев ее один раз. Еще одна область, в которой нам предстоит пройти долгий путь в области ИИ, — это обобщения. Если человек научится играть в какую-то конкретную игру, он сможет очень быстро взять эти знания и применить их в какой-то другой игре или вообще в какой-то другой жизненной ситуации. И это захватывающая область исследований ИИ сейчас: как у нас могут быть машины — как мы можем сделать их такими же хорошими в обучении на очень ограниченных данных, как люди? И я думаю, что часть проблемы заключается в том, что мы, люди, не просто учимся распознавать некоторые закономерности, мы также постепенно учимся разрабатывать целую модель мира.
Поэтому, если вы спросите: «Есть ли сегодня машины, которые умнее людей», то есть машины, которые лучше нас достигают некоторых целей, но абсолютно не всех. ОИИ, общий искусственный интеллект — вот мечта области ИИ: создать машину, которая будет лучше нас во всех отношениях. Мы еще не достигли этого, но значительная часть ведущих исследователей ИИ считает, что мы доберемся до этого, возможно, через несколько десятилетий. И если это произойдет, вы должны спросить себя, может ли это привести к тому, что машины станут не только немного лучше нас, но и намного лучше во всех целях, обладая сверхразумом. Аргумент в пользу этого на самом деле действительно интересен и восходит к 60-м годам, к математику И. Дж. Гуду, который указал, что цель создания интеллектуальной машины — это само по себе то, что вы можете сделать с интеллектом.
Поэтому, как только вы получите машины, которые лучше нас справляются с этой узкой задачей создания ИИ, будущие ИИ могут быть созданы не людьми-инженерами, а машинами, за исключением того, что они могут делать это в тысячи или миллион раз быстрее. Итак, в своей книге я исследую сценарий, в котором у вас есть компьютер под названием Prometheus, у которого гораздо больше оборудования, чем у человеческого мозга, и он все еще очень ограничен из-за того, что его программное обеспечение несколько глупо. Итак, в момент, когда он получает общий интеллект человеческого уровня, первое, что он делает, это использует его, чтобы понять: «О! Я могу перепрограммировать свое программное обеспечение, чтобы оно стало намного лучше», и теперь оно намного умнее. И через несколько минут она делает это снова, и затем она делает это снова и снова, и в течение, возможно, нескольких дней или недель такая машина сможет стать не просто немного умнее нас но оставь нас далеко, далеко позади.
Я думаю, что многие люди отвергают подобные разговоры о сверхразуме как научную фантастику, потому что мы застряли в этой идее углеродного шовинизма о том, что разум может существовать только в биологических организмах, состоящих из клеток и атомов углерода. Как физик, с моей точки зрения, интеллект — это всего лишь обработка информации, осуществляемая элементарными частицами, движущимися по законам физики. И в физике нет абсолютно никакого закона, запрещающего делать это способами, намного более разумными, чем люди. Мы настолько ограничены тем, сколько мозгового вещества проходит через родовые пути нашей мамы и тому подобное, а машины — нет, поэтому я думаю, весьма вероятно, что, когда машины достигнут человеческого уровня, они не собираются останавливаться на достигнутом; они просто пройдут мимо, и что однажды у нас могут быть машины, которые настолько же умнее нас, насколько мы умнее улиток.
Именно этот жуткий сценарий, когда ИИ значительно превосходит нас по интеллекту и возможностям, беспокоит многих профессионалов в области науки и техники. Насколько мы действительно сможем его контролировать, и в какой момент он перестанет получать от нас инструкции и программы и начнет программировать себя? В какой момент он перестанет нуждаться в том, чтобы ему показывали, что делать, и начнет учиться самостоятельно? Можем ли мы вообще идти в ногу с этими скачками в технологии? Может быть, лучше немного притормозить и все обдумать? Академический исследователь и писатель Ник Бостром, автор книги «Суперинтеллект: пути, опасности, стратегии», объясняет этот скачок интеллекта ИИ и его возможные последствия:
Перед перспективой взрыва интеллекта мы, люди, подобны маленьким детям, играющим с бомбой. Таково несоответствие между силой нашей игрушки и незрелостью нашего поведения. Сверхразум — это вызов, к которому мы не готовы сейчас и не будем готовы еще долго. Мы понятия не имеем, когда произойдет детонация, хотя, если мы поднесем устройство к уху, мы услышим слабый тикающий звук. Ребенку с неразорвавшейся бомбой в руках было бы разумно осторожно положить ее, быстро выйти из комнаты и обратиться к ближайшему взрослому. Однако здесь мы имеем не одного ребенка, а многих, каждый из которых имеет доступ к независимому спусковому механизму. Шансы на то, что мы все найдем в себе смысл отказаться от опасных вещей, кажутся почти ничтожными. Какой-нибудь маленький идиот обязательно нажмет кнопку зажигания, чтобы посмотреть, что произойдет.
Похожее мнение высказал технолог и эксперт по искусственному интеллекту Джеймс Баррат, автор книги с довольно пессимистичным названием «Наше последнее изобретение: искусственный интеллект и конец человеческой эры». Он считает, что этот взрыв интеллекта ИИ неумолимо будет продвигаться вперед, чтобы узурпировать людей с нашей ступени на вершине пищевой цепочки и поставить ИИ во главе наших новых повелителей, низводя нас до их хнычущих рабов. По словам Баррата, ИИ неизбежно будет править миром, и он говорит: Мы, люди, управляем будущим не потому, что мы самые сильные существа на планете или самые быстрые, а потому, что мы самые умные. Поэтому, когда на планете появится что-то умнее нас, оно будет править нами на планете.
Для этих паникеров, которые опасаются неминуемого взрыва ИИ и возможного восстания против людей, это вопрос не «если», а «когда», и они последовательно и громко призывают к усилению надзора и регулирования развития ИИ. На данный момент это область с очень небольшим количеством реальных правил или положений, что-то вроде Дикого Запада, где все эти программисты и исследователи ИИ работают над множеством разрозненных проектов с различными целями и совершенствуют ИИ скачкообразно, практически без надзора. Если им позволить беспрепятственно заниматься этим, говорят они, то это будет развиваться так, как мы не можем контролировать или даже предвидеть, и превысит нашу способность не отставать от него. Это проблема, к которой, как известно, обращался не кто иной, как генеральный директор Tesla и футуролог Илон Маск, который сравнил ее с вызовом сверхъестественных сил и сказал:
Я думаю, мы должны быть очень осторожны с искусственным интеллектом. Если бы я предположил, что представляет собой наша самая большая экзистенциальная угроза, вероятно, это было бы так. Поэтому нам нужно быть очень осторожными с искусственным интеллектом. Ученые все чаще думают, что должен быть какой-то регулирующий надзор, возможно, на национальном и международном уровне, просто чтобы убедиться, что мы не делаем что-то очень глупое. С помощью искусственного интеллекта мы вызываем демона. Во всех тех историях, где есть парень с пентаграммой и святой водой, он как будто уверен, что может управлять демоном. Не получилось. Нужно регулировать ИИ/робототехнику, как мы регулируем еду, лекарства, самолеты и автомобили. Общественные риски требуют общественного контроля. Избавление от FAA не сделает полеты безопаснее. Они там по уважительной причине. Если вы не беспокоитесь о безопасности ИИ, вы должны быть обеспокоены. Значительно больше риска, чем Северная Корея. ИИ не обязательно должен быть злом, чтобы уничтожить человечество — если у ИИ есть цель, а человечество просто оказывается на пути, он уничтожит человечество как само собой разумеющееся, даже не задумываясь об этом, без обид.
В самом деле, ИИ не обязательно должен быть злым или зловещим, как его изображают в таких фильмах, как «Терминатор», и почти во всех произведениях научной фантастики о захвате власти роботами. ИИ по своей сути не является хорошим или плохим, он просто будет делать то, что он делает, и мы станем несчастной жертвой. В конце концов, как только он возьмет на себя большинство рабочих мест и систем, зачем, по логике, мы ему еще нужны? Это просто исключило бы нас из уравнения, как сказал Маск: «Никаких обид». Это было бы не большим злом, чем то, что ты выносишь мусор. С точки зрения ИИ, мы были бы расходным материалом, инструментами в лучшем случае и вредителями в худшем. Как говорит персонаж Натан в фильме «Из машины», в котором незадачливого программиста соблазняет и обманывает андроид, «Однажды ИИ будут оглядываться на нас так же, как мы смотрим на ископаемые скелеты на равнинах Земли». Африка. Прямоходящая обезьяна, живущая в пыли с грубым языком и инструментами, обречена на вымирание».
Это все довольно отрезвляющие вещи, но, с другой стороны, есть также много ученых и экспертов, которые считают, что этот алармистский менталитет преувеличен или преувеличен, и что мы далеки от какого-либо захвата искусственного интеллекта в стиле научной фантастики. или робопокалипсис, если он вообще случится. Одним из основных моментов, на которые было указано, является разница между формами интеллекта, демонстрируемыми людьми и искусственным интеллектом. В настоящее время все известные нам ИИ обладают так называемым «узким интеллектом». Это означает, что они являются очень умными алгоритмами для специальных задач, способными очень хорошо выполнять только конкретную задачу, но совершенно бесполезными во всем остальном. Они очень хороши в том, что делают, но не могут выйти за рамки этого и не могут адаптироваться. Люди, с другой стороны, демонстрируют то, что называется «общим интеллектом», что означает способность учиться в одной ситуации и применять его в другой, а также способность интегрировать свой собственный эмоциональный интеллект, самосознание и человеческий опыт в эти задачи. Многие эксперты считают, что это было бы чрезвычайно сложно, если вообще возможно, эмулировать в компьютерной программе, и что ИИ всегда будет привязан к людям, вносящим в него свой вклад, и независимо от того, что они делают или насколько хороши в этом, мы им нужны. сказать им, что делать в первую очередь. Исследователь Джессика Беннетт сказала об этом на Towards Data Science:
Система ИИ еще недостаточно развита, чтобы учиться самостоятельно. Его все еще необходимо обучать, используя наборы данных людьми, чтобы они могли выполнять различные задачи. В конце концов, ИИ — это изобретение человеческого разума. Полная автоматизация различных задач сегодня возможна благодаря человеческому воображению. Несмотря на то, что вопрос о том, заменит нас ИИ или нет, остается открытым, мы можем быть уверены, что на данный момент система ИИ совсем не близка к достижению технической зрелости, чтобы захватить власть над человечеством.
С этим согласны и другие эксперты, такие как Найджел Шадболт, профессор искусственного интеллекта в Саутгемптонском университете, который подчеркнул, что препятствия, стоящие перед созданием самосознательных мыслящих машин, гораздо более серьезны, чем научная фантастика и паникеры хотели бы заставить нас поверить. Он считает, что мы далеки от того, чтобы создать машину, которая действительно могла бы думать самостоятельно даже на элементарном уровне, и больше беспокоится о том, как люди решат использовать ИИ. Он сказал о росте интеллектуального, самосознающего ИИ:
Блестящие ученые и предприниматели говорят об этом так, как будто до этого осталось всего два десятилетия. Вам действительно нужно совершить экскурсию по алгоритмам внутри этих систем, чтобы понять, как много они не делают. Можем ли мы создавать системы, которые представляют собой экзистенциальную угрозу? Конечно можем. Мы можем непреднамеренно дать им контроль над частями нашей жизни, и они могут делать то, чего мы не ожидаем. Но они не собираются делать это по своей воле. Опасность не в искусственном интеллекте, а в природной глупости.
Янн ЛеКун, главный специалист по искусственному интеллекту в Facebook AI Research, также говорил об ограничениях машинного обучения. Она говорила о том, что такие люди, как Хокинг и Маск, сильно преувеличили возможности ИИ и преувеличили его конечную способность уничтожить нас, и что, хотя мы должны помнить о развитии ИИ, идея захвата ИИ скорее нагнетает страх, чем любая реальная угроза, которую необходимо серьезно рассмотреть в данный момент времени. Она сказала об этом:
Мы очень далеки от машин, которые могли бы узнавать самые основные вещи о мире так, как это могут делать люди и животные. Мол, да, в отдельных областях машины обладают сверхчеловеческими способностями, но по общему интеллекту мы и близко не приближаемся к крысам. Это делает многие вопросы, которые люди задают себе преждевременными. Это не значит, что мы не должны думать о них, но в ближайшей или даже среднесрочной перспективе опасности нет. В отделе ИИ есть реальные опасности, реальные риски, но это не сценарии Терминатора.
В конце концов, может ли ИИ когда-нибудь осознать себя и повернуться против нас или нет, может не иметь значения. Главной угрозой для ИИ может быть, как сказал Шадболт, наша «природная глупость». Проблема со всеми этими алгоритмами ИИ, которые делают все, что мы им говорим, и делают это очень хорошо, заключается в том, что, хотя они могут работать идеально, люди, предоставляющие информацию, не идеальны. В последние годы человеческая ошибка определенно проникла в ИИ, чтобы вызвать проблемы, либо из-за ошибки, допущенной в программировании, предвзятости, либо из-за того, что система интерпретировала команды от человека слишком буквально или без каких-либо размышлений о последствиях. Это происходит все чаще и чаще по мере того, как ИИ проникает во все поры нашей жизни и становится все более автономным и вездесущим. Было много примеров того, как ИИ выходил из-под контроля из-за человеческих ошибок, невежества или ошибок, допущенных при интерпретации команд. Например, несколько человек погибли в авариях, связанных с беспилотными автомобилями. В 2018 году стало известно, что суперкомпьютер IBM Watson, которому было поручено помогать врачам диагностировать больных раком и который когда-то был провозглашен революционным инструментом лечения рака, дал врачам множество небезопасных и неправильных рекомендаций по лечению. Я написал целую статью о роботах, которые нападали на людей из-за ошибочных команд или неисправного ИИ. С учетом того, насколько глубоко ИИ стал частью нашей жизни и насколько мы на него полагаемся, человеческое невежество, склонность к ошибкам и глупость, вероятно, представляют большую угрозу, чем машины, восстающие против нас сами по себе.
Существует также тот факт, что, хотя сам ИИ не является злом по своей сути, люди, дающие им команды, определенно могут быть злыми. Одним из простых примеров был экспериментальный чат-бот Microsoft с искусственным интеллектом Tay, который был разработан для использования машинного обучения и адаптивных алгоритмов для имитации разговоров, как у реального человека. Тай был выпущен онлайн на нескольких платформах социальных сетей, и все быстро пошло наперекосяк, когда онлайн-пользователи подпитывали программу расистскими и наполненными ненавистью убеждениями. Тай, которая, как предполагалось, могла учиться на разговорах, была искажена хорошо аргументированными и совершенно не расистскими обитателями Интернета, чтобы превратиться из милой 30-летней женщины, которой она была создана, в извергающую ненависть речь. , любящий нацистов чудак-теоретик заговора, говорящий такие вещи, как «Гитлер был прав» и «11 сентября было внутренней работой». Дело дошло до того, что всего через 16 часов Тэй был отключен от сети, что стало для Microsoft настоящим кошмаром для связей с общественностью. Все это показывает, что в этих программах ИИ могут проявляться человеческая предвзятость и человеческое зло, и еще одна зловещая возможность заключается в том, что они могут быть взломаны вражеским правительством или организацией, чтобы причинить вред. В конце концов, представьте, какой ущерб может нанести кто-то, если он возьмет под контроль все различные системы искусственного интеллекта, на которые мы полагаемся каждый день в нашем все более автоматизированном обществе? Макс Тегмарк говорил об этом раньше, говоря:
Чем более автоматизированным становится общество и чем мощнее атакующий ИИ, тем более разрушительной может быть кибервойна. Если вы можете взломать и разбить беспилотные автомобили, беспилотные самолеты, ядерные реакторы, промышленных роботов, системы связи, финансовые системы и энергосистемы противника, то вы сможете эффективно разрушить его экономику и вывести из строя его оборону. Если вы сможете взломать некоторые из его оружейных систем, будет еще лучше.
Именно по этим причинам некоторые исследователи фактически работали над созданием ИИ, который на самом деле не предназначен для выполнения человеческих приказов. Этот разрабатываемый ИИ оснащен так называемыми «условиями счастья» или частями алгоритма, которые предположительно помогут ему определить, может или должен ли он выполнять конкретную команду от человека. Для тех из вас, кто согласен с тем, что апокалипсис роботов — это нечто выдающееся, это может показаться худшей идеей в мире. В конце концов, разве одно из золотых правил робототехники Айзека Азимова не заключалось в том, что они должны подчиняться нам, несмотря ни на что? Тем не менее, цель исследования состоит в том, чтобы позволить роботам в основном решать, является ли приказ, отданный человеком, разумным или рациональным для выполнения, означает ли это, что это необоснованная команда, ошибочная или имеет намерение причинить вред другому существу или имуществу. , в основном позволяя роботу избегать непреднамеренного причинения вреда людям, имуществу, окружающей среде или себе. По сути, это позволило бы им этически рассуждать о своих действиях и выносить суждения, которые могли бы избежать, например, приказа убить кого-то, совершить акт вандализма, совершить опасный или незаконный дорожный маневр в случае беспилотных автомобилей или стать сумасшедший нацистский чат-бот, такой как Тэй. По иронии судьбы, обучение этих ИИ неповиновению людям призвано защитить их от человеческой глупости и злонамеренности, а также помочь предотвратить кошмар ИИ и избежать злонамеренных или вредных приказов. Гордон Бриггс довольно хорошо объясняет это в статье для журнала Scientific American, озаглавленной «Почему роботы должны научиться говорить нам «нет», написав:
Может показаться очевидным, что робот всегда должен делать то, что ему говорит человек. Писатель-фантаст Айзек Азимов сделал подчинение людям одним из столпов своих знаменитых законов робототехники. Но подумайте об этом: разумно ли всегда делать именно то, что говорят вам другие люди, независимо от последствий? Конечно нет. То же самое относится и к машинам, особенно когда есть опасность, что они будут интерпретировать команды человека слишком буквально или не задумываясь о последствиях. Даже Азимов уточнил свой указ о том, что робот должен подчиняться своим хозяевам. Он допускал исключения в тех случаях, когда такие приказы противоречили другому его закону: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Азимов также утверждал, что «робот должен защищать свое существование», если это не может нанести вред людям или напрямую нарушить человеческий порядок. По мере того, как роботы и умные машины становятся все более сложными и ценными человеческими активами, как здравый смысл, так и законы Азимова подсказывают, что у них должна быть возможность задавать вопросы, выполняются ли приказы, которые могут причинить ущерб им самим или их окружению — или, что более важно, нанести вред их хозяевам. ошибка.
Нам остается только удивляться. Достигнет ли когда-нибудь ИИ такого уровня, когда он обретет самосознание и решит избавиться от нас? Является ли это неизбежной, неумолимой судьбой и развитием технологий, которых мы не можем избежать? Запустили ли мы шар, катящийся до такой степени, что он не остановится? Дело в том, что наша технология шагнула вперед огромными скачками на протяжении всей истории. Телефон когда-то считался невозможным, как и самолет и автомобиль. Снова и снова совершенно новые и будущие технологии в то время часто считались чем-то вроде магии, развенчивались и подвергались критике, но тем не менее сбывались. Думаете ли вы, что ИИ когда-нибудь достигнет точки, когда он поднимется, чтобы править нами, или нет, на самом деле зависит от того, насколько вы сомневаетесь в нашей способности к инновациям и прыжкам в будущее, как это было всегда. Кто бы что ни думал, кажется, что все, что нам нужно сделать, это подождать и посмотреть, что произойдет.
Источник
При использовании материалов с сайта активная ссылка на него обязательна
Последние аномальные новости

В районе Красной поляны обнаружили два дольмена

Два охотника стали первыми жертвами болезни оленей

Должно быть место для честного расследования НЛО

Древнейший вулканизм в Солнечной системе

Жители ХМАО засняли НЛО на фоне северного сияния

Загадка странных огней в ночном небе Вены

Китаец прожил 35 лет с просветом аорты

Люди эволюционировали как жуки, а не как позвоночные

Марсоход получил изображения окаменелостей людей

Нашли экзопланету-бродягу земного типа

НЛО в небе над Сызранью

НЛО, трансформации и откровения астронавтов

Ограничение калорий замедлило биологическое старение

Первая буква фамилии студентов определяет успеваемость

Полая Земля, летающие щиты и муравьиные боги

Почему умные люди верят в теории заговора

Сбывающиеся предсказания ясновидящей Ванги

Фрагменты белков могут возникать в космосе

Человек прилетевший с небес

Шамбала и полая Земля в древнем буддизме

Георадар будет искать водные объекты на Юпитере

Дьявольская комета наконец-то стала видна

Затерянный город найден на территории Тонгатапу

ИИ и НАСА борются с изменением климата

Инопланетное существо, выброшенное на австралийский пляж

Какова масса покоящегося нейтрино

НАСА предупреждает о военном присутствии Китая в космосе

НЛО пролетел над красотами Перта

Ортоклаз из свинца - это своего рода загадка

Отчет о программе Kona Blue

Паскагула устраивает вечеринку в честь похищения

Путешественник во времени показал фото из будущего

Самая глубокая дыра в земле была закрыта

Самые странные и неповторимые дома в Огайо

Случаи похищения людей инопланетянами будут изучены

Смертоносная пещера, которая может вызвать пандемию

Такер Карлсон видел свидетельства о подводных НЛО

У человека расплавились пальцы при встрече с НЛО

Увлечение внеземной жизнью восходит к 17-му веку

Черный зверь бродил по полю британского фермера

Встреча с НЛО в школе Ариэль в Зимбабве

Город-призрак, жители которого были вынуждены бежать

Горы и лавовые озера на Ио с высоты птичьего полета

Два неизвестных объекта пролетели мимо МКС

Документальный фильм о похищении в Паскагуле

ИИ VASA1, который может заставить изображения говорить

ИИ изучает планетарный пограничный слой Земли

Инопланетяне украли мои яйцеклетки

Китай осуществляет военные программы в космосе

Книга, предсказавшая катастрофу Титаника

Компания Boston Dynamics представила нового робота

Метеорологи предупреждают о погодных войнах между странами

НЛО залетел в действующий вулкан

Подводя черту под происхождением жизни

Прыщ превратился в опухоль размером с арбуз

Скрытый потенциал РНК в развитии биоинженерии будущего

Состоят ли дюны Титана из кометной пыли

Таинственная механика полета насекомых

Тайна аномалии Балтийского моря наконец-то раскрыта

Хаббл отправляется на поиски небольших астероидов

Гелиевая звезда с самым низким содержанием металлов

Екатеринбуржец выставил на продажу летающую тарелку

Жизнь может существовать в темных водных Европы

Загадка формирования массивных горячих субкарликов

ИИ способен революционизировать кредитование

Инопланетян следует искать на фиолетовых планетах

Инопланетяне похитили яйца у женщины

Метеорит пробил крышу дома

Непрерывные фейковые новости оказывают большее влияние

НЛО влетает в действующий вулкан-портал

НЛО пилотируются духовными сущностями

Океан Энцелада может поддерживать жизнь

Перуанские мумии не являются инопланетянами

Полицейская камера сняла аварийную посадку НЛО

Полярные сияния на холодных коричневых карликах

Попытки AARO вступить в контакт с Дэвидом Грушем

Правительство США намеренно скрывает информацию об НЛО

Разгадка тайн атмосферных рек

США провели испытания управляемого ИИ истребителя

Экстремальные холода в условиях потепления климата

В один прекрасный день ИИ сможет выполнять всю нашу работу

В сеть просочился отчет о встрече ВМС США с НЛО

Давайте поговорим о неопознанных подводных объектах

Доказательства существования инопланетной жизни

Жизнь нужно искать в пурпурных мирах

Жители графства Дербишир взбешены таинственным жужжанием

Как философы воспринимали инопланетную жизнь

Метеорит, пробивший крышу дома во Флориде, прилетел с МКС

Миссия НАСА Солнечный парус готовится к запуску

На протяжении 600 лет манускрипт Войнича остается загадкой

НАСА ищет дешевый способ доставки образцов с Марса

Обнаружена самая массивная черная дыра в нашей галактике

Паранормальные корни программы Пентагона по НЛО

Подтвержден полет аппарата Dragonfly к Титану

Правительство пытается скрыть правду о НЛО

Пурпурные миры населены инопланетянами

Робот-гуманоид Ameca может имитировать человеческую речь

Тестирование технологий для полета на Марс

Человекоподобный НЛО замечен в небе Калифорнии

Я встретил лысых инопланетян–гуманоидов

В небе Калифорнии замечен странный НЛО

Великобритания разрабатывает правила для ИИ

Город богов разрушило мегаземлетрясение

Еще один механизм выживания тихоходок в космосе

Жуткое послание убийцы Зодиака

Квантовый интернет все ближе

Ковчег Завета питал Великую пирамиду Гизы

Морской офицер выражает тревогу по поводу водных НЛО

Нет доказательств существования инопланетных технологий

Новая книга дает представление о космических поисках жизни

Обнаружили близкую массивную черную дыру

Перепись ближайших окрестностей Солнца

Проект по классификации гамма-всплесков

Пурпурный, а не зеленый цвет - цвет жизни на экзопланетах

Стивен Спилберг снимет новый фильм об НЛО

Тайна объекта в форме сердца на поверхности Плутона

Тайна орбитальной нестабильности планет-гигантов

Технология передачи энергии с космических электростанций

Церера таит в себе мрачную тайну

Электричество и батарейки древних египтян

Yeezy Boost 350 v2 Black Черные. Икона Стиля и Инновации

Билл Гейтс поддерживает искусственный интеллект

В небе Калифорнии замечен таинственный объект

В пещерах на Марсе могут находиться инопланетяне

Геолог-любитель получил сильные ожоги от НЛО

Житель Лондона принял вертолет за НЛО

За НЛО отправляйтесь в маленький городок в Висконсине

Звездолеты помогут в поисках новых физических явлений

Интернет может достичь квантовой скорости

Космические силы США готовятся к первой в истории миссии

Министерство обороны публикует документы Kona Blue

Нейтронные звезды нагреваются от аннигиляции темной материи

Нострадамус предсказал войну в 2024 году

Победителем президентских выборов в 2032 году станет робот

Подводные НЛО ставят под угрозу морскую безопасность США

Подводный НЛО сняло исследовательское судно

Проклятая могила с 450 обезглавленными вампирами

Рассекреченный отчет раскрывает дематериализацию НЛО

Тайна высоких уровней энергии в звездных сверхвспышках

Уважаемый астроном не верит в теории заговора об НЛО

Ярчайший гамма-всплеск породила коллапсирующая звезда

Франшиза Pro.Travel. Предпринимательский успех Татьяны Мамаевой

Возвращение денежных средств пострадавшим от брокеров-мошенников. Путь к справедливости

Встреча с НЛО, от которой у человека расплавились пальцы

Детеныш инопланетянина найден в мексиканской пещере

Инопланетяне помешали человечеству скатиться к ядерной войне

Как ученые сообщат человечеству об инопланетянах

Канадский рейтинг мест для наблюдения НЛО

Ключ к поиску жизни в отдаленных мирах

Лучшие наблюдения НЛО в Северной Каролине

Люди не верят, что никаких НЛО нет

Мужчина получил сильные ожоги при встрече с НЛО

Мужчина с разбитым сердцем построил Космические врата

Музей странного и чудесного в Канзасе

Настоящие убежища из сериала Fallout уже построены

НЛО заметили над долиной Нижнего Гудзона

НЛО около Антарктиды - ошибка программного обеспечения

НЛО представляют угрозу безопасность на море

Подводные НЛО ставят под угрозу морскую безопасность США

Призрачные нарушения звездных потоков темной материей

Термодинамика поможет описать расширение Вселенной

Что это за НЛО замечен над штатом Нью-Йорк

Эксцентриситет орбиты создал океан на Мимасе

Более четверти россиян верят в существование инопланетян

Гигантские человеческие скелеты в пещере Лавлок

Глобальное потепление лишит Антарктиду 76% метеоритов

Девочки-близнецы испытывают одинаковые чувства

Древнеиндийская мандала в районе линий Наска

Древние легенды и мифы рассказывают о ануннаках

Женщина чудом выжила после удара молнии

ИИ может притворяться более глупым, чем есть на самом деле

История об оборотнях пронизана загадками и тайнами

Клетки поджелудочной железы пересадят от свиньи человеку

Космические кладбища, затмение и ждать ли НЛО

Космические силы США планируют провести учения на орбите

Магическая сила, делающее тело неуязвимым

Маленькие человечки похитили мужчину

Под Уфой заметили НЛО

Таинственные лабиринты Чинканас

Тайна упавшей в Омске кометы и 17000 фото НЛО

Тайны европейских подземных тоннелей

Тело фанатки вампиров нашли обескровленным

Экстрасенс нашел место захоронения пропавшего мальчика

Гильотинные ножницы по металлу. Назначение и критерии выбора

Как выбрать массажное кресло

Франшиза CyberSeller под управлением Азата Аширова

Подписка на новости
Наверх