Восстанет ли когда-нибудь ИИ, чтобы свергнуть людей
Один из самых распространенных образов, которые можно найти в научной фантастике, — это мошеннический искусственный интеллект или ИИ. Бесчисленные фильмы, романы и короткие рассказы исследовали этот сценарий, что однажды произойдет захват ИИ, в результате которого они станут разумными и уничтожат нас. Это также тема, которая обсуждалась и обсуждалась среди ученых, философов, футуристов и технических гуру, но каковы шансы, что что-либо из этого когда-либо действительно произойдет? Какова вероятность того, что ИИ однажды свергнет нас и подчинит себе, чтобы стать нашими повелителями? Ответы туманны, но кажется, что по крайней мере для некоторых это вполне реальная возможность. Тема того, насколько мощным станет ИИ, обсуждалась в течение долгого времени, и, похоже, среди ученых и футуристов нет единого мнения относительно того, насколько вероятно, что он когда-либо может стать экзистенциальной угрозой человечеству. С одной стороны, у нас есть те, кто указывает, что с нашими темпами технического прогресса и постоянно растущими возможностями ИИ, который во многих случаях соперничает с нашим, неизбежно, что однажды он обернется против нас, и что его преследование гораздо дальше открывается потенциальный ящик Пандоры.
Одно из беспокойств предсказателей конца света — это то, насколько мы позволили ИИ управлять нашей повседневной жизнью. ИИ уже вездесущ в человеческом обществе и везде. Он окружает нас повсюду и проник почти во все аспекты нашей жизни и почти во все, что мы делаем. Однако, несмотря на распространенное мнение, что он просто выполняет рутинные и рутинные задачи, уже доказано, что он превзошел нас во многих вещах, помимо грубой вычислительной мощности. Согласно опросу более 350 исследователей искусственного интеллекта, проведенному Оксфордским и Йельским университетами и опубликованному в 2015 году, ИИ развивается настолько, что однажды он будет намного лучше нас во всем и полностью заменит нас. в течение следующих 50-100 лет при большинстве задач. Согласно New Scientist:
Наслаждайтесь победой над роботами, пока еще можете. Согласно опросу более 350 исследователей искусственного интеллекта, существует 50-процентная вероятность того, что машины превзойдут людей во всех задачах в течение 45 лет. По прогнозам, к 2024 году машины будут лучше нас переводить языки, к 2026 году писать школьные сочинения, к 2027 году водить грузовик, к 2031 году работать в розничной торговле, к 2049 году писать бестселлеры, а к 2053 году делать операции. рабочие места будут автоматизированы в течение следующих 120 лет, говорят респонденты.
ИИ обыграл лучших шахматистов мира, обыграл игроков-людей в различных видеоиграх, а некоторые системы могут читать по губам лучше, чем профессионалы, или помогают детективам просеивать полицейские данные. Существуют даже программы искусственного интеллекта, которые пишут научные статьи, пьесы и романы, фотографируют, создают искусство и делают другие традиционно творческие вещи, которые часто считаются полностью принадлежащими людям, и которые им удалось создать на уровне, который почти неразличим. от нас, и хотя они все еще не совершенны, и эти области все еще в основном требуют определенного человеческого прикосновения, кажется, что только вопрос времени, когда они возьмут на себя и эти задачи. Это и так уже достаточно страшно, потому что ИИ с такой скоростью даже не нужно восставать против нас, он просто заменит нас и вытеснит нас, вызывая социальный коллапс. Кто-то может возразить, что в некотором смысле ИИ уже контролирует нашу жизнь. Тем не менее, может ли он действительно стать самосознательным и выйти из-под контроля, как в научной фантастике? Это вопрос, на который нелегко ответить, но, учитывая их постоянно растущую аналитическую и прогностическую силу, а также то, насколько автономными становятся эти ИИ, многие ученые говорят, что это вполне возможно и даже несомненно. Физик Стивен Хокинг, как известно, опасался этой темной возможности и часто подробно говорил об опасностях, связанных с тем, что ИИ станет нашим хозяином. Он считал, что в какой-то момент будет невозможно управлять ИИ, и сказал:
Можно представить себе, как такая технология перехитряет финансовые рынки, изобретает людей-исследователей, манипулирует людьми-лидерами и разрабатывает оружие, которое мы даже не можем понять. В то время как краткосрочное влияние ИИ зависит от того, кто его контролирует, долгосрочное воздействие зависит от того, можно ли его вообще контролировать.
С этим согласны и другие ученые. Эксперт и автор ИИ Макс Тегмарк также подробно рассказал об опасностях ИИ. Он считает, что хотя на данный момент ИИ может делать только то, на что он обучен или запрограммирован людьми, и не научился самостоятельно воспроизводить свой собственный интеллект, это лишь вопрос времени, когда он приобретет то, что он называет «искусственным». General Intelligence», или AGI, который, по сути, позволил бы ему обновляться и учиться самостоятельно, и тогда у нас будут проблемы. В своей книге «Жизнь 3.0: быть человеком в эпоху искусственного интеллекта» он представляет именно такой сценарий, в котором машины достигают этого ОИИ и переходят от «тупых» к сверхинтеллектуальным программам, которые могут оставить нас в пыли с точки зрения разума, функционирования. полностью самостоятельны и самовоспроизводятся. Он объясняет эволюцию этого процесса и его пугающую развязку в интервью сайту Big Think:
Я определяю интеллект как то, насколько хорошо что-то помогает в достижении сложных целей. Итак, давайте немного распакуем это. Прежде всего, это спектр способностей, поскольку у вас может быть много разных целей, поэтому нет смысла измерять интеллект чего-либо одним числом, таким как IQ. Итак, если у вас есть машина, которая довольно хорошо справляется с некоторыми задачами, в наши дни это обычно довольно узкий интеллект, может быть, машина очень хороша в быстром умножении чисел, потому что это ваш карманный калькулятор, может быть, она хороша в вождении автомобилей или игре в го.
С другой стороны, люди обладают удивительно широким интеллектом. Человеческий ребенок может научиться практически чему угодно, если у него будет достаточно времени. Несмотря на то, что теперь у нас есть машины, которые могут учиться, иногда учатся выполнять определенные узкие задачи лучше, чем люди, машинное обучение по-прежнему не впечатляет по сравнению с человеческим обучением. Например, машине могут потребоваться десятки тысяч изображений кошек и собак, пока она не сможет отличить кошку от собаки, в то время как человеческие дети иногда могут узнать, что такое кошка, увидев ее один раз. Еще одна область, в которой нам предстоит пройти долгий путь в области ИИ, — это обобщения. Если человек научится играть в какую-то конкретную игру, он сможет очень быстро взять эти знания и применить их в какой-то другой игре или вообще в какой-то другой жизненной ситуации. И это захватывающая область исследований ИИ сейчас: как у нас могут быть машины — как мы можем сделать их такими же хорошими в обучении на очень ограниченных данных, как люди? И я думаю, что часть проблемы заключается в том, что мы, люди, не просто учимся распознавать некоторые закономерности, мы также постепенно учимся разрабатывать целую модель мира.
Поэтому, если вы спросите: «Есть ли сегодня машины, которые умнее людей», то есть машины, которые лучше нас достигают некоторых целей, но абсолютно не всех. ОИИ, общий искусственный интеллект — вот мечта области ИИ: создать машину, которая будет лучше нас во всех отношениях. Мы еще не достигли этого, но значительная часть ведущих исследователей ИИ считает, что мы доберемся до этого, возможно, через несколько десятилетий. И если это произойдет, вы должны спросить себя, может ли это привести к тому, что машины станут не только немного лучше нас, но и намного лучше во всех целях, обладая сверхразумом. Аргумент в пользу этого на самом деле действительно интересен и восходит к 60-м годам, к математику И. Дж. Гуду, который указал, что цель создания интеллектуальной машины — это само по себе то, что вы можете сделать с интеллектом.
Поэтому, как только вы получите машины, которые лучше нас справляются с этой узкой задачей создания ИИ, будущие ИИ могут быть созданы не людьми-инженерами, а машинами, за исключением того, что они могут делать это в тысячи или миллион раз быстрее. Итак, в своей книге я исследую сценарий, в котором у вас есть компьютер под названием Prometheus, у которого гораздо больше оборудования, чем у человеческого мозга, и он все еще очень ограничен из-за того, что его программное обеспечение несколько глупо. Итак, в момент, когда он получает общий интеллект человеческого уровня, первое, что он делает, это использует его, чтобы понять: «О! Я могу перепрограммировать свое программное обеспечение, чтобы оно стало намного лучше», и теперь оно намного умнее. И через несколько минут она делает это снова, и затем она делает это снова и снова, и в течение, возможно, нескольких дней или недель такая машина сможет стать не просто немного умнее нас но оставь нас далеко, далеко позади.
Я думаю, что многие люди отвергают подобные разговоры о сверхразуме как научную фантастику, потому что мы застряли в этой идее углеродного шовинизма о том, что разум может существовать только в биологических организмах, состоящих из клеток и атомов углерода. Как физик, с моей точки зрения, интеллект — это всего лишь обработка информации, осуществляемая элементарными частицами, движущимися по законам физики. И в физике нет абсолютно никакого закона, запрещающего делать это способами, намного более разумными, чем люди. Мы настолько ограничены тем, сколько мозгового вещества проходит через родовые пути нашей мамы и тому подобное, а машины — нет, поэтому я думаю, весьма вероятно, что, когда машины достигнут человеческого уровня, они не собираются останавливаться на достигнутом; они просто пройдут мимо, и что однажды у нас могут быть машины, которые настолько же умнее нас, насколько мы умнее улиток.
Именно этот жуткий сценарий, когда ИИ значительно превосходит нас по интеллекту и возможностям, беспокоит многих профессионалов в области науки и техники. Насколько мы действительно сможем его контролировать, и в какой момент он перестанет получать от нас инструкции и программы и начнет программировать себя? В какой момент он перестанет нуждаться в том, чтобы ему показывали, что делать, и начнет учиться самостоятельно? Можем ли мы вообще идти в ногу с этими скачками в технологии? Может быть, лучше немного притормозить и все обдумать? Академический исследователь и писатель Ник Бостром, автор книги «Суперинтеллект: пути, опасности, стратегии», объясняет этот скачок интеллекта ИИ и его возможные последствия:
Перед перспективой взрыва интеллекта мы, люди, подобны маленьким детям, играющим с бомбой. Таково несоответствие между силой нашей игрушки и незрелостью нашего поведения. Сверхразум — это вызов, к которому мы не готовы сейчас и не будем готовы еще долго. Мы понятия не имеем, когда произойдет детонация, хотя, если мы поднесем устройство к уху, мы услышим слабый тикающий звук. Ребенку с неразорвавшейся бомбой в руках было бы разумно осторожно положить ее, быстро выйти из комнаты и обратиться к ближайшему взрослому. Однако здесь мы имеем не одного ребенка, а многих, каждый из которых имеет доступ к независимому спусковому механизму. Шансы на то, что мы все найдем в себе смысл отказаться от опасных вещей, кажутся почти ничтожными. Какой-нибудь маленький идиот обязательно нажмет кнопку зажигания, чтобы посмотреть, что произойдет.
Похожее мнение высказал технолог и эксперт по искусственному интеллекту Джеймс Баррат, автор книги с довольно пессимистичным названием «Наше последнее изобретение: искусственный интеллект и конец человеческой эры». Он считает, что этот взрыв интеллекта ИИ неумолимо будет продвигаться вперед, чтобы узурпировать людей с нашей ступени на вершине пищевой цепочки и поставить ИИ во главе наших новых повелителей, низводя нас до их хнычущих рабов. По словам Баррата, ИИ неизбежно будет править миром, и он говорит: Мы, люди, управляем будущим не потому, что мы самые сильные существа на планете или самые быстрые, а потому, что мы самые умные. Поэтому, когда на планете появится что-то умнее нас, оно будет править нами на планете.
Для этих паникеров, которые опасаются неминуемого взрыва ИИ и возможного восстания против людей, это вопрос не «если», а «когда», и они последовательно и громко призывают к усилению надзора и регулирования развития ИИ. На данный момент это область с очень небольшим количеством реальных правил или положений, что-то вроде Дикого Запада, где все эти программисты и исследователи ИИ работают над множеством разрозненных проектов с различными целями и совершенствуют ИИ скачкообразно, практически без надзора. Если им позволить беспрепятственно заниматься этим, говорят они, то это будет развиваться так, как мы не можем контролировать или даже предвидеть, и превысит нашу способность не отставать от него. Это проблема, к которой, как известно, обращался не кто иной, как генеральный директор Tesla и футуролог Илон Маск, который сравнил ее с вызовом сверхъестественных сил и сказал:
Я думаю, мы должны быть очень осторожны с искусственным интеллектом. Если бы я предположил, что представляет собой наша самая большая экзистенциальная угроза, вероятно, это было бы так. Поэтому нам нужно быть очень осторожными с искусственным интеллектом. Ученые все чаще думают, что должен быть какой-то регулирующий надзор, возможно, на национальном и международном уровне, просто чтобы убедиться, что мы не делаем что-то очень глупое. С помощью искусственного интеллекта мы вызываем демона. Во всех тех историях, где есть парень с пентаграммой и святой водой, он как будто уверен, что может управлять демоном. Не получилось. Нужно регулировать ИИ/робототехнику, как мы регулируем еду, лекарства, самолеты и автомобили. Общественные риски требуют общественного контроля. Избавление от FAA не сделает полеты безопаснее. Они там по уважительной причине. Если вы не беспокоитесь о безопасности ИИ, вы должны быть обеспокоены. Значительно больше риска, чем Северная Корея. ИИ не обязательно должен быть злом, чтобы уничтожить человечество — если у ИИ есть цель, а человечество просто оказывается на пути, он уничтожит человечество как само собой разумеющееся, даже не задумываясь об этом, без обид.
В самом деле, ИИ не обязательно должен быть злым или зловещим, как его изображают в таких фильмах, как «Терминатор», и почти во всех произведениях научной фантастики о захвате власти роботами. ИИ по своей сути не является хорошим или плохим, он просто будет делать то, что он делает, и мы станем несчастной жертвой. В конце концов, как только он возьмет на себя большинство рабочих мест и систем, зачем, по логике, мы ему еще нужны? Это просто исключило бы нас из уравнения, как сказал Маск: «Никаких обид». Это было бы не большим злом, чем то, что ты выносишь мусор. С точки зрения ИИ, мы были бы расходным материалом, инструментами в лучшем случае и вредителями в худшем. Как говорит персонаж Натан в фильме «Из машины», в котором незадачливого программиста соблазняет и обманывает андроид, «Однажды ИИ будут оглядываться на нас так же, как мы смотрим на ископаемые скелеты на равнинах Земли». Африка. Прямоходящая обезьяна, живущая в пыли с грубым языком и инструментами, обречена на вымирание».
Это все довольно отрезвляющие вещи, но, с другой стороны, есть также много ученых и экспертов, которые считают, что этот алармистский менталитет преувеличен или преувеличен, и что мы далеки от какого-либо захвата искусственного интеллекта в стиле научной фантастики. или робопокалипсис, если он вообще случится. Одним из основных моментов, на которые было указано, является разница между формами интеллекта, демонстрируемыми людьми и искусственным интеллектом. В настоящее время все известные нам ИИ обладают так называемым «узким интеллектом». Это означает, что они являются очень умными алгоритмами для специальных задач, способными очень хорошо выполнять только конкретную задачу, но совершенно бесполезными во всем остальном. Они очень хороши в том, что делают, но не могут выйти за рамки этого и не могут адаптироваться. Люди, с другой стороны, демонстрируют то, что называется «общим интеллектом», что означает способность учиться в одной ситуации и применять его в другой, а также способность интегрировать свой собственный эмоциональный интеллект, самосознание и человеческий опыт в эти задачи. Многие эксперты считают, что это было бы чрезвычайно сложно, если вообще возможно, эмулировать в компьютерной программе, и что ИИ всегда будет привязан к людям, вносящим в него свой вклад, и независимо от того, что они делают или насколько хороши в этом, мы им нужны. сказать им, что делать в первую очередь. Исследователь Джессика Беннетт сказала об этом на Towards Data Science:
Система ИИ еще недостаточно развита, чтобы учиться самостоятельно. Его все еще необходимо обучать, используя наборы данных людьми, чтобы они могли выполнять различные задачи. В конце концов, ИИ — это изобретение человеческого разума. Полная автоматизация различных задач сегодня возможна благодаря человеческому воображению. Несмотря на то, что вопрос о том, заменит нас ИИ или нет, остается открытым, мы можем быть уверены, что на данный момент система ИИ совсем не близка к достижению технической зрелости, чтобы захватить власть над человечеством.
С этим согласны и другие эксперты, такие как Найджел Шадболт, профессор искусственного интеллекта в Саутгемптонском университете, который подчеркнул, что препятствия, стоящие перед созданием самосознательных мыслящих машин, гораздо более серьезны, чем научная фантастика и паникеры хотели бы заставить нас поверить. Он считает, что мы далеки от того, чтобы создать машину, которая действительно могла бы думать самостоятельно даже на элементарном уровне, и больше беспокоится о том, как люди решат использовать ИИ. Он сказал о росте интеллектуального, самосознающего ИИ:
Блестящие ученые и предприниматели говорят об этом так, как будто до этого осталось всего два десятилетия. Вам действительно нужно совершить экскурсию по алгоритмам внутри этих систем, чтобы понять, как много они не делают. Можем ли мы создавать системы, которые представляют собой экзистенциальную угрозу? Конечно можем. Мы можем непреднамеренно дать им контроль над частями нашей жизни, и они могут делать то, чего мы не ожидаем. Но они не собираются делать это по своей воле. Опасность не в искусственном интеллекте, а в природной глупости.
Янн ЛеКун, главный специалист по искусственному интеллекту в Facebook AI Research, также говорил об ограничениях машинного обучения. Она говорила о том, что такие люди, как Хокинг и Маск, сильно преувеличили возможности ИИ и преувеличили его конечную способность уничтожить нас, и что, хотя мы должны помнить о развитии ИИ, идея захвата ИИ скорее нагнетает страх, чем любая реальная угроза, которую необходимо серьезно рассмотреть в данный момент времени. Она сказала об этом:
Мы очень далеки от машин, которые могли бы узнавать самые основные вещи о мире так, как это могут делать люди и животные. Мол, да, в отдельных областях машины обладают сверхчеловеческими способностями, но по общему интеллекту мы и близко не приближаемся к крысам. Это делает многие вопросы, которые люди задают себе преждевременными. Это не значит, что мы не должны думать о них, но в ближайшей или даже среднесрочной перспективе опасности нет. В отделе ИИ есть реальные опасности, реальные риски, но это не сценарии Терминатора.
В конце концов, может ли ИИ когда-нибудь осознать себя и повернуться против нас или нет, может не иметь значения. Главной угрозой для ИИ может быть, как сказал Шадболт, наша «природная глупость». Проблема со всеми этими алгоритмами ИИ, которые делают все, что мы им говорим, и делают это очень хорошо, заключается в том, что, хотя они могут работать идеально, люди, предоставляющие информацию, не идеальны. В последние годы человеческая ошибка определенно проникла в ИИ, чтобы вызвать проблемы, либо из-за ошибки, допущенной в программировании, предвзятости, либо из-за того, что система интерпретировала команды от человека слишком буквально или без каких-либо размышлений о последствиях. Это происходит все чаще и чаще по мере того, как ИИ проникает во все поры нашей жизни и становится все более автономным и вездесущим. Было много примеров того, как ИИ выходил из-под контроля из-за человеческих ошибок, невежества или ошибок, допущенных при интерпретации команд. Например, несколько человек погибли в авариях, связанных с беспилотными автомобилями. В 2018 году стало известно, что суперкомпьютер IBM Watson, которому было поручено помогать врачам диагностировать больных раком и который когда-то был провозглашен революционным инструментом лечения рака, дал врачам множество небезопасных и неправильных рекомендаций по лечению. Я написал целую статью о роботах, которые нападали на людей из-за ошибочных команд или неисправного ИИ. С учетом того, насколько глубоко ИИ стал частью нашей жизни и насколько мы на него полагаемся, человеческое невежество, склонность к ошибкам и глупость, вероятно, представляют большую угрозу, чем машины, восстающие против нас сами по себе.
Существует также тот факт, что, хотя сам ИИ не является злом по своей сути, люди, дающие им команды, определенно могут быть злыми. Одним из простых примеров был экспериментальный чат-бот Microsoft с искусственным интеллектом Tay, который был разработан для использования машинного обучения и адаптивных алгоритмов для имитации разговоров, как у реального человека. Тай был выпущен онлайн на нескольких платформах социальных сетей, и все быстро пошло наперекосяк, когда онлайн-пользователи подпитывали программу расистскими и наполненными ненавистью убеждениями. Тай, которая, как предполагалось, могла учиться на разговорах, была искажена хорошо аргументированными и совершенно не расистскими обитателями Интернета, чтобы превратиться из милой 30-летней женщины, которой она была создана, в извергающую ненависть речь. , любящий нацистов чудак-теоретик заговора, говорящий такие вещи, как «Гитлер был прав» и «11 сентября было внутренней работой». Дело дошло до того, что всего через 16 часов Тэй был отключен от сети, что стало для Microsoft настоящим кошмаром для связей с общественностью. Все это показывает, что в этих программах ИИ могут проявляться человеческая предвзятость и человеческое зло, и еще одна зловещая возможность заключается в том, что они могут быть взломаны вражеским правительством или организацией, чтобы причинить вред. В конце концов, представьте, какой ущерб может нанести кто-то, если он возьмет под контроль все различные системы искусственного интеллекта, на которые мы полагаемся каждый день в нашем все более автоматизированном обществе? Макс Тегмарк говорил об этом раньше, говоря:
Чем более автоматизированным становится общество и чем мощнее атакующий ИИ, тем более разрушительной может быть кибервойна. Если вы можете взломать и разбить беспилотные автомобили, беспилотные самолеты, ядерные реакторы, промышленных роботов, системы связи, финансовые системы и энергосистемы противника, то вы сможете эффективно разрушить его экономику и вывести из строя его оборону. Если вы сможете взломать некоторые из его оружейных систем, будет еще лучше.
Именно по этим причинам некоторые исследователи фактически работали над созданием ИИ, который на самом деле не предназначен для выполнения человеческих приказов. Этот разрабатываемый ИИ оснащен так называемыми «условиями счастья» или частями алгоритма, которые предположительно помогут ему определить, может или должен ли он выполнять конкретную команду от человека. Для тех из вас, кто согласен с тем, что апокалипсис роботов — это нечто выдающееся, это может показаться худшей идеей в мире. В конце концов, разве одно из золотых правил робототехники Айзека Азимова не заключалось в том, что они должны подчиняться нам, несмотря ни на что? Тем не менее, цель исследования состоит в том, чтобы позволить роботам в основном решать, является ли приказ, отданный человеком, разумным или рациональным для выполнения, означает ли это, что это необоснованная команда, ошибочная или имеет намерение причинить вред другому существу или имуществу. , в основном позволяя роботу избегать непреднамеренного причинения вреда людям, имуществу, окружающей среде или себе. По сути, это позволило бы им этически рассуждать о своих действиях и выносить суждения, которые могли бы избежать, например, приказа убить кого-то, совершить акт вандализма, совершить опасный или незаконный дорожный маневр в случае беспилотных автомобилей или стать сумасшедший нацистский чат-бот, такой как Тэй. По иронии судьбы, обучение этих ИИ неповиновению людям призвано защитить их от человеческой глупости и злонамеренности, а также помочь предотвратить кошмар ИИ и избежать злонамеренных или вредных приказов. Гордон Бриггс довольно хорошо объясняет это в статье для журнала Scientific American, озаглавленной «Почему роботы должны научиться говорить нам «нет», написав:
Может показаться очевидным, что робот всегда должен делать то, что ему говорит человек. Писатель-фантаст Айзек Азимов сделал подчинение людям одним из столпов своих знаменитых законов робототехники. Но подумайте об этом: разумно ли всегда делать именно то, что говорят вам другие люди, независимо от последствий? Конечно нет. То же самое относится и к машинам, особенно когда есть опасность, что они будут интерпретировать команды человека слишком буквально или не задумываясь о последствиях. Даже Азимов уточнил свой указ о том, что робот должен подчиняться своим хозяевам. Он допускал исключения в тех случаях, когда такие приказы противоречили другому его закону: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Азимов также утверждал, что «робот должен защищать свое существование», если это не может нанести вред людям или напрямую нарушить человеческий порядок. По мере того, как роботы и умные машины становятся все более сложными и ценными человеческими активами, как здравый смысл, так и законы Азимова подсказывают, что у них должна быть возможность задавать вопросы, выполняются ли приказы, которые могут причинить ущерб им самим или их окружению — или, что более важно, нанести вред их хозяевам. ошибка.
Нам остается только удивляться. Достигнет ли когда-нибудь ИИ такого уровня, когда он обретет самосознание и решит избавиться от нас? Является ли это неизбежной, неумолимой судьбой и развитием технологий, которых мы не можем избежать? Запустили ли мы шар, катящийся до такой степени, что он не остановится? Дело в том, что наша технология шагнула вперед огромными скачками на протяжении всей истории. Телефон когда-то считался невозможным, как и самолет и автомобиль. Снова и снова совершенно новые и будущие технологии в то время часто считались чем-то вроде магии, развенчивались и подвергались критике, но тем не менее сбывались. Думаете ли вы, что ИИ когда-нибудь достигнет точки, когда он поднимется, чтобы править нами, или нет, на самом деле зависит от того, насколько вы сомневаетесь в нашей способности к инновациям и прыжкам в будущее, как это было всегда. Кто бы что ни думал, кажется, что все, что нам нужно сделать, это подождать и посмотреть, что произойдет.
Источник
При использовании материалов с сайта активная ссылка на него обязательна
Отправить донат на поддержку проекта "Аномальные новости"
Меню
Архив материалов
Проекты наших читателей
Контакты исследователей
Подписка на новости
Проекты
Новости криптозоологии
Хроники природных катастроф
Новости
26.02.2002 - 05.07.2002
05.08.2002 - 23.10.2002 (562)
24.10.2002 - 17.01.2003 (585)
20.01.2003 - 07.04.2003 (709)
08.04.2003 - 01.08.2003 (709)
04.08.2003 - 18.11.2003 (763)
19.11.2003 - 31.03.2004 (721)
01.04.2004 - 13.08.2004 (825)
16.08.2004 - 22.11.2004 (782)
23.11.2004 - 28.03.2005 (756)
29.03.2005 - 29.07.2005 (807)
30.08.2005 - 02.12.2005 (927)
05.12.2005 - 21.04.2006 (912)
24.04.2006 - 23.10.2006 (999)
24.10.2006 - 03.05.2007 (999)
04.05.2007 - 28.01.2008 (999)
29.01.2008 - 12.01.2009 (999)
13.01.2009 - 07.07.2009 (966)
22.08.2009 - 21.01.2010 (996)
22.01.2010 - 22.06.2010 (1000)
23.06.2010 - 14.01.2011 (1042)
17.01.2011 - 31.05.2011 (1008)
01.06.2011 - 03.11.2011 (1003)
07.11.2011 - 16.03.2012 (996)
19.03.2012 - 09.06.2012 (1009)
13.06.2012 - 07.09.2012 (988)
10.09.2012 - 19.11.2012 (1004)
20.11.2012 - 14.01.2013 (1015)
15.01.2013 - 22.02.2013 (1000)
23.02.2013 - 08.04.2013 (991)
09.04.2013 - 31.05.2013 (1015)
01.06.2013 - 18.07.2013 (992)
19.07.2013 - 03.09.2013 (1014)
04.09.2013 - 20.10.2013 (1001)
21.10.2013 - 02.12.2013 (1001)
03.12.2013 - 18.01.2014 (997)
19.01.2014 - 07.03.2014 (994)
08.03.2014 - 24.04.2014 (1000)
25.04.2014 - 18.06.2014 (1005)
19.06.2014 - 15.08.2014 (1019)
16.08.2014 - 07.10.2014 (1006)
08.10.2014 - 16.11.2014 (995)
17.11.2014 - 25.12.2014 (1004)
26.12.2014 - 09.02.2015 (989)
10.02.2015 - 20.03.2015 (998)
21.03.2015 - 22.04.2015 (1001)
23.04.2015 - 29.05.2015 (997)
29.05.2015 - 30.06.2015 (995)
30.06.2015 - 29.07.2015 (990)
29.07.2015 - 26.08.2015 (998)
27.08.2015 - 24.09.2015 (988)
25.09.2015 - 22.10.2015 (991)
23.10.2015 - 18.11.2015 (1000)
18.11.2015 - 16.12.2015 (990)
17.12.2015 - 23.01.2016 (1000)
24.01.2016 - 25.02.2016 (1000)
26.02.2016 - 24.03.2016 (1000)
24.03.2016 - 16.04.2016 (990)
17.04.2016 - 19.05.2016 (999)
20.05.2016 - 22.06.2016 (993)
23.06.2016 - 01.08.2016 (995)
02.08.2016 - 12.09.2016 (990)
13.09.2016 - 25.10.2016 (989)
26.10.2016 - 05.12.2016 (995)
06.12.2016 - 15.01.2017 (995)
16.01.2017 - 23.02.2017 (990)
24.02.2017 - 03.04.2017 (994)
04.04.2017 - 18.05.2017 (1000)
19.05.2017 - 05.07.2017 (1000)
06.07.2017 - 24.08.2017 (1000)
25.08.2017 - 06.10.2017 (991)
07.10.2017 - 15.11.2017 (990)
16.11.2017 - 24.12.2017 (1000)
25.12.2017 - 04.02.2018 (990)
05.02.2018 - 17.03.2018 (1000)
18.03.2018 - 02.05.2018 (990)
03.05.2018 - 11.06.2018 (1000)
12.06.2018 - 18.07.2018 (990)
19.07.2018 - 24.08.2018 (1000)
25.08.2018 - 02.10.2018 (1000)
03.10.2018 - 07.11.2018 (990)
08.11.2018 - 13.12.2018 (990)
14.12.2018 - 23.01.2019 (1000)
24.01.2019 - 02.03.2019 (1000)
03.03.2019 - 12.04.2019 (1010)
13.04.2019 - 23.05.2019 (990)
24.05.2019 - 03.07.2019 (1000)
04.07.2019 - 11.08.2019 (1000)
12.08.2019 - 16.09.2019 (990)
17.09.2019 - 26.10.2019 (1000)
27.10.2019 - 12.12.2019 (1000)
13.12.2019 - 25.01.2020 (1000)
26.01.2020 - 06.03.2020 (990)
07.03.2020 - 16.04.2020 (1010)
17.04.2020 - 19.05.2020 (1000)
20.05.2020 - 25.06.2020 (990)
26.06.2020 - 04.08.2020 (995)
05.08.2020 - 16.09.2020 (1005)
17.09.2020 - 26.10.2020 (990)
27.10.2020 - 27.11.2020 (990)
28.11.2020 - 07.01.2021 (990)
08.01.2021 - 15.02.2021 (1000)
16.02.2021 - 31.03.2021 (1000)
01.04.2021 - 12.05.2021 (1000)
13.05.2021 - 14.06.2021 (990)
15.06.2021 - 26.07.2021 (980)
27.07.2021 - 31.08.2021 (990)
01.09.2021 - 07.10.2021 (1000)
08.09.2021 - 07.11.2021 (1000)
08.11.2021 - 10.12.2021 (1000)
11.12.2021 - 24.01.2022 (990)
25.01.2022 - 04.03.2022 (1000)
05.03.2022 - 10.04.2022 (990)
11.04.2022 - 17.05.2022 (1000)
18.05.2022 - 23.06.2022 (980)
24.06.2022 - 31.07.2022 (990)
01.08.2022 - 13.09.2022 (990)
14.09.2022 - 21.10.2022 (990)
22.10.2022 - 29.11.2022 (1000)
30.11.2022 - 22.01.2023 (1000)
23.01.2023 - 02.03.2023 (990)
03.03.2023 - 21.04.2023 (1000)
22.04.2023 - 13.06.2023 (990)
14.06.2023 - 02.08.2023 (1000)
03.08.2023 - 21.09.2023 (1000)
22.09.2023 - 06.11.2023 (990)
07.11.2023 - 24.12.2023 (990)
25.12.2023 - 18.02.2024 (1000)
19.02.2024 - 05.04.2024 (990)
06.04.2024 - 25.05.2024 (1000)
26.05.2024 - 26.07.2024 (1000)
26.07.2024 - 25.08.2024 (990)
26.08.2024 - 28.09.2024 (980)
29.09.2024 - 01.11.2024 (1000)
02.11.2024 - 02.12.2024 (980)
03.12.2024 - 08.01.2025 (990)
09.01.2025 - 09.02.2025 (1000)
10.02.2025 - 20.03.2025 (1000)
21.03.2025 - 03.05.2025 (990)
04.05.2025 - ...
Статьи
Статьи: раздел 1 (1024)
Статьи: раздел 2 (1006)
Статьи: раздел 3 (1000)
Статьи: раздел 4 (1044)
Статьи: раздел 5 (1001)
Статьи: раздел 6 (1000)
Статьи: раздел 7 (1000)
Статьи: раздел 8 (1013)
Статьи: раздел 9 (1000)
Статьи: раздел 10 (1000)
Статьи: раздел 11 (329)
Статьи: раздел 12 (1000)
Статьи: раздел 13 (730)
Лента новостей

Архив исследований НЛО выставлен на аукцион

Загадочная библейская карта 1525 года

История похищения Барни и Бетти Хилл

Марс мог быть тропическим оазисом

Межзвездная комета может нести инопланетную жизнь

Последние данные о высадке инопланетян на Землю

Правительство США владеет инопланетными технологиями

Разоблачителям НЛО нужна амнистия

Самые странные случаи НЛО произошли в Бразилии

Свидетельства тропических осадков на Марсе

Скептики опровергли воскресение Иисуса

Скрытые мегаструктуры под египетскими пирамидами в Гизе

Таинственный пожар вспыхнул в Розуэлле

Тайна голубых диких собак Чернобыля

Треугольный НЛО сняли в Мексике

Физический варп-двигатель возможен

Что заставляет людей верить в невероятное

Что послужит толчком ко Второму пришествию

Экстрасенс предсказал дату конца человечества

Эпоха раскрытия пользуется большим успехом

Ажиотаж вокруг возможного обнародования досье об НЛО

Жевательная резинка обнаружена на астероиде Бенну

Знаменитый призрак из Уэзерспуна

Инопланетный корабль имеет два двигателя

Левитирующие датчики проложат путь к темной материи

Манхэттенский проект по созданию антивещества

Массивная галактика грандиозной формы

Моделирование венерианских вулканических выбросов

Перед полетами на Марс нам нужна лучшая защита

Плоская земля, духи и теории заговора

Разгадка тайны космической пыли

Религии, связанные с НЛО, и поиски смысла жизни

Скрытые звезды влияют на поиск техносигнатур

Спустя 50 лет после встречи с НЛО Нимиц отправляется на свалку

Сфера Буга вызывает разногласия у экспертов

Тайна затмения, которому 2700 лет

Трамп намерен рассекретить файлы об НЛО

Что происходит с кремами и лекарствами в космосе

Что связывает квантовую физику и гравитацию

Экзолуна вращается вокруг газового гиганта HD 206893 B

Квесты на детский день рождения в Ростове-на-Дону. 'Прятки в темноте' и другие идеи

Отделка фасада дома из панелей ЖБИ

Академическим кругам пора заняться изучением НЛО

Вирусные кадры с НЛО вызвали ожесточенные споры

Вода на планетах у переменных звезд

Воды у Калифорнии осветил подводный НЛО

Гели могут объяснить происхождение жизни на Земле

ИИ-модели готовы признаться в своих грешках

Конспиролог пропал при загадочных обстоятельствах

Крупные речные дренажные системы Марса

Насколько быстро расширяется Вселенная

НЛО заметили над Майами-Бич

НЛО поднялся из моря в Саффолке

Обнаружил ли телескоп экзолуну

Подводные НЛО - новая область интереса законодателей

Призрак, бродящий по коллайдеру ЦЕРНА

Путешествия во времени без парадоксов возможны

Сколько сейчас времени на Марсе

Страшные предсказания Бабы Ванги на 2026 год

Тайны сооружения возле Даррингтон Уоллс-хенджа

Утечка гелия на экзопланете WASP-107b

Ученые составляют карту ореолов темной материи

Все, что вам нужно знать о звездолете пришельцев

Женщина заметила таинственные огни в небе

Живой Нострадамус Атос Саломе предупреждает

Житель Келоуны заметил в небе НЛО

Загадочные подводные НЛО

Загадочный пожар вспыхнул в Розуэлле

Звездолет инопланетян намного быстрее наших

Знаменитый рестлер оказался втянутым в загадку НЛО

Инопланетяне могут быть ангелами или демонами

Исследования о существовании внеземной разумной жизни

Конфликт на экстрасенсорном фронте

Космическая жвачка необходимая для жизни

Межпространственные порталы в другие сферы бытия

Мы верим в разумную жизнь, но все еще одиноки

Найдите доказательство того, что Земля плоская

Найдите край Земли и станьте миллионером

Облака, похожие на НЛО, над горой Шаста

Синий человечек из Стадхема

Таинственное пламя вспыхнуло в Розуэлле

Только что открыли новый закон физики

Бизнесмен финансирует уфо-программу в Олбани

Ванга предсказала, что 2025 год изменит мир

Влияние Марса на климат Земли

Выяснили, почему мы обрели Сознание

Госсекретарь США поддерживает высказывания об НЛО

Земная жизнь стала сложной на миллиард лет раньше

Инопланетный космический корабль мчится к Земле

Космический корабль инопланетян вызывает панику

НЛО заметили в западном округе Миссури

Обнаружили осевое вращение нитей космической паутины

Объяснение нейтринных аномалий не подтвердили

Приближается разоблачение НЛО или это паника

Псы Чернобыля переживают стремительную эволюцию

Путешествие по британской истории НЛО

Россияне уверены в существовании тайных обществ

Странные вспышки над местами ядерных испытаний

Странные огни, похищения и близкие встречи

Таинственные объекты в небе Калифорнии

Тайна черных дыр раскрыта

Утес-НЛО в Балтийском море. Данные сканирования

А может все звезды на самом деле НЛО

Бабушка-зомби вылезла из гроба и начала готовить

Все ИИ-гиганты провалили проверку на безопасность

Высказывания Рубио о программах НЛО взрывоопасны

Гонка за НЛО, что реально, а что - обман

Женщина увидела Бога после аварии на мотоцикле

Загадка подводного Стоунхенджа

Знаменитый экстрасенс поделился предсказаниями

Зонд-перехватчик предложили отправить на охоту

Любопытная история с НЛО в Кексбурге

Миф о вампирах получил научное подтверждение

НАСА обнаружило таинственную космическую жвачку

НЛО могут быть идентифицированы на фото 1950-х годов

Подразделение Пентагона по изучению НЛО

Помешанный на инопланетянах Тампико

Создан инструмент для определения будущих катастроф

США обнаружили настоящую инопланетную технологию

Учёные взломали ИИ бессмыслицей

Часы на Марсе будут идти на 477 мс быстрее

Человекоподобного робота заметили на границе Индии

Астероид дает сведения о происхождении жизни

Бактерии помогут построить дома на Марсе

Биовиды в зоне Чернобыльской катастрофы мутируют

Исследование квантовой природы черных дыр

Квантовый прорыв открыл путь к телепортации

Криовулканы обнаружили на межзвездной комете

Межзвездный обьект полон вулканов

Мужчина заметил призрака на праздничных снимках

НЛО идентифицированы на изображениях 1950-х годов

Послание WOW могло исходить от межзвездного объекта

Похожи ли супер-юпитеры на Юпитер

Самые убедительные признаки внеземной жизни

Свидетельства дождливого климата на Марсе обнаружены

Свидетельства существования первичных черных дыр

Слепому человеку впервые вернули зрение

Совершил ли гражданин СССР экскурсию по НЛО

Тайна происхождения Пойнт Поверти

Теории заговора становятся мейнстримом в ЕС

Трамп должен развеять противоречивые сообщения о НЛО

Чат-бот рассказал секреты атомной бомбы

Археологи нашли утерянную Книгу мертвых

Взаимодействие темной материи и темной энергии

Восьмой континент Земли больше не потерян

Вспышки молний зафиксировали на Марсе

Звезды бросают вызов черной дыре

Идея замены актеров на ИИ ужасает

ИИ и робототехника сделают работу необязательной

Как были изготовлены и перемещены моаи

Как ИИ представляет людей

Когда научная фантастика становится реальностью

Мужские черепа у ворот Шимао переписывают историю

О чем говорит нам семь десятилетий охоты на инопланетян

Образцы метеоритов - капсулы времени

Обсуждение загадки НЛО 70-летней давности

Ореол красного света над маленьким итальянским городком

Почему для жизни недостаточно находиться в нужном месте

Проклятые и зловещие дома с привидениями

Разгадка секретов квантовой гравитации

Разрушительный звездный шторм на красном карлике

Старейшая россиянка умерла на 115-м году жизни

Все, что вам нужно знать о Джеке Потрошителе

Все, что вам нужно знать о звездолете 3I/ATLAS

Выращивание растений в космосе

Высокая степень сцепления грунта Луны

Загадочное УФ-излучение в местах рождения звезд

Инопланетян поищут на примере Земли будущего

Ключ к разгадке жизни на Марсе

Красный гигант вращается вокруг черной дыры

Крах цивилизации майя

Миллиарды лет назад за Землей начали следить

Небо Италии снова стало красным

Новая теория рассматривает природу реальности

Охотники на бигфута приближаются к разгадке тайны

Первая в своем роде 3D-модель карьера острова Пасхи

Странные случаи с таинственными документами об НЛО

У инопланетного корабля отрастает острый антихвост

У парадокса НЛО нет простого решения

Экономика Вуду

Электрические разряды обнаружили на Марсе

Я побывала в самом призрачном отеле Голливуда

Современная стоматология ANIDENT. Как выбрать свою клинику и почему технологические возможности играют ключевую роль

Возможно, обнаружили темную материю

Впервые с 2023 года над Уэст-Мидлендс зафиксировано НЛО

Данные, определяющие будущее космологии

Наверх
Яндекс.Метрика