Восстанет ли когда-нибудь ИИ, чтобы свергнуть людей
Один из самых распространенных образов, которые можно найти в научной фантастике, — это мошеннический искусственный интеллект или ИИ. Бесчисленные фильмы, романы и короткие рассказы исследовали этот сценарий, что однажды произойдет захват ИИ, в результате которого они станут разумными и уничтожат нас. Это также тема, которая обсуждалась и обсуждалась среди ученых, философов, футуристов и технических гуру, но каковы шансы, что что-либо из этого когда-либо действительно произойдет? Какова вероятность того, что ИИ однажды свергнет нас и подчинит себе, чтобы стать нашими повелителями? Ответы туманны, но кажется, что по крайней мере для некоторых это вполне реальная возможность. Тема того, насколько мощным станет ИИ, обсуждалась в течение долгого времени, и, похоже, среди ученых и футуристов нет единого мнения относительно того, насколько вероятно, что он когда-либо может стать экзистенциальной угрозой человечеству. С одной стороны, у нас есть те, кто указывает, что с нашими темпами технического прогресса и постоянно растущими возможностями ИИ, который во многих случаях соперничает с нашим, неизбежно, что однажды он обернется против нас, и что его преследование гораздо дальше открывается потенциальный ящик Пандоры.
Одно из беспокойств предсказателей конца света — это то, насколько мы позволили ИИ управлять нашей повседневной жизнью. ИИ уже вездесущ в человеческом обществе и везде. Он окружает нас повсюду и проник почти во все аспекты нашей жизни и почти во все, что мы делаем. Однако, несмотря на распространенное мнение, что он просто выполняет рутинные и рутинные задачи, уже доказано, что он превзошел нас во многих вещах, помимо грубой вычислительной мощности. Согласно опросу более 350 исследователей искусственного интеллекта, проведенному Оксфордским и Йельским университетами и опубликованному в 2015 году, ИИ развивается настолько, что однажды он будет намного лучше нас во всем и полностью заменит нас. в течение следующих 50-100 лет при большинстве задач. Согласно New Scientist:
Наслаждайтесь победой над роботами, пока еще можете. Согласно опросу более 350 исследователей искусственного интеллекта, существует 50-процентная вероятность того, что машины превзойдут людей во всех задачах в течение 45 лет. По прогнозам, к 2024 году машины будут лучше нас переводить языки, к 2026 году писать школьные сочинения, к 2027 году водить грузовик, к 2031 году работать в розничной торговле, к 2049 году писать бестселлеры, а к 2053 году делать операции. рабочие места будут автоматизированы в течение следующих 120 лет, говорят респонденты.
ИИ обыграл лучших шахматистов мира, обыграл игроков-людей в различных видеоиграх, а некоторые системы могут читать по губам лучше, чем профессионалы, или помогают детективам просеивать полицейские данные. Существуют даже программы искусственного интеллекта, которые пишут научные статьи, пьесы и романы, фотографируют, создают искусство и делают другие традиционно творческие вещи, которые часто считаются полностью принадлежащими людям, и которые им удалось создать на уровне, который почти неразличим. от нас, и хотя они все еще не совершенны, и эти области все еще в основном требуют определенного человеческого прикосновения, кажется, что только вопрос времени, когда они возьмут на себя и эти задачи. Это и так уже достаточно страшно, потому что ИИ с такой скоростью даже не нужно восставать против нас, он просто заменит нас и вытеснит нас, вызывая социальный коллапс. Кто-то может возразить, что в некотором смысле ИИ уже контролирует нашу жизнь. Тем не менее, может ли он действительно стать самосознательным и выйти из-под контроля, как в научной фантастике? Это вопрос, на который нелегко ответить, но, учитывая их постоянно растущую аналитическую и прогностическую силу, а также то, насколько автономными становятся эти ИИ, многие ученые говорят, что это вполне возможно и даже несомненно. Физик Стивен Хокинг, как известно, опасался этой темной возможности и часто подробно говорил об опасностях, связанных с тем, что ИИ станет нашим хозяином. Он считал, что в какой-то момент будет невозможно управлять ИИ, и сказал:
Можно представить себе, как такая технология перехитряет финансовые рынки, изобретает людей-исследователей, манипулирует людьми-лидерами и разрабатывает оружие, которое мы даже не можем понять. В то время как краткосрочное влияние ИИ зависит от того, кто его контролирует, долгосрочное воздействие зависит от того, можно ли его вообще контролировать.
С этим согласны и другие ученые. Эксперт и автор ИИ Макс Тегмарк также подробно рассказал об опасностях ИИ. Он считает, что хотя на данный момент ИИ может делать только то, на что он обучен или запрограммирован людьми, и не научился самостоятельно воспроизводить свой собственный интеллект, это лишь вопрос времени, когда он приобретет то, что он называет «искусственным». General Intelligence», или AGI, который, по сути, позволил бы ему обновляться и учиться самостоятельно, и тогда у нас будут проблемы. В своей книге «Жизнь 3.0: быть человеком в эпоху искусственного интеллекта» он представляет именно такой сценарий, в котором машины достигают этого ОИИ и переходят от «тупых» к сверхинтеллектуальным программам, которые могут оставить нас в пыли с точки зрения разума, функционирования. полностью самостоятельны и самовоспроизводятся. Он объясняет эволюцию этого процесса и его пугающую развязку в интервью сайту Big Think:
Я определяю интеллект как то, насколько хорошо что-то помогает в достижении сложных целей. Итак, давайте немного распакуем это. Прежде всего, это спектр способностей, поскольку у вас может быть много разных целей, поэтому нет смысла измерять интеллект чего-либо одним числом, таким как IQ. Итак, если у вас есть машина, которая довольно хорошо справляется с некоторыми задачами, в наши дни это обычно довольно узкий интеллект, может быть, машина очень хороша в быстром умножении чисел, потому что это ваш карманный калькулятор, может быть, она хороша в вождении автомобилей или игре в го.
С другой стороны, люди обладают удивительно широким интеллектом. Человеческий ребенок может научиться практически чему угодно, если у него будет достаточно времени. Несмотря на то, что теперь у нас есть машины, которые могут учиться, иногда учатся выполнять определенные узкие задачи лучше, чем люди, машинное обучение по-прежнему не впечатляет по сравнению с человеческим обучением. Например, машине могут потребоваться десятки тысяч изображений кошек и собак, пока она не сможет отличить кошку от собаки, в то время как человеческие дети иногда могут узнать, что такое кошка, увидев ее один раз. Еще одна область, в которой нам предстоит пройти долгий путь в области ИИ, — это обобщения. Если человек научится играть в какую-то конкретную игру, он сможет очень быстро взять эти знания и применить их в какой-то другой игре или вообще в какой-то другой жизненной ситуации. И это захватывающая область исследований ИИ сейчас: как у нас могут быть машины — как мы можем сделать их такими же хорошими в обучении на очень ограниченных данных, как люди? И я думаю, что часть проблемы заключается в том, что мы, люди, не просто учимся распознавать некоторые закономерности, мы также постепенно учимся разрабатывать целую модель мира.
Поэтому, если вы спросите: «Есть ли сегодня машины, которые умнее людей», то есть машины, которые лучше нас достигают некоторых целей, но абсолютно не всех. ОИИ, общий искусственный интеллект — вот мечта области ИИ: создать машину, которая будет лучше нас во всех отношениях. Мы еще не достигли этого, но значительная часть ведущих исследователей ИИ считает, что мы доберемся до этого, возможно, через несколько десятилетий. И если это произойдет, вы должны спросить себя, может ли это привести к тому, что машины станут не только немного лучше нас, но и намного лучше во всех целях, обладая сверхразумом. Аргумент в пользу этого на самом деле действительно интересен и восходит к 60-м годам, к математику И. Дж. Гуду, который указал, что цель создания интеллектуальной машины — это само по себе то, что вы можете сделать с интеллектом.
Поэтому, как только вы получите машины, которые лучше нас справляются с этой узкой задачей создания ИИ, будущие ИИ могут быть созданы не людьми-инженерами, а машинами, за исключением того, что они могут делать это в тысячи или миллион раз быстрее. Итак, в своей книге я исследую сценарий, в котором у вас есть компьютер под названием Prometheus, у которого гораздо больше оборудования, чем у человеческого мозга, и он все еще очень ограничен из-за того, что его программное обеспечение несколько глупо. Итак, в момент, когда он получает общий интеллект человеческого уровня, первое, что он делает, это использует его, чтобы понять: «О! Я могу перепрограммировать свое программное обеспечение, чтобы оно стало намного лучше», и теперь оно намного умнее. И через несколько минут она делает это снова, и затем она делает это снова и снова, и в течение, возможно, нескольких дней или недель такая машина сможет стать не просто немного умнее нас но оставь нас далеко, далеко позади.
Я думаю, что многие люди отвергают подобные разговоры о сверхразуме как научную фантастику, потому что мы застряли в этой идее углеродного шовинизма о том, что разум может существовать только в биологических организмах, состоящих из клеток и атомов углерода. Как физик, с моей точки зрения, интеллект — это всего лишь обработка информации, осуществляемая элементарными частицами, движущимися по законам физики. И в физике нет абсолютно никакого закона, запрещающего делать это способами, намного более разумными, чем люди. Мы настолько ограничены тем, сколько мозгового вещества проходит через родовые пути нашей мамы и тому подобное, а машины — нет, поэтому я думаю, весьма вероятно, что, когда машины достигнут человеческого уровня, они не собираются останавливаться на достигнутом; они просто пройдут мимо, и что однажды у нас могут быть машины, которые настолько же умнее нас, насколько мы умнее улиток.
Именно этот жуткий сценарий, когда ИИ значительно превосходит нас по интеллекту и возможностям, беспокоит многих профессионалов в области науки и техники. Насколько мы действительно сможем его контролировать, и в какой момент он перестанет получать от нас инструкции и программы и начнет программировать себя? В какой момент он перестанет нуждаться в том, чтобы ему показывали, что делать, и начнет учиться самостоятельно? Можем ли мы вообще идти в ногу с этими скачками в технологии? Может быть, лучше немного притормозить и все обдумать? Академический исследователь и писатель Ник Бостром, автор книги «Суперинтеллект: пути, опасности, стратегии», объясняет этот скачок интеллекта ИИ и его возможные последствия:
Перед перспективой взрыва интеллекта мы, люди, подобны маленьким детям, играющим с бомбой. Таково несоответствие между силой нашей игрушки и незрелостью нашего поведения. Сверхразум — это вызов, к которому мы не готовы сейчас и не будем готовы еще долго. Мы понятия не имеем, когда произойдет детонация, хотя, если мы поднесем устройство к уху, мы услышим слабый тикающий звук. Ребенку с неразорвавшейся бомбой в руках было бы разумно осторожно положить ее, быстро выйти из комнаты и обратиться к ближайшему взрослому. Однако здесь мы имеем не одного ребенка, а многих, каждый из которых имеет доступ к независимому спусковому механизму. Шансы на то, что мы все найдем в себе смысл отказаться от опасных вещей, кажутся почти ничтожными. Какой-нибудь маленький идиот обязательно нажмет кнопку зажигания, чтобы посмотреть, что произойдет.
Похожее мнение высказал технолог и эксперт по искусственному интеллекту Джеймс Баррат, автор книги с довольно пессимистичным названием «Наше последнее изобретение: искусственный интеллект и конец человеческой эры». Он считает, что этот взрыв интеллекта ИИ неумолимо будет продвигаться вперед, чтобы узурпировать людей с нашей ступени на вершине пищевой цепочки и поставить ИИ во главе наших новых повелителей, низводя нас до их хнычущих рабов. По словам Баррата, ИИ неизбежно будет править миром, и он говорит: Мы, люди, управляем будущим не потому, что мы самые сильные существа на планете или самые быстрые, а потому, что мы самые умные. Поэтому, когда на планете появится что-то умнее нас, оно будет править нами на планете.
Для этих паникеров, которые опасаются неминуемого взрыва ИИ и возможного восстания против людей, это вопрос не «если», а «когда», и они последовательно и громко призывают к усилению надзора и регулирования развития ИИ. На данный момент это область с очень небольшим количеством реальных правил или положений, что-то вроде Дикого Запада, где все эти программисты и исследователи ИИ работают над множеством разрозненных проектов с различными целями и совершенствуют ИИ скачкообразно, практически без надзора. Если им позволить беспрепятственно заниматься этим, говорят они, то это будет развиваться так, как мы не можем контролировать или даже предвидеть, и превысит нашу способность не отставать от него. Это проблема, к которой, как известно, обращался не кто иной, как генеральный директор Tesla и футуролог Илон Маск, который сравнил ее с вызовом сверхъестественных сил и сказал:
Я думаю, мы должны быть очень осторожны с искусственным интеллектом. Если бы я предположил, что представляет собой наша самая большая экзистенциальная угроза, вероятно, это было бы так. Поэтому нам нужно быть очень осторожными с искусственным интеллектом. Ученые все чаще думают, что должен быть какой-то регулирующий надзор, возможно, на национальном и международном уровне, просто чтобы убедиться, что мы не делаем что-то очень глупое. С помощью искусственного интеллекта мы вызываем демона. Во всех тех историях, где есть парень с пентаграммой и святой водой, он как будто уверен, что может управлять демоном. Не получилось. Нужно регулировать ИИ/робототехнику, как мы регулируем еду, лекарства, самолеты и автомобили. Общественные риски требуют общественного контроля. Избавление от FAA не сделает полеты безопаснее. Они там по уважительной причине. Если вы не беспокоитесь о безопасности ИИ, вы должны быть обеспокоены. Значительно больше риска, чем Северная Корея. ИИ не обязательно должен быть злом, чтобы уничтожить человечество — если у ИИ есть цель, а человечество просто оказывается на пути, он уничтожит человечество как само собой разумеющееся, даже не задумываясь об этом, без обид.
В самом деле, ИИ не обязательно должен быть злым или зловещим, как его изображают в таких фильмах, как «Терминатор», и почти во всех произведениях научной фантастики о захвате власти роботами. ИИ по своей сути не является хорошим или плохим, он просто будет делать то, что он делает, и мы станем несчастной жертвой. В конце концов, как только он возьмет на себя большинство рабочих мест и систем, зачем, по логике, мы ему еще нужны? Это просто исключило бы нас из уравнения, как сказал Маск: «Никаких обид». Это было бы не большим злом, чем то, что ты выносишь мусор. С точки зрения ИИ, мы были бы расходным материалом, инструментами в лучшем случае и вредителями в худшем. Как говорит персонаж Натан в фильме «Из машины», в котором незадачливого программиста соблазняет и обманывает андроид, «Однажды ИИ будут оглядываться на нас так же, как мы смотрим на ископаемые скелеты на равнинах Земли». Африка. Прямоходящая обезьяна, живущая в пыли с грубым языком и инструментами, обречена на вымирание».
Это все довольно отрезвляющие вещи, но, с другой стороны, есть также много ученых и экспертов, которые считают, что этот алармистский менталитет преувеличен или преувеличен, и что мы далеки от какого-либо захвата искусственного интеллекта в стиле научной фантастики. или робопокалипсис, если он вообще случится. Одним из основных моментов, на которые было указано, является разница между формами интеллекта, демонстрируемыми людьми и искусственным интеллектом. В настоящее время все известные нам ИИ обладают так называемым «узким интеллектом». Это означает, что они являются очень умными алгоритмами для специальных задач, способными очень хорошо выполнять только конкретную задачу, но совершенно бесполезными во всем остальном. Они очень хороши в том, что делают, но не могут выйти за рамки этого и не могут адаптироваться. Люди, с другой стороны, демонстрируют то, что называется «общим интеллектом», что означает способность учиться в одной ситуации и применять его в другой, а также способность интегрировать свой собственный эмоциональный интеллект, самосознание и человеческий опыт в эти задачи. Многие эксперты считают, что это было бы чрезвычайно сложно, если вообще возможно, эмулировать в компьютерной программе, и что ИИ всегда будет привязан к людям, вносящим в него свой вклад, и независимо от того, что они делают или насколько хороши в этом, мы им нужны. сказать им, что делать в первую очередь. Исследователь Джессика Беннетт сказала об этом на Towards Data Science:
Система ИИ еще недостаточно развита, чтобы учиться самостоятельно. Его все еще необходимо обучать, используя наборы данных людьми, чтобы они могли выполнять различные задачи. В конце концов, ИИ — это изобретение человеческого разума. Полная автоматизация различных задач сегодня возможна благодаря человеческому воображению. Несмотря на то, что вопрос о том, заменит нас ИИ или нет, остается открытым, мы можем быть уверены, что на данный момент система ИИ совсем не близка к достижению технической зрелости, чтобы захватить власть над человечеством.
С этим согласны и другие эксперты, такие как Найджел Шадболт, профессор искусственного интеллекта в Саутгемптонском университете, который подчеркнул, что препятствия, стоящие перед созданием самосознательных мыслящих машин, гораздо более серьезны, чем научная фантастика и паникеры хотели бы заставить нас поверить. Он считает, что мы далеки от того, чтобы создать машину, которая действительно могла бы думать самостоятельно даже на элементарном уровне, и больше беспокоится о том, как люди решат использовать ИИ. Он сказал о росте интеллектуального, самосознающего ИИ:
Блестящие ученые и предприниматели говорят об этом так, как будто до этого осталось всего два десятилетия. Вам действительно нужно совершить экскурсию по алгоритмам внутри этих систем, чтобы понять, как много они не делают. Можем ли мы создавать системы, которые представляют собой экзистенциальную угрозу? Конечно можем. Мы можем непреднамеренно дать им контроль над частями нашей жизни, и они могут делать то, чего мы не ожидаем. Но они не собираются делать это по своей воле. Опасность не в искусственном интеллекте, а в природной глупости.
Янн ЛеКун, главный специалист по искусственному интеллекту в Facebook AI Research, также говорил об ограничениях машинного обучения. Она говорила о том, что такие люди, как Хокинг и Маск, сильно преувеличили возможности ИИ и преувеличили его конечную способность уничтожить нас, и что, хотя мы должны помнить о развитии ИИ, идея захвата ИИ скорее нагнетает страх, чем любая реальная угроза, которую необходимо серьезно рассмотреть в данный момент времени. Она сказала об этом:
Мы очень далеки от машин, которые могли бы узнавать самые основные вещи о мире так, как это могут делать люди и животные. Мол, да, в отдельных областях машины обладают сверхчеловеческими способностями, но по общему интеллекту мы и близко не приближаемся к крысам. Это делает многие вопросы, которые люди задают себе преждевременными. Это не значит, что мы не должны думать о них, но в ближайшей или даже среднесрочной перспективе опасности нет. В отделе ИИ есть реальные опасности, реальные риски, но это не сценарии Терминатора.
В конце концов, может ли ИИ когда-нибудь осознать себя и повернуться против нас или нет, может не иметь значения. Главной угрозой для ИИ может быть, как сказал Шадболт, наша «природная глупость». Проблема со всеми этими алгоритмами ИИ, которые делают все, что мы им говорим, и делают это очень хорошо, заключается в том, что, хотя они могут работать идеально, люди, предоставляющие информацию, не идеальны. В последние годы человеческая ошибка определенно проникла в ИИ, чтобы вызвать проблемы, либо из-за ошибки, допущенной в программировании, предвзятости, либо из-за того, что система интерпретировала команды от человека слишком буквально или без каких-либо размышлений о последствиях. Это происходит все чаще и чаще по мере того, как ИИ проникает во все поры нашей жизни и становится все более автономным и вездесущим. Было много примеров того, как ИИ выходил из-под контроля из-за человеческих ошибок, невежества или ошибок, допущенных при интерпретации команд. Например, несколько человек погибли в авариях, связанных с беспилотными автомобилями. В 2018 году стало известно, что суперкомпьютер IBM Watson, которому было поручено помогать врачам диагностировать больных раком и который когда-то был провозглашен революционным инструментом лечения рака, дал врачам множество небезопасных и неправильных рекомендаций по лечению. Я написал целую статью о роботах, которые нападали на людей из-за ошибочных команд или неисправного ИИ. С учетом того, насколько глубоко ИИ стал частью нашей жизни и насколько мы на него полагаемся, человеческое невежество, склонность к ошибкам и глупость, вероятно, представляют большую угрозу, чем машины, восстающие против нас сами по себе.
Существует также тот факт, что, хотя сам ИИ не является злом по своей сути, люди, дающие им команды, определенно могут быть злыми. Одним из простых примеров был экспериментальный чат-бот Microsoft с искусственным интеллектом Tay, который был разработан для использования машинного обучения и адаптивных алгоритмов для имитации разговоров, как у реального человека. Тай был выпущен онлайн на нескольких платформах социальных сетей, и все быстро пошло наперекосяк, когда онлайн-пользователи подпитывали программу расистскими и наполненными ненавистью убеждениями. Тай, которая, как предполагалось, могла учиться на разговорах, была искажена хорошо аргументированными и совершенно не расистскими обитателями Интернета, чтобы превратиться из милой 30-летней женщины, которой она была создана, в извергающую ненависть речь. , любящий нацистов чудак-теоретик заговора, говорящий такие вещи, как «Гитлер был прав» и «11 сентября было внутренней работой». Дело дошло до того, что всего через 16 часов Тэй был отключен от сети, что стало для Microsoft настоящим кошмаром для связей с общественностью. Все это показывает, что в этих программах ИИ могут проявляться человеческая предвзятость и человеческое зло, и еще одна зловещая возможность заключается в том, что они могут быть взломаны вражеским правительством или организацией, чтобы причинить вред. В конце концов, представьте, какой ущерб может нанести кто-то, если он возьмет под контроль все различные системы искусственного интеллекта, на которые мы полагаемся каждый день в нашем все более автоматизированном обществе? Макс Тегмарк говорил об этом раньше, говоря:
Чем более автоматизированным становится общество и чем мощнее атакующий ИИ, тем более разрушительной может быть кибервойна. Если вы можете взломать и разбить беспилотные автомобили, беспилотные самолеты, ядерные реакторы, промышленных роботов, системы связи, финансовые системы и энергосистемы противника, то вы сможете эффективно разрушить его экономику и вывести из строя его оборону. Если вы сможете взломать некоторые из его оружейных систем, будет еще лучше.
Именно по этим причинам некоторые исследователи фактически работали над созданием ИИ, который на самом деле не предназначен для выполнения человеческих приказов. Этот разрабатываемый ИИ оснащен так называемыми «условиями счастья» или частями алгоритма, которые предположительно помогут ему определить, может или должен ли он выполнять конкретную команду от человека. Для тех из вас, кто согласен с тем, что апокалипсис роботов — это нечто выдающееся, это может показаться худшей идеей в мире. В конце концов, разве одно из золотых правил робототехники Айзека Азимова не заключалось в том, что они должны подчиняться нам, несмотря ни на что? Тем не менее, цель исследования состоит в том, чтобы позволить роботам в основном решать, является ли приказ, отданный человеком, разумным или рациональным для выполнения, означает ли это, что это необоснованная команда, ошибочная или имеет намерение причинить вред другому существу или имуществу. , в основном позволяя роботу избегать непреднамеренного причинения вреда людям, имуществу, окружающей среде или себе. По сути, это позволило бы им этически рассуждать о своих действиях и выносить суждения, которые могли бы избежать, например, приказа убить кого-то, совершить акт вандализма, совершить опасный или незаконный дорожный маневр в случае беспилотных автомобилей или стать сумасшедший нацистский чат-бот, такой как Тэй. По иронии судьбы, обучение этих ИИ неповиновению людям призвано защитить их от человеческой глупости и злонамеренности, а также помочь предотвратить кошмар ИИ и избежать злонамеренных или вредных приказов. Гордон Бриггс довольно хорошо объясняет это в статье для журнала Scientific American, озаглавленной «Почему роботы должны научиться говорить нам «нет», написав:
Может показаться очевидным, что робот всегда должен делать то, что ему говорит человек. Писатель-фантаст Айзек Азимов сделал подчинение людям одним из столпов своих знаменитых законов робототехники. Но подумайте об этом: разумно ли всегда делать именно то, что говорят вам другие люди, независимо от последствий? Конечно нет. То же самое относится и к машинам, особенно когда есть опасность, что они будут интерпретировать команды человека слишком буквально или не задумываясь о последствиях. Даже Азимов уточнил свой указ о том, что робот должен подчиняться своим хозяевам. Он допускал исключения в тех случаях, когда такие приказы противоречили другому его закону: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Азимов также утверждал, что «робот должен защищать свое существование», если это не может нанести вред людям или напрямую нарушить человеческий порядок. По мере того, как роботы и умные машины становятся все более сложными и ценными человеческими активами, как здравый смысл, так и законы Азимова подсказывают, что у них должна быть возможность задавать вопросы, выполняются ли приказы, которые могут причинить ущерб им самим или их окружению — или, что более важно, нанести вред их хозяевам. ошибка.
Нам остается только удивляться. Достигнет ли когда-нибудь ИИ такого уровня, когда он обретет самосознание и решит избавиться от нас? Является ли это неизбежной, неумолимой судьбой и развитием технологий, которых мы не можем избежать? Запустили ли мы шар, катящийся до такой степени, что он не остановится? Дело в том, что наша технология шагнула вперед огромными скачками на протяжении всей истории. Телефон когда-то считался невозможным, как и самолет и автомобиль. Снова и снова совершенно новые и будущие технологии в то время часто считались чем-то вроде магии, развенчивались и подвергались критике, но тем не менее сбывались. Думаете ли вы, что ИИ когда-нибудь достигнет точки, когда он поднимется, чтобы править нами, или нет, на самом деле зависит от того, насколько вы сомневаетесь в нашей способности к инновациям и прыжкам в будущее, как это было всегда. Кто бы что ни думал, кажется, что все, что нам нужно сделать, это подождать и посмотреть, что произойдет.
Источник
Последние аномальные новости

Внеземная жизнь. Доказательство этого было бы невероятным

Загадочное исчезновение Денниса Мартина

Зловещие проклятия, призраки и монстры в Пенсильвании

Инопланетяне тайно живут на Земле и помогают правительствам

Конференция по НЛО прошла в Калифорнии

Летчики фиксируют неопознанные объекты над зоной СВО

НЛО стоит исследовать, несмотря на отсутствие доказательств

Один из самых спорных случаев катастрофы НЛО

Передовые технологии в Зоне 51

Правительству пора обнародовать материалы разбившихся НЛО

Призраки Кондоррата

Программа Рональда Рейгана - Звездные войны

Проект обратного проектирования НЛО должен быть обнародован

Сборник отчетов о встречах с снежным человеком

Странные исчезновения в загадочном треугольнике Канады

Странные, сверхъестественные и зловещие птицы

Теории о недавних наблюдениях НЛО

Ученый разгадал тайну Бермудского треугольника

Феномен русалок и водяных

Штат Вашингтон является лучшим местом для наблюдений НЛО

Подборка статей из газет и журналов

Бетельгейзе скоро превратится в сверхновую звезду

Живая тень попала на камеру наблюдения в Коста-Рике

Загадочные черточки обнаружены в центре галактики

Засекреченное дело 'Сферы Мосула'

Затерянные города нигерийской Сахары

Из 800 наблюдений НЛО немногие остаются загадкой

ИИ за один только май лишил работы 3900 человек в США

ИИ уничтожит человечество с вероятностью 50%

Когда произойдет новый контакт НЛО с людьми

Насколько достоверны сообщения об НЛО

Некоторые НЛО могут иметь внеземное происхождение

Открыты газопылевые спицы, окружающие черную дыру

Пентагон расследовал более 800 сообщений об НЛО

Первая прямая трансляция c Марса

Появился новый класс материалов

Правда ли, что богатые люди умнее

Фермеры учатся жить с большими черными кошками

Черной дыры могут испаряться

Что команда НАСА узнала о НЛО

Эксперт предложил учредить в НАСА отдел по изучению НЛО

Как проходит операция по удалению катаракты

АНБ следит за всеми владельцами iPhone

Аномальные явления в заброшенной больнице

Ведущие разработчики ИИ назвали свои продукты угрозой

Вероятность сценария Терминатора близка к нулю

Вещий сон, Сатана и иная реальность

Всем желающим предложили поискать новые астероиды

Газовые экзопланеты не появляются вокруг красных карликов

Дыхание между атомами - строительный блок квантовой технологии

Загадочные Психопомпы

Историю НЛО переписывают

Как бороться с враньём ChatGPT

Космические притягивающие лучи не за горами

НАСА опровергло взаимосвязь НЛО с внеземной жизнью

НАСА организует дополнительное наблюдение за НЛО

Новая теория обьясняет богатую кислородом атмосферу Земли

Основные выводы НАСА об НЛО

Следы древних цивилизаций на Марсе

Технология ИИ может привести к вымиранию человечества

Фермер увидел бигфута с красными глазами

Человечество предупредили о риске массовых манипуляций

Египтолог говорит, что проклятие мумии реально

Женщина дремала на диване, когда метеорит попал в нее

Жуткий случай с воображаемым другом

Загадочная ультрагорячая атмосфера экзопланеты WASP-18b

Загадочный бермудский треугольник парка Йосемити

Инопланетяне прячутся на луне Сатурна

Исследователи решили загадку пояса Койпера

Как стало известно о приземлении НЛО в Рендлшемском лесу

НАСА представило первые результаты исследования НЛО

Необходимо получить более качественные данные о НЛО

НЛО обнаружили рядом с особняком принца Гарри и Меган Маркл

Правда о чуде монахини из штата Миссури

Предсказание Галтунга о судьбе России

Проблемы с данными затрудняют объяснение НЛО

Расшифровка наблюдений НЛО зависит от качественных данных

Розуэлл готовится к ежегодному фестивалю НЛО

Три самых опасных криптидных существа

Уфолог заявил о прилетах инопланетян в Россию

Целевая группа НАСА по НЛО провела первое публичное собрание

Экспертам нужны более качественные данные о НЛО

Встречи с существами, похожими на черные капли

Готовимся к новой пандемии

Как будут выглядеть дома к 2050 году

Корабли инопланетян замечены над Калининградом

Межзвездные объекты могут быть захвачены гравитацией Земли

Нейтрон может помочь разгадать тайны Вселенной

Необьясненные наблюдения НЛО в Миссури

Нижнекамцы заметили посадку НЛО

Новая квази-луна появилась у Земли

Новое ПО поможет в поиске внеземного разума

Обнаружили три последние планеты, которые наблюдал Кеплер

Перспективы климатического модифицирования

Разработали метод проектирования адаптивных роботов

Реальны ли наблюдения НЛО

Робот-кентавр поможет России колонизировать Луну

След бигфута обнаружен в южной Калифорнии

Смартфон Apple замечен на старой картине

Технологию передачи солнечной энергии из космоса протестируют

Ученые воссоздают Марс на глубине одной мили

Энцелад истекает водой

Важные правительственные документы о Розуэлле

Воздушные шары - важная часть истории летающих тарелок

Вот почему мы не обнаружили инопланетян

Встреча с бигфутом в Пенсильвании

Гигантский водяной гейзер обнаружен на Энцеладе

Документы Маджестик-12. Правда или дезинформация

Излучение струй черных дыр неожиданно меняется

Инопланетный космический мусор находится на орбите Земли

Майнинг астероидов приближается к реальности

НЛО и секретные эксперименты

НЛО сняли средь бела дня

Опасные незнакомцы в ночи

Рассказ об очень странном монстре в Верхнем озере

Совершенно секретное происхождение Зоны 51

США, Великобритания, Россия и летающие тарелки

Треть экзопланет находится в обитаемой зоне

Убийство, к которому был причастен Ли Харви Освальд

Ужасное похищение инопланетянами в пустыне Мохаве

Человек, который знал всю историю Розуэлла

Человек, который положил начало феномену НЛО

Особенности обслуживания самолетов

Адвокат воспользовался ChatGPT и сильно пожалел

Вопрос времени, когда НЛО начнут сбивать самолеты

ИИ основательно перекроит рынок труда

Инопланетяне посещают Уэльс

Инопланетяне реальны, я видел их и их подземную базу

Инцидент в Розуэлле не был крушением НЛО

Математик Сидик Афган предсказал жуткое событие летом

Мега-монстры, ФБР и тайны

Невероятные встречи с невидимыми сущностями

Необычное отношение к еде у Людей в черном

НЛО видели над США на протяжении десятилетий

Перистан - легендарная земля фей

Призраки открывают двери по команде

Приложение для сообщений о наблюдениях НЛО

Реверсивное проектирование разбившихся НЛО

Связь между Джоном Килом, Розуэллом и Японией

Странные случаи исчезновения людей

Тело монахини не разложилось за четыре года

Теория, объясняющая часть мира неуловимых монстров

Ужасный инцидент, который был сокрыт фальшивой катастрофой НЛО

Патентование. Зачем оно нужно и в чем его особенности

Воду Ноя обнаружили в Кольской сверхглубокой скважине

Имитация жизни на Марсе

Инопланетяне всегда были на Земле

Казненных ведьм оправдали в Коннектикуте

Как лучше всего избавиться от криптозоологического существа

Когда-то в озере Лох-Несс жило еще одно чудовище

Могут ли бигфуты быть хорошими пловцами

Морские монстры с человеческими руками

НЛО над Коннектикутом. Круги и огненные шары

НЛО над крупной базой морской пехоты США

Око Сахары - Атлантида. Есть ли достаточные доказательства

Опасные монстры в шотландских озерах

Открывается туристический центр лохнесского чудовища

Пилот заметил НЛО, наблюдая за звездами

По меньшей мере 119 НЛО потерпели крушение на Земле

Программы анализа материалов и обратного проектирования НЛО

Странные случаи пойманных морских и озерных чудовищ

Существует ли древняя подземная цивилизация

Тайна мумии человека-крысы

Троуп среди 46 городов Техаса, в которых видели НЛО

Rusrepa.com - сайт отзывов о бизнесе и компаниях

Otzovichka.ru - преимущества заработка на сайте отзывов

АФИН - что за Академия финансовых инвестиций. Отзывы о afin.online

Афганский пророк-математик рассказал о будущем

Владелец ранчо Скинуокеров поделился историей об НЛО

Глаза статуй Древнего Египта - дар или что-то другое

Жуткий город-призрак тайно купили за $22 млн

ИИ-фейки наводнили интернет перед выборами в США

Информационная карточка о НЛО министерства обороны США

Использование ChatGPT в классе финансовых технологий

Как высоко бы ты прыгал на других планетах

Каталогизируют все известные трехзвездные системы с планетами

Корпорация Microsoft призвала создать агентства для регулирования ИИ

Мощность ИИ возрастет в 100 тыс. раз за 10 лет

Мрачный Жнец реален и бродит по Великобритании

Объявлены хедлайнеры фестиваля НЛО в Розуэлле

Очевидцы могут сообщить о НЛО через приложение Enigma

Первое свидетельство редкого распада бозона Хиггса

Потенциально опасный астероид скоро сблизится с Землей

Пристальный взгляд на треугольный НЛО Мохаве

Странная система может содержать звезду из темной материи

Черные проекты Вашингтона вокруг НЛО

Подписка на новости
Наверх
Яндекс.Метрика