Рассуждающий ИИ скоро замедлится в развитии
Логическим моделям, таким как OpenAI o3, меньше года, но их возможности уже значительно улучшились, и исследователи OpenAI с оптимизмом смотрят на то, что этот прогресс будет продолжаться.1 Но пока неясно, насколько масштабируемыми могут быть методы, используемые для обучения моделей мышления. Изучив этот вопрос, я думаю, что есть возможности для дальнейшего расширения обучения мышлению, но маловероятно, что OpenAI или другие разработчики frontier AI смогут масштабироваться на много порядков.
Если обучение логическому мышлению будет увеличиваться в 10 раз каждые несколько месяцев, в соответствии со скачком с o1 на o3, то вскоре, возможно, в течение года, оно достигнет предела общих вычислений для обучения. На этом этапе скорость масштабирования замедлится и сравняется с общим темпом роста числа обучающих компьютеров, составляющим ~4 раза в год. После этого прогресс в моделях логического мышления также может замедлиться.
Какой объем вычислений используется для обучения основному мышлению?
o3 и другие модели логического мышления OpenAI были разработаны на основе традиционных LLM, которые прошли обучение на огромном объеме человеческих данных в процессе, называемом “предварительной подготовкой”. Затем они проходят этап обучения с подкреплением, на котором получают отзывы о своих решениях сложных задач, что улучшает их логические способности.2 Этот второй этап я называю “тренировкой рассуждения”.
Исторически масштабирование обучающих вычислений было очень важной составляющей прогресса ИИ. Поэтому стоит проанализировать, какой объем вычислений в настоящее время используется, в частности, для обучения логическому мышлению, насколько это может быть масштабируемо и что это означает для улучшения этих моделей.
К сожалению, общедоступная информация о количестве вычислений, необходимых для обучения логическому мышлению для моделей логического мышления, скудна, несмотря на их широкое распространение в индустрии искусственного интеллекта. Вот что мы знаем:
- В OpenAI заявили, что o3 в 10 раз превосходит o1 в обучающих вычислениях, что почти наверняка относится к reasoning training compute. o3 был выпущен всего через четыре месяца после o1.
- Мы не знаем, какие вычислительные средства для обучения reasoning используются в o1, но мы оценили эффективность обучающих вычислений DeepSeek-R1, которая, возможно, является сопоставимой моделью.
- У нас также есть информация о нескольких других моделях reasoning, таких как Phi-4-reasoning от Microsoft и Llama-Nemotron от Nvidia.
- У нас есть потенциально информативное заявление от Дарио Амодея из Anthropic.
Я рассмотрю каждое из них по очереди.
Масштабирование от o1 до o3
OpenAI опубликовал этот график, показывающий производительность o3 и o1 в тесте AIME, сопоставленный с наиболее вероятным объемом вычислений, используемых при обучении reasoning. Он показывает, что окончательная версия o3 была обучена в 10 раз большему объему вычислений, чем o1.
Ось x, скорее всего, показывает вычисления для обучения рассуждениям, а не общие вычисления, потому что первая версия o1, в которой вычислений на четыре порядка меньше, чем в o3, набирает около 25% в AIME, и это было бы маловероятно, если бы ось x означала общие вычисления.3 Эта диаграмма также не имела бы особого смысла, если бы ось x была общей для вычислений, поскольку это означало бы, что OpenAI обучил множество версий o1 с крайне неполными этапами предварительной подготовки.
Если o3 был обучен в 10 раз большему количеству логических вычислений, чем o1, что это говорит о его абсолютном масштабе вычислений? У нас нет точной информации, но мы можем поискать подсказки в других моделях логических вычислений и заявлениях инсайдеров индустрии искусственного интеллекта.
Выводы из DeepSeek-R1
Большинство передовых разработчиков ИИ относительно мало рассказывают о том, как они обучают модели мышления. Главным исключением здесь является DeepSeek и его модель мышления R1.
В предыдущем выпуске этого информационного бюллетеня Эге Эрдил подсчитал, что DeepSeek-R1 был обучен на флопе ~ 6e23 (стоимостью ~ 1 миллион долларов) во время обучения RL reasoning, что потребовало генерации около 2 триллионов токенов. Это составляет около 20% от стоимости предварительной подготовки базовой модели DeepSeek-R1, DeepSeek-V3.
Хотя в этой оценке много неопределенностей, она полезна, потому что DeepSeek-R1 - это логическая модель с очень похожими контрольными показателями, что и o1. Поэтому было бы разумно использовать ее для определения базовой линии для наших оценок вычислений o1.
Однако шкала логических вычислений DeepSeek-R1 может отличаться от шкалы o1 по разным причинам. Вероятно, их количество соответствующих параметров отличается (хотя мы не знаем, насколько).4 И мы не знаем, как сравниваются этапы обучения логическим вычислениям с точки зрения эффективности вычислений.5
Выводы из других логических моделей
Две другие логические модели с подробной информацией об обучении - это Llama-Nemotron Ultra 253B от Nvidia и Phi-4-reasoning от Microsoft.
- Этап разработки RL на Llama-Nemotron Ultra занял 140 000 часов, или около 1 часа 23 минуты, что составляет менее 1% от стоимости предварительной подготовки исходной базовой модели.6
- У Phi-4-reasoning был гораздо меньший этап анализа, он генерировал около ~ 460 миллионов токенов, что стоило менее 1e20 флопа, или <0,01% вычислительных затрат на предварительное обучение.7
Оба устройства имеют впечатляющие показатели, а Llama-Nemotron сравним с DeepSeek-R1 и o1.
Однако эти оценки могут быть неинформативны в отношении моделей рассуждения, которые продвинулись вперед, таких как o1 или o3, из-за синтетических данных. Этапам RL для Llama-Nemotron и Phi-4-reasoning предшествовала контролируемая доводка, в ходе которой участники обучались на примерах высококачественных логических цепочек, и большая часть этих данных была получена на основе синтетических данных из других моделей рассуждения.8
К какому выводу мы можем прийти?
В целом, неясно, проливают ли они много света на обучающие вычисления o1 или o3.
Один из выводов заключается в том, что вычислительные затраты на обучение рассуждениям, по крайней мере на этапе обучения с подкреплением, могут быть относительно низкими для некоторых моделей, таких как Phi-4. Это не означает, что o3 был обучен на столь же малом объеме вычислений, но это означает, что трудно судить о масштабе вычислений reasoning только по тому факту, что модель reasoning хорошо работает в тестовом режиме.
Кроме того, при разработке логических моделей важную роль может сыграть старомодная контролируемая тонкая настройка, и из-за такого разнообразия подходов трудно оценить масштаб обучения логическим рассуждениям для моделей, не раскрывая подробностей обучения. Это также делает неясным, что следует считать “вычислением логических рассуждений” или “обучением логическим рассуждениям”. Обучение с подкреплением, вероятно, является основной движущей силой улучшений на стыке моделей мышления и поэтому должно быть в центре внимания, но я не слишком уверен в этом.
Последний намек на вычислительный масштаб существующих моделей рассуждения содержится в эссе, написанном генеральным директором Anthropic Дарио Амодеем в январе 2025 года, после выхода o1 и DeepSeek-R1 и анонса o3 (выделено мной).:
- Важно отметить, что, поскольку этот тип RL является новым, мы все еще находимся на ранней стадии масштабирования: сумма, затрачиваемая на второй этап RL, невелика для всех игроков. Потратив $ 1 млн вместо $ 0,1 млн, можно получить огромную прибыль. В настоящее время компании очень быстро работают над расширением второго этапа до сотен миллионов и миллиардов человек, но важно понимать, что мы находимся в уникальной “точке пересечения”, где существует мощная новая парадигма, которая находится на ранней стадии масштабирования и, следовательно, может быстро принести большие выгоды.
Я не уверен, отражают ли оценки Amodei в размере 0,1 млн долларов или 1 млн долларов стоимость обучения для какой-либо конкретной модели, такой как o1, o3 или DeepSeek-R1, или это просто общие гипотезы. И убеждения Амодея относительно вычислительного масштаба неантропных моделей, по-видимому, являются всего лишь предположениями, основанными на собственных данных Антропика. Но очевидно, что он считает, что стоимость обучения логически обоснованных моделей на сегодняшний день значительно ниже “сотен миллионов”, что было бы >1э26 ПРОВАЛОМ.9
В целом, эти оценки и намеки свидетельствуют о том, что шкала логических вычислений o1 и, скорее всего, также o3 все еще ниже шкалы крупнейших тренировочных прогонов на сегодняшний день.
Однако они, вероятно, не на много порядков отстают от общего уровня вычислений, который составляет >1э26 сбоев, потому что у нас есть два примера моделей, обученных на более чем 1э23 сбоях на этапе анализа (DeepSeek-R1 и Llama-Nemotron Ultra). o1 и особенно o3 можно было бы обучить еще большему количеству людей.
Что означает масштаб вычислений с помощью рассуждения для прогресса ИИ?
Существующий масштаб вычислений в моделях логического мышления имеет важное значение для прогресса ИИ в ближайшей перспективе. Если уровень обучения логическому мышлению все еще относительно низок, мы можем увидеть быстрое увеличение масштабирования в краткосрочной перспективе, а также реальных возможностей.
Мы знаем, что o3 в 10 раз превосходит o1 по масштабируемости вычислений и обладает значительно большими возможностями, чем o1. Это включает в себя улучшение результатов в стандартных тестах по математике, естественным наукам и программированию. o3 также намного превосходит o1 в наборе программного обеспечения METR для агентурного обеспечения и задач кодирования.
Хотя я не знаю о каких-либо тщательных исследованиях законов масштабирования для обучения рассуждениям, как это делается для законов масштабирования перед обучением, OpenAI показал кривые масштабирования, которые выглядят довольно похожими на классические законы логарифмического линейного масштабирования (см. рис. 3 ниже и рис. 2 выше). На втором рисунке в статье DeepSeek-R1 также показано, что точность увеличивается по мере прохождения этапов обучения логическому мышлению примерно логарифмически линейным образом. Это говорит о том, что эффективность обучения логическому мышлению повышается аналогично предварительной подготовке, по крайней мере, для задач по математике и программированию. Таким образом, в течение следующих нескольких лет мы могли бы увидеть как значительные, так и быстрые улучшения.
Если reasoning compute достигнет масштабов total training compute, темпы его роста сравняются с общими темпами роста, которые в настоящее время составляют около 4 раз в год, а не 10 раз каждые несколько месяцев (как при переходе от o1 к o3).
Таким образом, если уровень подготовки по логическому мышлению всего на несколько (скажем, менее чем на три) порядков ниже общего уровня, этот темп роста может замедлиться в течение года или около того.10
Может ли логическое мышление на самом деле масштабироваться?
Конечно, рассуждать о масштабировании не так просто, как о выделении большего количества графических процессоров. Масштабирование может приостановиться из-за нехватки данных. Обучение логическому мышлению включает в себя обучающие модели для решения сложных задач, но существует не неограниченный набор подходящих задач, и может быть трудно найти, написать или искусственно сгенерировать достаточно разнообразных задач для дальнейшего масштабирования.
Также крайне неясно, насколько хорошо обучение логическому мышлению распространяется на более сложные области, не связанные с математикой и программированием.11 Кроме того, могут возникнуть другие непредвиденные проблемы.
Связанная с этим проблема заключается в том, что общие вычислительные затраты на разработку логических моделей могут быть намного больше, чем прямые затраты на основное обучение. Это может произойти, если лабораториям искусственного интеллекта придется проводить множество параллельных экспериментов, чтобы увидеть, какие проблемы, модели вознаграждения и другие методы действительно работают.
До сих пор я пытался оценить прямые затраты на обучение логическому мышлению в этом посте, но мы на самом деле не знаем, как OpenAI оценивает вычислительную мощность обучения для моделей логического мышления. И у нас нет никакой информации о затратах на исследования, даже от относительно прозрачных разработчиков.
Эти затраты, вероятно, будут несколько снижаться по мере развития логической парадигмы. И стоимость исследований не отменяет взаимосвязи между масштабом прямых вычислений и возможностями. Но если для проведения исследований требуются постоянные накладные расходы, то логические модели могут масштабироваться не так широко, как ожидалось.
С другой стороны, логические модели могут продолжать быстро совершенствоваться даже после замедления роста вычислительной мощности. Возможно, на сегодняшний день большая часть прогресса в логических моделях на самом деле вызвана инновациями в данных или алгоритмах. Но быстрое масштабирование вычислений потенциально является очень важным компонентом для разработки логической модели, поэтому за этим стоит внимательно следить.
Как бы то ни было, исследователи из OpenAI (вместе с Дарио Амодеем, как отмечалось выше) в настоящее время выражают уверенность в том, что они смогут быстро расширить модели мышления и добиться дальнейших улучшений. Поскольку эти инсайдеры непосредственно осведомлены о следующей итерации логических моделей, я думаю, что весьма вероятно, что o3 не достигла предела ни по масштабам, ни по возможностям.
Источник
При использовании материалов с сайта активная ссылка на него обязательна
Меню
Архив материалов
Проекты наших читателей
Контакты исследователей
Подписка на новости
Проекты
Новости криптозоологии
Хроники природных катастроф
Новости
26.02.2002 - 05.07.2002
05.08.2002 - 23.10.2002 (562)
24.10.2002 - 17.01.2003 (585)
20.01.2003 - 07.04.2003 (709)
08.04.2003 - 01.08.2003 (709)
04.08.2003 - 18.11.2003 (763)
19.11.2003 - 31.03.2004 (721)
01.04.2004 - 13.08.2004 (825)
16.08.2004 - 22.11.2004 (782)
23.11.2004 - 28.03.2005 (756)
29.03.2005 - 29.07.2005 (807)
30.08.2005 - 02.12.2005 (927)
05.12.2005 - 21.04.2006 (912)
24.04.2006 - 23.10.2006 (999)
24.10.2006 - 03.05.2007 (999)
04.05.2007 - 28.01.2008 (999)
29.01.2008 - 12.01.2009 (999)
13.01.2009 - 07.07.2009 (966)
22.08.2009 - 21.01.2010 (996)
22.01.2010 - 22.06.2010 (1000)
23.06.2010 - 14.01.2011 (1042)
17.01.2011 - 31.05.2011 (1008)
01.06.2011 - 03.11.2011 (1003)
07.11.2011 - 16.03.2012 (996)
19.03.2012 - 09.06.2012 (1009)
13.06.2012 - 07.09.2012 (988)
10.09.2012 - 19.11.2012 (1004)
20.11.2012 - 14.01.2013 (1015)
15.01.2013 - 22.02.2013 (1000)
23.02.2013 - 08.04.2013 (991)
09.04.2013 - 31.05.2013 (1015)
01.06.2013 - 18.07.2013 (992)
19.07.2013 - 03.09.2013 (1014)
04.09.2013 - 20.10.2013 (1001)
21.10.2013 - 02.12.2013 (1001)
03.12.2013 - 18.01.2014 (997)
19.01.2014 - 07.03.2014 (994)
08.03.2014 - 24.04.2014 (1000)
25.04.2014 - 18.06.2014 (1005)
19.06.2014 - 15.08.2014 (1019)
16.08.2014 - 07.10.2014 (1006)
08.10.2014 - 16.11.2014 (995)
17.11.2014 - 25.12.2014 (1004)
26.12.2014 - 09.02.2015 (989)
10.02.2015 - 20.03.2015 (998)
21.03.2015 - 22.04.2015 (1001)
23.04.2015 - 29.05.2015 (997)
29.05.2015 - 30.06.2015 (995)
30.06.2015 - 29.07.2015 (990)
29.07.2015 - 26.08.2015 (998)
27.08.2015 - 24.09.2015 (988)
25.09.2015 - 22.10.2015 (991)
23.10.2015 - 18.11.2015 (1000)
18.11.2015 - 16.12.2015 (990)
17.12.2015 - 23.01.2016 (1000)
24.01.2016 - 25.02.2016 (1000)
26.02.2016 - 24.03.2016 (1000)
24.03.2016 - 16.04.2016 (990)
17.04.2016 - 19.05.2016 (999)
20.05.2016 - 22.06.2016 (993)
23.06.2016 - 01.08.2016 (995)
02.08.2016 - 12.09.2016 (990)
13.09.2016 - 25.10.2016 (989)
26.10.2016 - 05.12.2016 (995)
06.12.2016 - 15.01.2017 (995)
16.01.2017 - 23.02.2017 (990)
24.02.2017 - 03.04.2017 (994)
04.04.2017 - 18.05.2017 (1000)
19.05.2017 - 05.07.2017 (1000)
06.07.2017 - 24.08.2017 (1000)
25.08.2017 - 06.10.2017 (991)
07.10.2017 - 15.11.2017 (990)
16.11.2017 - 24.12.2017 (1000)
25.12.2017 - 04.02.2018 (990)
05.02.2018 - 17.03.2018 (1000)
18.03.2018 - 02.05.2018 (990)
03.05.2018 - 11.06.2018 (1000)
12.06.2018 - 18.07.2018 (990)
19.07.2018 - 24.08.2018 (1000)
25.08.2018 - 02.10.2018 (1000)
03.10.2018 - 07.11.2018 (990)
08.11.2018 - 13.12.2018 (990)
14.12.2018 - 23.01.2019 (1000)
24.01.2019 - 02.03.2019 (1000)
03.03.2019 - 12.04.2019 (1010)
13.04.2019 - 23.05.2019 (990)
24.05.2019 - 03.07.2019 (1000)
04.07.2019 - 11.08.2019 (1000)
12.08.2019 - 16.09.2019 (990)
17.09.2019 - 26.10.2019 (1000)
27.10.2019 - 12.12.2019 (1000)
13.12.2019 - 25.01.2020 (1000)
26.01.2020 - 06.03.2020 (990)
07.03.2020 - 16.04.2020 (1010)
17.04.2020 - 19.05.2020 (1000)
20.05.2020 - 25.06.2020 (990)
26.06.2020 - 04.08.2020 (995)
05.08.2020 - 16.09.2020 (1005)
17.09.2020 - 26.10.2020 (990)
27.10.2020 - 27.11.2020 (990)
28.11.2020 - 07.01.2021 (990)
08.01.2021 - 15.02.2021 (1000)
16.02.2021 - 31.03.2021 (1000)
01.04.2021 - 12.05.2021 (1000)
13.05.2021 - 14.06.2021 (990)
15.06.2021 - 26.07.2021 (980)
27.07.2021 - 31.08.2021 (990)
01.09.2021 - 07.10.2021 (1000)
08.09.2021 - 07.11.2021 (1000)
08.11.2021 - 10.12.2021 (1000)
11.12.2021 - 24.01.2022 (990)
25.01.2022 - 04.03.2022 (1000)
05.03.2022 - 10.04.2022 (990)
11.04.2022 - 17.05.2022 (1000)
18.05.2022 - 23.06.2022 (980)
24.06.2022 - 31.07.2022 (990)
01.08.2022 - 13.09.2022 (990)
14.09.2022 - 21.10.2022 (990)
22.10.2022 - 29.11.2022 (1000)
30.11.2022 - 22.01.2023 (1000)
23.01.2023 - 02.03.2023 (990)
03.03.2023 - 21.04.2023 (1000)
22.04.2023 - 13.06.2023 (990)
14.06.2023 - 02.08.2023 (1000)
03.08.2023 - 21.09.2023 (1000)
22.09.2023 - 06.11.2023 (990)
07.11.2023 - 24.12.2023 (990)
25.12.2023 - 18.02.2024 (1000)
19.02.2024 - 05.04.2024 (990)
06.04.2024 - 25.05.2024 (1000)
26.05.2024 - 26.07.2024 (1000)
26.07.2024 - 25.08.2024 (990)
26.08.2024 - 28.09.2024 (980)
29.09.2024 - 01.11.2024 (1000)
02.11.2024 - 02.12.2024 (980)
03.12.2024 - 08.01.2025 (990)
09.01.2025 - 09.02.2025 (1000)
10.02.2025 - 20.03.2025 (1000)
21.03.2025 - 03.05.2025 (990)
04.05.2025 - ...
Статьи
Статьи: раздел 1 (1024)
Статьи: раздел 2 (1006)
Статьи: раздел 3 (1000)
Статьи: раздел 4 (1044)
Статьи: раздел 5 (1001)
Статьи: раздел 6 (1000)
Статьи: раздел 7 (1000)
Статьи: раздел 8 (1013)
Статьи: раздел 9 (1000)
Статьи: раздел 10 (1000)
Статьи: раздел 11 (329)
Статьи: раздел 12 (1000)
Статьи: раздел 13 (730)
Лента новостей

Гуанчи - последние потомки Атлантиды

Жюль Верн предсказал нечто похожее на интернет

ИИ отбирает рабочие места у айтишников

ИИ позволит колонизировать галактику через пять лет

Компания OpenAI вскрыла тёмные личности у ИИ

Кричащий призрак на месте ДТП

Металлический шар наблюдали в Китае

На каких планетах стоит искать жизнь

Наш мир может быть космической голограммой

Нашли недостающее вещество Вселенной

Нечто промчалось в небе над Мексикой

Носовое дыхание оказалось уникальным для каждого человека

Папа считает угрозу ИИ человечеству главной проблемой

План заражения Энцелада жизнью

Подразделение-201 ускорит внедренение военных ИИ-технологий

Похищения феями и подражателями

Почему ИИ не победит в игре 'Что? Где? Когда?'

Призрачный канал утечки тепла из ядра Земли

Таинственные болотные огни убивают рыбаков

Человеческие сердца впервые вырастили в зародышах свиньи

Модельный ряд Audi Q. Характерные особенности и ключевые представители

Американские военные сняли летающую тарелку

В пустыне Сахара замечен НЛО

Верящие в теории заговора излишне самоуверенны

Загадочная резьба с библейским посланием

Загадочные радиосигналы из-подо льда Антарктиды

Как формируются скалистые планеты

На Марсе растут грибы

Обнаружили сотни таинственных гигантских вирусов

Поможет ли планетарный зонт охладить планету

Раскройте тайны Вселенной с помощью гравилинзирования

Рецепт получения настоящего криптонита

Свежий взгляд на Космический рассвет

События, которые положат конец цивилизации

Таинственная медуза замечена над пустыней США

Тайна сербского Лох-Несского чудовища

Темная материя влияет на движение звезд

Теория заговора о космической станции Тяньгун

Уникальное поведение аккреционного диска SS 433

Холодная экзопланета на странной орбите

Шокирующее открытие в глубинах Земли

Обзор МФО которые выдают микрозайм на карту

Как правильно заправить газгольдер и рассчитать объем

Польза лазертага в Воронеже - не только в физической активности

Беспрецедентные виды южного полюса Солнца

Вспышки сверхновых вызвали изменения климата

Где находится центр Вселенной

Заметили неожиданно сильную струю черной дыры

Конспирологи оказались слишком самонадеянными

Луна переливается блестящими стеклянными бусинками

Необычные звездные ясли озадачили ученых

НЛО использовались для сокрытия военных секретов

Новые данные о сверхмассивной черной дыре в M87

Охотники на Несси раскупили все билеты на автобусы

Парадоксу Ферми исполнилось 75 лет

План по ускорению космических полетов

Повышение точности квантовых часов

Последние слова, которые люди слышат перед смертью

Самая крупная ароматическая молекула в космосе

Силикатные облака обнаружены в атмосфере экзопланеты

Сняли детеныша Лох-Несского чудовища

Спутники Урана удивили ученых

Уникальные виды внешней атмосферы Солнца

Фильтрация наземных загрязнений при поиске инопланетян

Процедура имплантации зубов. Практический разбор этапов и реабилитации

Верна ли теория палеоконтакта

Вторая сфера появилась в небе Колумбии

Зловещая правда о происходящем в Зоне 51

Как при помощи смарт-часов украсть данные

Кампания по дезинформации об НЛО

Китай успешно вживил мозговой имплант человеку

Летающая тарелка обнаружена в пустыне Сахара

Мужчина может видеть будущее

Мужчина пил из одной и той же термокружки 10 лет и умер

НЛО использовали для прикрытия спецопераций

НЛО как прикрытие для правительства США

Первый в мире город роботов запустит Тойота

Почему в США так часто наблюдают НЛО

Примитивная жизнь может существовать на лунах

Провалившаяся во времени на автомобиле

Раскрыта потрясающая правда об НЛО

Самые известные наблюдения НЛО в Техасе

Сходство мышления человека и искусственного интеллекта

США лидируют по количеству наблюдений НЛО

Футуролог назвал дату, когда люди смогут обмануть смерть

Вероятность столкновения Млечного Пути с Андромедой

Восстановление ДНК на космической станции

Житель Покипси снял странные огни в небе

Заброшенная НЛО-деревня с леденящей душу историей

Извините, но никаких НЛО нет

Как выбраться из болота теории струн

Люди не могут контролировать все

Министерство обороны США придумало НЛО

Млечный Путь обречен на столкновение с Андромедой

НЛО - это шутка

Обнаружена новая Зона 51, скрытая в горах Аляски

Обнаружено место формирования новой планеты

Откуда взялись космические лучи

Перспективы и опасности полета на Марс

Поиск аксионов путем анализа рентгеновских наблюдений

Решение давней загадки нейтронных звезд

Самообучающаяся нейронная сеть изучает черные дыры

Странные радиоимпульсы, исходящие из-подо льда Антарктиды

Тестирование новых методов научного анализа НЛО

Экзопланетные системы с компактными орбитами

В США чаще всего наблюдают инопланетян и НЛО

Вселенная возникла из черной дыры

Как был изготовлен небесный диск Небры

Людей призывают сообщать о кругах на полях в полицию

Мозговой имплант позволил видеть несуществующее

НАСА уже обнаружило инопланетян на Марсе

Невероятные свидетельства похищений инопланетянами

Неужели Пентагон выдумал наблюдения НЛО

НЛО - способ скрыть сверхсекретные технологии

НЛО были изобретены правительством США

Новый остров появился посреди Каспийского моря

Огненная дверь в Ад начинает закрываться

Проект-94 - отряд очаровательных убийц ЦРУ

Разоблачаем публикацию СМИ о Пентагоне и НЛО

Реконструирован процесс изготовления диска Небры

Свет может образовываться вообще без материи

Скоростной НЛО был запечатлен над Гранд-Каньоном

Техасский Уфокон в Джефферсоне

Часы, защищенные от Второго закона термодинамики

Шотландские подростки заметили загадочный НЛО

Вулкан, выглядывающий из-за утренних облаков Марса

Города Мичигана, облюбованные инопланетянами

Криптонит - ключ к более экологичному будущему

Лучевое оружие Тесла обнаружено в Зоне 51

Мифы об НЛО были усилены Пентагоном

Откровения об НЛО и частотное исцеление

Пентагон разыграл США ложью об НЛО

Пентагон распространяет слухи об НЛО в Зоне 51

Пентагон скрывает секретные проекты

Седина может быть обратимой

Симпозиум по НЛО в округе Страткона

США располагают войсками на Луне

Теории заговора об НЛО были прикрытием Пентагона

Теория заговора о спутнике 'Черный рыцарь'

Треугольный НЛО пролетел над Торонто

Фейки о Зоне 51 распространял Пентагон

Что говорит о вас длина ваших пальцев

Шокирующая правда о пандемии CovID-19

Шокирующий отчет раскрывает правду о Зоне 51

Эликсир, обращающий старение вспять

Астероид-убийца больше не летит к Земле

Бомба с черными дырами стала реальностью

Брошен вызов теориям о формировании планет

Ванга нас предупредила

Вызов нашим представлениям о зарождени Вселенной

Действительно ли в облаках Венеры есть жизнь

ИИ раскрывает вероятное авторство Библии

Инопланетяне пытаются спасти человечество

Исследование Солнечной системы в мельчайших деталях

Наблюдения НЛО в небе Нидерландов

Насколько сильно похолодает в Британии

Передовые технологии марсиан

Поиски нечеловеческого разума в океанах Земли

Раскрыт многолетний обман американских военных

Самые мощные взрывы во Вселенной

Тайны и ужасы Подземного мира

Титан - самое оживленное место в Солнечной системе

Что нужно для жизни на Европе

Что, если Большой взрыв не был началом

Элементы жизни обнаружены в планетообразующем диске

Акула-молот упала с неба на поле для гольфа

Американские военные распространяли мифы об НЛО

Документы по реинжинирингу НЛО

Загадочный шар замечен над штатом Вашингтон

Исследования Филипа Мантла в области НЛО

Кто распространяет мифы об НЛО

Межпространственный бомбардировщик ВВС США

Металлическая сфера, покрытая причудливыми символами

Несколько огромных сооружений на Луне

НЛО пролетает над небоскребами Нью-Джерси

НЛО рискуют провалиться в паранормальную кроличью нору

От вампиров до оборотней и келпи

Открыли путь к сверхзрению для человека

Пентагон должен признаться во лжи об НЛО

Пентагон организовал уфологический заговор

Правда, стоящая за заговорами об НЛО

Правительство США использовало мифы об НЛО

Разбившийся НЛО откапывают в Алжире

Сокрытие секретных оружейных программ Пентагона

ЦРУ разжигает массовые беспорядки

GetRentacar.com – огромный выбор автомобилей для аренды по лучшим ценам

Наверх
Яндекс.Метрика