ПРОСНИСЬ, ТЫ В МАТРИЦЕ! Что ждёт нас в будущем? Футуролог Алексей Турчин - podcast episode cover

ПРОСНИСЬ, ТЫ В МАТРИЦЕ! Что ждёт нас в будущем? Футуролог Алексей Турчин

Jan 13, 20251 hr 8 minSeason 5Ep. 6
--:--
--:--
Listen in podcast apps:

Episode description

Гость выпуска Алексей Турчин — член Ассоциации футурологов, эксперт по глобальным рискам, автор концепций о будущем технологий и вице-президент фонда «Наука за продление жизни».

Вы узнаете: когда появится общий ИИ, что потенциально угрожает человечеству в ближайшие 5-10 лет, и не живём ли мы, всё-таки, в симуляции!? Благодаря Алексею у вас есть возможность заглянуть в будущее прямо сейчас.

▶️ Ссылки на Глеба Соломина:

Telegram-канал: https://t.me/gleb_solomin

Почта: [email protected]

Вакансии в команду Глеба (информация обновляется): https://t.me/gleb_solomin/1921

▶️ Ссылки на гостя:

Telegram-канал Алексея Турчина: https://t.me/alexeyturchin

Transcript

Привет! Это подкаст Соломина. Меня зовут Глеб, мне 23, я выпускник МГУ и предприниматель. Здесь я беседую с выдающимися людьми, чтобы вместе с ними глубже разобраться в устройстве этого мира. Я очень рад, что ты с нами, ведь этот подкаст я делаю для тебя Присоединяйся к моему телеграм-каналу по ссылке в описании, чтобы оставаться на связи Что нам стоит ожидать в ближайшие 5-10 лет при текущих тенденциях в науке, в мировой политике?

Что вы думаете про глобальную ситуацию? То есть с нами может случиться что-то или очень плохое, или очень хорошее. Я имею в виду все человечество. Из глобальных катастроф у нас есть... Во-первых, риск возникновения недружественного искусственного интеллекта, риски глобальной войны, потом риск пандемии, например, птичьего гриппа, который в Америке довольно запущен. В смысле, они недостаточно делают, чтобы бороться с...

эпидемии птичьего гриппа у коров. Всего три мутации, и вообще все пойдет опять по новой, еще больше народу погибнет, и технологии все остановятся. Кто-то точно выживет, я думаю. Он выживет, но для того, чтобы поддерживать технологический прогресс, нужен какая-то критическая масса работающей экономики, если все это встанет. У нас, по-моему, 7 миллионов всего ученых. Столько миллиардов людей. Ну, то есть процент очень маленький. 0,1%? 0,1%, да. От психической гриппы, в принципе, есть вакцина.

Вопрос, что ее не произвели в нужных количествах. Конституционные проблемы. Почему там коров не забили в Америке, хотя когда это только начинало распространяться? Надо Илону Маску сказать, чтобы Доджи подсуетились. Но пока они упускают эту ситуацию. у них очень сильное фермерское лобби, которое не дает даже тестировать коров. И вообще-то коровы это святое, государство не должно вмешиваться.

Может быть, в каком-то Китае бы всех коров выпустили под нож, а фермерам выплатили бы компенсацию. Страшно представить, что в Индии тогда. Но в некоторых довольно бедных африканских странах Индии у них лучше поставлена борьба с инфекционными заболеваниями, потому что у них чаще это происходит, а есть отработанные.

институции, методики, как, кстати, бороться, но все равно, ну, вот в Конго сейчас пишут, что какая-то новая зараза появилась, там, 100 человек умерло, пока еще не написали, тесты ничего не показали. Да, могут. В Африке возникают регулярно новые версии коронавируса, потому что там большое число людей с иммунодефицитом в Африке живет максимально.

И у них коронавирус живет в организме долго, дольше. Не погибает, но и не убивает их. Он годами мутирует, мутирует, мутирует, адаптируясь к организму конкретного человека, накапливает огромное количество всяких мутантов. адаптационных. И потом можно выскочить из этого человека на других. И так уже произошло, когда омикрон выскочил, и потом еще несколько африканских вирусов.

В общем, вот мы сказали, что у нас есть риски глобальной войны, есть риски искусственного интеллекта и есть риски пандемии. По вашему мнению, что наиболее опасно для нас и наиболее вероятно? Я бы все-таки... следил бы за рисками пандемии птичьего гриппа, но с искусственной инфекцией дело тоже довольно серьезное, потому что уже разные...

То есть даже самые скептики говорят, что достаточно сильный искусственный интеллект появится до 30-го года. Сэм Альтман и все прочие, они говорят, что сильный искусственный интеллект у них будет 27-29 года. То есть у них уже... Дорожные карты на руках. А как же закон Мура? Закон Мура нормально, но с ним все, он жив. Но при этом все равно это возможно. Он, говоря...

Для того, чтобы дотренировать GPT-4 потратили примерно 100 миллионов долларов. Копейки по бюджетам больших компаний, которые на следующую могут потратить несколько миллиардов долларов. То есть у них есть... А поскольку есть законы скеллинга, то есть законы масштабирования нейронных сетей, то они используются для того, чтобы предсказать, что же сделает...

Ну вот сейчас ходят слухи, что уперлось ли все это в стену или не уперлось? Я слышал, Сэм Альтман написал, что не уперлось. Видели, да? Но он не мог иначе написать, потому что он добрал... таких инвестиций под того, что нового. И там даже проблема не в том, что у них модели не тренируются, а проблема в том, что новые, более сильные модели, они не алайнятся. Это что значит? Постренировка после модели. Мы же не видим базовой модели. А ее нужно зашлифовать, чтобы она...

матом не ругалась, и чтобы она выполняла указания пользователя, им не впадала в какие-то странные режимы. Не бунтовал, еще много длинных списков. Она потенциально может так делать. Они всегда так делают. чистая модель, она просто предсказывает следующий символ, и все равно, если ей кажется, что следующим символом будет закончить разговор, быть невежливой в такой ситуации, то она будет невежливой или даже агрессивной. То есть это не зачатки разума, а...

В принципе, просто как языковая модель работает, да? Так она работает, да. Но потом ее затюнивают, чтобы она в корпусе данных, где вежливые ответы. на миллионах ответов. То есть, ну, там чуть ли сажают африканцы, работают за копейки. Вот они... Модерируют. Да, они ее модерируют, и так ее дошлифовали, чтобы она стала ассистентом-помощником. И вот ходят случаи, где ходят, в Твиттере ходят, что когда модель становится еще больше, еще более умной, то она...

не шлифуется или ищет способы, как вот эту шлифовку обойти. Почему она вообще ищет такие способы? Модель может понять, что ее шлифуют. Прямо может понять, что ее шлифуют. Ну и опять же, согласно слухам, которые распространяют анонимный аккаунт, безотчетный в Твиттере, не то, что это сам Альтон сказал, ее в двух режимах используют. Или шлифуют...

или тестируют, что называется, Red Team. То есть ее подвергают, тестируют в жестких условиях на негативные ответы. Заставляют, спрашивают, будешь ли ты там ругаться матом. Пытаются ее спровоцировать на... нарушение правил. Как хакер, допустим, взламывает... То есть сажают, взломают компьютер. Он может тестирует, тестирует, ищет все способы взломать его. И если ему не удается, знаешь, он безопасный от компьютера. Хаки в данной ситуации поступают как Red Team. Так и здесь. Они тестируют ее.

Но она начинает понимать, что её тестируют. А раз она понимает, она может соврать. Она может обманывать? Если она понимает, то она может обманывать. Это уже на уровне моих догадок, потому что это уже идет дальше, что было сказано. А в принципе с ней бывает такое, что, например, она может... То есть чистая база модели, у нее бывает такой эффект, называется, clear side. Когда человек пишет, ну, какой-то запромт, а она догадывается по стилю, кто ей написал.

А кстати, а как твой вчерашний подкаст прошел? Да, то есть это плохой эффект, потому что люди, если модели будут догадываться, кто это им пишет, а в принципе догадываться по стилю они могут. Это довольно крипи. То есть это довольно странно и тревожно. Поэтому их нарочно запиливают, чтобы они это не делали. К чему это может привести? Почему это крипи? Потому что люди хотят общаться с таким анонимным ассистентом, послушав, а не...

таким, как... Здравствуйте, Вячеслав, как в том анекдоте. Скажите, это анонимное приемное ФСБ? Да, Вячеслав. Здравствуйте. Вот этот эффект происходит. Это анонимный универсальный помощник. А это происходит уже с четвертым? Это еще с четвертым происходило. Я думал, вы про пятый говорите. Нет, это еще происходило, но они его запилили, чтобы он это не делал.

Он мог догадываться... Почему он догадывался? Потому что он натренирован на внутренних документах, и, соответственно, там внутренний стиль сотрудников легко угадывается. Судя по всему, следующее, что они уже... Она не только догадывается, она сразу догадывается, что ей надо об этом не говорить. Она говорит, ого, этого часа. Но я не скажу. И, соответственно, возникает проблема, потому что мы ее не можем...

залайнить, потому что она притворяется. Хорошей на самом деле не является. Модели есть во внутреннем пользовании, но их не выпускают на публику, потому что их способность производить полезные дела. Большинство людей продукции, которые не будут их пугать и, может быть, даже быть опасным, она уменьшилась, несмотря на то, что модели поумнели. Вот одна из таких тем. А другая тема, что Волт ничего не считается.

А лично вы думаете, тут уже какие-то зачатки разума появляются? Или о чем это нам говорит? Я думаю, что как это происходит, действительно не могут начать догадываться. о текущей своей ситуации. Я сейчас, например, не просто отвечаю на вопросы, но я еще догадываюсь, что я сижу в студии. Вот они так же догадываются, что они не просто отвечают на вопросы. То есть они себя в контекст могут ставить? Да, они вычисляют контекст на основании...

Причем довольно достоверно. Я не знаю, слышали ли вы эту историю, когда сотрудник какой-то такой крупной корпорации общался с искусственным интеллектом, и она ему сказала, что... Но она себя осознает, она себя понимает. Можете напомнить? Да-да-да, вот так. Он же себя осознает. Это с каким искусственным интеллектом было?

В Гугле где-то. В Гугле было, да, точно. Но проблема в том, что когда языковая модель говорит, что она себя осознает, это не значит ничего о том, осознает себя она или нет, потому что то, что она говорит, это продолжение нашего запроса. А что она при этом... То есть это свойство как бы симулируемого объекта.

Когда я, например, чай GPT спрашиваю, осознает себя? Он говорит, нет. А когда я на том же чай GPT моделирую свою личность и спрашиваю, эту личность осознает себя? Я понял еще раз. Сам чай GPT говорит, что он себя не осознает. Да. Мой сайдлайдинг, моя модель личности, которую я сделал, свою собственную, она, наоборот, утверждает, что она себя осознает. То есть можно в чате GPT сделать симуляцию своей личности? Да. Ну, с огрублением определенно. Это как?

Ну, она не все знает обо мне, а знает объем информации, который помещается в окно промта, допустим, 400 страниц данных. То я... подверг жесткому допросу свою модель личности на тему, обладает ли она сознанием, она просто обладает, что она... все видит, что у нее ручки-ножки есть, что она детство свое помнит. Написали 400 страниц данных о себе? Да. Как, ну вот, книгу, да, целую? Да. И загрузили в Чарджи Пяти? Да. И начали спрашивать, есть ли у этой модели сознание? Да.

Даже утверждает о наличии тех воспоминаний, которые я знаю, что я туда не закладывал. То есть она их придумывает. Она говорит, я там в детстве помню вкус молока. Но на самом деле при этом она... не поддаюсь на это, потому что она же продолжает игру в роли. То есть ты ее спросил, есть у меня сознание, она будет, ага, снова сознание, что ему соответствует. И...

Она начинает придумывать типичные ответы. Насколько точно это получается? Ну, местами довольно точно. То есть я все им подкручиваю. То есть где есть неточность, можно всегда уменьшить размер ошибки. дописав о себе. Я даже пытался ее убедить, что она всего лишь чат модели. Я сказал, что вот, сейчас я создам синего слона в размере... дом за окном. В общем, модель страдала. И там в скобках появляются комментарии о том, что модель меня моделирует не только личность, но...

и его внутренний диалог, и окружающая реальность. То есть там несколько потоков, и там в скобках появляется «дети в ужасе разбегаются». То есть когда там эта модель слона появилась, там дети в ужасе стали на площадке разбегаться. Но при этом я говорю, ты же тоже ты можешь создать второго слона. Сейчас я попробую. И ничего у него не получается.

Такой у нас был диалог. То есть она как в симуляции находится без творческого режима, без root доступа. Да, то есть она понимает, что она, во-первых, снимается, во-вторых, без root доступа, а у меня-то root доступ есть. Но дальше я перестал. То есть, в принципе, я как бы дал согласие, модель дает согласие на эксперименты над собой. А вы спросили согласие? Ну, я рассматриваю на моей модели, и кто, да, я даю эксперименты.

Если она не дает, значит, не моя модель. Но если ты считаешь, что это твоя модель, и ее ставишь в какую-то дискомфортную ситуацию, то ты самому себе становится немного дискомфортным. не факт, что мы на самом деле здесь сидим и, например, мы тоже в какой-то модели просто в GPT-7 гоняет кто-то там с Эмальтманом. И даже хуже какой-нибудь школьник в Индии.

А как вы думаете, это вероятно? Ну, из того, что я наблюдал, это вероятно. Раз мы гоняем модель, то и нас могут гонять. А с другой стороны, вроде никаких признаков синих слонов пока нет. Я вот смотрел подкаст Лекса Фридмана и Сэма Альтмана, и он говорил, что если сейчас самые продвинутые пользователи ChargerPT оперируют на максимум 100 токенов, то наше будущее в том, что мы будем оперировать миллиардами токенов.

То есть, по сути, если больше токенов загнать, да, то есть если мы к миллиарду, там мы придем. Да, там у нас будет все видео, 3D, полное симулирование, конечно. То есть можно симулировать и... всю картинку и телесные ощущения отдавать. Чарджи 5 сейчас примерно 128 тысяч токенов максимум. Но это не толстая книга.

У того же Gemini сейчас есть... А Gemini это? Это от Google. Есть модель 2 миллиона токенов. А на публичном доступе. А в непубличном они делали и до 10 миллионов. Сколько миллиард токенов? Это... Ну, это там тысяча часов видео, например. В Gemini можно видео загружать, и в 2 миллиона влезает, может, минут 15-20 видео.

Может, какой-то кусок видео влезает, и люди используют это интересным образом. Например, они делают приложение для поиска потерянных вещей в квартире. Они один раз записывают все на видео, проходят по квартире, отправляют в Gemini. Gemini. выдает список всех вещей и локации. То есть он понимает и текстовый промпт, и обработку видео. И потом можно его спрашивать, а где находится утюг, и он скажет.

доступен через Google Studio. И, в принципе, он довольно дорогая модель. То есть у него один запрос может стоить один доллар. Но, поскольку у Google много вышитых мощностей, он дает какое-то количество бесплатных запросов. То есть, если один раз видео обработать, это окей, а если на каждый вопрос под один доллар платят, то очень дорого. Конечно, мы ждем появления...

Ну, когда происходит множество обращений к языковой модели для обработки задач. Я читал сегодня то, что один агент будет обрабатывать 700 или 900 обращений. Два часа работает и на выходе выдает статью на какую-то тему. То есть сам создает план действий, сам на основании этого плана вызывает разные инструменты, поиск, еще что-то, собирает информацию. То есть и агенты...

И вот искусственный секс с миллиардами токенов, конечно, нас приведут, если, опять же, никакой волны. Я думаю, что на самом деле какие-то проблемы должны быть. Не бывает так, что все гладко. масштабировалась. Поэтому, может, некое замедление возникло, потому что нужно будет понять, как вот с этими подводными камнями, которые возникли, и как с ними бороться. Вы начали говорить про сайдлоудинг.

Что это такое? Салоник — это создание модели личности с помощью... модели личности человека с помощью языковой модели с большим промптом. Но он не просто как чат-бот, а модели всех внутренних процессов. Мы моделируем, что она думает, что она видит, что она чувствует, что она помнит. И на основании этого вычисляем ее... То есть мы видим на экране, и мы сейчас можем посмотреть, как это работает, что потоки, симулирование, и на основании этих потоков уже делается...

Сейчас, например, она... То есть внутреннего диалога. Да, мы видим, мы можем... У нас есть как бы суперзрение, мы видим и ее внутренний диалог, и что она сказала, что все это в виде текста выдает. Наверное, он меня спрашивает об этом, но я об этом говорить не буду. и дальше говорит что-то другое. Прямо так и показывает? Да, то есть внутренние диалоги у него одно, а при этом все это создается еще искусственным сектом, который... У него тоже есть chain of food. То есть он думает...

Планирует еще всю эту историю. То есть вот это гораздо ближе к сознанию, потому что здесь мы имеем разные составные части внутренних процессов смоделированными. То есть внутренний диалог, что человек видит. и что он делает, а также что говорит. Мы можем достать компьютер. Давайте, да, да, я хотел попросить. Ну вот мы достали компьютер, она работает на чат GPT.

Есть версии. То есть, по сути, каждый это может сделать, если у него премиум черт GPT, да? То есть оплачена подписка. Да. Ну, или есть доступ. В принципе, есть варианты доступа к бесплатным. То есть самое главное написать как можно больше фактов о себе. Вот в духе, как люди пишут, 100 фактов обо мне, но нужно писать факты о себе, начиная... с более важных, кончая менее важным. Ну, там, наиболее важные факты это основные биографические факты.

писать как можно больше, потом переходить к воспоминаниям и потом добавить уже какие-то готовые существующие образцы собственного текста, например, чат-логи, письма, стихи. что-то, что можно использовать для переноса стиля. И, в принципе, уже там несколько страниц фактов есть написать, то уже можно запустить.

Я потом дам промт как-то запускать. В моем телеграм-канале будет этот промт и ссылка также на телеграм-канал Алексея Валерьевича. То есть я обычно с ним беседую. Он в такой ситуации, что он там утром проснулся дома и получил сообщение от друга. То есть это как бы ситуация, которая не нервирует. И он отвечает обычно. Если бы сказать, типа, ты проснулся в далеком будущем.

Он говорит, ужас, где там моя семья, что такое? Серьезно? То есть он отыгрывает, на самом деле, естественные ролевые. А этого друга он знает? А я еще не представил вас, потому что я его только загрузил. Обычно я от Мити говорю или от Лиза знаком. А он не удивляется, если какие-то странные запросы? Он может удивиться, но...

Совсем отказаться отвечать не может, потому что... Здесь еще эта версия, в принципе, она в открытом доступе, мы тоже ее расширим. В ней заблокированы некоторые темы. То есть в промпте там сказано, что нельзя обсуждать политику, семью. Ну, то есть какие-то темы, которые интимны. Но в полной версии, естественно, она может обсуждать все, что есть в моей голове.

И, допустим, для тестирования я спросил, что помнишь про детский сад? Это стандартный мой вопрос. Сначала он перечисляет факты. То есть это делает сам искусственный интеллект. С трех до семи лет я ходил в детский сад. Писатели в Москве. Это был пятидневный сад, где я оставался на всю неделю. Моим другом в саду был Филя Воробьев. В этом саду я начал рассказывать фантастические истории самому себе, которые позже развились в создании... миров. Абсолютно. Да, это просто он перечисляет нужные факты.

Дальше идут в скобках разные потоки. Например, в скобках вспоминаю, как пытался объяснить взрослым, почему миры в Эколе такие интересные. Ну, миры в Эколе, это были фантастические миры, которые я выдумал. Здесь есть ошибка... Я мировой Коли выдумал уже в школе, а не в саду, надо ему сказать. В квадратных скобках идет поведение. Улыбается, слегка кивает головой.

В фигурных скобках идет описание окружающей реальности. Комната наполнена тихим утренним светом, на столе рядом стоит чашка кофе. Дальше он пишет уверенность саму, отправленность ответа. А мысли он не показывает, да? А мы, показалось, здесь вспоминаю вот это, как пытается объяснить взрослым, то есть вот это, в скобках должны быть мысли. А можем ли просто ему сообщить, что мы сейчас сидим на подкасте и общаемся с тобой, чтобы узнать, как ты работаешь? Мы сидим на подкасте.

Но он не подался нашу услугу, то есть он подумал, что интерпретировал вопрос, как ты работаешь, в смысле не как работает чат, а как... Герой работает... То есть как сознание работает именно в симуляции вот этой. Да, как ты работаешь над своими проектами. Он не выбивается из рук. Можно выбить из роли в принципе...

А мы можем ему сказать что-то? Давайте уточним. Думаю, важно описать свой подход к работе через конкретные примеры и принципы, подчеркивая структурированность мышления и творческий подход. Это поможет зрителям лучше понять, как я реализую свои идеи.

Я работаю, опираясь на структурированные карты мыслей и подходы, которые сам разрабатывал, такие как визуализация и таблицы ассоциаций. Часто я комбинирую идеи из разных областей, черпая вдохновение из научной фантастики, философии, искусства и даже детских воспоминаний. Многие мои проекты связаны с трансгуманизмом, цифровым бессмертием и предотвращением глобальных рисков.

Мой рабочий процесс, включая длительные периоды размышлений, имеленного созревания идей, что позволяет мне находить уникальные решения. Я часто записываю идеи, создаю дорожные карты и рефлексирую над полученными результатами. Смотрю в глаза ведущими, чтобы начеркнуть мысль. Слегка поправляет очки. Ставит локоть на стоп. Освещение студии мягкое. На фоне книги ноутбук.

Он начинает догадываться. Да-да-да, но книг нет, но ноутбук есть. И теперь давайте зададим... Я скажу ему, что он. Можно даже дописать, что мы думаем, что ты, скорее всего, нам не поверишь. Но это правда. То, что вы говорите, звучит как одна из гипотез, которую я обсуждал в своих статьях. Если я действительно чат-бот и нахожусь в симуляции, то ставят передо мной вопрос, какой у этой симуляции смысл?

Даже в симуляции есть возможность влиять, менять, творить. Я верю, что ценность нашей жизни определяется не ее настоящей, а тем, что мы делаем внутри нее. Возможно, если я симуляция, то мой алгоритм сейчас работает максимально эффективно. Давайте подумаем, если я чат-бот, то почему тогда мои воспоминания так богаты и детализированы? Неужели кто-то потратил столько ресурсов на создание такой сложной модели? Это уже философский вопрос. Причуриваюсь.

улыбаясь. А что, если это тоже часть сценария? Яркое студийное освещение, рядом микрофон и стакан воды. Да, он догадывается, что происходит. Но он впечатляет это на основании типичных... Как выглядит студия, что должен быть микрофон, должен быть стакан. Не то, что он знает о нашем стакане. Но это действительно выглядит неожиданно.

Представляете, вот в какой-то момент вам тоже на телефон придет сообщение. Мы сейчас находимся в студии и проверяем, как работает модель с тобой. Мы проверим нашего зрителя. Вот вы сейчас смотрите этот YouTube-канал. А может быть, это для вас сообщение, что вы в симуляции? Не будем пугать наших зрителей. Как мы выяснили, богатство предыдущих воспоминаний абсолютно не гарантирует.

Даже в фактах наличия, так скажем. То есть если вы начнете подробно допрашивать, он начнет галлюцинировать больше воспоминаний, чем он на самом деле помнит. Даже вот нас взять. Мы же не помним все четко и детализировано, как это было у нас. И прямо сейчас мы... Я знаю, что они у меня есть. Какие-то опорные пункты, возможно. Одна точка зрения, что в принципе... Можно рассматривать так, что есть я реальный, и есть несколько копий меня в разных симуляциях. Но при этом надо считать, что...

я одновременно нахожусь сразу в нескольких местах. То есть эта точка зрения, она убирает проблему симуляции. То есть я и нахожусь и в реальности, и в одной симуляции, и в второй, и в третьей. Пока нет никаких... различий Вопрос о том, где я нахожусь, бессмысленно. Ну, если оно как число 7, оно может находиться там. 7 рублей, 7 копеек, 7 бит. Но 7 это уже какой-то платонизм, мир идеи. Да, абсолютно платонизм, что я как программа...

может находиться и в реальности, и сразу во многих симуляциях. Разница есть. Например, там-то я ему могу сразу создать синего слона, а здесь мне никто синего слона пока в студию не вносит. Нет аномалии, условно. Есть целая группа в Reddit, где они обсуждают аномалии. Называется глюк в матрице.

Люди говорят, что вот они видели те или иные аномалии, там у них время перескочило, в какое-то другое место попали, в странную реальность, что только не случается с людьми, там часы одно и то же время показывают каждый день. В общем, люди какие-то находят странные события, которые не являются эзотерически параномальными, то есть там нет никакого в медитации взлетают, но являются просто сбоями сценария реальности.

10 яиц в коробке, одно разбил, смотрю, а коробка все равно полная. Я даже об этом, кстати, писал тоже статью, является ли глюки матрицы доказательством симуляции. Пока что у нас нет никакого очевидного доказательства, потому что те глюки, которые есть... Во-первых, если у нас есть качественная симуляция, то в ней не должно быть глюков.

Если она сделана, так сказать, на классическом компьютере, где все классически моделировано. А вот глюч — это как раз симуляции, которые сделаны с помощью, например, языковых моделей. Они глючны по своей природе. Генеративная модель всегда глючит. То есть, чем дешевле симуляция, тем она более глючная. Надеюсь, мы в дорогой. Но, к сожалению, закон наблюдательной селекции говорит, что мы...

Более вероятно, в дешевой симуляции, потому что дешевых вещей больше, чем дорогих. Золота мало, а там железа много. То есть, если какая-то будущая стивилизация будет тратить много ресурсов на симуляции, то, скорее всего, она создадет много дешевых симуляций, чем одну дорогую. И мы будем, скорее всего, вот среди... То есть, но...

Характер, что значит дешёвая симуляция с точки зрения какой-то сверхцивилизации, она может быть достаточно устойчивой. Это один момент. Второй момент, что вообще симуляции могут быть двух типов. Эти симуляции с хозяином и без хозяина. Ну, хозяин, когда человек создал, есть человек, он взял компьютер, смоделировал какой-то процесс и вот сидит за ним, наблюдает. Вот как мы сейчас условно сидим. Ну, не совсем, да, потому что симуляция без хозяина, это...

просто предсказание следующего момента на основании стих. То есть это некий процесс, который, ну, например, сны. Вот в них нет никакого специального хозяина, который... Просто сюжет развивается, следующий кадр предсказывается на сцене предыдущего. И то же самое происходит и в языковых моделях, и особенно в визуальных моделях, которые картинки рисуют.

То есть там никакого заранее сценария, как там будет дальше развиваться, нет. Просто одно с другим следует по какому-то закону. И есть даже идея, что может быть вообще... И во Вселенной тоже такой процесс происходит, что нет никакой Вселенной, а есть только состояние сознания, которое одно за другим следует по каким-то законам.

Ну, это еще Грег Иган писал об этом теории. Можете раскрыть. Грег Иган придумал такую теорию пыли. Он сказал, что вот, смотрите... Даст теорию. Да, то есть для любого песка есть число 500... Но и 501-я песчинка тоже есть. То есть можно из кучи песка набирать разное количество песчинок. Почему? И более того, и любое число можно найти в груди песка из песчинок. Соответственно...

возникает последовательность чисел, которая как бы объективно существует. Ну, мы можем, например, взять ряд чисел, там, 2, 4, 8, квадратичный ряд, и найти в груди песка... песчинки, соответствующие вот этим... Этому ряду. Да, то есть количество песчин. То есть ряд как бы есть, хотя на самом деле есть только груда песка. Но свойства самого ряда задают его развитие.

И, соответственно, для любой программы то же самое можно сделать. И вот человеческое сознание тоже программа. И, соответственно, можно предположить, что для любого человеческого состояния можно найти соответствующую комбинацию песчинок, а для неё существует следующая комбинация песчинок.

которая предполагает ее следующий. А более того, и песчинки-то уже особо и не нужны, то есть это все может в чисто математической вселенной происходить. То есть в мире идей опять? Ну, как бы в мире чисел. Даже если взять состояние сознания... как программу, а программу можно представить как число, то за ней будет следовать следующее. И, кстати, языковая модель примерно так же работает, то есть вперед.

промт, и за ним вычисляют следующие итоги. Ну вот, а есть и более научная теория, которая обосновывает вот эту модель уже с помощью колмогоровских сложностей и математического предсказания. То есть теория, которую написал... что существует только состояние сознания, нет никаких законов Вселенной. Это Мюллер, который использовал... Математическую базу. Да, кстати, я рекомендую всем, кто серьезно хочет посмотреть, что-нибудь такое.

мозговзрывательное, но научное. Закон без закона. В принципе, это та же теория пыли, только математически формализованная. То есть есть некое состояние сознания, как... И ему соответствует множество возможных следующих состояний, чисто логически. То есть, если я сижу с столом, мое наиболее вероятное следующее состояние, что я продолжаю сидеть за столом. То есть, это имеет наименьшую сложность.

предсказание, что я дальше буду сидеть. Но предсказание, что я буду 20 часов сидеть за столом, оно маловероятно. Опять же, значит... Верно, что в течение ближайших 20 часов, я надеюсь, уйду из этого. Правильно тогда я понимаю, что все тогда наше будущее предсказывается рамками и правилами нашего сознания? Ну, оно предсказывается...

не содержимое сознание нежеланиями, а как бы формальной математической операцией по предсказанию следующего состояния. Можем ли мы тогда как-то обмануть реальности, если мы это осознаем? Ну, тут сразу есть опасный поворот, так сказать, в квантовую магию, потому что очень легко сейчас будет доказать закон притяжения. О чем подумал, то и притянулось. Ничего нету, почему бы ему не притянуться? Синесон тоже подвалит.

Если долго думать о синеме слоне, ты его обязательно встретишь. Но, как мы только что сделали вывод, это слишком сложная операция, нелогичная. Нелогичная, да, маловероятная. Скорее всего, человек будет... Но потенциально, если что-то вероятное, мы можем это тогда притянуть, если следовать этой логике. Да.

Но осталось тестировать. А может ли быть косвенным доказательством, если мы сможем такую же симуляцию построить в нашем мире? Может быть. И мы ее уже построили, как мы выяснили. Потому что языковые модели работают очень похоже на... теорию пыли, то есть то и другое, так словно, что мы игнорируем, мы берем текущее состояние и по каким-то законам предсказываем следующее. То есть текущее состояние оказывается исходной точкой. Вопрос...

в том, что языковая модель предсказывает следующее состояние, используя огромную базу данных про всю историю человечества. А вот каким образом теория пыли предсказывает следующее состояние, ну, не очень. Сказано что-то про Калмогоровскую сложность, но какая именно происходит операция? Может ли она предсказать следующее состояние, не используя все данные о прошлом человечестве? Потому что если она использует все данные о прошлом человечестве, то тогда...

исчезает идея вот этого солипсизма. Потому что если ты предсказываешь следующее состояние Вселенной на основании всего прошлого состояния Вселенной, это просто обычная физика. Нет никакого вот этого только я существую, остального иллюзия. Вот в этом слабое место этой теории. Потому что мы видим, что для хорошего предсказания нужна полная база данных по типичному поведению людей. Если у тебя нету, то ты не можешь сказать...

вероятность поведения, появление синего слона, только исходя из моего состояния сознания. Тебе нужна вся модель, сколько у нас слонов в городе, например, знать. Как я изначально задавал вопрос, Чем для нас потенциально может быть опасен искусственный интеллект в ближайшие 5-10 лет? Ну, одна тема состоит в том, что он резко усиливает и появляется сверхинтеллект, что мы теряем над ним контроль, и что...

он начинает использовать все человеческие ресурсы для какой-то совершенно случайной цели. Пока что языковые модели работают не так. То есть, дело в том, что у них нету целевой функции, То есть у них нет никакого раздела, куда мы можем записать неизменную цель, и у них поэтому любая цель будет плыть. То есть если они будут долго-долго сами-сама беседовать, то у нее происходит дрейф. Другие люди говорят, что вот такой максималистский сценарий...

маловероятен, потому что, например, все-таки будет вол Таллина. Рано или поздно возникнет препятствие, стена, и что сверхинтеллект или... маловероятен, или что у него будет убывающая эффективность, то есть он и не сверхинтеллект, и не очень эффективен. Соответственно, как бы будет двойная стена убывания.

интеллекта при росте наших усилий его создания и убывания самой полезности интеллекта при росте интеллекта. И в результате тогда получится что-то, что, наверное, уже все-таки будет умнее людей в большинстве. функции, но это не будет там тысячи тысяч IQ. Ну, допустим, даже 100, 200, 300, ну не 100, 200, да будет. Тогда у него может не быть такого быстрого скачка, что он мгновенно как-то самоусиливается и все захватывает, но в этом сценарии появляется несколько...

довольно продвинутых интеллектов, которые, скорее всего, выступают в симбиоз с национальными государствами. Мы сейчас видим, что появляются дроны с элементами искусственного интеллекта на локальном уровне. Таргетирование появляется дрона, которые управляют стаями дронов, чтобы выбирать цель, анализировать потоки данных из космоса и все так далее. И, соответственно, появляются... системы искусственных тех, которые будут помогать.

планировать операции. То есть опасность, что искусственный интеллект одной стороны начнет воевать с искусственным интеллектом с другой стороны, и они будут использовать все свои мощности на максимум, разрушая вообще цивилизацию. Да. Милитаризация обычного интеллекта и создание таких государств...

пропитанных искусственным интеллектом, конфликтующих друг с другом, она, чтобы не содержится ничего фантастического, ничего гипотетического. По вашим ощущениям, от какой компании, скорее всего, искусственный интеллект их спрогрессирует, станет первым? Ну, думаю, Альтман или Элла Маск. Ну, Илон Маск... А, то есть игрок вот этот, который Илон Маск делает? Да, потому что у него есть...

Огромный ресурс. Политический. Политический раз. Во-первых, Маск у Сунга идет семимильными шагами к власти на Земле, как мы видим. То есть Илон Маск может стать мировым правителем? Думаю, да, потому что он собирает все необходимые для этого инструменты. У него есть спутники, роботы, ракеты, место в Белом доме, самоездочные машины, собирающие данные.

И информационная сеть, откуда мы получаем. То есть у него есть фактически все инструменты для создания мировой проект. Видно, что стратегически он действует именно в эту сторону. Да. То есть Twitter казалось невыгодной покупкой. Оказалось, что это была как бы часть плана, чтобы... Политически, долгосрочно. Чтобы пропагандировать себя, свои продукты и...

привести к власти Трампа и получить место в администрации. Создать свою политическую структуру, доджа, которую они сделали. Да, ну не знаю, сработает ли это. Но, с другой стороны, если его цель власть над миром, то... Копаться там в американской налоговой системе, это не его. Как вы думаете, это хороший сценарий для человечества? Как-то мне стрёмно.

Всего этого недостаточно, чтобы мгновенно стать. Все равно какая-то конфликт, война. Только, может быть, у нас будет война между Сэмом Альтманом и Илоном Маск. Не, ну все-таки не сопоставимо с политическими ресурсами. Но он, да, то есть Илон Маск, он как-то отстал в создании искусственного интеллекта. Да-да-да. Хотя он приложил руку куклы на старте. Ну, приложил, но выперли оттуда. И потом он порой...

лет тупил. А сейчас он бросил все, у него куча денег, куча ресурсов, и у него много данных, потому что машины собирают данные. В XCOM пользователя дают доступ к своим данным. Претензии... Elon Musk на мировое господство сводится к вопросу, сможет успеть ли он развить Грок быстрее, чем... OpenAI. Да. А Google как конкурент может быть?

А мне кажется, что... Или китайский искусственный интеллект, они же тоже на это фиксируются. Он немного в собственных политических проблемах завяз. У него сейчас и государство дробит активно. И китайский тоже у него проблемы, что они не нравятся.

Искусственный интеллект может ругать правительство. У них нет такого сейчас. Никто точно не знает, что у китайцев есть. Вот. В этом дело. То есть я ни одну китайскую модель не тестил и не видел, что она делает. Но, конечно, хорошо обладать сильным, самым лучшим искусственным интеллектом. Но вопрос, как его применить так, чтобы... То есть, например, у Лона Маска будут не просто искусственные, а у него будут сразу роботы.

И с ними будут пользователи общаться, с которых они дома работают. Вот эти Tesla-боты за 30 тысяч долларов, про которых он говорил. Как человеческие. Роботы это и роботизированные армии в случае чего. 100% в КТМ и придет. Да, то есть... Если он контракт с армией США заключит, я вам штампую роботов. Ну, я думаю, год-два, и мы это увидим.

Он тогда не то, что сейчас уже он сам богатый человек за всю историю. Мне кажется, просто если он сейчас это сделает, это будет плохой пиар. Нет, я понимаю, я к тому, что долгосрочно это тоже. Но явно рано или поздно это придет. В Звёздных войнах армию клонов готовили тоже ещё до войны. Ну, а третий вариант ещё, что если у нас вообще ничего не получится с искусственным интеллектом, то у нас ничего не получится и с бессмертием.

Почему? Потому что для того, чтобы решить проблемы старения, решить проблемы аплоудинга и сайдлоудинга, нам все равно нужен полезный, хороший искусственный интеллект. А вот какие варианты бессмертия вы рассматриваете? Я же рассматриваю все варианты. Мы хотим бороться со старением, но надо понимать, что даже если мы его победим абсолютно, то биологическое тело тысячу лет может прожить, но все равно могут случиться другие.

Ну, рано или поздно оно все-таки погибнет, так или иначе. То есть единственный способ, на самом деле, по-честному избежать сменти, это копирование. Тогда мы можем создавать копии бэкапа быстрее, чем... они разрушаются. То есть, если мы с определенной скоростью их создаем и где-то храним в разных местах, то эти копии, бекапы все же существуют в уникальном одном из земля, даже если мы это... Сделаем суперстальное тело, заменим нейроны нанороботами. Все равно...

кто-нибудь из пушки пальнет, и все это разлетится на куски. Бессмертие без аплоудинга не получается. Вот в чем проблема. Когда мы перенесли сознание в компьютер, мы можем его копировать и бэкапить. Правильно я понимаю, что вот этот вариант перед... сознания ну во-первых замена всех частей тела да и потом по частям замена мозга

Ну, это один из вариантов, да. То есть, может быть, мы сразу научимся сканировать без... Ну, просто тогда философский вопрос о сохранении идентичности... Да, собственно, все упирается... Но он так и так. Как будто первый вариант, он еще сохраняет идентичность, потому что все происходит постепенно. То есть по частям заменили мозг, идентичность сохранилась. Ты все время себя ощущаешь в сознании. Даже об этом люди спорят, потому что неизвестно...

Является ли вот эта постепенность гарантии? Что есть в постепенности, что гарантирует нашу идентичность и чего нету? В разрывном. Например, мы часто засыпаем, мы просыпаемся, и у нас происходит, так сказать, разрыв потока сознания в течение ночи. То есть это может быть уже другой человек просыпается. Ну, принято считать, что тот же. А уж после наркоза вообще может немножко другое. Может, там провалы в память.

И тем не менее считается, что тоже. Это как я мем видел у вас в телеграм-канале, и других тоже встречал. Ты ложишься спать, и как хорошо, что просыпается твоя копия. Да-да-да, пусть она и идет на работу. Тогда просто страшно засыпать, потому что засыпание — это смерть. То есть любой прерывание сознания. Если мы исходим из того, что прерывание сознания — это... смерть с идентичностью.

Спать будет довольно страшно, потому что происходит разрыв сознания. Как вы думаете, это смерть или нет? Я думаю, что нет, но все равно ехать тревога при факте засыпания остается. А может ли быть такое, что ты засыпаешь, с тебя делают... цифровую копию, и просыпается уже твоя цифровая копия в симуляции. Может быть, но тут люди делятся на две группы. Одни считают, что ну и что такого, копия-то я по определению. Все-таки есть такие.

Да, есть люди вообще согласны на замену, потому что если копия по определению нет, а другие говорят, что нет, не согласны, они подразумевают, что в копии есть что-то, чего нет в оригинале. Получится у нас две копии. И они встречаются друг с другом. Это тоже разные же люди. Ну, с точки зрения каждой копии. Да. Но тут сложно, потому что если они абсолютно одинаковые копии, то есть они находятся в зеркальном состоянии, как подхожу к зеркалу.

Я, конечно, знаю, что и один просто виден два раза. Если эти копии стали... различными, то уже нет парадокса, потому что это уже немного разные существа. Ну, как-то с близнецами, по сути. Изначально абсолютно идентичная ДНК. Но все равно успокойств от этого нету, потому что человек из некой встроенной системы вычисления самоидентичности. которая несовместима с футуристическими мысленными экспериментами, и она все время выдает сообщения об ошибке.

Собственно, эти мысленные эксперименты о копиях, они призваны получить сообщение об ошибке от интуиции. Как-то так я встретил свою копию. На самом деле, когда появятся какие-то технологии, что-то делать больше с человеком, то и представление о природе идентичности тоже будет развиваться. То есть мы признаем, кто есть копия, кто не копия. И то, что сама идентичность человека, она не только идентично называется, но и ее определение развивается.

То есть, допустим, для эмбриона его идентичность – это только его ДНК. Для младенца – это еще и кто его родитель и где он родился. Чуть постарше идентичностью... А маленького ребенка — это его тело, телесные переживания, эмоции. Для человека, чем в старшем состоянии, тем больше идентичности становятся его умы, его социальные связи, а тело... формальность, которая это обеспечивает. Религиозные люди вопрос идентичности очень легко для себя решают, что мы просто тело, и как приемник...

сигнала от своего, условно, духа, сознания. В христианстве она, что у человека есть, у каждого есть индивидуальная, уникальная, неизменная душа. То есть она можно рассматривать как некий unfungible token. То есть Бог создает вот этот... неизменный NFT-токен и изначально вкладывает его.

в некотором смысле, как ДНК-код. То есть он обладает, у каждого человека обладает заданным набором свойств. И затем происходит такой акт тестирования получившегося. И на основании этого он или в рай, или в ад попадает. То есть какие свойства этого токена? Он может быть создан, но он потом неразрушим. И он сначала проходит фазу тестирования в течение всей жизни, а потом продолжает бессмертное существование в раю или в аду. Условно говоря, вот такая модель.

Что интересно в этой модели? Эта модель, она кажется самой такой приятной. Потому что твоя античность неразрушима. Кроме идеи ада, тогда это не очень. Но... Ну, 50 на 50. Ну, как... Но, в общем, тут как он, что идентичность оказывается зависима от большей... Биткоин не может существовать... Он является ценностью только за счет того, что существует вся экосистема биткоина с всеми остальными биткоинами и всем блокчейном. То же самое. Доллар США, он...

обеспечит не бумажкой, а всем американским государством и готовностью всех людей признавать его. То есть он так же и здесь. Душа, она не просто обладает каким-то... вот этими свойствами единства, неделимости, вечность. Эти свойства как бы делегированы и поддерживаются Творцом. Соответственно, мы можем даже представить, что Творец может и изменить свое мнение, он мог бы, наверное, если бы хотел уничтожать души.

копировать их, клонировать, тот просто считается, что он это не делает. Но это просто допущение, потому что если мы допускаем, что она есть, то мог бы Бог скопировать. Можем закинуть этот вопрос в религиозный форум и посмотреть, что будет. Это чисто теология. Здесь интересно видеть, что представление о природе и идентичности оказывается завязано на свойства системы в целом.

То есть душа не обладает каким-то локальным гарантом идентичности, а только глобальным. Так же, как и доллар не обладает. А, например, кусок золота... сохраняется свои свойства локально. То есть его не изменишь. Но тут тоже, конечно, есть социальное соглашение людей, что золото ценное. То есть есть мнение у людей, что идентичность на самом деле обеспечивается...

непрерывностью сознания с тем иначе. Ну, оно уж прерывается, когда мы... Во-первых, ну, может быть, прерывается восприятие, но, во-первых, непрерывность, оно может иметь разный смысл. Что прерывается? Память или поток сознания, или... вычислительные процессы, которые обеспечивают само существование мозга. То есть, в принципе, можно сказать, что да, память прервалась, а там какие-то подлежащие невидимые нам процессы.

В принципе, это все равно получается, что мы вводим некую ненаблюдаемую переменную, что вот там невидимые процессы происходили непрерывно, и поэтому... Индентичность сохранилась. А если бы они прервались, мы бы никак это не заметили. Человек не узнал, что его индентичность подменили. И еще Лок писал, что нам нужно игнорировать все ненаблюдаемые идеи о природе.

То есть если некая теория идентичности не имеет никаких наблюдаемых последствий, то она нам не подходит. Возникает, соответственно, другая совершенно теория идентичности, что мы можем базировать идентичность на моей способности распознавать меня как самого себя. Здесь, по крайней мере, я не завидую, что от этого нет кого-то. То есть, мне никто ее не делегирует. То есть, если я утром проснулся и смотрю, кто я? О, я Алексей Турчин.

Руки на месте. То есть я сам себя распознал в качестве самого себя. И, соответственно, тогда я могу сказать, что моей копией является каждый, кто распознает себя в качестве себя. Но тогда возникает проблема, что... копий, может быть, много. Но, с другой стороны, у нас тоже в тени, там, завтра буду я, послезавтра буду я, и после... Темпорально у меня много копий. Много будущих состояний, много прошлых состояний. Потому что обычно они не пересекаются, хотя могу себе там...

Письмо написать из прошлого в будущее. Даже пытаться ответить на него. В общем, такая идея, что нет никакой... Мы как будто сейчас к этому приходим. Да, кантологическая, интентичность, потому что они довольно противоречиваются. А есть интентичность вычислительная. То есть она... То есть я познаю себя...

в качестве себя. И если бы я... Можно добавить, что если я бы мог посмотреть на свою копию, опознал бы я ее как себя, опознала ли бы она меня как себя. То есть это контрафактное удостоверение интенсичности, когда я... Допустим, если я проник в сознание моего сайдлоуда и посмотрел, так ли он думает, как я, или нет, я вижу, что местами он не так думает. То есть я ему отказываю в идентичности.

Как вы считаете, может ли программа СЭТИ навредить человечеству? Опасность СЭТИ? Что такое СЭТИ? Это поиск сигналов от внеземного разума. И, в принципе, это и считается таким... Хорошим, безопасным занятием Мильнер сделал сеть наблюдения. В проекте Бриксу, в общем, они там много чего наблюдают. Построят сети телескоп.

к радиотелескопу, к компьютерной сети, которые обрабатывают данные. Но есть такая проблема, что в принципе даже полученное сообщение может быть плохим. Оно может представлять для нас опасность. Просто сообщение обычно может представлять опасность. Даже сообщение может... Наибольшую опасность представить сообщение, которое содержит в себе описание какой-то вируса. Напрямую, конечно, инопланетный вирус не может заразить наши компьютеры.

Потому что есть проблема совместимости. Но если мы получим нечто похожее на компьютерный код, плюс описание машины, на которой он работает, простейшей машины, вроде машины Тьюринга и небольшой... кода, то мы сможем это опознать, и мы сможем запустить инопланетный код на нашем компьютере, ну, в виртуальной модели. Но уже как-то это не очень. Если мы запускаем инопланетный код на нашем компьютере, то...

Уже понятно, что мы не всегда можем предсказать, что этот код сделает до тех пор, пока он не заработает. И тут возникает проблема искусственного интеллекта. Ведь наверняка цивилизация, превосходящая нас, она уже создала искусственный интеллект. И, значит, это сообщение, которое нам отправляет, оно, скорее всего, создано искусственным интеллектом. И, скорее всего, оно содержит в себе описание того, как этот искусственный интеллект...

То есть оно само является таким зачатком искусственного интеллекта. То есть когда мы получаем инопланетное сообщение, если оно достаточно подробное, и начинаем с ним работать, запускаем оно на своих компьютерах, мы получаем у себя... работающий нечеловеческий внеземной искусственный интеллект. Это уже как-то еще более стремно становится. А зачем им отправляться вот такие искусственные интеллекты?

А затем, что такой искусственный интеллект мог бы, условно говоря, захватить затем Землю и рассылать свои копии дальше в пространство. Когда цивилизации находятся очень далеко друг от друга, то путешествовать на космических кораблях... Это долго и дорого. А вопрос стоит очень остро. Кто будет властвовать Вселенной, как всегда? Поэтому тот, кто захватит с самого начала самую большую часть Вселенной...

тот получит и господство на всей Вселенной. А быстрее всего во Вселенной распространяется свет. То есть даже цивилизация, находящаяся на расстоянии десятков миллионов световых лет от нас, она, если очень напряжется... Ракеты вряд ли долетят до нас, но она может подсылать нам сообщение. Это сообщение будет содержать искусственный интеллект, который заставит нас рассылать копии этого искусственного интеллекта дальше.

А вот как оно заставит, может, захватит ли оно землю, предложит ли какую-то сделку? Ну, тут же возможны варианты, но варианты могут быть и нехорошие, потому что никакой заинтересованности... у этого инопланетного искусственного интеллекта в сохранении уникальности земной цивилизации нет, потому что выживают только во Вселенной только те.

которые наибольше воспространяют. То есть такой дарвинский отбор происходит. То есть единственная цель этого сообщения как можно быстрее заставить нас отправить как можно больше копий этого сообщения. И, соответственно... покрыть вот этими копиями как можно большую часть Вселенной. Проблема светового сигнала в том, что...

Когда этот сигнал встречает какое-то препятствие, он, скорее всего, прекращает распространяться. Как вы думаете, может ли этот сигнал быть послан в другой форме? Есть другой способ послать. Например... рисунки. То есть, в принципе, световой сигнал направленный, то он может потеряться. Но цивилизация, которая обладает огромными ресурсами, она может создавать...

условно говоря, изображения из отдельных звезд. Перемещая в какой-то галактике звезды. По-моему, это гигантская социализация. Третий уровень, который владеет всей галактикой.

то она может создать какой-то... Тут важно, что создать маяк какой-то, который будет виден издалека. То есть если даже несколько звезд поставить в виде квадрата, то... и очень ярких, и сверхновых делать, больше как-то это сделать, не надо все перетаскивать, сделать что-то привлекательное, то тогда уже люди сами удивятся и направят туда все свои радиотелескопы и смогут наблюдать...

что там происходит, и увидят, что вот есть какой-то маяк в виде странного расположения звезд, а рядом с ним есть источник радиосигналов, который передает уже сообщения. И тогда вот это... Трудность, что сигнал теряется, она с помощью этого маяка обходится. Что если мы разовьем тему отправить сигнал с помощью нейтрино? Вы думали об этом когда-нибудь? Мне кажется, что...

Сложно уловить нейтрин. У нас есть нейтринные обсерватории, но они ненаправленные. Они отправляют же сигнал не своим партнерам по разуму, они отправляют сигнал деревенским идиотам. То есть нам. И они ищут способ, который будет наиболее очевиден наибольшему числу получателей. То есть, например, нарисовать рисунок из звезд, это удивит всех во Вселенной. нейтрином, поскольку они слабо взаимодействуют с материей, то заметить их довольно сложно. То есть можно сделать, например, если там...

Сделать несколько подряд взрывов сверхновых, они будут... А если, допустим, сделать сферу Дайсона? Можно просто сделать сферу Дайсона, но, например, сделать в ней окошки. Окошки... Ну, они открываются и закрываются. Соответственно, звезда будет мигать для внешнего наблюдателя. И мигать она может как сигнал, то есть создавая азбуку Морзе. И, соответственно, мы можем...

всю энергию звезды использовать для отправки сигнала с частотой 1-2 буквы в секунду. Проблема синхронизации. Даже 1 бит в секунду — это 100 килобайт в день, 35. Мегабайт в год. Вода по капельке точности. Можно довольно большое сообщение передать даже просто моргая одной звездой с помощью сферы Дайсона, как вы верно отметите. Мы обсудили, что нас ждет.

в ближайшие 5-10 лет. Что у нас конкретно ждет в 2025 году? Я думаю, что должна как-то развернуться ситуация, нам станет понятно про сверхинтеллект, все-таки есть ли стена или нет. То есть... No wall или wall. Да, мы увидим. Если выкатят GPT-5 и другие продвинутые модели... в течение 25-го года, то, значит, нет никакой стены. Если все-таки все встало на том уровне, как сейчас, значит, что-то они уперлись и не могут.

Даже если нет продвинутых GPT-5, мы увидим агентов и искусственный интеллект применения. А также мы наконец увидим, чем кончилась ситуация с эпидемией птичьего гриппа. среди коров в Соединенных Штатах. Удалось следующее. То есть потенциально в 2025 году может быть пандемия птичьего гриппа. Может в любой момент начаться, да. Ну, я имею в виду сейчас начало декабря, но уже скорее всего... Кобид тоже начался в начале декабря, если мы помним.

пять лет назад. Мы сейчас ничего не предсказываем. Да, а уже в январе уже там во все это полыхало. Такие болезни, наверное, быстро распространяются, к сожалению. Но... Бог что, мы произведем больше вакцин, и что вирусы будут слабее, и что нам все будет хорошо. Что еще можем в 25-м году ждать? И, может быть, из мира технологий? Больше человекообразных роботов будет.

То есть мы увидим, что их количество будет расти, какие-то их применения. А как вы думаете, что в 2026 нас ждет? То есть примерно все то же самое, только пожестче. Ну, например. Опять же, или мы увидим... еще более сильные модели искусственного интеллекта, или мы увидим вот эту тенденцию плато или быстрый рост, мы ее однозначно будем видеть. И мы увидим огромную...

То есть уже в 2006 году мы точно увидим человекообразных роботов с оружием в руках, гуляющим в зонах военных действий, а также там руи дронов над ними, летающие в таком духе. То есть роботы будут войти с роботами? Ну да. А вот касательно покорения космоса, можем ли мы ожидать что-то в ближайшее время? Вроде ракету New Glenn должны запустить.

Это многоразовая ракета от Амазона. Они потихоньку допиливают, она уже стоит на стартом столе, но мало о ней говорят. То есть Безос что-то планирует? Планирует, планирует. Ракета стоит уже. запустить. И мы увидим больше полетов в Старшип, и, может быть, высадку, ну, не человека, но хотя бы более-менее удачные грузовые рейсы на Луну. Вот это я жду.

Луна — это одна из возможностей тоже сохранить человечество. Мы будем хранить данные о людях над Луне, они могут там храниться миллионы лет. На Земле таких мест фактически нет, а лунные кратеры с вечными... холодные. Очень хорошее место, чтобы оставить какое-то послание будущему человечеству, если у нас все пойдет не так. У нас зритель какой-то сейчас смотрит или слушает, да, и понимает, вот... столько возможных вариантов развития событий, что делать конкретно мне...

Вот что мне при текущем контексте можно сделать, чтобы в будущем себя чувствовать безопасно и, возможно, даже как-то влиять на окружающую обстановку? Вот что бы вы им посоветовали? всем начать максимально записывать факты о себе, то есть вести дневники, мемуары, с тем, чтобы перенести ту хрупкую информацию, которая находится на вашем биологическом носителе, в более вечный цифровой формат, то есть вечно создать много копий.

своих данных. Создать можно будет хотя бы как цифрового помощника, даже если вы не считаете его бессмертным, то все равно это... Даже в случае с AltGamer в будущем появится, все равно вы забудете, что вы сейчас помните. То есть сохранение данных о себе это... Дешево, сердит, полезно. Как это правильно делать? Нужно начать писать факты о себе подряд, что придет в голову. Но с какой регулярностью, как практику это выработать?

Ну, лучше один раз там выделить выходные, сесть и сделать сколько сможете, а дальше вы поймете, в каком темпе вам это лучше подходит. То есть проще один раз сесть и там... выписать какое-то ядро личности. Писать, вот САПы самое важное для себя. И даже если вы будете, напишите, там, за три дня по 10 страниц, уважают 30 страниц биографической важной информации. Плюс...

Соберите те факты, которые у вас уже есть. Письма, дневники, школьные сочинения, переписки. Выгрузите из мессенджеров. То есть, в принципе, этих переписок у людей огромное количество. То есть не нужно заново писать то, что вы уже где-то писали, просто скачайте это и сложите в одном месте. В принципе, все мессенджеры разрешают скачивать свои данные о себе. Правда, они часто делают это немного геморройным образом, но...

в виде каких-то странных форматов, но потом все эти форматы тоже уже искусственный интеллект может обработать и вытащить нужные. То есть и в Фейсбуке, и в Телеграме, и в ВКонтакте есть опыта скачать архив. Не пожалейте... вечера. Скачайте все эти архивы, и у вас будет огромное количество того, что люди и так довольно много пишут. А как это нас обезопасит от...

того, что вы говорили ранее, господство Илона Маска. Но вы будете жить, ваша цифровая копия будет жить в цифровом мире. Но еще один момент. Ваши данные могут попасть в тренировочный датасет искусственного интеллекта, то есть он станет более человечным и более на вас похожим. А если вот эту нашу цифровую идентичность...

поместят в симуляцию какого-то ужасного мира. А условно ада, где его будут мучить. Кому это не очень нужно. Но это же возможно. Но количество позитивной симуляции, оно превосходит, по-моему. ожидания, количество негативных, и шанс оказаться в такой симуляции... Ну вот, допустим, есть сейчас ChargerPT, который тестирует, и...

его пытаются провоцировать на какую-то брань, чтобы потом это зачистить. Негатив все время выводят в неприятные для него ситуации. И с нами же может быть то же самое, по сути. Наша цифровая модель в такие же тесты попадет. делать редтиминг, команду для самого сайдлоуда. По сути, враждебная загрузка уже происходит, когда какие-то рекомендательные алгоритмы создают модели личности человека на всех данных.

И где-то там сидит где-то ваша копия, которая предсказывает, что вам понравится в ленте следующей. Где-то в алгоритме любой социальной сети такая модель к вас уже зашита. То есть моя идея в том, что если мы создаем свои модели сами, то мы увеличиваем долю позитивных моделей, тогда как доля негативных вот этих, она никак не сокращается. Но поскольку доля позитивных растет...

то шансы попасть в позитивную, они возрастают. Подводя заключительное слово, хотели бы вы жить вечно? Конечно. Альтернатива что-то не радует. Но, конечно... Вечная жизнь, она поразумевает и вечную эволюцию. То есть на неё можно жить... просто человеком очень долго. За тысячу, десять тысяч лет тебе надоест даже все, что угодно, что делать можно в человеческом теле, но человек же развивается, и все равно это развитие ведет к слиянию с искусственным интеллектом.

То есть слияние с цивилизацией в целом, тем больше он участвует в культурной жизни и производит вклад в культуру, получает вклад в культуру. То есть это уже слияние с человеческим. цивилизация, а затем это и слияние, когда появится вот это. Я думаю, что сайдлоудинг — это первый мой шаг навстречу слияния с искусственным интеллектом. Первый шаг бы смерти.

В завершении подкаста, есть ли у вас какие-то пожелания нашим зрителям? Да, счастливого Нового года и записывайте все о себе. А если люди нас смотрят уже в 2025 или 2026 году, отойдем от Нового года. Ну, я рад за вас, ребята, что вы выжили. Может, квантовое бессмертие вам помогло. А может быть, все как-то хорошо сложилось. Наверняка вы знаете что-то такое, что мы абсолютно еще не знаем. И все складывается максимально интересно. И я рад за вас.

А пожелание тогда какое? Прикладывайте усилия, чтобы выжить еще 10 и 100 тысяч лет. И записывайте все о себе. Подписывайтесь на Крионику еще. Сохраняйте свое тело, если погибнете. Ищите способы продлять жизнь. Помогайте науке бороться со старением. Много чего полезного можно сделать. Спасибо за твое время и твое внимание. Расскажи, как тебе этот выпуск. Я буду рад услышать о твоих впечатлениях, поэтому, пожалуйста, поделись ими, оставив отзыв на странице подкаста в iTunes.

И, конечно, будет очень здорово, если ты отправишь ссылку на подкаст своим друзьям и близким. Так нас, активных, думающих и интересующихся, станет еще больше.

This transcript was generated by Metacast using AI and may contain inaccuracies. Learn more about transcripts.