?

Log in

No account? Create an account

Previous Entry | Next Entry

TL; DR: Великий фильтр парадокса Ферми можно избежать, выбирая случайную стратегию. Однако, если все цивилизации будут действовать случайным образом, это будет фактической причиной парадокса Ферми. Использование мета-случайной стратегии позволяет избежать эту проблему.
-------
«Смерть в Дамаске» – это проблема теории решений о попытках избежать всезнающего агента, который способен предсказать ваше поведение. Проблема в рамках теории решений вкратце звучит так:

Смерть: «Я убью тебя в Дамаске завтра, но, если ты уедешь в Алеппо, я буду ждать тебя в Алеппо».
Точная формулировка "Смерти в Дамаск" также включает в себя стоимость реализации мер защиты: «Вы сейчас находитесь в Дамаске. Смерть стучит в вашу дверь и говорит вам, что я приду к вам завтра. Вы цените свою жизнь на 1000 долларов и хотите избежать смерти. в Дамаске или заплатить 1 доллар, чтобы бежать в Алеппо. Если вы и смерть завтра в одном городе, вы умрете. В противном случае вы выживете. Хотя смерть говорит вам сегодня, что вы встретитесь завтра, она уже предсказала, останетесь вы или сбежите еще вчера и она должен придерживаться своего предсказания, несмотря ни на что. К несчастью для вас, смерть является идеальным предиктором ваших действий. Вся эта информация вам известна. "

Смерть может предсказать любые мои движения, поэтому нет причин убегать. Этот парадокс исследован в статье «Обманывая смерть в Дамаске» (https://intelligence.org/files/DeathInDamascus.pdf), где было предложено возможное решение: истинный генератор случайных чисел используется для выбора между пребыванием в Дамаске и бегством в Алеппо, и, следовательно, у меня есть 0,5 шанса выживания.

Парадокс Ферми – это тип проблемы, похожий на «Смерть в Дамаске». Ферми-парадокс говорит нам, что другие цивилизации не наблюдаются по неизвестной причине, и одним из решений является «Большой фильтр», который убивает все молодые цивилизации, и для нас такой фильтр впереди. Это означает, что все цивилизации перед нами совершили ту же ошибку, которая привела к их кончине, и поскольку мы являемся типичной цивилизацией, мы сделаем ту же ошибку. Однако мы не знаем, какая именно это всеобщая ошибка. Может быть, нам не следует экспериментировать с адронным коллайдером. Может быть, ИИ всегда появляется, убивает всех, а потом самоуничтожается (само создание ИИ не может объяснить парадокс Ферми, поскольку ИИ распространится по вселенной). Но может быть решение не создавать ИИ смертельно, так как только ИИ может управлять рисками синтетической биологии и других катастрофических рисков.

Другими словами, какую бы рациональную стратегию мы ни использовали, это именно то, что убило все предыдущие цивилизации: если мы убежим в Алеппо, Смерть будет ждать. В оригинальной проблеме Смерть всеведущая; в случае парадокса Ферми всеведение заменяется рассуждением: поскольку мы типичны, мы будем делать все те же ошибки.

В попытке обмануть Смерть, чтобы избежать типичного Большого фильтра, мы (предполагая, что здесь имеется какая-то форма глобальной координации политики) можем в будущем применить случайную стратегию. Например, мы могли бы использовать генератор случайных чисел, чтобы выбрать, какие технологии должны развиваться, и от которых отказываться. В этом случае, у нас есть шанс не развить ту самую опасную технологию, которая является универсальным убийцей.

Но что, если эта случайная стратегия сама является великим фильтром? То есть, что если отказ от некоторых технологий нашу цивилизацию ослабит и будут способствовать исчезновению? В этом случае мы могли бы реализовать мета-случайную стратегию. Сначала мы используем случайную монету для выбора: следует ли вообще попробовать стратегию случайного отказа от разных технологий или надо идти вперед без каких-либо игр с парадоксом Ферми.

Теперь попробуем оценить вероятность успеха случайной стратегии. Если бы эта стратегия была бы очень эффективной, например, если бы она спасла бы 1 из 10 цивилизаций, тогда как общее число цивилизаций в наблюдаемой вселенной равно 100, мы все равно ожидаем наблюдать 10 цивилизаций (и, поскольку другие цивилизации будут наблюдать каждый другие, они не будут реализовывать стратегию, так как для них нет парадокса Ферми). Итак, если стратегия будет очень эффективной, парадокса Ферми не будет, и нет необходимости в такой стратегии. Таким образом, стратегия имеет смысл, если она дает вероятность выживания только 1 / N, где N - общее число цивилизации в прошлом световом конусе, которые погибли из-за позднего фильтра. Другими словами, если мы ожидаем, что прошлый световой конус имел бы 100 цивилизаций, все из которых были бы уничтожены, мы должны выбрать около 7 (как 2 в 7 степени = 128) случайных двоичных выборов в нашей стратегии, и мы, в лучшем случае, будем иметь 0,01 шанса на выживание, что лучше, чем 0, но все еще очень мало.

Теперь мы могли бы использовать ту же логику не для того, чтобы избежать Великого фильтра, а для объяснения наблюдаемого парадокса Ферми. Если почти все цивилизации используют случайные стратегии, они в основном погибают, именно потому, что они пробовали неоптимальное поведение. Таким образом, парадокс Ферми становится самоисполняющимся пророчеством. Почему цивилизация может согласиться на такую, казалось бы, безрассудную игру? Потому что это заменяет непознаваемую вероятность выживания с небольшой, но фиксированной вероятностью выжить. Однако в случае стратегии с мета-случайностью -  это не объяснение парадокса Ферми, так как по крайней мере половина цивилизаций вообще не будет пытаться обмануть.

Comments

( 1 comment — Leave a comment )
paracloud
Jun. 27th, 2018 03:16 pm (UTC)
Если, если, если... на бирже поиграйте с мета-случайной стратегией.
( 1 comment — Leave a comment )

Latest Month

November 2018
S M T W T F S
    123
45678910
11121314151617
18192021222324
252627282930 

Tags

Page Summary

Powered by LiveJournal.com
Designed by Lilia Ahner