?

Log in

Стал я большую часть своих карт делать по-английски, морально, так сказать, покинув родину. Но и чужина ко мне особо лайками была не щедра. В общем, запилил я карту природных рисков, коии могут нас уничтожить.
А посольку она мелковата она для просмотра, вот ссылка на пдф: http://immortality-roadmap.com/naturalrisks11.pdf
Вкратцевая русская версия карты о рисках инопланетян

Давайте я вкратце по-русски расскажу, о чем она.
Вне зависимости от того, есть инопланетяне или нет, с этим связаны риски.
1. ИХ нет. а) Большой фильтра находится позади, Редкая Земля, и основной риск в том, что мы не правильно оцениваем риски космических катастроф - они могут быть чаще.
б) Они все самовыпилились. Это вариант вероятнее по ряду математических соображений, которые открыла австралийская девушка Катя Грейс. Для нас это хуже, так как мы тоже скорее всего выпилимся в ближайшм будущем. Но не при помощи ИИ, так как он может создать "взрывную волну разума", заметную на расстоянии.
2. Они есть. а) В виде ударной волны разума, летящей почти со скоростью света и создаваемой сверх ИИ. Или просто в виде волны колонизации, которая нас в некий случайный момент достигнет.
б) СЕТИ- атака. мы загрузим описание враждебного инопланетного ИИ по радиоканалам.
в) Они рядом, засекают нас и шлют молоты Люцифера и сами прилетают и косят.
г) Они уже здесь. Или берсекреы, запускающие уничтожение по достижению некого порога, или прогрессоры.
Д) Опасные руины,  оставшие от вымершей цивилизации - нанаорооты, ИИ. В общем, Странники и их взрывоопасные прибамбасы
Е) МЕТИ - это если Зайцев будет слать сигналы и они прилетят и устроют взбучку
ё) Комсическая война в отдаленном будущем.
ж) Они могли бы нам помочь, но не помогут
3. Мы в компьютерной симуляции
4. Фальшивые верования о инопланетянах ведут к случайной ядерной войне.
5. Они нам помогут предовтратить риски
а) странная стратегия избежания ферми парадокса - мы должны быть особенными
б) они нас воскресят после катастрофы
в) мы можем посылать запросы о помощи
г) мы можем получить совет по радиканалам
е) Они здесь и спасут нас.
6. Мы сами риск для них, так как мы когда колонизируем галактику, то попортим их будущие места обитания.

полная английская здесь:
http://lesswrong.com/r/discussion/lw/nuz/the_map_of_the_risks_of_aliens/

Для публикации всяких своих карт и текстов на английском я использую другой журнал
http://avturchin.livejournal.com/

Из недавнего интересного там: карта решения проблем идентичности
http://avturchin.livejournal.com/22222.html
Я решил сделать внезапный вброс против течения и атаковать святое: идею о том, что Маск является спасителем человечества.

Мы живем в мире, где одним из главных событий являются твитты Элона Маска. Он часто высказывается за предотвращение глобальных рисков, и у него есть план А и план Б: открытый ИИ и колонии на Марсе. Но если мы посмотрим в детали, то возникает некоторое количество вопросов. В целом, я призываю сохранять критическое восприятие, даже если у нас появился абсолютный пророк абсолютной истины. Итак, критика:

- Марсианская колония не сделает мир безопаснее, потому что возможна война между Землёй и колонией, если колония станет полностью независимой. Почти все колонии в истории Земли воевали с метрополиями на определенном этапе своего развития. Необходимым и достаточным условием конфликта между двумя группами людей является наличие двух групп (данные психологических экспериментов). Космическая война потребует радикально более сильных средств разрушения, чем внутри планетная война, что увеличивает шансы гибели и колонии, и метрополии.

- Марсианская колония не сделает мир безопаснее, потому что большие космические корабли могут служить кинетическим оружием. Развитие технологий освоения космоса, особенно большие корабли с ядерными двигателями, позволит создавать большие, тяжелые объекты, движущие с большими скоростями, столкновение которых с планетами может приводить к значительным разрушениям. Впрочем, им еще далеко до риска, создаваемого астероидами.

- Создание супермощных ядерных бомб, необходимых для терраформинга Марса, согласно твитту Маска (предложил взорвать две супер бомбы над полюсами Марса), является глобальным риском (если на над землёй взорвется.)


- Марсианская колония создаст ложное чувство безопасности, при этом не сможет защитить от большинства глобальных рисков. Серая слизь может быть межпланетной. ИИ может распространяться по радиоканалам. Люди-террористы могут завестись в самой колонии. Даже больные медленным вирусом люди могут прилететь с земли. В случае войны она может быть уничтожена одной ракетой.


- Маск открыто объявил, что мы находимся в симуляции с вероятностью 1 к миллиарду. Если это так, то главный наш риск, это то, что нашу симуляцию отключат. При этом ясно, что одним из возможных условий ее отключения является то, что жителям симуляции станет понятно, что они в симуляции. Например, если об это широко и публично объявят. Таким образом, объявив, что мы находимся в симуляции, он создал значительный риск ее отключения (я думаю, порядка 1 процента)


- Гиперлуп. Проблема безопасности гиперлупа не проработана. Ели у поезда на скорости в 1200 км в час откажет тормозная система, то его попадание в здание вокзала приведет к разрушениям, сравнимым с взрывом небольшой атомной бомбы, который, однако, будет носить направленный характер по ходу движения поезда, то есть в центр города. (Энергия поезда будет порядка 10 в степени 11.) Дж. Во вторых, суммарная энергия вакуума по всей длине туннеля еще больше, и если он продырявится хотя бы в одном месте, это приведет к его полному коллапсу. Если в тоннеле в этот момент будет поезд, то он будет разгоняться поступающим воздухом, и будет выброшен из конца туннеля с околозвуковой скоростью, по принципу поршня.


- Проект OpenAI совершенно не обязательно приведет к снижению глобальных рисков. подумайте для примера о последствиях проекта Open nuke, если бы он позволял делать небольшие бомбочки дома. Бостром написал статью с объяснением, почему Open AI может быть отнюдь не лучшей идеей. http://www.nickbostrom.com/papers/openness.pdf


- Neural lace - а что если в такую систему, установленную всем людям, будет дан неправильный сигнал или ее поразит компьютерный вирус? Тоже касательно самоездящих Тесл - насколько они защищены от глобального хака? Представим, что все машины в городе превратились из избегателей пешеходов в их истребителей.


Наибольший вред я вижу в иллюзорном чувстве безопасности (ведь вроде умнейший человек имеет комплексный план защиты) и в отвлечении ресурсов - на ту же колонизацию Марса нужны огромные деньги, отдача не очевидна.
Карлос встретил Дон Хуана не на границе с Мексикой, а в одном из университетов Сан-Франциско, где тот преподавал логику, этику и развивал биотехнологии. Дон Хуан согласился взять Карлоса в свой стартап, если тот станет достаточно рациональным.

Глава 1.

- Почему воин должен стремиться к бессмертию, дон Хуан?
- Воин не стремиться к бессмертию в смысле вечной жизни, которая будет когда-то там. Воин уменьшает вероятность умереть прямо сейчас. И благодаря этому он живет дольше всех. По сути, воин всегда выживает наилучшим образом.
- Но, дон Хуан, зачем ему бессмертие?
- Понимаешь, Карлос, вопрос “зачем" всегда делает тебя слабее, но его нельзя не задавать. Но для воина нет различия между деятельностью и целью, потому выживание - суть воина. Его цель и есть его внутренняя природа, они не отделимы.
- Но я читал, что инструментальный интеллект и цели высшего порядка существуют независимо. Говорят, что это называется тезис ортогональности.
- Эх Карлос, ты слишком много читаешь )). Конечно, есть такие люди или такие компьютеры, в которых тезис ортогональности соблюдается. Но на самом деле, твоя цель сливается с твоей личностью и формирует ее. Она формирует твои мысли, твои знания, твои модели поведения. Даже твое тело. Воин формирует свою структуру своим намерением выжить.
- Но это же мелочно и эгоистично, заботится только о себе.
- Да. Если ты мелочен и эгоистичен, то это делает тебя слабее. Если ты слишком боишься умереть, то ты слаб и обречен. Поэтому воин отрешен от себя. И он заботится о других. И другие заботят о нем.
- Но все же, воин, дон Хуан, это бездушная машина, лишенная индивидуальности! В нем нет ничего человеческого, ничего личного!
- Помнишь, что Ницше писал, что человеческое - это то, что должно превзойти? Если ты считаешь человеческим и индивидуальным всю свою мелочность, слезливость, капризность, переменчивость и повышенную чувствительность к мягким зверушкам, то ты индульгируешь, то есть потакаешь собственной слабости из жалости к себе. Воин преодоляет то, что обычно считают человеческим, но это этого его индивидуальность только растёт. Она состоит из его коллекции примечательных событий, из его индивидуальных уловок охоты и его угодий, из накопленных им сил.
- Ок, ты кажется убедил меня, что стоит быть воином, но что ты имеешь в виду, говоря о рациональности? Я читал, что рациональность - это нечто вроде искусства побеждать, но тогда получается что рациональнее всех бактерии, которые выживают на земле уже миллиарды лет?
- Ты должен знать, что рациональность происходит от слова “рацио”, что означает разум. И ты не должен ждать, что я дам тебе определение разума одной строкой. По мере наших встреч я буду обучать тебя разным аспектам рациональности.
Вся деятельность Мильнера только увеличивает глобальные риски. Мощная программа SETI повышает шансы на то, что мы обнаружим сигнал с описанием недружественного ИИ, нечто вроде космического спама, лучше всего описанного прекрасным физиком Хойлом в его романе “Андромеда".
С помощью космического лазера в 50 гигаватт и с огромной прицельной способностью, можно из космоса выжигать отдельных людей, равно как и целые города и деревни с огромной скоростью. Например, обстреливать миллион целей в секунду. За судки можно уничтожить всех людей и все убежища их. Даже на других планетах. даже подводные лодки в глубинах океана. 50 гигаватт просто пробьет толщу воды на сотни метров. (Можно вспомнить в качестве fictional evidence фильм с Дж. Бондом “Умри, но не сейчас”)
При этом сам проект звездолета Мильнера практически нереализуем (в отличие от фазированного суперлазера, контролирующего все человечество) см тут. http://trv-science.ru/2016/04/19/dvojka-po-fizike/
Зато если дождаться создания настоящих нанотехнологий, то есть нанороботов-репликаторов, то всю систему межзвездного транспорта можно гораздо упростить. Забываем про парус. Берем ускоритель, и начинаем в нем разгонять нанороботов весом около 1 нанограмма до околосветовой скорости. Но делаем это с одной хитростью - мы разгоняем их с чуть-чуть разными скоростями, первые медленнее, вторые быстрее. В результате все они окажутся в одной точке пространства в один и тот же момент времени - правда, на короткий миг. Но за это время они должны начать успеть маневрировать и слипаться друг с другом. Если их много, то относительная скорость их друг относительно друга будет не велика - и они не будут разбиваться. Многие из них будут потеряны, но часть из них слипнется в ком массой несколько грамм. Затем из этого материала уцелевший наноробот построит новый нанотехнологичский корабль, уже похожий на зонд Мильнера. этот корабль построит из себя маленький ускоритель, который в момент пролета нужной звезды выплюнет одного наноробота в обратную сторону, что приведет к его торможению. Этот наноробот найдет какую-нибудь пылинку, прикрепится к ней и начнет реплицировать себя, в результате чего вокруг другой звезды возникнет инфраструктура, необходимая для дальнейшей репликации. Это, конечно, фантазия, но гораздо более осуществимая.
По сути угроза расстрелом при Сталине выполняла роль денег в экономике, в которой реальная роль обычных денег была искусственно сведена к нулю. Но "деньги" эти были отрицательными - то есть каждый старался получить их как можно меньше. В качестве транзакций выступали доносы, а "миллионерами" были те, кто имел наименьший риск расстрела, но при этом наибольшую способность угрожать расстрелом другим. система эта работала относительно эффективно - то есть позволяла делать атомную бомбу и ракету, но при этом ее эффектиность была конечна, так как она работала только за счет сжигания человеческого капитала. На входе эта система получила страну с огромной массой лишнего народа - крестьянством, которую она и сожгла, на выходе получилась страна неспособная себя прокормить, с вымирающей деревней, и еще тяжелой психологической травмой в анамнезе.
Предавался я значит тут лженаучным измышлениям, пытаясь понять, достаточно ли идеи естественного отбора для того, чтобы обьяснить силу и скорость эволюции. Вначале размышлял о кошмаре Дженкина и том, как именно люди могут его разрешить. (Поскольку я не профессиональный биолог эволюционист, то я должен считать свои мысли так сказать Ферми-вычислениями, наброском на коленке - и очень сомневаться в их истинности.)

Кошмар Дженкина - возражение против теории эволюции, состоящее по его неполикоректным словам, написанным в 1867 году, в следующем:

…Представим себе белого человека, потерпевшего кораблекрушение на острове, населённом неграми… Наш выживший герой, возможно, станет среди них королём; он убьёт очень много чёрнокожих людей в борьбе за выживание; он заведёт очень много жён и детей, в то время как множество его подданных будут жить холостяками и умрут холостяками… Качества и способности нашего белого человека несомненно помогут ему дожить до глубокой старости, но даже его длинной жизни явно не хватит для того, чтобы кто-то из его потомков в каком-либо поколении стал полностью белыми… В первом поколении будет несколько дюжин смышлёных молодых мулатов, чей ум будет в среднем превосходить негритянский. Нас не удивит, что трон в течение нескольких поколений будет принадлежать более или менее желтокожему[3] королю; но сможет ли поверить кто-то, что население всего острова постепенно станет белым, или пусть даже жёлтым?..

В нашем случае признак попал в исключительно благоприятные условия, способствующие его сохранению, — способствующие, и всё же неспособные закрепить и сохранить его.
https://ru.wikipedia.org/wiki/%D0%9A%D0%BE%D1%88%D0%BC%D0%B0%D1%80_%D0%94%D0%B6%D0%B5%D0%BD%D0%BA%D0%B8%D0%BD%D0%B0

Но это возражение можно решить, представив, что белый человек, став отцом нации, будет трахать собственных (малолетних) дочерей, результате чего у него будут внучки, которые будут нести три четверти нужного качества (или даже правнуки). В результате, если он склонен и к инцесту, и к педофилии, то он быстро сможет закрепить свои уникальные качества среди нескольких десятков человек.

В результате это может закрепить и саму потребность в инцестной педофилии, как генетическую склонность. Обычно же Кошмар Джекина решают через теорию наследственности Менделя., которую я здесь трогать не буду.

Теперь ближе к теме

Со времен шимпанзе прошло 300 000 поколений людей. Вопрос в том, достаточно ли этого срока, чтобы произошло огромное количество маленьких изменений, отличающих меня от обезьянки, причем так, чтобы каждое из этих изменений в отдельности давало бы преимущество его носителям.

Для начала примем следующие умозрительные и малодоказуемые допущения. Что суммарное количество эволюционировавших существ было всего порядка 10 000, и что в начале каждая полезная аллель уже была у 100 существ, у целого племени. Собственно, для последнего допущения нам и нужно было побеждать кошмар Джекинса. Тут, правда, возникает нечто подобное групповому отбору, вещи заклятой. Но на словах это просто: вождь племени трахал всех самок племени, причем и своих детей многократно, и в результате за 1-2 поколения те аллели, которые были у него, широко распространились в пределах племени. При этом в альфа самцы избирался тот, кто обладал свойствами, полезными и выдающимися в данный период исторического времени. То есть альфасамцовая гиперсексуальность - это машина по сверхускорению естественного отбора. Например, в условиях сползания с дерев и перехода к пожиранию дохлых тварей могло оказаться полезно быть лысым, чтобы гнилью не воняло. И одну обезьяну, случайно лысоватую, избирали вождем, за ее это особое свойство. Через два поколения бурного инцеста и жесткого сексуального насилия почти все племя приобретало лысость. Дальше оно должно было соревноваться с другими племенами, и здесь уже выяснялось, насколько это качество давало прирост потомства ( и числа племен) в каждом поколении.

Для удобства будем считать, что фитнес в 1 процент, это ситуация, когда концентрация данного аллеля возрастает на 1 процент за поколение по всей популяции. Тогда мы имеем вот какую картину: при исходных 100 особях с аллелем и 10 000 популяции (будем считать пока,что она не меняется), фитнес в 1 процент даст 101 особь в первом поколении, 102 во втором, 270 в сотом, 730 в двухсотом, 5000 в четырехсотом. То есть за 400 с небольшим поколений, некая полезная мутация распространится по всей популяции. При этом одновременно могут, оптимизироваться как минимум 100 однопроцентных мутаций (это тоже очень даже обсуждаемое допущение, но не будем усугублять углублением). 400 поколений это примерно 7 000 лет для человека, если что. А прошло 7 миллионов.

В результате получаем, что за 7 млн лет могло оптимизироваться 100 000 разных свойств - и это довольно много. (это, конечно, верхний предел числа полезных изменений, вероятно, их меньше и еще есть бесполезные). Эти свойства включают множество изменений формы черепа, зубов, биохимии, конечностей и, главное, мозга.
Теперь обратимся к генетике, которая дает нам возможность измерить все то же самое.
Разница объема геномов человека и шимпанзе составляет 1 процент или около 60 мегабайт. Но белки кодирует только 1 процент от этого, то есть тут разница только 600 кб. То есть каждое новое “свойство” - это около 6 байт, или несколько кодонов, и в принципе это интуитивно логично выглядит.

В этих вычислениях мы также не учитываем такой мощный фактор естественного отбора, как геноцид. Если носители некого аллеля резко сократят число носителей из соседнего племени (а мы знаем, что именно люди отличались тем, что непрерывно мочили себе подобных, в отличие от прочих зверей и воевали в среднем раз в два года), то доля этого аллеля к общей популяции возрастёт.

Интересен, конечно, тот момент, когда инцест, сексуальное насилие и геноцид превратились из инструмента эволюции рода хомо в самые главные, самые табуированные грехи. Я думаю, что это произошло по мере возникновения цивилизации и письменной передачи данных - то есть новой, более прогрессивной формы эволюции, которая, однако, требовала полностью противоположных жизненных условий - спокойствия, генетического разнообразия и ценности жизни отдельного носителя знаний (а также уважения к личности и интеллекту женщины).

Вывод TLDR: вмешательство бога и магии для эволюции из обезьяны в человека не требовалось. Достаточно было инцеста, насилия и жажды власти.

К слову, если кто-то вдруг забыл,  -  у нас уже есть два сверхинтеллекта, и полезно изучать их, когда мы думаем о создании собственного.

Первый - это вся биологическая эволюция, которая смогла породить такую сложную штуку, как человек, а также его разум и его естественные языки.

Второй - это вся человеческая наука, если рассматривать ее как единый процесс.

Какие выводы мы можем сделать о будущем компьютерном сверхинтеллекте, изучая имеющиеся?

Система целей. По большому счету, оба сверхинтеллекта бесцельны. Это, конечно, поразительный факт. А также лишены самосознания и рефлексии (в науке она зародилась в виде наукометрии, но большой роли она не играет). Конечно, целью эволюции является выживание в каждый момент времени, но эта цель довольно техническая, она  нужна для осуществления эволюционного механизма. Но при этом они решат огроное количество разных задач. Я бы описал этот парадокс такой метафорой: не интеллект внутри задачи, а задачи внутри интеллекта, как вауколи внтутри клетки. То же и человек в своей жизни - ценности и задачи меняются, мозг остается.

Созанние. У эволюции его нет, в науке оно есть, но судя по всем, существенной роли не играет. То есть центра нет - ни центра восприятия, ни центра целей, а при этом любые задачи решаются. Также работает и бессознательная часть мозга у человека.

Мастер алгоритм.  Оба сверхинтелелкта реализованы по принципу  - сотрудничество множества малых интеллектов плюс естественный отбор. Эволюция невозможна без миллиардов миллиардов живых существ, которые тестируют разные варианты генокода каждое из них в целом решает свои эгоистические задачи и про глобальную цель вообще не думает. Например, мало кто думает, что выбор наилучшего партенра для брака - это инструмент эволюции вида (допустим, что половой отбор верен).

нтересно, что мозг человека устроен подобным же оразом - он состоит из миллиардов нейронов, каждый из которых не видит глобальной задачи его.

В науке за время ее существования было примерно, на вскидку несколько миллионов ученых. Большинство из них тоже решали разные задачи, а отбору подвергались наименее опровержимые теории (если рассмаривать соицальные механизмы здесь).

Безопасность. Опасен, но не враждебен. В эволюции возможны экологические кризисы, наука создает атомную бомбу. Внутри есть враждебные агенты, но они не наделены суперинтеллектом (тигр, государство). Но среде может возникнуть опасный агент, который силнее среды и ее съест.

Как создать наш суперинтеллект: допустим, мы согласны, что сверхинтеллект - это свойство среды с множеством агентов с разными целями.И мы создаем аквариум и в нем запускаем миллион разных агентов. Но  сверху настраиваем суперганта, который забрасывает туда задачи, а потом получает ответы.

Аппаратные требования: очень большие: нужно симулировать миллионы агнетов человеческого уровня.

Ускорение эволюции: ограничена скоростью и количеством агентов. больше агентов -  меньше скорость. Но наука в миллион раз быстрее эволюции. Переход на следующий уровень должен дать сопоставимое ускорение. Нужна вычислительная среда порядка 10 в 20 степени флопс, чтобы спмоделировать миллион мозгов. и в целом  это близко к суммарной мощи интернета. Может быть реализван как распредленная сеть, где отдельные агенты в руках отдельных людей-программистов и решают разные задачи. нечто вроде SETI-home или сети биткоин. Каждый может забросить в него задачу, но за это предоставляет часть своих ресурсов.

Теорема: сверхинтеллектуальная среда развиваетя по гиперболическому закону. Решение уравнения у Коротаева http://evolbiol.ru/korotayev.htm, а именно скорость роста завистит от квадрата числа населения, квадрат же получается следующим образом: одно N - это то что большого населения больше числа потомков, а второе N - это то, что чем больше население, тем больше изобретателей, которые приводят к росту технического прогресса и ресусров. Но у Коротаева это урванение дано только для численности населения, а на самом деле оно применимо и для эволюции - чем больше особей, тем чаще происодят важные и инетерсные мутации, так и для числа ученых (оно уже вышло на плато), а затем числа специалистов по искусственному  интеллекту,  а затем число ии-агентов, объединенных в сеть.

Следствие: если скорость света конечна, то сверхинтеллект должен уменьшаться в размерах, а не увеличиваться, иначе произойдет замедление обменом информации и скорость развития будет утеряна. То есть в сверх интеллекте должно быть небольшое по размерам ядро, размером с планету земля, например, а в будущем и еще меньше. переферия может быть огрмона, но выполнять технические функции: защиты и питания.

Следствие: сверхинтеллектуальная среда все равно идет к точке сингулярности, но точка не может быть средой. Упс.

Вопрос: можно ли придумать новый мастер-алгоритм, который будет лучше, чем ИИ-среда, которая по сути есть нечто среднее между генетическим алгоритмом и нейронной сетью? Это ведь два простых и так сказать древних способа усиления интеллекта, и можно придумать что-то получше? И тогда ИИ-агент с этим улучшением победит ИИ-среду, произойдет hard-takeoff и синглетон? Или же ИИ среда из множества ганетов всегда сильнее одного агента?

Пути усиления: рост числа агнетов, рост скорости работы агентов, рост скорости обмена информации между агентами, рост интеллекта каждого агента и рост принципов построения рабочих орагнизаций из агентов.

Проблема: курица или яйцо: сверхинтеллеутальная среда или сврех агент. Любые среду можно сверху накрыть агентом, который дает ей задачи и затем использует ее данные. С другой стороны, если есть несколько таких сверх-агентов, то они образуют среду.

Участие: хотя в науке участвует множество людей, большая часть биосферы в ней не участвует, а является ресурсом, а потом объектом охраны.

Вчера послушал выступление Левенчука на Ясном уме, и он говорил о том, как ушел из open meta в системную инженерию, так как (как я его понял) основная проблема лежит не в наличии знаний о разных практиках, а в правильном его структурировании и применении, в архитектуре.

Когда материала очень много, главным становится его упорядочивание, то есть переход на мета уровень.

Я в свое время тоже столкнулся с похожей проблемой, которую попробовал решить путем создания карт.

Одна из них - карта способов достижения осознанного сна, которуя я хочу вам предложить.

При этом понятно, что одной карты мало - нужна стратегия использования методов из этой карты, иначе говоря - путь по карте. То есть вторая карта (карта карты)  - карта того, что, где и когда мне делать и как себя заставить делать именно это. Про важность создания как минимум двух карт одного объкта  -под разным углом или с разным масштабом - Левенчук тоже говорил на Ясном уме, и эта идея оказалась для меня самой полезной.

Например, есть сотни споосбов достижения осознанного сновидения. Однако основной вопрос лежит в том, каков приоритет ОС в других видах моей деятельности, и какой из этих способов мне выбрать и как мне его примненить.

Например:

1) Может, самый лучший способ мне неизвестен - и мне нужно просто продолжать перебор способов, пока не наткнусь на легкий и мне подходящий.

2) Или дело не в способе, а в намерении, и можно выбрать любой способ и при должном усердии он сработает.

3) Осы мне неужны, так как я на самом деле люблю неосознанные сны, поскольку в них я могу забыть о себе.

Специалисты по теории игр говорят, что число возможных стратегий, вообще говоря, превосходит число возможных ходов в игре.

Хочу предложить вашему вниманию карту способов достижения ОС как попытку упорядочить знания в некой области. Но она еще не закончена - так как не выработан лучший путь к цели по ней. (Но справа на карте указаны те инструменты, которые лучше всего работали для меня).

Вот пдф в нормальном разрешении, на картинке может быть не видно деталей текста.

http://immortality-roadmap.com/lucidrus.pdf

Latest Month

September 2016
S M T W T F S
    123
45678910
11121314151617
18192021222324
252627282930 

Tags

Syndicate

RSS Atom
Powered by LiveJournal.com
Designed by Lilia Ahner