?

Log in

No account? Create an account

Лето 1990 года мы с мамой проводили в Гурзуфе. Основным моим занятием в то время была полная версия самоописания. Я рисовал энциклопедию вещей, которых помнил, писал таблицы ассоциаций. Читал какой-то роман, может, доктор Фаустус. На берег принесли утопленника в черном смокинге, и девушка над ним картинно выла. У меня слабость в ногах от этого почувствовалась.

Ночью Вояж Вояж разносился над всей набережной, равно как и “волос был чернее смоли, был седым”. Философские мысли роились в голове. Я думал о том, что во всей вселенной есть один выделенный момент - это моё восприятие здесь и сейчас, которое я обозначил как “До” – в противовес Дао – которое путь вещей, то есть вероятность связи событий между собой. “До” оно моё одно у меня. Только у меня – на всю вселенную, и я значит как бог. Не даром Христос рек: “царство божие внутри нас”. Это вот буквальное указание - но не на сердце, а вот на этот самое До, которое по сути, сгусток квалиа, атомов опыта.

Мама купила два билета на кабаре в Ялту. В СССР в принципе был везде социализм, но на юге его особенного никогда не было. Пока мы садились в автобус, я продолжал думать о своём. Я думал о том, что само сознание - это просто процесс взаимодействия разных нейронов, и значит, это некий граф причинно-следственных связей. Но любой причинно-следственный граф можно реализовать с помощью бильярда: структура связей будет та же.

Внутри вещей, думал я, садясь в автобус, – так же полно такого бильярда: атомы и молекулы сталкиваются в произвольных комбинациях. Значит, и любой миг сознания – и в этот момент я почувствовал волну темного ужаса – то же может возникнуть внутри камня, и более того, поскольку камней много, вся вселенная, то такие “виртуальные я” должны возникать пачками – и тут же немедленно умирать навсегда! Автобус помчался во тьму, а я терзался ужасными сомнениями: с чего я взял, что я вообще существую? Главное, было не говорить это маме, а то бы она выкинула все мои тетрадки в помойку. Нужно было придумать срочно какое-то решение и главное, до приезда в Ялту.

Как я выйду из автобуса? Какой смысл вообще куда-то идти, если я точно знаю, что исчезну в следующий миг? нужно бы найти выход, и я стал напряженно думать.

В кабаре девушки подбрасывали свои сиськи, такие большие, что я думал, а настоящие ли они – или может это было потом, в какой-то телепередачи, а там они только махали большими ногами. И вот что я подумал. Да, я могу быть сейчас просто иллюзорным мигом внутри камня. (Позже я узнал, что Иген назвал это теория пыли, а Больцман - Больцмановскими мозгами). Но каждому иллюзорному моменту сознания соответствует и момент сознания реального существа, и таким образом, хотя каждый миг я-в-камне умирает, оно находит свое бессмертие в непрерывном сознании реально существующего человека. То я-в-камне “вкладываются” в реальный я, как скопированные отдельные кадры – в целый фильм.

Увы, в тот момент я не подумал, и не подумал я это тогда, когда наш сосед по столу ушел ругаться за кулисы потрясенный счетом за еду, который ему нарисовали (я думаю, если бы он мог, он бы кричал It is impossible, как однажды кричали американские туристы в ресторане в Риме примерно в той же ситуации) – не подумал я, что если я-в-камне существуют, то никаких реальных "я” уже тогда не надо, или, во всяком случае, надежно заключить об их существовании уже невозможно (о чем-то таком взвыл Фальтер в рассказе Набокова Ultima Thule).

Иген, и его формализатор Мюллер, выходят из этой коллизии следующим образом: да, нет никаких реальных “я", но это ничего, поскольку возможны цепочки состояний наблюдателя. Каждый момент этой цепочки предсказывает следующий миг – точнее, не предсказывает, а он просто есть, точно так же как за 5 следует 6, а за утром – вечер. Немного, 80 страниц математической эквилибристики, и Мюллер выводит из этого все наблюдаемые законы физики. Но нет ли в этом иллюзорного шарлатанства? Как я вообще могу заключить, что статья Мюллера на самом деле существует и её выводы верны? И если существуют не сами по себе случайные мгновения сознания, а математическая формула, их связывающая, то эта формула должна быть равна всей наблюдаемой вселенной, вселеной, в центре которой сидит До, случайный, по сути, момент здесь и сейчас.

Я вернулся в дом творчества умиротворенный. Больцмановский ужас был преодолен.

(начало главы для книги Бессмертие, картинка из Самоописания-1990, страница энциклопедии вещей)

В медицине есть городская легенда о парных случаях: если привезли одного с проглоченной ложкой, то скоро приедет и второй (много ссылок в духе тыц).
Есть и похожий закон в обычной жизни, феномен Баадера-Майнхофа. (и в более общем случае это называется Law of series  )
Обычно это объясняют разными когнитивными искажениями: законом селективного внимания и склонностью подтверждать свою точку зрения (confirmation bias). Однако есть и математическая (и не мистическая) причина.
Рассмотрим сначала такой вот кейс: если есть класс из 30 человек, то почти наверняка в нем будет пара людей с днем рождения в один день. Почему? Для первого человека из класса вероятность того, что его день рождения совпадет со вторым равна 1 из 365.  Вероятность того, что у первого др совпадет хотя бы одним из всего класса равна
p(один ученик) = 1 - (1-1/365)power 29 =0.076 = 7 процентов
и это только для первого ученика. Теперь применим эту же операцию ко всем 30 ученикам, применим правила комбинаторики и получим 70 процентов (полный вывод формулы см. здесь: https://en.wikipedia.org/wiki/Birthday_problem), приблизительная формула
P(n,d)=1– e power(-n^2/2d)
Иначе говоря, с вероятность в 70 процентов у нас будут двое с днем рождения в один день в классе из 30 человек. То есть парные дни рождения оказываются более вероятными, чем можно подумать на первый взгляд. Об это еще Кларк писал в романе “Лунная пыль”.
Теперь перейдем к медицине. Допустим, у нас есть отделение, в котором лежит 100 человек (или приемный покой, в который поступает 100 человек в день). При этом, допустим, у нас есть 10 000 возможных диагнозов, все равновероятные. Какие шансы что среди больных будут люди с одинаковым диагнозом? Применим те же формулы и получим 55 процентов.
То есть в отделении с вероятность 55 процента будет пара пациентов с совпадающими редкими диагнозами, а для любого пациента шанс поучить “пару" - 1 процент.
Однако эмпирический закон о парных событиях, как его описывает медицинская легенда, звучит по другому: если произошло редкое событие, то скоро произойдет второе такое же редкое событие. В нашем случае, если привезли больного, проглотившего ложку, то шанс, что в течение дня приедет второй такой же, - только 1 процент.
Здесь, скорее всего, имеет место confirmation bias - поскольку какие-нибудь парные события происходят почти каждый день, то человек , столкнувшись с редким событием,  умозаключает в обратную сторону от редкости к парности, и запоминает только те случаи, где такое ожидание подтвердилось.
Более того, выяснилось, что если есть хоть малейшая корреляция между частотами случайных событий, и они не совсем случайны, то это резко увеличивает вероятность парных событий.
http://prac.im.pwr.edu.pl/~downar/english/documents/law%20of%20series.pdf
случайная мысль:
Интересно, что в метро теперь вся реклама рекламирует только само метро. Скоростные диаметры, кольца для прохода. Это все равно, что на буылке кока-колы написать: пей кока-колу. И по-своему логично. Каждая вещь рекламирует сама себя, а не так что все – всех. такое возвращение сущнгстей, но в квадрате.
Есть вещи, о которых ты всегда мечтал написать, но всегда откладывал это на потом, так как это настолько бредовая идея, что вряд ли за нее кто-либо возьмется. И вот, пока ты припасал вишенку на торте, - раз, и в архиве обнаруживается 84 страницы мат. выкладок, поддержанных университетом и грантом - про твою любимую идею. И написано это так, как ты бы не смог никогда. Этот ты - в данном случае я.

А статья про то, что внешнего мира не существует, а что существуют только цепочки состояний наблюдателя, которые связаны между собой веротяностой функцией, называемой колмогоровская сложность.  Эта колмогорова функция - по сути, мат. выражение бритвы Оккама, и она говорит, что наиболее простые (с алгоритмической точки зрения) обяснения наиболее вероятны; впрочем, это не исключает и очень малой вероятности очень странных объяснений. В результате из одного состояния наблюдателя следует следующее, наиболее простое: чашка стояла и продолжает стоять. Но не всегда. В одном случае из тысячи ее кто-то взял, в одном случае из миллиона ее разбили, а раз в миллиард ее съедает зеленый дракон.

Однако гораздо интереснее то, что предположение о следовании состояний наблюдателя, согласно статье, позволяет вывести многие законы физики, так как они позволяют наиболее простым образом связать одни состояния с последующими. То есть, в статье очень мало рассжудений о бессмертии и вероятностных зомби, и совсем нет того, что описываемая вселенная должна получиться слегка глючной, поскольку в ней крайне маловероятные переходы между разными состояними наблюдателя все равно возможны.

Но за этой глючностью нет никакой метафизики: равновероятен и черт с рогами, и Бог на облаке, и инопланетяне на тарелке, и рептилоид в подвале и агент Смит.

Could the physical world be emergent instead of fundamental, and why should we ask?
https://arxiv.org/pdf/1712.01826.pdf
1.Москва, 2018, френдлента

Post: В огромном национальном музее (ГМО им. кн. Мышкина, основанный другом Достоевского Увядаевым еще при царе) происходит череда загадочных смертей. Смерть особенно часто убивает директоров по науке. Детектив Сыволочкин приступает к расследованию. Вскоре он узнает, что в музее хранится золото Шлимана, а также не задекларированные культурные ценности, которые остались со времен вывоза украденных сокровищ из Германии после войны. Он подозревает, что имеет место тайная торговля драгоценностями, а главные хранители образуют мафию, прикрывающую сверху всю эту преступность. Нити ведут к египетскому отделу, где в сапфировом сосуде хранится древний яд, вызывающий внезапную смерть.
Параллельно идет расследование преступлений в отделе по работе с коллекционерами. Молодые красотки соблазняют старых коллекционеров, чтобы они завещали свои работы музею. Некоторые из них тоже загадочно умирают, а к музею присоединяют новые корпуса, а также коллекции импрессионистов. Вскрывается коррупция при строительстве новых корпусов по проекту английского архитектора.
Однако затем выясняется, что древний яд выветрился, и не может объяснить череду загадочных убийств. Новый директор музея пытается найти объяснение. Они устраивают ночные дежурства в музее, где происходит какой-то полтергейст.
В конечном счете выясняется, что в старого прежнего директора вселился древний дух-вампир из египетского отдела, который должен убивать молодых сотрудников, чтобы поддерживать свою силу.
Далее выясняется, что вампир, этотне единственный. Все люди во властина самом деле нелюди. Однако герои еще не знают, что в подвалах хранится челюсть Гитлера.
Comment: Я верю в вампиров. Вот в Англии недавно нашли овец с высосанной кровью.
Reply: Но зачем вампирам кровь, они могли бы ее на свиноферме покупать, это вообще отходы производства.
Comment: Это чтовечерний МК? Вброс?
Comment: Чем-то напоминает сценарий сериала, над которым я сейчас работаю под названием «Коктебельский змей». Первая часть: змей нападает на древнеримские корабли; вторая – нападает на деревню в 18 веке, сосет кровь из овец; третья: 1918 год, битва красноармейцев со змеем, Волошин; четвертая: выползает на берег в современном Коктебеле. Основано все на реальных событиях!
           Reply: ну мы тоже хотели когда-то снять ретро-руссо триллер Gaduka (произносится с сильным английским акцентом). Обычная деревня, коровы, пьяницы, на заднем фоне – такое огромное черное змеиное туловище движется сквозь болото.
           Reply: все эти идеи Булгаков давно в «Роковых яйцах» воплотил.



Post: Раздам котят (фото).
Comment: А раньше их топили.
Comment: Теперь жизнь животного приравнена к жизни человека.
Comment: Если кошка будет размножаться как хочет, то популяция кошек будет расти как экспонента с периодом удвоения в полгода, и через 30 лет превысит массу Земли, а еще через 20 – массу Вселенной.
Comment: Но этот же самый аргумент вы не принимаете, когда говорите о проблеме перенаселения человечества!
Comment: Люди могут регулировать население.
Reply: Так вы фашист?

Post: Ставлю 10 долларов на то, что Трампа арестуют до конца года. Представляете, вы просыпаетесь, открываете газеру.ру, а там аршинный заголовок: президент Трамп арестован.
Comment: Это будет гос.переворот.
Comment: Он сам себя помилует.
Reply: а как он себя помилует, если у него отберут бумагу и запрут в камере?
Comment: удален
Comment: И тогда начнется гражданская война.

Post: Ссылка на статью про парабиоз. В Швейцарии научились соединять мышей: старую и молодую, и у них получается общая кровеносная система. Старые мыши молодеют, а молодыестареют.
Comment: Мы уже в 21 веке, а из технологий, достоверно продляющих жизнь, мы доказано знаем только лечебное голодание и переливание крови от молодых, то есть по сути, аскезу и вампиризм. Весь ваш трансгуманизмэто бесконечное чтение лекций и секс с поклонницами, впрочем, тоже иллюзорный.
Reply: Нет, у нас есть крионика, аэто билет в будущее и лакмусовая бумажка на трансгуманизм.
Reply: И еще у нас есть цифровое бессмертие.
Reply: И Роскомнадзор
Comment: да в Киеве в 1961 году это еще все делали.
Reply: Говорят, что Питер Тиль переливает себе кровь подростков.


Post: Только что на моих глазах обрушился балкон, где стояло два человека.



2.     Москва, 2073. На Земле

Первое, что меня поразило, когда я вышел из Центра Возвращения, это то, что Москва выглядела почти точно также, как она была вчера. По улице шли люди, по дороге ехали машины, в небе светило Солнце, а в конце улицы виднелся кусок купола Храма Христа Спасителя....
(далее тут) https://medium.com/@alexeyturchin/%D1%80%D0%B0%D0%BA%D0%BE%D0%B2%D0%B8%D0%BD%D0%B0-%D0%B7%D0%B0%D0%B2%D1%8F%D0%B7%D0%B0%D0%BD%D0%BD%D0%B0%D1%8F-%D0%B2-%D1%83%D0%B7%D0%B5%D0%BB-2dc4295ca56b
TL; DR: Великий фильтр парадокса Ферми можно избежать, выбирая случайную стратегию. Однако, если все цивилизации будут действовать случайным образом, это будет фактической причиной парадокса Ферми. Использование мета-случайной стратегии позволяет избежать эту проблему.
-------
«Смерть в Дамаске» – это проблема теории решений о попытках избежать всезнающего агента, который способен предсказать ваше поведение. Проблема в рамках теории решений вкратце звучит так:

Смерть: «Я убью тебя в Дамаске завтра, но, если ты уедешь в Алеппо, я буду ждать тебя в Алеппо».
Точная формулировка "Смерти в Дамаск" также включает в себя стоимость реализации мер защиты: «Вы сейчас находитесь в Дамаске. Смерть стучит в вашу дверь и говорит вам, что я приду к вам завтра. Вы цените свою жизнь на 1000 долларов и хотите избежать смерти. в Дамаске или заплатить 1 доллар, чтобы бежать в Алеппо. Если вы и смерть завтра в одном городе, вы умрете. В противном случае вы выживете. Хотя смерть говорит вам сегодня, что вы встретитесь завтра, она уже предсказала, останетесь вы или сбежите еще вчера и она должен придерживаться своего предсказания, несмотря ни на что. К несчастью для вас, смерть является идеальным предиктором ваших действий. Вся эта информация вам известна. "

Смерть может предсказать любые мои движения, поэтому нет причин убегать. Этот парадокс исследован в статье «Обманывая смерть в Дамаске» (https://intelligence.org/files/DeathInDamascus.pdf), где было предложено возможное решение: истинный генератор случайных чисел используется для выбора между пребыванием в Дамаске и бегством в Алеппо, и, следовательно, у меня есть 0,5 шанса выживания.

Парадокс Ферми – это тип проблемы, похожий на «Смерть в Дамаске». Ферми-парадокс говорит нам, что другие цивилизации не наблюдаются по неизвестной причине, и одним из решений является «Большой фильтр», который убивает все молодые цивилизации, и для нас такой фильтр впереди. Это означает, что все цивилизации перед нами совершили ту же ошибку, которая привела к их кончине, и поскольку мы являемся типичной цивилизацией, мы сделаем ту же ошибку. Однако мы не знаем, какая именно это всеобщая ошибка. Может быть, нам не следует экспериментировать с адронным коллайдером. Может быть, ИИ всегда появляется, убивает всех, а потом самоуничтожается (само создание ИИ не может объяснить парадокс Ферми, поскольку ИИ распространится по вселенной). Но может быть решение не создавать ИИ смертельно, так как только ИИ может управлять рисками синтетической биологии и других катастрофических рисков.

Другими словами, какую бы рациональную стратегию мы ни использовали, это именно то, что убило все предыдущие цивилизации: если мы убежим в Алеппо, Смерть будет ждать. В оригинальной проблеме Смерть всеведущая; в случае парадокса Ферми всеведение заменяется рассуждением: поскольку мы типичны, мы будем делать все те же ошибки.

В попытке обмануть Смерть, чтобы избежать типичного Большого фильтра, мы (предполагая, что здесь имеется какая-то форма глобальной координации политики) можем в будущем применить случайную стратегию. Например, мы могли бы использовать генератор случайных чисел, чтобы выбрать, какие технологии должны развиваться, и от которых отказываться. В этом случае, у нас есть шанс не развить ту самую опасную технологию, которая является универсальным убийцей.

Но что, если эта случайная стратегия сама является великим фильтром? То есть, что если отказ от некоторых технологий нашу цивилизацию ослабит и будут способствовать исчезновению? В этом случае мы могли бы реализовать мета-случайную стратегию. Сначала мы используем случайную монету для выбора: следует ли вообще попробовать стратегию случайного отказа от разных технологий или надо идти вперед без каких-либо игр с парадоксом Ферми.

Теперь попробуем оценить вероятность успеха случайной стратегии. Если бы эта стратегия была бы очень эффективной, например, если бы она спасла бы 1 из 10 цивилизаций, тогда как общее число цивилизаций в наблюдаемой вселенной равно 100, мы все равно ожидаем наблюдать 10 цивилизаций (и, поскольку другие цивилизации будут наблюдать каждый другие, они не будут реализовывать стратегию, так как для них нет парадокса Ферми). Итак, если стратегия будет очень эффективной, парадокса Ферми не будет, и нет необходимости в такой стратегии. Таким образом, стратегия имеет смысл, если она дает вероятность выживания только 1 / N, где N - общее число цивилизации в прошлом световом конусе, которые погибли из-за позднего фильтра. Другими словами, если мы ожидаем, что прошлый световой конус имел бы 100 цивилизаций, все из которых были бы уничтожены, мы должны выбрать около 7 (как 2 в 7 степени = 128) случайных двоичных выборов в нашей стратегии, и мы, в лучшем случае, будем иметь 0,01 шанса на выживание, что лучше, чем 0, но все еще очень мало.

Теперь мы могли бы использовать ту же логику не для того, чтобы избежать Великого фильтра, а для объяснения наблюдаемого парадокса Ферми. Если почти все цивилизации используют случайные стратегии, они в основном погибают, именно потому, что они пробовали неоптимальное поведение. Таким образом, парадокс Ферми становится самоисполняющимся пророчеством. Почему цивилизация может согласиться на такую, казалось бы, безрассудную игру? Потому что это заменяет непознаваемую вероятность выживания с небольшой, но фиксированной вероятностью выжить. Однако в случае стратегии с мета-случайностью -  это не объяснение парадокса Ферми, так как по крайней мере половина цивилизаций вообще не будет пытаться обмануть.
Вышла моя очередная статья - в журнале Акта Астронавтика - про то как пережить глобальную катастрофу с помощью сохранения данных на Луне, с тем, чтобы следующая земная цивилизация нашла эти данные и воскресила людей. https://www.sciencedirect.com/science/article/pii/S009457651830119X

Преза про воскрешение

Сделал доклад на английском о различных путях технологического воскрешения умерших. Презентация.
https://goo.gl/VBy8zn
Для рисков астероидной опасности существует Туринская шкала, которая имеет пять цветовых уровней, а для измерения ураганов используется шкала Саффира-Симпосна, тоже с пятью уровнями. Основная задача подобных шкал не сколько измерение, сколько коммуникация для широкой публики и лиц принимающих решений уровня риска, чтобы они могли принять нужные решения.
Обычно для коммуникации масштаба глобальных рисков используются довольно туманные высказывания о вероятности вроде: “с вероятностью в 1 процент человечество погибнет от ядерной войны”. Однако вероятность наиболее серьезных рисков практически невозможно измерить, так как это однократные уникальные события в будущем, а среди ученых множество разногласий об их оценках. А кроме того, понятие «вероятность» не включает в себя ряд других важных аспекта риска: тайминг, характер изменения вероятности со временем, степень неопределенности, соотношение с другими рисками, вероятность успеха предотвращения. В результате высказывания о вероятности глобальных рисков полны когнитивных искажения и вызывают здоровый скептицизм.
Чтобы избежать эти трудности, мы предлагаем информировать о глобальных рисках с помощью самоочевидной шкалы, которая содержит шесть цветов от белого до пурпурного. Если вероятность риска может быть определена, то каждый цвет соответствует определенному определенному интервалу вероятности на промежутке в следующие сто лет. Каждый уровень риска также представлен через канонический пример (а для редких рисков – и через частоту повторяемости).

Пурпурный – риск около 1 в настоящее время – канонический пример: Карибский кризис
Красный – риск с вероятностью более 10 процентов в следующие 100 лет – пример: недружественный ИИ
Оранжевый – риски от 0.1 до 10 процентов в следующие 100 лет – тотальная ядерная война, ведущая к гибели человечества.
Желтый – риски от 0.001 до 0.1 процента в 100 лет – раз в миллион лет – риски извержения супервулкана, ведущие к гибели человечества.
Зеленый – риски 0.00001 до 0.001 в 100 лет – раз в 100 миллионов лет - Пример: астероидная опасность уровня астероида, который упал во времена вымирания динозавров.

Белый – менее 0.00001 – раз в миллиарды лет – Солнце превратится в красного гиганта.
И хотя наша шкала определена через вероятности, как мы уже сказали, для самых серьезных рисков вероятности очень трудно оценить. В этих случаях шкала коммуницирует размер риска через уровень необходимых усилий по его предотвращению, то есть эксперты оценивают риск сразу через цветовую шкалу, минуя уровень вычисления вероятностей. (А каждый цвет в нашей таблице сопоставлен и необходимому уровню усилий, см таблицу внизу). Точно также и шкала ураганов Саффира-Симпсона коммуницирует не скорость ветра, а степень разрушения построек – и соответственно, то, насколько глубоко надо прятаться.
Шкала опубликована в ведущем футурологическом журнале Futures в спец. выпуске по глобальным рискам.
Here's the abstract:
Existential risks threaten the future of humanity, but they are difficult to measure. However, to communicate, prioritize and mitigate such risks it is important to estimate their relative significance. Risk probabilities are typically used, but for existential risks they are problematic due to ambiguity, and because quantitative probabilities do not represent some aspects of these risks. Thus, a standardized and easily comprehensible instrument is called for, to communicate dangers from various global catastrophic and existential risks. In this article, inspired by the Torino scale of asteroid danger, we suggest a color-coded scale to communicate the magnitude of global catastrophic and existential risks. The scale is based on the probability intervals of risks in the next century if they are available. The risks’ estimations could be adjusted based on their severities and other factors. The scale covers not only existential risks, but smaller size global catastrophic risks. It consists of six color levels, which correspond to previously suggested levels of prevention activity. We estimate artificial intelligence risks as “red”, while “orange” risks include nanotechnology, synthetic biology, full-scale nuclear war and a large global agricultural shortfall (caused by regional nuclear war, coincident extreme weather, etc.) The risks of natural pandemic, supervolcanic eruption and global warming are marked as “yellow” and the danger from asteroids is “green”.

The paper is published in Futures https://www.sciencedirect.com/science/article/pii/S001632871730112X
If you want to read the full paper, here's a link on preprint: https://philpapers.org/rec/TURGCA

http://immortality-roadmap.com/xriskstab1.jpg
http://immortality-roadmap.com/xriskstab2.jpg
1.Капитализм не ведет к продлению жизни, так как это продление трудно продать как товар, вместо этого продают snake oil + подделка результатов клинических испытаний + нездоровая конкуренция в науке и самопродвижение + заинтереосванность врачей в дорогостоящем лечении, а не в здоровье+ индустрия похорон

2. Капитализм есть мем и одновременно вирусная господствующая программа в мозгах. То есть желание зарабатывать все больше денег ствновится господствующей ценностью, вытесняя другие ценности, в том числе продления жизни. Мем денег имеет деньги, чтобы себя продвигать.
3.Конкуренция между государствами в военном плане (империализм): риск третьей мировой войны - глобальная катастрофа - смерть.
4.Всегда надо расти и увеличивать потребление - ускоренный рост потребления ресурсов и разрушение окружающей среды - риск глобальной кататсрофы - смерть.
5. Кокуренция между фирмами, кто первый создаст сильный ИИ, - увеличивает риски того, что он будет недружественным или даже будет прямым продолжением “капитализма”, то есть будет бездушной системой максимализации денег. Биткоин уже в некотором смысле такая система, paperclip maximizer.
6.Капитализм вообще не заинтересован в росте продолжительности жизни людей, так как быстрая смена поколений может давать не меньший экономический рост.

+ эксплуатация мозга людей с помощью системы лайков в фейсбуке и алгоритма показа лучших постов, в результате чего люди вынуждены писать наиболее лайкуемые посты - или испытывать стресс отвергнутости, что доказано на животных сокращает продолжительность жизни.
+ рост эксплуатации даже в постиндустриальном обществе, где писатели и дизайнеры должны работать по 20 часов в день, чтобы создать лайкуемые продукты - и при этом гробят свое здоровье неподвижным образом жизни, нервным стрессом, стимуляторами и бессонницей.

Latest Month

May 2019
S M T W T F S
   1234
567891011
12131415161718
19202122232425
262728293031 

Tags

Syndicate

RSS Atom
Powered by LiveJournal.com
Designed by Lilia Ahner