?

Log in

No account? Create an account

Entries by category: компьютеры

Jan. 3rd, 2013

Уровни изменений, на которых проблема копий возникает


Некоторые полагают, что проблема копий возникает при переходе от биологического существа, со всей его много уровневой сложностью, к компьютерному носителю, который является чистой, отделенной явным образом от носителя информацией, то есть формализован.
Вторая точка зрения состоит в том, что проблема копий возникает, когда одна информация заменяется другой с нарушением непрерывности процесса копирования.
То есть в какой момент проблема копий возникает – при переносе сознания в компьютер, или при последующем мгновенном копировании этой информации в несколько разных компьютеров? Или тем более при моделировании одним компьютером состоянии другого компьютера, скажем методом перебора?

С одной стороны, вроде бы возможен плавный перенос сознания из живого мозга в компьютер путем постепенной замены нейронов на их компьютерные модели. Кроме того, срабатывание акта сознания является очень быстрым процессом – от 1/40 до 1 /10 доли секунды, в ходе которого многие низлежащие особенности клеток не успевают проявится, а именно, не успевает значимым образом измениться экспрессия генов и химизм клетки (кроме как путем изменения концентраций нейромедиаторов в синапсах). И хотя все эти процессы роста нейронов, изменения веса синапсов необходимы для долговременной памяти и, значит, работы человеческого интеллекта, они не нужны для срабатывания акта сознания и переживания квалиа, которые происходит слишком быстро, чтобы эти процессы сыграли какую-то роль. То есть весь акт сознания состоит в однократном распространении электрических сигналов по нервным волокнам, и все, что не влияет на характер этого распространения, в этом процессе не участвует. То есть если мы заменим в каком-то месте нервное волокно проводком, или нейрон транзистором, то никакой разницы в переживаемом акте сознания заметить будет невозможно (парадокс об угасающих квалиа Чалмерса). Иначе говоря, акт сознания носит весьма digital характер – ибо нейрон может или сработать или не сработать, и сработавшие связи нейронов тоже однозначны. Точно также, как бег является сложным биологическим процессом, но состоит из дискретных шагов и обладает однозначной скоростью, ускорением итд.

С другой стороны, коль скоро мозг уже смоделирован на компьютере, то в нем происходит непрерывное копирование отдельных его участков – например, из одной области физической памяти в другую, или с диска на оперативную память, то есть будучи внутри компьютера, он не может избежать непрерывного копирования: в копировании - сама суть информации. (Более того, и живой человек постоянно самокопируется, так как происходит замена атомов в теле.) Копирование для него - естественный процесс, происходящий незаметно и в фоновом режиме. И путешествие через копирование тоже может развиваться плавно. Сначала мозг-программа запускается на компьютере с двумя видами памяти: оперативное и на жестком диске, потом эти вычисления переносятся на облако, которое распределено по всему земному шару, и в результате ты вообще не имеешь никакой локальной привязки и фактически путешествуешь по всему миру, где есть вычислительные сети. (Отмечу, что и субъективный опыт нелокален, он не является свойством отдельного нейрона, который может быть одинаков у человека и улитки, или у человека в зрительном и визуальном тракте, а свойством некого большого региона мозга в целом.) Более того, все время появляются твои бэкап копии и иногда тебе приходится из них подгружать потерянные блоки с определенной долей ошибок.

То есть получается, что чем больше мы вглядываемся, тем труднее нам определить конкретный порог, где проблема копий возникает.

В некотором смысле проблема копий аналогична вопросу о том, «что я буду переживать в будущем»? И ответ на него затруднен тем, что все, что мы знаем, относится к прошлому.
Бессмертие через ускорение процессов

Одна из возможностей достичь практического радикального продления жизни — это максимально ускорить вычислительный процесс, который её обеспечивает, таким образом, сделав его независимым от внешних рисков, которые станут очень медленными и редкими.
До предела эта идея доведена Типлером в концепции точки Омега — цивилизации, использующий для вычисления флюктуации сжимающейся вселенной около точки космологической сингулярности. Такая вселенная совершит за конечное время бесконечное количество колебаний, подобно функции sin 1/x и, как полагает Типлер, энергию этих колебаний можно использовать для вычислений, что и будет делать будущая сверхцивилизация. Другой вариант — это запустить симуляцию человека на очень быстром компьютере, который будет способен за секунды симулировать миллионы лет его жизни. Возможность этого следует из того, что скорость обработки сигналов в мозгу — около 40 герц, а для будущих сверхкомпьютеров вполне будет доступны частоты в 40 гигагерц, что означает ускорение в миллиард раз, а также возможны другие способы ускорения.
Это не исключает внутренних причин смерти — зависания, самоубийства, критической ошибки в вычислениях.
Чтобы избежать этого, Иген предложил создать «экзоселф» — лишенный сознания внешний к человеку контролирующий компьютер, который способен выполнять простые задачи — например, предотвращать определенные мысли о самоубийстве, восстанавливать систему после зависания, архивировать, напоминать.
Сканирование мозга.
Характерные размеры синапса – несколько десятков нанометров. Нужно сканирование с разрешающей посбностью порядкм 10 нм. Один куб см. содержит (10**7)**3 = 10**21 куб. нм. Или 10**18 кубов с ребром по 10 нм, то есть примерно 10**17 байт информации – сто петабайт. Эта информация является излишней для реконструкции мозга, так как из неё нужно только извлечь типы и размеры синапсов и какие клетки с какими соединены. Предположим, что размрешения в 10 нм достаточно, чторбы оценить эти свойства синапса с точностью в 99 процентов, и что этой точности достаточно для реконструкции мозга. Ведь мозг может продолжать работать, когда его параметры весьма значительно гуляют – например, под воздействием алкоголя оболочки синапсов растворяются и высвобождают часть нейромедиаторов, тем не менее, это измненение работы синапсов не приводит к полному измненению личности, а только к перемене ее состояния.
Кроме того, будем считать, что основная информация в мозгу хранится в виде именно связей синапсов, а не в виде постоянно циркулирующих электрических токов – паттернов возбуждения по нейронным сетям. Вероятно, это верно для долговременной памяти, но не для кратковременной. Опыты по электрошоку , транскариальной магнитной симуляции (которая томозит участки коры) и инсулиновой коме показывают что можно «перезагрузить» человека, стерев цирулирующие токи, но сохранив синапсы. «Электромозговая тишина (electrocerebral silence-ECS) не исключает возможности обратимой комы». http://ru.wikipedia.org/wiki/Смерть_мозга
При объёме мозга около 1000 куб см. грубый скан мозга будет занимать 100 000 петабайт. Столько же информации генерирует большой адронный коллайдер за сутки, но потом эта информация быстро ужимается. Вероятно, что грубый скан мозга можно ужать в 100-1000 раз, убрав сканы пустых пространств, сосудов, воспомогательных клеток, нервных оболочек, а также на лету распознавая типы синапсов и путь неврных волокон. Тогда предварительный, готовый для записи будет 100-1000 петабайт. При этом у БАК в его сети объём памяти на жёстких дисках 45 петабайт. То есть почти дотягивает по порядку для сохранения скана мозга.
Сейчас такое оборулование – компьютерный центр – стоит миллиарды долларов.
Через 10-20 лет его цена упадёт до миллионов, и всё дело будет в успехах сканирования.

Очевидно, что лучше всего сканировать неподвижный замороженный мозг. Это можно делать очень долго, и положения клеток в нём почти не меняются.
Лучший из существующий нанотомографов имеет разрешение 50 нм, но при этом сканирует очень маленький кусочек материала – 16микрометров.
http://en.wikipedia.org/wiki/Nanotomography
Но мозг - мягкая ткань и компьютетная томография для него плоха – он прозрачен. Кроме того, длительное сканирование будет повреждать мозг, как за счёт нагрева, так и за счёт радиационных повреждений.

Более привлектательной выглядит MRI (Magnetic resonance imagin) – фотографирование излучения возбуждённых атомов в мощном магнитном поле. Оно не является томографией, так как не требует длительной компьютерной реконструкции – MRI сразу даёт изображение слоя. http://en.wikipedia.org/wiki/MRI#MRI_versus_CT
MRI может различать разные виды атомов, но ртебует введения контарстных агентов, что невозможно в замороженном мозге.

Интересно было бы использовать мозг как объект, на котором рассеивается некая проникающая частица, а затем изучать получающуюуся интерференционную картинку. А затем по картинке строить обратно изображение мозга. Но это потребует огромных компьютерных мощностей на реконструкцию.

В статье сообщается о сканировании в особых условиях (не очень подходит для мозга, нужен феромагнитный матриал образца) с разрешением в 200 нм, и о возможности снизить это разрешение до нескольких десятков нм.
Nanoscale scanning probe ferromagnetic resonance imaging using localized modes http://www.nature.com/nature/journal/v466/n7308/full/nature09279.html

Ясно, что для лучшего сканирования мозг нужно разрезать на как можно большее число маленьких кусочков, но при разрезании часть информации будет потеряна. Прогресс в области разрезания замороженной ткани даже важнее, чем прогресс технлологий сканирования, так как если молжно будет резать очень легко и эффективно, то есть без потерь, то можно потом использовать хоть оптическое сканирование под микроскопов очень тонких срезов. То есть можно вообразить себе некие алмазные суперножи. Кроме того, разрезание – это почти оджнозначное разрушение мозга, так как срезы хранить труднее, и а объёмнеое сканирование мозга можно всегда повторить.

А вот статья. Там сказано, что разрешающая сопосбность fmi растёт линейно с силой магнитного поля. И что теоретический предел ее - 100 микрометров.
Survey of brain imaging techniques with implications for nanomedicine
http://www.foresight.org/Conference/MNT8/Papers/Flitman/index.html

У курцвейла дан график искорения сканирования мозга со временем.
http://www.singularity.com/charts/page159.html



Где виден период ускорения – 10 раз за 20 лет, и окончательный результат 0.1 мм в 2000 году. До нашего предела нужно еще 10 000 раз большую точность, которая, при нынешнем темпе ускорения сканирования, будет достигнута к 2080 году. Это после сингулярности 

http://en.wikipedia.org/wiki/Mind_uploading
здесь о том же
http://en.wikipedia.org/wiki/Magnetoencephalography
сканирование токов мозга и реконструкция по ним нейронных токов
http://en.wikipedia.org/wiki/Confocal_laser_scanning_microscopy
трёхмерная микроскопия выского разрешения

В целом, неинвазивное сканирование представляется одним из перспективных методов возрващения к жизни криопациентов. Оно позволит избежать повреждений мозга при размораживании. Наоборот, замороженный мозг лучше подходит для сканирования.

Дом в будущем



Здесь мы поговорим о судьбе жилого дома и интерьера в будущем. Потребность во сне делает свой дом необходимым. «Киборгизированный» человек будущего, отключивший необходимость в отдыхе, мог бы обходится одними кафе – и рабочим местом.
В доме будущего просматриваются две тенденции – к миниатюризации дома и к увеличению размеров дома.
Миниатюризация дома – это создание домов-капсул, как в современных токийских отелях, это виртуализация дома и сведение его к личному пространству перед монитором, это замена дома временным жильём в отелях. Сюда же входит слияние дома и офиса. Либо люди могут ночевать в офисе, либо устраивать себе офис дома. Благо, сейчас для организации рабочего места достаточно одного компьютера. Создание технологий возвращается в дом, возникает гражданин-учёный – за счёт миниатюризации развиваются лаборатории на дому, а большая часть исследовательской работы всё равно осуществляется на компьютере. В эту же тенденцию входят и подвижные дома на колёсах всех мастей. Миниатюризация дома на самом деле означает его расширение, так как человек с миниатюрным домом может свободно перемещаться по миру, вся Земля – его дом. Дом превращается в окно.
Рост размера домов, с другой стороны, обеспечивается снижением среднего размера семьи, ростом производственных сил и строительных технологий и развитием транспортных средств. Эта тенденция проявляется в основном в современных Соединённых штатах с их обширными пригородами.
Таким образом, обе тенденции сводятся к одной – к стиранию границ дома и мира. Раньше люди строили не только свой дом, но и свой мир. Русская усадьба 18 века строилась как «экстракт вселенной на десятине», и поэтому в ней была велика роль парков. Как не странно, сейчас личные парки практически отмерли. Возможно, это связано с нехваткой земли и дешёвой рабочей силы. Хочется верить, что в будущем освоение удалённых земель, строительство садов под куполом и дешёвый труд роботов снова сделает возможным личные парки-оранжереи. С другой стороны, ценность материального снижается, и значимость дома как инструмента личной репрезентации убывает. Равно убывает и ценность вещей, тогда как ценность личных контактов, пространства, достоверной информации и приятных ощущений растёт.
Read more...Collapse )

Больцмановский мозг

Есть идея, что любой мозг любого человека может с небольшой вероятностью возникнуть в результате квантовой флюктуации в вакууме. Когда-то в 16 лет эта мысль меня поразила и заставила провести неприятный в философском смысле вечер (в практическом смысле мы ездили в Ялту в ресторан). Мысль была такова – «а что, если меня не существует? Что если я есть только случайная флюктуация, например, такое же взаимодействие атомов внутри камня, которое аналогично по своей причинно-следственной структуре мысли о моём существовании. Что, если «когито эрго сум» – ошибочно?» Наиболее неприятное здесь следствие – что у меня нет будущего, то есть что флюктуация мгновенно рассасывается. Часа через три я нашёл ответ, который меня успокоил. Он таков: даже если я могу быть случайным совпадением, то такие совпадение должны вкладываться за счёт многомирного бессмертия в реальное моё существование. Кроме того, я понял, что не следует никому рассказывать об этом никогда, потому что всё равно это никто не поймёт, и меня только посчитают сумасшедшим. Много позже выяснилось, что не один я задавался такими странными вопросами, и некоторые космологи тоже обсуждают возможность возникновения мозга как флюктуации в вакууме. Однако их ответ на эту проблему таков: множество реальных мозгов гораздо больше, чем множество мозгов-флюктуаций, поэтому есть хорошие шансы считать себя реальным. (Но собственно говоря, почему? У меня нет возможности узнать, не являюсь ли я мозгом-флюктуацией, который существуют лишь одну милисекунуду и думает только одну эту мысль, а множество возможных флюктуаций в бесконечном вакууме очень велико.) А теперь эта тема общеизвестна: http://ru.wikipedia.org/wiki/Больцмановский_мозг, Andrei Linde. «Sinks in the Landscape, Boltzmann Brains, and the Cosmological Constant Problem», http://arxiv.org/abs/hep-th/0611043, «Spooks in space» http://www.newscientist.com/article/mg19526171.100-spooks-in-space.html
Есть также теория, о Больцмановском Боге – то есть о сверх интеллекте, который возникает в абсолютном вакууме и от скуки порождает симуляции. http://vulcanis.wordpress.com/2007/09/02/boltzmann-brains-not-as-unlikely-as-you-might-have-hoped/
Здесь надо всё же провести очевидное различие – между больцмановским мозгом и «больцмановской мыслью». Если первое – это настоящий мозг, которые может довольно долго функционировать, то Б-мысль – это только однократная комбинация неких причинно-следственных связей (как «лицо» на Марсе).
Основное различие реальных и больцмановских мозгов в том, что первые должны в воспринимаемом мире видеть отражение упорядоченных законов, которые смогли их породить, тогда как вторые могут наблюдать полностью хаотический мир. Иначе говоря, Больцмановские мозги должны видеть больше чудес. Отсюда следует пригодность идеи о БМ для объяснения чудес.
Очевидно, что проблема БМ во многом аналогична проблеме компьютерных симуляций. Иначе говоря, можно назвать БМ спонтанно возникающими симуляциями.
Очевидно, что если бы некий тип БМ мог бы самоподдерживаться или самореплицироваться, то он создал бы доминирующий класс среди всех БМ. (Точно также как вечная космологическая инфляция создаёт бесконечно большое пространство за счёт способности изначальной флюктуации очень быстро раздуваться при определённом сочетании начальных условий.) Это уже попахивает самозарожденим духа!
Странность проявлений НЛО также наводит на мысль о неких флюктуациях. Вообще, общее свойство аномальных явлений – их редкость, непредсказуемость и неповторимость. Это очень напоминает флюктуации. Однако классические НЛО демонстрируют некие элементы закономерностей. Классические квантовые флюктуации являются микромасштабными. Однако если весь мир наш – флюктуация, то флюктуации в том, пространстве, где он априорно возник, сопоставимы по масштабу со всем миром.
Нетрудно представить себе нечто среднее между б-мозгом и б-мыслью. То есть некую форму флюктуации, в которой мыслям более удобно затем возникать. Грубый пример: в начале возникает пишущая машинка, а затем из ее букв генерируются высказывания. В конце концов именно так и возникла обычная наблюдаемая вселенная: сначала флюктуация – большой взрыв, а потом высказывания из букв-атомов (которые перебираются за счёт более мелких флюктуаций – тепловое движение молекул и химические реакции). Однако возможен и другой набор букв (квалиа?), соответствующий напрямую состояниям мозгов наблюдателей. Теперь остаётся исследовать то, не будет ли такая больцмановская пишущая машинка создавать больше наблюдателей, чем естественная вселенная и чем чистые больцмановские мозги. Если да, то мы в ней.
Возникновение мощного кремниевого компьютера на базе нанотеха из вакуума более вероятно, чем возникновение целой биологической особи, поскольку масса компьютера будет неизмеримо меньше (она может составлять несколько микрограмм). Вероятность спонтанной материализации падает очень быстро пропорционально массе возникшего компьютера, так что наиболее вероятен наиболее «технически совершенный» компьютер. Такой компьютер может быть квантовым, то есть он может быть устроен как последовательность переходов между электронными уровнями в некой сложной молекуле. Кроме того, такой компьютер может более долго и устойчиво существовать в вакууме, чем биомозг. Далее, если такой компьютер производит упрощённую я-симуляцию, то он ещё проще и вероятнее.
Один из возможных способов избавиться от Больцмановских мозгов – это предположить, что наша вселенная скоро самоуничтожится. «Is Our Universe Likely to Decay within 20 Billion Years?» Don N. Page http://arxiv.org/abs/hep-th/0610079

Oct. 15th, 2009

Даже если закон мура перестанет работать, мощность супер компьютеров может продолжать экспоенциальный рост. Это возможно по трем причинам - во-первых, увеличение доли от общего числа произведённых процессоров , которая используется в самом мощном компьютере (сейчас только несколько процентов уходит на сепркомпьютеры, и эти несколько процентов разбросаны между десятками конурирующих систем). Во-вторых за счёт роста числа фабрик, производящих процессоры, плоть до предела, который позволяет мировая экономика. В-третьих, за счёт накопления числа процессоров, созданных в прошлые годы (сейчас этот процесс не работает, так как процессоры быстро устаревают морально).

Можно оценить, что мировая экономика могла бы производить 10 млрд процессоров в год, что на один-два порядка больше современной величины. За 10 лет это было бы 10**11 процессоров. Мощность самых мощных современных процессоров составляет около 1 терафлопса (всяких там видеокарт типа Fermi) таким образом за десяток-другой лет можно было бы создать компьютер производительностью 10**23 флопс, даже если закон мура встант сегодня. отметим, что он гарантировано не встанет в ближайшие пять лет, и почти наверняка - в ближайшие 10 лет. Что равносильно росту производительности в 1000 раз. Таким образом, можно утвержать, что исходя из известных технологий реально создать суперкомпьютр в 10**26 флопс в 21 веке.

но какие у него будт потребление энергии? порядка 10 Тераватт, если каждый процессор будет портерлять по 100 ватт.
2005 — 18138,3 ТВт·ч — 2,069 ТВт
(Эти данные соответствуют ежегодному приросту производства 3,2–3,8%.)http://www.genon.ru/GetAnswer.aspx?qid=d3d278b3-bc5a-4be4-bd4d-9f5958a9c865


таким образом, придётся в пять раз увеличить мощность всех электрстанций в мире, чтобы покрыть мощность этого сверхкомпьютера. Это на грани возможного по современным технологиям, но реально, если все пустыни покрыть солнечными электротанциями.

НЛО, Матрица и глюки

Согласно Н. Бострому (Ник Бостром. Доказательство Симуляции. http://www.proza.ru/2009/03/09/639), вероятность того, что мы живём в полностью симулированном мире, достаточно велика. То есть наш мир может быть полностью смоделирован на компьютере некой сверхцивилизацией. Это позволяет авторам симуляции создавать любые образы в ней, с непостижимыми для нас целями. Кроме того, если уровень контроля в симуляции мал, то в ней будут накапливаться ошибки, как при работе компьютера, и возникать сбои и глюки, которые можно заметить. Люди в чёрном превращаются в агентов Смитов, которые стирают следы глюков. Или некоторые жители симуляции могут получить доступ к неким незапротоколированным возможностям. Это объяснение позволяет объяснить любой возможный набор чудес, но оно не объясняет ничего конкретного – почему мы наблюдаем именно такие проявления, а не, скажем, летающих вверх тормашками розовых слонов. Основной риск состоит в том, что симуляция может быть использована для тестирования крайних условий работы системы, то есть в катастрофических режимах, а так же то, что симуляцию просто выключат, если она станет слишком сложной или завершит свою функцию.
Основной вопрос здесь – степени контроля в Матрице. Если речь идет о Матрице под очень жёстким контролем, то вероятность незапланированных глюков в ней невелика. Если же Матрица просто запущена, а потом предоставлена на произвол судьбы, то глюки в ней будут накапливаться, как накапливаются глюки при работе операционной системы, по мере ее работы и по мере добавления новых программ.
Первый вариант реализуется, если авторы Матрицы заинтересованы во всех подробностях происходящих в Матрице событий. В этом случае они будут жёстко отслеживать все глюки и тщательно их стирать. Если же они заинтересованы только в конечном результате работы Матрицы или одном из ее аспектов, то их контроль будет менее жёстким. Например, когда человек запускает шахматную программу и уходит на весь день, его интересует только результат работы программы, но не подробности. При этом в ходе работы шахматной программы она может обсчитать множество виртуальных партий, иначе говоря, виртуальных миров. Иначе говоря, авторы здесь заинтересованы в статистическом результате работы очень многих симуляций, и подробности работы одной симуляции их волнуют только в той мере, в какой глюки не влияют на конечный результат. А в любой сложной информационной системе какое-то количество глюков накапливается, и по мере роста сложности системы сложность их удаления экспоненциально растёт. Поэтому проще мириться с присутствием неких глюков, чем удалять их на корню.
Далее, очевидно, что множество слабоконтролируемых систем гораздо больше множества жёстко контролируемых, поскольку слабоконтролируемые системы запускаются в больших количествах, когда их можно произвести ОЧЕНЬ дёшево. Например, множество виртуальных шахматных партий гораздо больше партий реальных гроссмейстеров, а множество домашних операционных систем гораздо больше множества правительственных суперкомпьютеров.
Таким образом, глюки в Матрице допустимы, пока они не влияют на общий ход работы системы. Точно также и в реальности, если у меня шрифт в браузере стал отображаться другим цветом, то я не буду перезагружать весь компьютер или сносить операционную систему. Но то же самое мы видим в исследовании НЛО и других аномальных явлений! Существует некий порог, выше которого ни сами явления, ни их общественный резонанс прыгнуть не могут. Как только некие явления начинают подбираться к этому порогу, они или исчезают, или появляются люди в чёрном, или выясняется, что это была мистификация, или кто-то погибает.
Отметим, что есть два вида симуляций – полные симуляции всего мира и я-симуляции. В последних симулируется жизненный опыт только одного человека (или небольшой группы людей). В я-симуляции вероятнее обнаружить себя в интересной роли, тогда как в полной симуляции 70 процентов героев являются крестьянами. Из соображений наблюдательной селекции я-симуляции должны быть гораздо более часты – хотя это соображение нуждается в дальнейшем осмыслении. Но в я-симуляциях тема НЛО должна быть уже заложена, как и вся предыстория мира. И она может быть заложена нарочно – чтобы исследовать, как я буду обращаться с этой темой.
Далее, в любой информационной системе рано или поздно заводятся вирусы – то есть паразитические информационные единицы, нацеленные на саморепликацию. Такие единицы могут возникать и в Матрице (и в коллективном бессознательном), и против них должна работать встроенная антивирусная программа. Однако по опыту пользования компьютерами и по опыту биологических систем мы знаем, что проще мириться с наличием безвредных вирусов, чем травить их до последнего. Тем более, что полное уничтожение вирусов часто требует сноса системы.
Таким образом, можно предположить, что НЛО – это вирусы, использующие глюки в Матрице. Это объясняет абсурдность их поведения, так как их интеллект ограничен, а также их паразитирование на людях – так как каждому человеку выделено в Матрице определённое количество вычислительных ресурсов, которые можно использовать. Можно предположить, что некоторые люди воспользовались глюками в Матрице, чтобы достичь своих целей, в том числе бессмертия, но тоже самое сделали существа из других вычислительных сред, например, симуляций принципиально иных миров, которые затем проникли в наш мир.
Ещё один вопрос – каков уровень глубины симуляции, в которой мы, скорее всего, находимся. Можно симулировать мир с точностью до атома, но это потребовало бы колоссальных вычислительных ресурсов. Другой крайний пример – шутер от первого лица. В нём трёхмерное изображение местности рисуется по мере надобности, когда главный герой подходит к новому месту, на основании общего плана местности и неких общих принципов. Либо используются заготовки для некоторых мест, а точная прорисовка других мест игнорируется (как в фильме «13 этаж»). Очевидно, чем точнее и подробнее симуляция, тем реже в ней будут глюки. С другой стороны, симуляции, сделанные «наспех», будет содержать гораздо больше глюков, но при этом потреблять неизмеримо меньше вычислительных ресурсов. Иначе говоря, с одинаковыми расходами можно было бы сделать или одну очень точную симуляцию, или миллион приблизительных. Далее, мы предполагаем, что в отношении симуляций действует тот же принцип, что и в отношении других вещей: а именно, что чем дешевле вещь, тем чаще она встречается (то есть в мире больше стекляшек, чем бриллиантов, больше метеоритов, чем астероидов и т. д.) Таким образом, мы, скорее, находимся внутри дешёвой упрощённой симуляции, а не внутри сложной сверхточной симуляции. На это можно возразить, что в будущем будут доступны неограниченные вычислительные ресурсы, и поэтому любой актор будет делать достаточно подробные симуляции. Однако здесь вступает в действие эффект симуляций-матрёшек. А именно, продвинутая симуляция может создавать свои собственные симуляции, назовём их симуляциями второго уровня. Допустим, продвинутая симуляция мира середины 21 века (созданная, положим, в реальном 23 веке) может создать миллиарды симуляций мира начала 21 века. При этом она будет пользоваться компьютерами середины 21 века, которые будут более ограничены в вычислительных ресурсах, чем компьютеры 23 века. (А также реальный 23 век будет экономить на точности подсимуляций, так как они ему не важны.) Поэтому все миллиард симуляций начала 21 века, которые она создаст, будут весьма экономными по вычислительным ресурсам. В силу этого число примитивных симуляций, а также симуляций, более ранних в отношении симулируемого времени, будет в миллиард раз больше, чем число более подробных и поздних симуляций, и, следовательно, произвольный наблюдатель имеет в миллиард раз большие шансы обнаружить себя в более ранней (во всяком случае, до появления сверхкомпьютеров, способных к созданию собственных симуляций) и более дешёвой и более глючной симуляции. А согласно принципу self-sampling assumption каждый должен рассматривать самого себя как случайного представителя множества подобных себе существ, если он хочет получить наиболее точные вероятностные оценки. Таким образом, мы имеем гораздо большие шансы а) оказаться в самой дешёвой симуляции б) оказаться до того момента времени, когда появятся сверхкомпьютеры, способные к созданию симуляций (так и есть) в) оказаться в я-симуляции г) оказаться на дне цепочки из вложенных симуляций, то есть симуляции N уровня, где N максимально д) оказаться в симуляции со значительным уровнем глюков.
Другой вариант состоит в том, что НЛО нарочно запускаются в Матрицу, чтобы дурачить живущих в ней людей и смотреть, как они будут на это реагировать. Поскольку большинство симуляций, как я думаю, предназначены для симулирования мира в неких особенных, крайних условиях.
Всё же эта гипотеза не объясняет всего множества конкретных проявлений НЛО.
Риск здесь состоит в том, что если наша симуляция будет перегружена глюками, то хозяева симуляции могут решить ее перезагрузить.
Волновой компьютер.

Много букв об устройстве ума: попытка нащупать.

Read more...Collapse )

Feb. 15th, 2006

Где-то прочитал оценку, что в пределе один кубический сантиметр компьютера на углеродных нанотрубках будет иметь мощность в миллион человеческих мозгов. Прикинул - похоже на то. 10 в 18 транзитсторов туда влезет, если счтать несколько тысяч атомов на транзистор, и частота в десятки гигагерц. При этом в мозгу 10 в 11 нейронов, каждый из которых должен моделировать маленький компьюетр из нескольих тысяч транзисторов. То есть получается, что мозг - это 10 в 15 транзисторов. А там в тысячу раз больше. "вторая" тsczxf получается из того, что частота этого устройства будет в миллиарды раз больше, чем у мозга.
Если оценивать производительность мозга в флопсах, то там тоже выползает 10 в 15 степени, то есть пета флопс. Таких компьюетров пока нет, только 0.2 петафлопса, а алгоритмов и подавно.
Таким образом предельный компьютер в куб. сантиметр будет иметь производительность 10 в 21 флопс, или миллион петафлопс. проблема конечно охлаждением. надежда на полевые транзисторы и синтронику. Если исходить из закона Мура, такой компьютер будет сделан только через 30-60 лет.(Самый мощный современный "бытовой" компьютер - сони плэйстэшн 3 имеет производительность 200 гига флоп, что составляет только 1\5000 от мозга человека)

инетерсно посчитать предельную производительность самого мощного компьютера, если на него будет потрачено всё вещество земли, порядка 10 в 12 кубических километров.или 10 в 25 кубических сантиметров. Она составит 10 в 46 флопс. Иначе говоря, этот компьюетр сможет поддерживать одновременно образы 10 в 30 людей, или образы 10 в 19 цивилизаций, равных человеческой. Отсюда следует, что вероятность того, что мы моделированы в таком компьюетере в миллиард миллиардов раз больше, чем то, что мы живём в реальном мире. Если такой компьюетр возможен:)Дажен если этот компьюетр тратит лишь одну миллиардную долю своих ресурсов на моделирование людей (дались мы ему) то это означает модель миллиарда цивилизаций одновременно. при этом не учитываем время существования этого жуткого устройства. :(

Latest Month

May 2019
S M T W T F S
   1234
567891011
12131415161718
19202122232425
262728293031 

Tags

Syndicate

RSS Atom
Powered by LiveJournal.com
Designed by Lilia Ahner