turchin (turchin) wrote,
turchin
turchin

Category:

К слову, если кто-то вдруг забыл,  -  у нас уже есть два сверхинтеллекта, и полезно изучать их, когда мы думаем о создании собственного.

Первый - это вся биологическая эволюция, которая смогла породить такую сложную штуку, как человек, а также его разум и его естественные языки.

Второй - это вся человеческая наука, если рассматривать ее как единый процесс.

Какие выводы мы можем сделать о будущем компьютерном сверхинтеллекте, изучая имеющиеся?

Система целей. По большому счету, оба сверхинтеллекта бесцельны. Это, конечно, поразительный факт. А также лишены самосознания и рефлексии (в науке она зародилась в виде наукометрии, но большой роли она не играет). Конечно, целью эволюции является выживание в каждый момент времени, но эта цель довольно техническая, она  нужна для осуществления эволюционного механизма. Но при этом они решат огроное количество разных задач. Я бы описал этот парадокс такой метафорой: не интеллект внутри задачи, а задачи внутри интеллекта, как вауколи внтутри клетки. То же и человек в своей жизни - ценности и задачи меняются, мозг остается.

Созанние. У эволюции его нет, в науке оно есть, но судя по всем, существенной роли не играет. То есть центра нет - ни центра восприятия, ни центра целей, а при этом любые задачи решаются. Также работает и бессознательная часть мозга у человека.

Мастер алгоритм.  Оба сверхинтелелкта реализованы по принципу  - сотрудничество множества малых интеллектов плюс естественный отбор. Эволюция невозможна без миллиардов миллиардов живых существ, которые тестируют разные варианты генокода каждое из них в целом решает свои эгоистические задачи и про глобальную цель вообще не думает. Например, мало кто думает, что выбор наилучшего партенра для брака - это инструмент эволюции вида (допустим, что половой отбор верен).

нтересно, что мозг человека устроен подобным же оразом - он состоит из миллиардов нейронов, каждый из которых не видит глобальной задачи его.

В науке за время ее существования было примерно, на вскидку несколько миллионов ученых. Большинство из них тоже решали разные задачи, а отбору подвергались наименее опровержимые теории (если рассмаривать соицальные механизмы здесь).

Безопасность. Опасен, но не враждебен. В эволюции возможны экологические кризисы, наука создает атомную бомбу. Внутри есть враждебные агенты, но они не наделены суперинтеллектом (тигр, государство). Но среде может возникнуть опасный агент, который силнее среды и ее съест.

Как создать наш суперинтеллект: допустим, мы согласны, что сверхинтеллект - это свойство среды с множеством агентов с разными целями.И мы создаем аквариум и в нем запускаем миллион разных агентов. Но  сверху настраиваем суперганта, который забрасывает туда задачи, а потом получает ответы.

Аппаратные требования: очень большие: нужно симулировать миллионы агнетов человеческого уровня.

Ускорение эволюции: ограничена скоростью и количеством агентов. больше агентов -  меньше скорость. Но наука в миллион раз быстрее эволюции. Переход на следующий уровень должен дать сопоставимое ускорение. Нужна вычислительная среда порядка 10 в 20 степени флопс, чтобы спмоделировать миллион мозгов. и в целом  это близко к суммарной мощи интернета. Может быть реализван как распредленная сеть, где отдельные агенты в руках отдельных людей-программистов и решают разные задачи. нечто вроде SETI-home или сети биткоин. Каждый может забросить в него задачу, но за это предоставляет часть своих ресурсов.

Теорема: сверхинтеллектуальная среда развиваетя по гиперболическому закону. Решение уравнения у Коротаева http://evolbiol.ru/korotayev.htm, а именно скорость роста завистит от квадрата числа населения, квадрат же получается следующим образом: одно N - это то что большого населения больше числа потомков, а второе N - это то, что чем больше население, тем больше изобретателей, которые приводят к росту технического прогресса и ресусров. Но у Коротаева это урванение дано только для численности населения, а на самом деле оно применимо и для эволюции - чем больше особей, тем чаще происодят важные и инетерсные мутации, так и для числа ученых (оно уже вышло на плато), а затем числа специалистов по искусственному  интеллекту,  а затем число ии-агентов, объединенных в сеть.

Следствие: если скорость света конечна, то сверхинтеллект должен уменьшаться в размерах, а не увеличиваться, иначе произойдет замедление обменом информации и скорость развития будет утеряна. То есть в сверх интеллекте должно быть небольшое по размерам ядро, размером с планету земля, например, а в будущем и еще меньше. переферия может быть огрмона, но выполнять технические функции: защиты и питания.

Следствие: сверхинтеллектуальная среда все равно идет к точке сингулярности, но точка не может быть средой. Упс.

Вопрос: можно ли придумать новый мастер-алгоритм, который будет лучше, чем ИИ-среда, которая по сути есть нечто среднее между генетическим алгоритмом и нейронной сетью? Это ведь два простых и так сказать древних способа усиления интеллекта, и можно придумать что-то получше? И тогда ИИ-агент с этим улучшением победит ИИ-среду, произойдет hard-takeoff и синглетон? Или же ИИ среда из множества ганетов всегда сильнее одного агента?

Пути усиления: рост числа агнетов, рост скорости работы агентов, рост скорости обмена информации между агентами, рост интеллекта каждого агента и рост принципов построения рабочих орагнизаций из агентов.

Проблема: курица или яйцо: сверхинтеллеутальная среда или сврех агент. Любые среду можно сверху накрыть агентом, который дает ей задачи и затем использует ее данные. С другой стороны, если есть несколько таких сверх-агентов, то они образуют среду.

Участие: хотя в науке участвует множество людей, большая часть биосферы в ней не участвует, а является ресурсом, а потом объектом охраны.

Subscribe
  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

  • 5 comments