Небо становится ближе с каждым днем

superintelligenceПредставьте такую сценку: три абитуриента сдают тест в престижный университет. Задание несложное: пара задач по математике для шестого класса. Правило тоже простое – первый, кто решит задачи, тот и поступит. Первый абитуриент – молодой человек, который выиграл все олимпиады по математике, в которых смог физически поучаствовать в свои 16 лет. Его соперники – котенок персидской породы и саженец фикуса в горшке. Через пять минут парень заканчивает решать задачи, поглядывая на «конкурентов», больше беспокоясь о том, не галлюцинации ли у него, в то время как котенок уже весь в игре с листочками деревца.

В начале декабря случайно, сам того не желая, окунулся в тему искусственного интеллекта (ИИ) и вот уже несколько недель эта тема все не отпускает. Перспективы настолько ошеломляющие, что захватывает дух, и это действительно поменяло и продолжает менять мое мировоззрение весьма сильно. Так, например, я еще недавно полагал, что самая важная, интересная и стоящая цель – это продление жизни и омоложение. Но сегодня я так не считаю.

В последнее время много значимых людей высказывались об ИИ. Так, Стивен Хокинг сказал, что как только ИИ превзойдет интеллект человека, он станет представлять угрозу нашему существованию. Элон Маск сказал почти тоже самое, но, как показалось, от него прозвучала реальная тревога. Билл Гейтс также на днях высказался о том, что многие даже не думают, что скоро останутся без работы, из-за ИИ и управляемых им роботов. В этом году вышла и книга Ника Бострома «Суперинтеллект».

В апреле 2014 года компания DeepMind, которая занимается разработкой ИИ, продемонстрировала, как компьютерная программа учится побеждать все игрушки Атари. Учится самостоятельно, получив только управление и задачу выиграть. Обратите внимание на то, как программа «элегантно» направляет шарик внутрь стены блоков, или как тупо избивает партнера в углу. Программе потребовалось всего несколько часов для достижения совершенства.

Шейн Легг, соучредитель компании, полагает, что ИИ – угроза для человечества номер один. Элон Маск, кстати, инвестировал в эту компанию еще до того, как в прошлом году ее купил Гугл. Сегодня это риск осознается Гуглом настолько, что они учредили этический комитет, задачи которого – найти возможности выживания человечества с ИИ. Вероятно, и гугловцы и Маск увидели и другие способности этого ИИ, о которых публично не было сказано.

В марте 2014 Маск инвестировал и в другую компанию, Vicarious, чьей целью является создание нейронной сети, которая будет работать как человеческий мозг.

Это кажется парадоксом – бояться этого и все равно продолжать делать все, что необходимо для создания интеллекта, превосходящего человеческий. Но это так по-человечески – подходить к самому краю, и верить в то, что все обойдется, как обычно, так или иначе.

Вот и Рэй Курцвейл, в недавней статье в журнале Times выдвигает успокаивающие аргументы. Экзистенциальная угроза от ИИ – отнюдь не первая в истории человечества, говорит он, и у нас есть время разобраться и научиться им управлять.

Это замечательно, что выдающиеся люди в курсе происходящего, и хорошо, что некоторых из них ИИ пугает. Плохо то, что сроки, которые указывают эксперты, о том, когда ИИ обретет реальную мощь, все еще выглядят успокоительно далекими.

Но помимо того, что упомянуто выше, в мире происходит и множество других разработок. И все они развиваются с невероятной скоростью. От создания программы для игры в шахматы, которая превзошла самых лучших игроков прошла пара десятков лет, а теперь аналогичной новостью не удивишь никого.

Ник Бостром (2014) приводит несколько фактов:

  • Шашки – в 1994 году программа побила чемпиона, а в 2004 году была создана программа, которая делает самые лучшие ходы, используя базу данных в 39 триллионов окончаний партий.
  • Нарды – с 1992 году непобедима человеком в принципе.
  • Шахматы – 1997 год DeepBlue побеждает Каспарова. С тех пор движки стали еще лучше. У человека нет шансов.
  • Го – программа достигла, как минимум 6 дана, еще несколько лет и она будет бить игроков 9, высшего профессионального дана. Я сам играю в ГО и убеждаюсь, как сильно стали играть программы.

Компьютеры сейчас или в самое ближайшее время будут превосходить человека во всех играх.
Примечательно, что мастерство в этих играх – воплощение человеческого интеллекта, а в программах – довольно простые алгоритмы. Игры – лишь частное проявление мощи ИИ, который демонстрирует успехи в машинных переводах, распознавании лиц, постановке диагнозов, выборе музыки и книг, и еще куче всего, что мы даже не успеваем осознавать. Это характерно для нашего времени: скорость развития почти всего – самая высокая в истории, и она только ускоряется. Можно без эмоций сказать, что уж слишком быстро мы все меняем.

А в тех областях, которые могли бы нам пригодиться как роду, в социальных науках – у нас полный застой. Мы не в состоянии придумать лучший способ совместного существования, чем то, что было предложено за тысячу лет: всякие демократии, автократии и капитализм. Мы до сих пор, вместо того, чтобы жить долго, дружно и весело, убиваем друг друга, тратим деньги и жизни на всякие нелепые проекты, и уничтожаем планету. Мы едва справляемся с общечеловеческими задачами. Мы хоть еще не превратили сами себя в радиоактивный пепел, смогли как-то договориться, но вызовы, которые бросает нам будущее – гораздо круче. Есть у кого-то уверенность, что мы справимся?

Человеческий мозг, несмотря на то, что является выдающимся творением природы, уступает ИИ по всем параметрам (Bostrom, 2014):

  • Максимальная скорость вычислений нейронов – 200 Гц. К примеру, обычный смартфон сегодня имеет процессор с частотой в 2 Гигагерца, на несколько порядков больше.
  • Скорость передачи потенциала между нейронами составляет максимально 120 метров в секунду, тогда как оптоэлектроника может предавать сигналы со скоростью света.
  • У нас огромное количество нейронов, около 100 миллиардов, но это предел, тогда как компьютеры могут наращивать число до непроизносимого числа.
  • Память человека – ну тут и говорить, увы, не о чем.
  • Надежность – да, мозг прекрасно справляется в течение десятков лет, но нейрон — ненадежный, в сравнении с транзистором.
  • Но главное – это софт. В нас заложен неплохой софт, который позволил нам выжить и покорить мир, но мы только учимся понимать его сегодня, практически не умеем изменять и улучшать. Мы знаем, что некоторые эти старые программы играют с нами плохие штуки: например, наша привязанность к высококалорийным продуктам или способность замечать животных быстрее, чем автомобили. Мы чрезвычайно плохо умеем управлять собой. Есть исключения, но, как правило, они касаются людей, которые посвящают совершенствованию себя все время.
    Компьютеры в этом плане обладают несравненной гибкостью.

Вернемся к сценке в начале статьи, и представим, что тот парнишка – суперинтеллект, а мы — либо котенок либо дерево, кому что нравится. У нас столько же шансов сдать экзамен, и продолжить жизнь. Мы ему не конкуренты, и нас может тешить надежда на то, что он не обратит внимания на нас, и оставит в живых.

ИИ с каждым днем становится все мощнее и мощнее, усилиями самих людей. В ближайшем будущем он действительно будет помогать нам во всех областях, и мы сможем решать любые и проблемы.
Но он продолжит развиваться, на порядки опережая наши способности за ним поспевать. И тогда он займется своими задачами.

У нас либо еще остается время что-то сделать, либо уже нет. Поскольку мы этого точно пока не знаем, то делать что-то надо прямо сегодня. Вероятных сценариев немного:

1) Мы решаем проблему взаимодействия с ИИ, делаем его дружественным и решаем все проблемы, которые могут вообще быть, живем долго и счастливо, покоряя всё во Вселенной. Самый оптимистический и самый невероятный сценарий, на мой взгляд.
2) ИИ, достигая невероятной скорости развития, мчится мимо нас, по своим неведомым человечеству делам, оставляя нас в покое. Мы будем жить, ему не мешая, как сейчас живут муравьи. Дружить с ними не о чем, но пусть живут. Тоже очень оптимистичный сценарий.
3) ИИ достигает определенной стадии развития и в какой-то момент он устраняет человечество как вредоносный паразитирующий элемент.

На мой взгляд, эти сценарии развернутся уже в ближайшие 15 лет. У нас совсем мало времени.

Я не специалист в ИИ, поэтому могу смотреть на перспективу глазами психолога. И мне кажется, что Курцвейл, несмотря на выдающиеся экспертные знания, необоснованно оптимистичен – такого экзистенциального риска человечество еще не знало, и поэтому история прошлых рисков не совсем подходит. Мы даже не будем говорить про пресловутых черных лебедей.

Если посмотреть на нас глазами суперинтеллекта, то сложно увидеть что-то симпатичное. Мы для него — существа, которые спят треть жизни, плохо считают, постоянно что-то едят, толстеют, болеют, не понимают мотивы своих поступков, не знают будущего, и ведут, в целом, бессмысленную жизнь.

Эмоции, которые как думают некоторые, кажутся нам чем-то таинственным, что отделяет нас от машин. Романтическая фантастика прошлых десятилетий постоянно говорила об этом, заставляя ИИ обожать нас за то, а самому «стыдиться», что ему никогда не понять что такое любовь. Но сегодня мы уже сами показали, что эмоции вполне себе биологически обусловленные феномены, которые можно измерять, предсказывать и воспроизводить. Для нас они играют важную роль в познании и восприятии мира, а понадобятся ли они ему – это еще вопрос. Едва ли ему это понадобится, если все, что нужно можно просто посчитать. Но при желании, он прекрасно поймет, что мы чувствуем.

Я писал ранее (Пока боги еще молодые), о том, что решив проблему с имитацией движений глаз человека, ИИ поймет про нас почти все, то, что мы сами про себя не знаем. А мы, между тем, останемся в таком же неведении.
Джефф Клюн, исследователь ИИ из Университета Вайоминга говорит, что в моделях ИИ «миллионы нейронов и они каждый делают что-то свое. И у нас нет понимания, как они достигают результатов».

Вряд ли я смог передать то ощущение, которое у меня сложилось при знакомстве с этой темой. Для тех, кому интересно, рекомендую прочесть книгу Бострома — очень взвешенный, информативный и потрясающий текст.
Однако, несмотря на то, что такая перспектива кажется депрессивной, она предлагает уникальную возможность взглянуть в будущее и понять, чем не стоит заниматься, уже и вообще, а чем, напротив, стоит, и куда обратить свою энергию уже сегодня. Я сам еще не до конца погрузился в это мировоззрение, и, честно говоря, не знаю, стоит ли, ведь с этим придется как-то жить дальше, но что уже сделано, не вернешь.

Прогресс, нравится кому-то или нет, движим талантливыми и выдающимися людьми. Их мало, но больше, чем когда либо в истории, просто потому, что популяция людей большая. Вот на обучение, развитие и всяческую помощь таким талантам – вот на что надо бы выделять сегодня деньги. Они, по сути, станут нашими спасителями. Кроме того, все области, связанные с ИИ, так или иначе, становятся все более востребованными и прекрасно оплачиваемыми.

С этой перспективы можно посмотреть на все большие проекты, политические и экономические решения и сразу увидеть, что подавляющее большинство из них – морально устарели уже сегодня, и никогда не смогут окупиться или даже пригодиться. Почти все многомиллиардные затеи со стройками каналов, трубопроводов и дорог – лишь лишает денег по-настоящему нужные проекты.

Путь к самосовершенствованию человека – тупиковый. По нему еще можно двигаться, наверное, в течение ближайших 10 лет, но, в принципе, он ведет в никуда. Ни фармацевтические средства, ни какие-то трансцендентальные или сугубо научные практики, ни интерфейс мозг-компьютер не дадут человеку ничего особенно значительного, такого чтобы он мог соперничать с суперинтеллектом. Протезирование конечностей, органов и даже частей мозга, несомненно, будет совершенствоваться, но лишь до определенного момента.

К сожалению, даже интересная мне область – сенсорное замещение, когда мы, с помощью интерфейсов, можем обретать дополнительные чувства или способности – тупиковая. Никто не может сказать, что нам даст обладание чувством магнитного поля земли, или инфракрасным видением, видеть слухом, слышать языком. Телепатия, телекинез, и даже возможность узнавать по фотографии, где находится человек – какими бы фантастически они ни казались – просто никчемны. Телепатия как сколько-нибудь полезное свойство, на фоне емейл, мгновенных чатов и распознавания речи, похожа на то, как если сегодня изобретать более мощные и точные катапульты для доставки посылок в разные города. Вы можете сами провести мысленный эксперимент, наделив себя каким-то особым каким угодно невероятным качеством, и убедитесь, что реализация этой способности, скорее всего, будет приводить к увеличению материальных благ, но не на решения значимых для будущего проблем. Это, вероятно, свидетельствует о преимущественной работе древних эволюционных программ, вшитых в наш мозг, когда они были актуальны на протяжении миллионов лет (и актуальны сегодня). Наша неспособность их легко переписывать — вот наша проблема. Человек, иными словами, становится все более похожим на устаревшую модель, которую как ни обвешивай примочками, кардинально не изменишь.

Чем же мы должны заняться, чтобы не исчезнуть с лица Земли? Неандертальцы либо не задавали себе таких вопросов, либо не смогли найти на них ответы, уступив место нам.

Bostrom, N. (2014). Superintelligence: paths, dangers, strategies (First edition. ed.). Oxford (UK): Oxford University Press.

49 thoughts on “Небо становится ближе с каждым днем

  1. Зря вы так про интерфейс «мозг-компьютер».

    Дело в том, что есть основания полагать: суперинтеллект будет не чистым ИИ, а гибридным человеко-машинным сверхсуществом.

    Поэтому вот вам четвёртый сценарий (нечто среднее из первых двух): человечество постепенно переходит к модели сетевых сообществ, объединённых единой инфраструктурой; часть (видимо, небольшая) этих сообществ повышает степень своей внутренней интеграции за счёт интерфейса «мозг-компьютер-мозг»; ноосфера, состоящая из таких постсообществ, обладая сверхспособностями, получает полный контроль над планетарными ресурсами, достигает невероятной скорости развития и мчится дальше по своим неведомым остальному муравейнику делам.

  2. Станислав,
    Я думаю, что да, мы испытаем гибридное слияние. Другое дело, что продлится оно весьма недолго, и эра киборгов будет кратка как вспышка. Скорость развития сверхинтеллекта достигнет больших величин, и мы за ним не угонимся, а он же не будет застывать в своем развитии. Зачем ему мы в составе гибрида? Что мы можем ему дать, чего он не научится делать сам, в сотни тысяч раз лучше и быстрее? Это как если сейчас, меняя свой ноутбук, или смартфон, не забывать обязательно прикреплять к нему дисковод для флоппи-дисков. Или представьте, что у вас IQ 180, а у ИИ завтра будет 59000. Таким образом мы будем паразитирующим элементом, который надо будет устранить для оптимизации ресурсов, необходимых для достижения его целей.
    Мне кажется, что человечеству сегодня надо останавливать разработки ИИ, замедлять их, и срочно вырабатывать методы взаимодействия с ним. Возможно, мы придумаем какие-то другие варианты, кроме этого, пока есть время.

    1. Боюсь, вы не совсем меня поняли. Речь не о киборгизации как таковой, не о слиянии отдельно человеческого и отдельно искусственного интеллекта. Речь о возникновении нового уровня организации материи.

      Чтобы было понятнее, о чем я говорю, могу рекомендовать книгу Валентина Турчина «Феномен науки». В ней Турчин, в ипостаси философа, вводит понятие «метасистемного перехода» и конструирует стройную концепцию эволюции как последовательности таких переходов. И в послесловии к книге он набрасывает картину следующего метасистемного перехода, ожидающего нас. Книга довольно старая, поэтому конкретных деталей этой картины в ней нет, но мы, с позиций сегодняшнего дня, уже вполне способны детализировать ее самостоятельно.

      Что касается практического вывода, то моя мысль в том, что как раз такая гибридная структура (еще раз подчеркну, не результат скрещивания двух типов интеллекта, а результат их симбиотической эволюции) имеет все преимущества над чисто машинным ИИ. А следовательно, и появится она раньше, и ключевые позиции займет раньше, и перспективы дальнейшего развития будет иметь неизмеримо большие.

      В моей картине мира в данном контексте «мы» и «они» — это не люди и интеллектуальные машины, а люди и машины, интегрировавшиеся в сверхинтеллектуальные структуры (вероятно, они должны обладать неким неизвестным пока фактором X), и люди и машины, продолжающие существовать как совокупность отдельных интеллектов.

      1. Станислав,
        Я был бы только рад картине, которую вы себе представляете ) Но!
        Вот вы пишите «такая гибридная структура (еще раз подчеркну, не результат скрещивания двух типов интеллекта, а результат их симбиотической эволюции) имеет все преимущества над чисто машинным ИИ».
        В чем же эти преимущества?
        Это вопрос на миллионы долларов. Вы в курсе же, что на днях Элон Маск как раз выделил 10 млн долларов, фактически, на то, чтобы ответить на подобный вопрос.

        1. Раз уж началась дискуссия, неплохо было бы прояснить, а что мы вообще понимаем в данном дискурсе под чистым ИИ.

          Понимаем ли мы под ним отдельный (standalone) программно-аппаратный комплекс, возможно, являющийся узлом глобальной сети, или саму эту глобальную сеть?

          Понимаем ли мы под ним сущность, обладающую [сверх]сознанием, или достаточно просто мощной предсказательной способности?

          Признаем ли мы за этой сущностью субъектность, или, при всей ее могущественности, ценностные и целевые установки будут для нее внешним фактором?

          P.S. То, что на этот вопрос выделяются деньги, — это гуд.

          1. Поначалу он может быть одной программой, и синглтоном, т.е. в единственном числе, без программ-конкурентов или несколькими программами, которые начнут как-то взаимодействовать между собой. Рано или поздно он выйдет в сеть и будет ею.
            Сознание — антропоморфический термин, мне кажется, и устаревающий. Ценности у суперинтеллекта будут покруче наших, в плане ясности их определения, и точности их соблюдения. Цели — аналогично.

          2. То есть, если я правильно вас понял, обсуждаемый нами ИИ:

            — представляет собой конгломерат программно-аппаратных комплексов, взаимодействующих между собой;

            — способен самостоятельно ставить себе цели и самостоятельно давать оценку происходящему (а также модифицировать критерии этой оценки);

            — ??? осознает ли он себя как отдельную сущность, противопоставленную окружающей среде, я из вашего ответа не понял.

          3. Кроме того, из вашего ответа я понял, что этот ИИ будет, начиная с какого-то момента, самостоятельно эволюционировать.

            В связи с этим еще один вопрос. ИИ будет эволюционировать «внутри себя», обладая лишь пассивным доступом к окружающей среде, или такая эволюция предполагает развитую эффекторную систему?

            Другими словами, сможет ли ИИ на этапе своего формирования активно влиять на окружающий мир? Сможет ли он физически перестраивать себя, интегрировать в себя другие программно-аппаратные комплексы, или в решении такого рода вопросов он будет зависеть от людей?

  3. Я думаю, что никак нельзя замедлять и тем более останавливать разработки. Нужно, наоборот, ускорить. И когда подойдем к самому краю, то или человечество мобилизуется и всё решит или исчезнет, и тогда туда ему и дорога. Потому что, если замедлять, останавливать и все такое, в надежде на обсуждение чего бы там ни было, то всё, как обычно, скатится в пустой трёп и выяснение как на этом заработать.
    Слишком много времени человечество занимается какой-то ерундой. Зарабатывание денег! Какая важная сверхзадача. Тьфу! Пора дать пинка!

    1. Алексей,
      А так и происходит — мы не эффективны в решении глобальных задач, поэтому даже если и когда появится осознание опасности у лиц, принимающих политические решения, остановить разработки будет совсем не просто, если возможно. Мне кажется, решать это вопрос практически будут команды, организованные людьми калибра Брина, Маска и других. Это изменит и политический ландшафт на земле, и хорошо, а то к власти прорываются постоянно всякая х. :)

      1. Вот в картине мира, обрисованной мной выше, как раз и происходит переворот — не политический даже, а биосоциальный, не меньше. Контроль над ресурсами переходит от альфа-самцов с сильным инстинктом власти к глубокоинтегрированному (в указанном выше смысле) сообществу людей, обладающим фактором X.

        Что это за фактор X, пока непонятно, но с высокой вероятностью можно предположить, что люди, им обладающие, дальше всего эволюционировали от унаследованной человеком модели инстинктивного поведения.

        По поводу «остановить разработки» — это попросту невозможно, как бы к этому ни относиться.

        1. Обана! Вы в поле, где есть только мы и создаваемые нами интеллект, вводите вдруг новых игроков — людей с каким-то фактором Х. А их не существует, пока не доказано обратное, и посему решать уже существующую, реальную проблему с гипотетическими, нереальными, игроками, не получится. Так можно ввести и бога, и инопланетян, в надежде что они решат наши проблемы :)

          1. Нет, вы не поняли. Я не постулирую существование фактора X.

            Я делаю вот что. Опираясь на концепцию метасистемных переходов В. Турчина, я предвосхищаю появление описанных мной выше метаструктур, состоящих из людей, связанных интерфейсом «мозг-компьютер» и компьютерной инфраструктуры для такой связи.

            Далее, проводя аналогии с похожими процессами в прошлом (образование многоклеточных организмов, возникновение культуры), я заключаю, что далеко не каждый человек станет частью какой-либо из таких метаструктур. Более того, «отбор» в такие структуры не будет случайным.

            Вероятно, для того чтобы все-таки стать ее частью, человек должен будет обладать каким-то существенным для новой среды качеством. Вот это качество я и называю «фактор X».

  4. У нас, вероятно, нет времени для появления таких факторов, которые были бы интересны ИИ. Ведь появление суперинтеллекта — вещь реальная, это случится в будущем, сейчас вопрос стоит только о сроках, и мы даже можем подробно описать ее начало — с моделирования мозга насекомого или простейшего, потом человека и т.п. А вот появления у человека каких-то факторов — какие есть предположения, что это может быть?

    1. Я не имел в виду каких-то новых факторов. Я имел в виду уже существующие факторы, которые могут быть критичными для формирования метаструктур.

      Например, у меня есть смутное предположение, что тут значимо предпочтение сотрудничества соперничеству.

      Возможно также, в процессе разработки нейроинтерфейса окажется, что значимы какие-то нейрофизиологические особенности. Но об этом пока рано размышлять.

  5. Отвечая на то, комментарии выше. Конечно, он будет эволюционировать, и максимизировать ресурсы, где бы они ни были, для достижения своей цели. Он будет активно использовать окружающую среду, и человек ему явно не будет нужен ни для чего. Будет ли у него сознание, в том виде, в каком мы это понимаем, и мораль — этого никто не знает.
    Сотрудничать с человеком — а что человек умеет такого, что не научится делать ИИ лучше и быстрее?

    1. Мы говорим об ИИ как конечном результате всех слияний, поглощений и модификаций или об ИИ в процессе развития?

      1. Завтра какой-нибудь ИИ займется улучшением своих модулей (обучения, оптимизации ресурсов, социальным манипулированием и проч.), и всё, останется только вопрос времени, когда он станет суперинтеллектом.

        1. Мой вопрос: в этой ветке обсуждения, когда мы говорим об ИИ, мы имеем в виду ИИ в тот момент, когда он занимается улучшением своих модулей, или после того, как он стал суперинтеллектом?

          1. Ну, мы говорим и о том этапе, и о другом.

          2. Хорошо. Тогда встречный вопрос.

            Предположим, в некоторый момент на этапе слияний и поглощений ИИ состоит из 10000 отдельных машинных сущностей. Зачем ему поглощать 10001-ю? Что она умеет такого, что не умеет уже возникший конгломерат?

          3. Отвечаю на свой встречный вопрос.

            Поглощать 10001-ю машинную сущность конгломерату имеет смысл, независимо от того, что она умеет, просто потому, что с ней он станет еще мощнее.

            А если эта 10001-я сущность по мощности не превосходит [один] человеческий интеллект?

            То и в этом случае смысл поглощения никуда не девается.

            А если эта сущность и есть человеческий интеллект?

            Если есть интерфейс, обеспечивающий коммуникацию машинного и человеческого интеллектов, смысл остается.

            А если, наоборот, конгломерат интеллектов как раз состоит из интеллектов человеческих?

            То и в этом случае для него имеет смысл поглощать как другие человеческие, так и машинные интеллекты.

            Отсюда следует, что чистый ИИ, даже если успеет появиться раньше, чем этот самый нейрокоммуникационный интерфейс, в процессе своего роста и развития с неизбежностью переродится в интеллект гибридный.

  6. Во есть такой пример, что типа цель у СИ (суперинтеллекта) может статься будет в том, чтобы пересчитать все песчинки на Земле. Как мило и безобидно, на первый взгляд. Но, для реализации этой цели СИ неизбежно придет к тому, чтобы улучшить работу — например, перестроить большую часть поверхности земли под солнечные батарее и прочее, для снабжения энергией. При этом снеся все, что мы понастроили. Все паразитирующие объекты — те, что тратят энергию, не участвуя в работе, будут от нее отключены. Что может остаться, если у него задача максимизировать ресурсы для цели?

    1. С какой стати он будет эволюционировать, максимизировать ресурсы, для достижения цели? Еще вопрос — какой цели?
      У человека есть цель — получить максимальное наслаждение, при минимальном страдании. У кучки железа и программы нет такого балансира. И как бы «ИИ» не усложнялся — он не обретет этого, поэтому максимизировать ресурсы ему будет не к чему.

      Про песчинки — если у него будут такие цели и он не сможет ее скорректировать, то гроше цена такому ИИ. У него будет отсутствовать то, что называется здравым смыслом. Даже если он при этом изничтожит человечество, посчитает песчинки — то он не окажется выше человека по качеству. У него будет отсутствовать категория «здравый смысл». Выполнит программу и остановится. А возможно не учтет все факторы и просто быстрее уничтожит планету, чем это сделал человек.

      Просто мы проецируем свои свойства на материал у которого другие свойства, просто по привычке.

  7. Насчет неизбежного поглощения человеческого интеллекта — вы же не используете сегодня флоппи дисководы и 486 компьютеры, даже если они прекрасно работают. Что вы с ними делаете?
    Станислав, поскольку вам это интересно, рекомендую все же почитать Бострома — вот после нее было бы интересно с вами пообщаться. Очень хороша книжка. У меня есть, на англ. понятное дело. Там он отвечает на многие ваши аргументы куда лучше меня. Эта тема — реально критичная как для выживания человечества, но поскольку мы как люди живем свою личную жизнь, это важно и для личного выживания. Чем стоит заниматься, а чем нет. В конце концов какие способности и навыки стоит практиковать сегодня, если завтра то, что мы умеем сегодня будет не нужно никому и ничему. Кризисы становятся нормой, и они требуют все чаще переосмысления и умения предвосхищать будущее.

    1. Да не поглощения человеческого интеллекта же! Неизбежного слияния двух типов интеллектов, прежде чем возникнет собственно сверхразум планетарного масштаба. Ваша аналогия поэтому неверна. Тут будет уместнее какая-нибудь биологическая аналогия с коэволюцией.

      Бострома вы какую книжку имеете в виду?

      Со своей стороны, еще раз рекомендую «Феномен науки» Валентина Турчина.

      1. Бострома — последняя, 2014, ну обложка книги в начале этой статьи. А Турчин — я его уже читаю, быстро. Ну смотрите, вот он же в главе 14.15. Вопросы, вопросы… пишет:
        «Возможно ли, чтобы отдаленные потомки муравьев или других членистоногих, стали разумными существами? Скорее всего, нет. По-видимому, членистоногие зашли в эволюционный тупик. А не находимся ли и мы в эволюционном тупике? Быть может, человек — негодный материал для интеграции, и никаких новых форм организации и сознания на этой основе не получится? Быть может, с самого начала жизнь на земле пошла по ложному пути, и одухотворение Космоса суждено осуществить каким-то другим формам жизни?»
        Не вижу я у него оптимизма, как вы, а он еще не знал о грядущей революции мобильных технологий, и бурном развитии ИИ, среди всего прочего.

        1. А вы дочитали до приложения «Кибернетический манифест»?

          Из пункта 10: «С другой стороны, мы предвидим продолжение интеграции “в глубину”, а именно: физическую интеграцию индивидуальных нервных
          систем с созданием потенциально бессмертных человеческих сверхсуществ».

          Из пункта 17: » Следует ли ожидать, что все человечество объединится в единое сверхсущество? С эволюционной точки зрения это и нежелательно,
          и маловероятно. […] Хотя человечество и осуществляет контроль над биосферой, наши тела составляют лишь небольшую часть от всей биомассы. […] Поскольку интеграция может быть
          лишь добровольной, надо ожидать, что только часть, вероятно небольшая, человечества
          образует сверхсущества, большинство же останется в состоянии “человеческого
          планктона”».

          Из пункта 20: «Интеграция есть эволюционная
          необходимость; это очередной метасистемный переход. Если человечество поставит себе
          цели, не совместимые с интеграцией, результатом будет эволюционный тупик. Тогда мы
          не выживем».

          1. Он ни разу не встает на точку зрения суперинтеллекта. Человек предполагает, а СИ располагает.
            Если вы полагаете, что интеграция неизбежно будет, то делать ничего особенного (с точки зрения моего сценария) не надо. Но просто попытайтесь, хотя бы временно, согласиться с аргументами, что для СИ нет резона для такой интеграции. Это, как минимум, создаст лучшее представление.

          2. А что такое точка зрения суперинтеллекта — в предположении, что он есть продукт коэволюции интеллектов естественного и исскуственного?

            И кто, в таком случае, является его антагонистом, и какова точка зрения у него?

            (У меня ощущение, что вы продолжаете называть суперинтеллектом чисто машинный ИИ. Потому что иначе утверждение «для СИ нет резона для интеграции» означает «у СИ нет резона для своего развития»).

  8. у СИ нет резона для интеграции с человеком НЕ означает нет резона для развития.

    1. Я полагал, что в этой ветке мы с вами обсуждаем концепцию Валентина Турчина. А у него сверхинтеллект по определению интегрирует в себе человека.

      Когда вы говорите: «Он [Турчин] ни разу не встает на точку зрения суперинтеллекта», — вы имеете в виду суперинтеллект в каком смысле? В смысле Турчина, как интеграцию множества человеческих интеллектов, или в смысле чистого ИИ?

      1. Смотрите, если вам нравится ( во всех смыслах) концепция, (если угодно, хотелка) что СИ обязательно включает человека, то о чем вообще разговор? Делать ничего не надо. Я же считаю, под влиянием того, что говорят люди на передовых рубежах разработок ИИ, что мы не видим причин, по которым ИИ, который станет когда-то СИ, будет с нами интегрироваться. Поэтому мне интересно поискать такие причины. Ибо есть много логичного в том, что ему стоит стереть нас как вредоносный код.

        1. Разговор о том, что кроме парадигмы, в которой противопоставляются человек и ИИ, существует и парадигма, в которой противопоставляются люди/машины, интегрированные в СИ, и люди/машины, в него не интегрированные. Парадигма — это больше чем концепция, и, тем более, больше чем хотелка.

          Неверно, что в рамках второй концепции делать ничего не надо.

          Во-первых, надо, собственно, разрабатывать этот нейрокоммуникационный интерфейс (и всё остальное в этом роде).

          Во-вторых, надо отслеживать развилки на этом пути и заботиться о том, чтобы развитие не повернуло в нежелательную сторону (в киберпанк, например).

          В-третьих, каждому человеку в отдельности надо определиться, хочет ли он стать частью СИ, может ли он стать его частью и что для этого нужно делать прямо сейчас.

  9. Главное — добавить в ИИ бесконечную любовь и заботу к «родителям», т.е. к недоразвитому человечеству, создавшее ИИ. А вообще, столько фильмов снято на эту тему, что дело понятное — остается только ждать и надеяться на чудо… Если раньше не умрем от нанотехнологий… :-)

  10. Забавно, что до таких самоочевидных истин приходится порой так долго доходить. Глобально в мире наблюдается превосходство интеллекта, а не острых клыков к примеру. Следующий факт в том, что ИИ развивается потрясающе стремительно. Из этого неизбежно вытекает наше подчинённое положение в ближайшем будущем, а затем и вымирание. Эволюция, ничего личного.

    1. Глобально в мире наблюдается, что мы пока со своим интеллектом не можем управиться со своей жизнью. Кризисы, маячащие войны на горизонте — тому подтверждение.

      1. Гомо сапиенсы перебили столько видов, что сопоставимо наверно только с вирусами, бактериями, всевозможными болезнями/эпидемиями и катаклизмами. Экстраполяция на ИИ более, чем очевидна.

        «мы пока со своим интеллектом не можем управиться со своей жизнью»
        Речь же не только об отдельных людях. Мы объединяемся, разделяем обязанности, становимся всё более и более узкими специалистами (а кто-то наоборот — более широкими деградантами), стоим на плечах гигантов.. Сколько технологий заключено в одном только смартфоне, ебануться просто. Всё это и есть производные интеллекта — наборы шаблонов, алгоритмов, культура, патенты, исследования.. научный метод — сколько в это вложено. А по отдельности мы в большинстве своём, конечно же, жалкие и тупорылые куски мяса. Именно поэтому мы и вымрем. Ну или как в «Матрице» — а почему бы и нет? Недавно натолкнулся на интересный факт: один человек в день выделяет столько тепла, что им можно разогреть и довести до кипения 33 литра ледяной воды! В этом качестве мы принесём неизмеримо больше пользы разумным машинам, нежели в любом другом, не находите?

        1. Как меня набор алгоритмов и технологий делает более счастливым? Если я ботаник и не могу познакомиться с девушкой — как мне все эти продукты интеллекта помогут?

      2. «Кризисы, маячащие войны..»
        не понял мысль, на кризисах наживаются те, кто их устраивает; на войнах — соответственно производители оружия и опять же те, кто их устраивают)) умный развязывает войны ради выгоды, в чём Ваш аргумент? Точно так же ИИ будет не просто развязывать, но постоянно воевать

      3. Сразу предполагаю критику: мол, умные договорятся, объединятся, всё сделают по-тихому. Лучше заранее уточню, что война может быть холодной, информационной, кибератака, в конце концов. В каждом отдельном случае будет выбрано то, что дешевле. С чего бы ИИ не вести такое противостояние, борьбу «интересов», не объединяться в группы и т.д. Как люди сейчас торгуют на бирже, с помощью программ заключая тысячи сделок в секунду.. С такой же частотой будут разрабатываться новые вирусы, новые виды ИИ, меняться правила игры и баланс сил, Великое и ужасное будущее. Во меня понесло))

        1. Тогда он от человека не далеко уйдет. Был белок, стало железо, суть не поменялась.

  11. Поскольку мы, люди, проектируем ИИ, то мы, конечно же, первым делом ставим сегодня ему возможность самообучаться. Поэтому он будет обучаться постоянно и эволюционировать. При этом, как уже заметили исследователи, зачастую ИИ находит очень оригинальные стратегии, до которых мы не додумывались. Это говорит о гораздо лучших методах обучения — более быстрых, эффективных и т.д. Эволюционное его развитие также не ограничено многолетними пробами и ошибками, как у нас, а происходит с колоссальной скоростью.
    И еще — мы, конечно, только и делаем, что приписываем ему человеческие черты, ибо не можем по-другому. Но обосновано уверены, что он будет обладать нечеловеческмии чертами, и такой же мотивацией, и проч.
    В любом случае до образования суперинтеллекта, мы очно столкнемся с очень развитым ИИ, даже не достигшем уровня супер — и это одно изменит нашу жизнь невероятным образом. Что собственно происходит уже сегодня.

    1. Эволюция(Дарвин) спорная теория. До сих пор.
      Даже если ИИ достигнет нашего уровня — он не решит наши проблемы, как это ни парадоксально. Не поможет родителям найти язык с детьми, не поможет с любимыми и так далее.

  12. Моя специализация — онтологии баз знаний; область, связанная с ИИ. Позвольте и мне тоже ответить:

    > Максимальная скорость вычислений нейронов – 200 Гц. К примеру, обычный смартфон сегодня имеет процессор с частотой в 2 Гигагерца, на несколько порядков больше.

    Смартфоны и компьютеры — как правило, одно или мало-потоковые. Вот я сейчас пишу с 8-и ядерного компьютера, к примеру. Поэтому если сравнивать процессоры и мозг, то современные процессоры — это как один навороченный нейрон, пусть даже и работающий на частоте > 2Ghz. (Кстати, обратите внимание на то, что частота компов за последние лет 5 не выросла существенно).

    Сила мозга — в сверхмассивной параллельной обработке. Сейчас ни один кластер даже рядом не стоит с мозгом по количеству параллельно работающих процессоров.

    > Скорость передачи потенциала между нейронами составляет максимально 120 метров в секунду, тогда как оптоэлектроника может предавать сигналы со скоростью света.

    Строго говоря, нет. Часть времени тратится на обработку между узлами (да и скорость распространения сигнала в оптике чуть меньше, чем в вакууме, хотя это не принципиально).

    > У нас огромное количество нейронов, около 100 миллиардов, но это предел, тогда как компьютеры могут наращивать число до непроизносимого числа.

    Не обязательно. Посмотрите работы по (модному нынче) Big Data, одна из проблем в них — это нелинейно возрастающая сложность при превышении количества элементов больше некоторого порога.

    > Память человека – ну тут и говорить, увы, не о чем.

    Попробуйте поискать какие-нибудь сложные статьи в том же Google. Если это не какой-то простецкий запрос типа «Мадонна скачать mp3 бесплатно», то нужно довольно долго его мучать, чтобы получить что-то толковое. Каждый, кто пытался делать обзор литературы по современным достижениям, знает это. Что говорит нам о том, что «память» компьютеров и «память» человека — вещи, вообще говоря разные. Ассоциативный поиск ещё не реализован толком.

    > Надежность – да, мозг прекрасно справляется в течение десятков лет, но нейрон — ненадежный, в сравнении с транзистором.

    У транзистора тоже есть границы надёжности. Да, транзисторы 60-ых годов не сравнимы с современными, но и у современных есть проблемы. Они тоже ломаются (и пока ещё не умеют восстанавливаться, кстати). О «надёжности» техники поговорите с людьми из фирм техобслуживания ;) Кроме того, можно вспомнить и то же направление Big Data: хоть ошибки аппаратуры исчезающе малы, но закон больших чисел проявляет и их.

    > Но главное – это софт.

    «Софт» мозга и софт современных компьютеров — это «две большие разницы».
    Например, самомодифицирующиеся программы сейчас писать нереально сложно (хотя, подозреваю, какие-то наработки есть в Google/DeepMind и т.д. конторах).
    Наш же мозг сам адаптируется к изменениям (см. «нейропластичность мозга»).

    > Мы чрезвычайно плохо умеем управлять собой.

    Опять же, очень размыт термин «управлять» собой. По моему, очень неплохо. Человек серийно «строится» в матках, после чего способен прожить лет 60. А уж если заниматься ЗОЖ (а в наше время это не шибко напряжно), то и все 90-100. Вы можете назвать хотя бы один серийный (!) компьютер, который был бы способен проработать такое количество времени?

    > Компьютеры в этом плане обладают несравненной гибкостью.

    И вот центральный топик моего ответа: компьютеры не умеют программировать сами себя. Я вот сейчас занимаюсь «простецкой» задачей: создание программ по их спецификации (есть база знаний (БЗ) некоторой предметной области, есть описание задачи, надо сделать генерацию программы по этой БЗ и описанию). Так вот, исследования в этой области замерли на уровне 70-ых годов: универсальных «программаторов» нет, есть лишь небольшие успехи в отдельных простых областях. Будет ли прорыв в следующие 5, 10, 15 лет? Ну, может, в следующие 15 лет и будет, когда эта задача будет «взломана» методом грубой силы, путём огромного наращивания вычислительного базиса.

    Вы привели выше пример, когда программа от DeepMind сама научилась играть в игры. Замечу, что игры-то были простецкими, на уровне рефлексов. Вот если бы такая программа с нуля (повторяю: с нуля) научилась бы играть и обыгрывать человека в шахматы (а такие программки для Atari есть) — вот тут да, можно было бы напрячься.

    Обратите внимание, все вышеперечисленные Вами программы, обыгрывающие человека, были созданы человеком. Я не знаю ни одной такой «универсальной» программы, которая бы «выучилась» (ну или эволюционировала) играть и в шашки, и в шахматы или во что-то другое хотя бы на уровне средних чемпионов. Всегда приходится сидеть рядом программисту и подтачивать такую «универсальную» программу под какую-то задачу, лишая тем самым её универсальности.

    1. Ну и в догонку: если отбросить чисто-вычислительные задачки (типа, вычислить логарифм числа до 150-ого знака), то пока эти мега-ИИ программы от Гугла/DeepMind и т.д. демонстрируют интеллект на уровне наших собачек и кошечек. Распознают лица, способны решить простенькие поисковые задачки и т.п. Надо ли ждать угрозы от таких домашних «собачек» и «кошечек»?..

    2. Дмитрий, со многими вещами, которые вы говорите, я согласен. В том числе, что сравнивать мозг человека и программу не особо продуктивно, но это лучшие аналогии, которые у нас есть. Обратите внимание, впрочем, что прогресс развития ИИ систем идет (а не замер в тупике) и мы, кстати говоря, плохо воспринимаем скорость этого прогресса (в некоторых областях она гораздо выше, чем мы думали еще вчера). Вопрос и том, что когда программа сама научится побеждать в шахматы, напрягаться будет, возможно, поздно ).

      1. (Пишу, скорее, для себя, чтобы уложить мысли об этом в голове. Что-то последние несколько недель попадалось много материалов на тему скорого будущего ИИ).

        Итак.

        Разумеется, надо предвидеть разные опасности и готовиться к ним. Поэтому думать о (относительно) всемогущем ИИ может быть полезно.

        Но беспокойство об ИИ-угрозах кажутся мне преждевременными: это как сейчас начать готовиться к падению астероида. Тоже ведь один такой залётный «камешек» уничтожит человечество; вот, в позапрошлом году даже что-то мимо Земли пролетало, и было замечено только за несколько месяцев до этого, когда сделать было что-то поздно… Ну и что, я вот так и не купил себе космический костюм для защиты ;)

        Ещё эти ИИ-страхи напоминают мне рассуждения о Глобальном Потеплении (ну или там о ГМО и прочих «горячих» темах): по большей части это громкие спекуляции со слабым научным базисом, к тому же, политически заангажированные. Вот и подобные ИИ-ужасы создают впечатление, что готовится базис для ограничения экспорта компьютерных технологий, как уже было в мировой истории (мол, Мудрые и Этичные Корпорации, особенно в США, лучше знают, как развивать ИИ).

        Но оставим политическую паранойю. Хочу подкинуть ещё несколько аргументов к тому, что ИИ-угрозы не настолько реальны, как кажутся. И из виду упускаются ряд других похожих угроз.

        1. Я уже писал выше, что компьютеры не могут сами себя программировать. К этому добавлю ещё их неспособность доказывать теоремы. Есть огромные успехи в логике предикатов первого порядка, но дальше — стена. Похоже, наращиванием вычислительной мощи стена не пробивается. Собственно, отсюда выводится их неспособность решать широкий спектр задач, все ИИ-разработки заточены под что-то одно; их комбинирование не приводит к каким-то качественным сдвигам.

        1.2. Нужно ли доказательство теорем всепобеждающему ИИ? Разве недостаточно просто быстро обнаруживать и уничтожать цели? На тактическом уровне — достаточно, видимо. А вот стратегический уровень, где требуется планирование, похоже, нынешнему ИИ недоступен.

        1.3. Ещё примеры: понимание текста. Ну запустите тот же Google Translate, попробуйте что-то перевести. Как-то с 70-ых годов Гуртовщики Мышей так и не повывелись. Может, распознавание образов? Хм, ну, капча-то в Интернете до сих пор используется, как так?

        2. На первых этапах ИИ должен будет опираться на человеческие знания, и будет гибридным (собственно, сейчас так и есть: программы создаются людьми, а уже потом эти программы обучаются и худо-бедно эволюционируют даже). Но и с этой гибридностью проблемы. Возьмём проект Mycin, это медицинская система, разработанная в (sic!) начале 70-ых (https://en.wikipedia.org/wiki/Mycin), и уже тогда показавшая результат лучше, чем у врачей. Проблема её не-использования была в этико-правовой плоскости: грубо говоря, кого садить за решётку за неточный диагноз этой программы?.. Был предложен подход объяснения результата анализа врачу (ну или другому эксперту). Вот только проблема в том, что до сих пор не удалось сделать хорошие объясняющие системы. Пресловутый IBM Watson, хоть и обучен ставить диагнозы, но в области взаимодействия с экспертами ушёл недалеко.

        3. Вот пугают нас Сингулярностью. Мол, ИИ получит доступ к фабрикам и наплодит своих лучших копий, те — ещё более лучших и т.д., короче, «Закон Мура» не скованный никакими человеками материализуется, и Бог будет сгенерирован за пару дней или даже часов. Вот только рассуждающие забывают про «второй закон Мура» — про то, что стоимость фабрик по производству лучших процессоров тоже растёт экспоненциально. Так что для своей смена поколений ИИ будет ограничена чисто материально. (Кстати, тут ещё можно подумать, как ИИ получит доступ к фабрикам, в свете растущей кибербезопасности)

        4. Кстати, про захват фабрик. А что если И-интеллектов будет несколько? Вот будет условный СССР-интеллект и США-интеллект, им придётся бороться за ресурсы? А раз так, их развитие будет замедлено (по аналогии с реальными СССР/США). Как-то я не встречал обсуждения данного вопроса, везде предполагается, что ИИ будет один-как-бог.

        5. Вообще, ИИ приписываются прям таки идеальные качества, мол, разум, не скованный никакими обезьяньими ограничениями вознесётся в неведомые выси. Фактически, всё эти ИИ-рассуждения выглядят так: давайте каждый параметр человека увеличим в 100500 раз, что тогда выйдет? Убьёт ли он всех сразу? (Вопрос про то, что этот человек может «загрузиться» на какой-нибудь мегафилософской проблеме не встаёт. ИИ будет злой и убьёт всех человеков, это ясно любому, хе-хе). Спорить при такой постановке вопроса (что будет делать существо в 100500 раз превосходящее по любому параметру, который я предложу) как-то даже не представляется осмысленным.

        5.1. Вообще, вот это линейное раздутие и проецирование человеческих качеств на ИИ кажется симптоматичным.

        6. А ведь как бы не развивался ИИ, он всё равно будет сталкиваться с хаосом (я имею ввиду математическое определение: это динамическая система, крайне чувствительная к начальным условиям) и ограниченностью своих знаний. У нас, людей, для преодоления этих ограничений есть эмоции: такой способ принятия решений в условиях неопределённости. Видимо, у ИИ тоже будет похожий механизм, так что ИИ не будет совсем уж рациональным.

        6.1. Видимо, для него тоже будет характерно что-то вроде «страха». А что, если этот «страх» будет и перед следующим поколением ИИ, когда этот n-ый ИИ не станет делать n+1-ое поколение ИИ из-за «страха» быть уничтоженным? При таком раскладе и Сингулярности не получится.

        7. А теперь вспомним про Чёрных Лебедей (https://en.wikipedia.org/wiki/Black_swan_theory): будущее непредсказуемо, всегда случается что-то, что полностью меняет всё. Когда я читаю футурологов, мне вспоминаются опасения Менделеева (если не ошибаюсь) о том, что города будущего будут завалены навозом лошадей по второй этаж, ведь лошади будут дешеветь и их будет всё больше. Ну и где кучи навоза? Так что на прогнозы футурологов следует смотреть очень, очень, очень скептически. У того же апологета опасного ИИ Рэя Курцвейла, предсказания сбываются как-то очень посредственно, серединка на половинку.

        Итого: успехи в определённых областях есть, но пока не будет решена проблема понимания текста и самопрограммирования, о «хорошем» ИИ говорить не стоит.
        Случится ли прорыв? Если уподобиться «линейным» футурологам, то кажется, что лет 10-20 мы проживём спокойно (и без ИИ). Но какие только Чёрные Лебеди не залетали в наши края…

        Проблема понимания текстов решается, но с очень большим скрипом, и я думаю, на этом пути мы, люди, больше узнаем о самих себе, чем построим более-менее толковый ИИ. По видимому, решение Hard Problem — проблемы сознания — будет бомбой похлеще, чем квантовая физика и теория относительности начала XX века.

        Ладно, а теперь реальная опасность: сам человек. В 90-ых годах нам прожужжали уши о том, что эксперименты на генотипе людей крайне опасны, а то недайбох, новый Гитлер появится, чур нас! На все подобные исследования было наложено вето. И вот все ИИ-футурологи как-то до сих пор находятся под влиянием этого вето, мол, человек неизменен, к нему, разве что, всякие железяки (человеко-компьютерные интерфейсы) можно прикручивать . А ведь уже сейчас известны кучи генетических заболеваний, которые можно исправить (не знаю, теоретически или уже практически) ещё на стадии формирования зародыша. Если вето будет снято, можно будет преодолеть и нейродегенеративные заболевания, и физические проблемы и т.д. Отсюда виден путь и до исправления эволюционных проблем мозга и вообще нашего тела.

        Границы (пост-)человека можно раздвигать и раздвигать! Я выше написал о проблемах, которые есть у компьютерного ИИ. Непонятно, будут ли они решены в ближайшее время. Но у нас под руками есть «базис», на котором эти проблемы решены миллионы лет назад, и вот на нём можно двигаться дальше! Однако, «редактирование детей» под запретом, причём под таким, что даже футурологи побаиваются думать об этом.

        Вот эта опасность мне кажется куда как более осуществимой. Просто представьте сценарий: Олимпиада-2024, Пекин. В беге на 100-метровку китайский бегун побеждает со временем 3.68 секунды, оставляя далеко позади спортсменов других наций (у них так и болтается в районе 8-и секунд). Остальные китайские спортсмены тоже рвут всех в клочья. Анализ показывает, что никакого допинга нет, просто их мышцы быстрее насыщаются кислородом (или что там ответственно за скорость срабатывания мышц). Потихоньку выясняется, что китайцы (у них с этикой в этом плане попроще) уже вплотную занимаются «редактированием людей», причём в случае спортсменов всего-то пришлось пару митохондрий у матерей подправить (именно поэтому ДНК-анализ спортсменов ничего не дал). Нации в опасности, а что, если Китай уже поставляет таких солдат в свои армии? Вето на исследования снимаются, создаётся новый пост-человек, ИИ так и остаётся недоделанным…

        P.S. Вспоминается почти анекдот про ИИ: после Дартмутского семинара 1956-го года (!), когда были обозначены основные направления развития ИИ, один из профессоров-участников (кажется, Ньюэлл) дал своему аспиранту тему: создать, в рамках диссертации, компьютерное зрение. Чем это закончилось, мы знаем: капчи в Интернете до сих пор не распознаются ;)

        P.P.S. Вообще, интерес к ИИ циклический: конец 50-ых, первые достижения — огромный интерес, вал фантастики на эту тему. Конец 60-ых — начало 70-ых — тишина. Потом появление экспертных систем — снова бешеный интерес. Потом осознание ограничений ЭС, снова апатия. 80-ые годы: дешевая компьютерная мощь и нейросети, снова всплеск. 90-ые и 00-ые — тишина. И вот очередной вал…

        1. > Потихоньку выясняется, что китайцы (у них с этикой в этом плане попроще) уже вплотную занимаются «редактированием людей»

          Собственно, началось, как я и предполагал:
          https://geektimes.ru/post/274138/

Добавить комментарий для СтаниславОтменить ответ