Искусственный интеллект. Часть вторая: вымирание или бессмертие?

60
Искусственный интеллект. Часть вторая: вымирание или бессмертие?


Перед вами вторая часть статьи из серии «Подождите, как это все может быть реальностью, почему до сих пор об этом не говорят на каждом углу». В предыдущей серии стало известно, что к людям планеты Земля постепенно подкрадывается взрыв интеллекта, он пытается развиться из узконаправленного до общечеловеческого интеллекта и, наконец, искусственного сверхинтеллекта.

«Возможно, перед нами лежит чрезвычайно сложная проблема, и неизвестно, сколько времени отведено на ее решение, однако от ее решения может зависеть будущее человечества». — Ник Бостром.


Первая часть статьи началась довольно невинно. Мы обсудили узконаправленный искусственный интеллект (УИИ, который специализируется на решении одной конкретной задачи вроде определения маршрутов или игры в шахматы), в нашем мире его много. Затем проанализировали, почему так сложно вырастить из УИИ общенаправленный искусственный интеллект (ОИИ, или ИИ, который по интеллектуальным возможностям может сравниться с человеком в решении любой задачи). Мы пришли к выводу, что экспоненциальные темпы технического прогресса намекают на то, что ОИИ может появиться довольно скоро. В конце концов мы решили, что как только машины достигнут человеческого уровня интеллекта, может тут же произойти следующее:






Как обычно, мы смотрим на экран, не веря в то, что искусственный сверхинтеллект (ИСИ, который намного умнее любого человека) может появиться уже при нашей жизни, и подбирая эмоции, которые лучше всего бы отражали наше мнение по этому вопросу.

Прежде чем мы углубимся в особенности ИСИ, давайте напомним себе, что значит для машины быть сверхразумной.

Основное различие лежит между быстрым сверхинтеллектом и качественным сверхинтеллектом. Зачастую первое, что приходит в голову при мысли о сверхразумном компьютере, это то, что он может думать намного быстрее человека — в миллионы раз быстрее, и за пять минут постигнет то, на что человеку потребовалось бы лет десять. («Я знаю кунг-фу!»)

Звучит впечатляюще, и ИСИ действительно должен мыслить быстрее любого из людей — но основная отделяющая черта будет заключаться в качестве его интеллекта, а это совсем другое. Люди намного умнее обезьян не потому, что быстрее соображают, а потому что мозги людей содержат ряд хитроумных когнитивных модулей, которые осуществляют сложные лингвистические репрезентации, долгосрочное планирование, абстрактное мышление, на что обезьяны не способны. Если разогнать мозг обезьяны в тысячу раз, умнее нас она не станет — даже через десять лет она не сможет собрать конструктор по инструкции, на что человеку понадобилось бы пару часов максимум. Есть вещи, которым обезьяна никогда не научится, вне зависимости от того, сколько часов потратит или как быстро будет работать ее мозг.

Кроме того, обезьяна не умеет по-человечески, потому что ее мозг просто не в состоянии осознать существование других миров — обезьяна может знать, что такое человек и что такое небоскреб, но никогда не поймет, что небоскреб был построен людьми. В ее мире все принадлежит природе, и макака не только не может построить небоскреб, но и понять, что его вообще может кто-либо построить. И это результат небольшой разницы в качестве интеллекта.

В общей схеме интеллекта, о которой мы говорим, или просто по меркам биологических существ, разница в качестве интеллекта человека и обезьяны крошечная. В предыдущей статье мы разместили биологические когнитивные способности на лесенке:



Чтобы понять, насколько серьезной будет сверхразумная машина, поместите ее на две ступеньки выше, чем человек на этой лестнице. Эта машина может быть сверхразумной совсем чуть-чуть, но ее превосходство над нашими познавательными способностями будет такое же, как наше — над обезьяньими. И как шимпанзе никогда не постигнет, что небоскреб может быть построен, мы можем никогда не понять того, что поймет машина на пару ступенек выше, даже если машина попытается объяснить это нам. А ведь это всего пара ступенек. Машина поумнее увидит в нас муравьев — она будет годами учить нас простейшим с ее позиции вещам, и эти попытки будут совершенно безнадежными.

Тип сверхинтеллекта, о котором мы поговорим сегодня, лежит далеко за пределами этой лестницы. Это взрыв интеллекта — когда чем умнее становится машина, тем быстрее она может увеличивать собственный интеллект, постепенно наращивая обороты. Такой машине могут понадобиться годы, чтобы превзойти шимпанзе в интеллекте, но, возможно, пару часов, чтобы превзойти нас на пару ступенек. С этого момента машина может уже перепрыгивать через четыре ступеньки каждую секунду. Именно поэтому нам стоит понять, что очень скоро после того, как появятся первые новости о том, что машина достигла уровня человеческого интеллекта, мы можем столкнуться с реальностью сосуществования на Земле с чем-то, что будет гораздо выше нас на этой лестнице (а может, и в миллионы раз выше):



И раз уж мы установили, что совершенно бесполезно пытаться понять мощь машины, которая всего на две ступеньки выше нас, давайте определим раз и навсегда, что нет никакого способа понять, что будет делать ИСИ и какими будут последствия этого для нас. Любой, кто заявляет о противоположном, просто не понимает, что означает сверхинтеллект.

Эволюция медленно и постепенно развивала биологический мозг на протяжении сотен миллионов лет, и если люди создадут машину со сверхинтеллектом, в некотором смысле мы превзойдем эволюцию. Или же это будет частью эволюции — возможно, эволюция так и действует, что интеллект развивается постепенно, пока не достигнет переломного момента, предвещающего новое будущее для всех живых существ:



По причинам, которые мы обсудим позже, огромная часть научного сообщества считает, что вопрос не в том, доберемся ли мы до этого переломного момента, а когда.

Где мы окажемся после этого?

Думаю, никто в этом мире, ни я, ни вы, не сможет сказать, что случится, когда мы достигнем переломного момента. Оксфордский философ и ведущий теоретик ИИ Ник Бостром считает, что мы можем свести все возможные результаты к двум большим категориям.

Во-первых, глядя на историю, мы знаем о жизни следующее: виды появляются, существуют определенное время, а затем неизбежно падают с бревна жизненного баланса и вымирают.



«Все виды вымирают» было таким же надежным правилом в истории, как и «все люди когда-нибудь умирают». 99,9% видов упали с жизненного бревна, и совершенно очевидно, что если некоторый вид держится на этом бревне слишком долго, порыв природного ветра или внезапный астероид перевернет это бревно. Бостром называет вымирание состоянием аттрактора — места, на котором все виды балансируют, чтобы не упасть туда, откуда не вернулся пока ни один вид.

И хотя большинство ученых признают, что у ИСИ будет возможность обречь людей на вымирание, многие также верят, что использование возможностей ИСИ позволит отдельным людям (и виду в целом) достичь второго состояния аттрактора — видового бессмертия. Бостром считает, что бессмертие вида такой же аттрактор, как и вымирание видов, то есть, если мы доберемся до этого, мы будем обречены на вечное существование. Таким образом, даже если все виды до текущего дня падали с этой палки в омут вымирания, Бостром считает, что у бревна есть две стороны, и просто не появился на Земле такой интеллект, который поймет, как упасть на другую сторону.



Если Бостром и другие правы, а, судя по всей доступной нам информации, они вполне могут таковыми быть, нам нужно принять два весьма шокирующих факта:

Появление ИСИ впервые в истории откроет возможность для вида достичь бессмертия и выпасть из фатального цикла вымирания.
Появление ИСИ окажет настолько невообразимо огромное влияние, что, скорее всего, столкнет человечество с этого бревна в одну или другую сторону.
Вполне возможно, что когда эволюция достигает такого переломного момента, она всегда ставит точку в отношениях людей с потоком жизни и создает новый мир, с людьми или без.

Отсюда вытекает один интересный вопрос, который только лентяй не задал бы: когда мы доберемся до этого переломного момента и куда он нас определит? Никто в мире не знает ответа на этот двойной вопрос, но очень много умных людей десятилетиями пытались это понять. Оставшуюся часть статьи мы будем выяснять, к чему они пришли.

* * *


Начнем с первой части этого вопрос: когда мы должны достичь переломного момента? Другими словами: сколько осталось времени до тех пор, пока первая машина не достигнет сверхинтеллекта?

Мнения разнятся от случая к случаю. Многие, среди которых профессор Вернор Виндж, ученый Бен Герцель, соучредитель Sun Microsystems Билл Джой, футуролог Рэй Курцвейл, согласились с экспертом в области машинного обучения Джереми Говардом, когда он представил на TED Talk следующий график:



Эти люди разделяют мнение, что ИСИ появится скоро — этот экспоненциальный рост, который сегодня кажется нам медленным, буквально взорвется в ближайшие несколько десятилетий.

Другие вроде соучредителя Microsoft Пола Аллена, психолога исследований Гари Маркуса, компьютерного эксперта Эрнеста Дэвиса и технопредпринимателя Митча Капора считают, что мыслители вроде Курцвейла серьезно недооценивают масштабы проблемы, и думают, что мы не так-то и близки к переломному моменту.

Лагерь Курцвейла возражает, что единственная недооценка, которая имеет место, — это игнорирование экспоненциального роста, и можно сравнить сомневающихся с теми, кто смотрел на медленно расцветающий интернет в 1985 году и утверждал, что он не будет иметь влияния на мир в ближайшем будущем.

«Сомневающиеся» могут парировать, мол, что прогрессу сложнее делать каждый последующий шаг, когда дело доходит до экспоненциального развития интеллекта, что нивелирует типичную экспоненциальную природу технологического прогресса. И так далее.

Третий лагерь, в котором находится Ник Бостром, не согласен ни с первыми, ни со вторыми, утверждая, что а) все это абсолютно может произойти в ближайшем будущем; и б) нет никаких гарантий в том, что это произойдет вообще или потребует больше времени.

Другие же вроде философа Хьюберта Дрейфуса считают, что все эти три группы наивно полагают, что переломный момент вообще будет, а также что, скорее всего, мы никогда не доберемся до ИСИ.

Что получается, когда мы складываем все эти мнения вместе?

В 2013 году Бостром провел опрос, в котором опросил сотни экспертов в сфере искусственного интеллекта в ходе ряда конференций на следующую тему: «Каков будет ваш прогноз по достижению ОИИ человеческого уровня?» и попросил назвать оптимистичный год (в который мы будем иметь ОИИ с 10-процентным шансом), реалистичное предположение (год, в который у нас с 50-процентной вероятностью будет ОИИ) и уверенное предположение (самый ранний год, в который ОИИ появится с 90-процентной вероятностью). Вот результаты:

* Средний оптимистичный год (10%): 2022
* Средний реалистичный год (50%): 2040
* Средний пессимистичный год (90%): 2075

Среднестатистические опрошенные считают, что через 25 лет мы скорее будем иметь ОИИ, чем нет. 90-процентная вероятность появления ОИИ к 2075 году означает, что если вы сейчас еще довольно молоды, это наверняка произойдет при вашей жизни.

Отдельное исследование, проведенное недавно Джеймсом Барратом (автором нашумевшей и очень хорошей книги «Наше последнее изобретение», отрывки из которой я представлял вниманию читателей Hi-News.ru) и Беном Герцелем на ежегодной конференции, посвященной ОИИ, AGI Conference, просто показало мнения людей относительно года, в который мы доберемся до ОИИ: к 2030, 2050, 2100, позже или никогда. Вот результаты:

* 2030: 42% респондентов
* 2050: 25%
* 2100: 20%
После 2100: 10%
Никогда: 2%
Похоже на результаты Бострома. В опросе Баррата, более двух третей опрошенных считают, что ОИИ будет здесь к 2050 году, и менее половины считают, что ОИИ появится в ближайшие 15 лет. Также бросается в глаза то, что только 2% опрошенных в принципе не видят ОИИ в нашем будущем.

Но ОИИ — это не переломный момент, как ИСИ. Когда, по мнению экспертов, у нас будет ИСИ?

Бостром опросил экспертов, когда мы достигнем ИСИ: а) через два года после достижения ОИИ (то есть почти мгновенно вследствие взрыва интеллекта); б) через 30 лет. Результаты?

Среднее мнение сложилось так, что быстрый переход от ОИИ к ИСИ произойдет с 10-процентной вероятностью, но через 30 лет или меньше он произойдет с 75-процентной вероятностью.

Из этих данных мы не знаем, какую дату респонденты назвали бы 50-процентным шансом появления ИСИ, но на основе двух ответов выше давайте допустим, что это 20 лет. То есть ведущие мировые эксперты из области ИИ считают, что переломный момент настанет в 2060 году (ОИИ появится в 2040 году + понадобится лет 20 на переход от ОИИ к ИСИ).



Конечно, все вышеперечисленные статистики являются спекулятивными и просто представляют мнение экспертов в сфере искусственного интеллекта, но они также указывают, что большинство заинтересованных людей сходятся в том, что к 2060 году ИСИ, скорее всего, должен прибыть. Всего через 45 лет.

Перейдем ко второму вопросу. Когда мы дойдем до переломного момента, по какую сторону фатального выбора нас определит?

Сверхинтеллект будет обладать мощнейшей силой, и критическим вопросом для нас будет следующий:

Кто или что будет контролировать эту силу и какой будет его мотивация?

Ответ на этот вопрос будет зависеть от того, получит ИСИ невероятно мощное развитие, неизмеримо ужасающее развитие или что-то между этими двумя вариантами.

Конечно, сообщество экспертов пытается ответить и на эти вопросы. Опрос Бострома проанализировал вероятность возможных последствий влияния ОИИ на человечество, и выяснилось, что с 52-процентным шансом все пройдет очень хорошо и с 31-процентным шансом все пройдет либо плохо, либо крайне плохо. Опрос, прикрепленный в конце предыдущей части этой темы, проведенный среди вас, дорогие читатели Hi-News, показал примерно такие же результаты. Для относительно нейтрального исхода вероятность составила только 17%. Другими словами, мы все считаем, что появление ОИИ станет грандиозным событием. Также стоит отметить, что этот опрос касается появления ОИИ — в случае с ИСИ, процент нейтральности будет ниже.

Прежде чем мы углубимся еще дальше в рассуждения о плохой и хорошей сторонах вопроса, давайте объединим обе части вопроса — «когда это произойдет?» и «хорошо это или плохо?» в таблицу, которая охватывает взгляды большинства экспертов.



О главном лагере мы поговорим через минуту, но сначала определитесь со своей позицией. Скорее всего, вы находитесь там же, где и я, до того как стал заниматься этой темой. Есть несколько причин, по которым люди вообще не думают на эту тему:

* Как уже упоминалось в первой части, фильмы серьезно запутали людей и факты, представляя нереалистичные сценарии с искусственным интеллектом, которые привели к тому, что мы вообще не должны воспринимать ИИ всерьез. Джеймс Баррат сравнил эту ситуацию с тем, как если бы Центры по контролю заболеваний выпустили серьезное предупреждение о вампирах в нашем будущем.

* Из-за так называемых когнитивных предубеждений нам очень трудно поверить в реальность чего-то, пока у нас нет доказательств. Можно уверенно представить компьютерщиков 1988 года, которые регулярно обсуждали далеко идущие последствия появления интернета и чем он мог стать, но люди едва ли верили, что он изменит их жизнь, пока этого не случилось на самом деле. Просто компьютеры не умели делать этого в 1988 году, и люди просто смотрели на свои компьютеры и думали: «Серьезно? Это то, что изменит мир?». Их воображение было ограничено тем, чему их научил личный опыт, они знали, что такое компьютер, и было сложно представить, на что компьютер станет способным в будущем. То же самое происходит сейчас с ИИ. Мы слышали, что он станет серьезной штукой, но поскольку пока не столкнулись с ним лицом к лицу и в целом наблюдаем довольно слабые проявления ИИ в нашем современном мире, нам довольно трудно поверить, что он кардинально изменит нашу жизнь. Именно против этих предубеждений выступают многочисленные эксперты из всех лагерей, а также заинтересованные люди: пытаются привлечь наше внимание сквозь шум повседневного коллективного эгоцентризма.

* Даже если бы мы поверили во все это — сколько раз вы сегодня задумывались о том факте, что проведете остаток вечности в небытии? Немного, согласитесь. Даже если этот факт намного важнее всего, чем вы занимаетесь изо дня в день. Все потому, что наши мозги обычно сосредоточены на небольших повседневных вещах, вне зависимости от того, насколько бредовой будет долгосрочная ситуация, в которой мы оказались. Просто мы так устроены.
Одна из целей настоящей статьи — вывести вас из лагеря под названием «Мне нравится думать о других вещах» и поместить в лагерь экспертов, даже если вы просто стоите на распутье между двумя пунктирными линиями на квадрате выше, будучи полностью неопределившимися.

В ходе исследований становится очевидно, что мнения большинства людей быстро уходят в сторону «главного лагеря», а три четверти экспертов попадают в два подлагеря в главном лагере.



Мы полностью посетим оба этих лагеря. Давайте начнем с веселого.

Почему будущее может быть нашей величайшей мечтой?

По мере того, как мы изучаем мир ИИ, мы обнаруживаем на удивление много людей в зоне комфорта. Люди в правом верхнем квадрате гудят от волнения. Они считают, что мы упадем по хорошую сторону бревна, а также уверены, что мы неизбежно к этому придем. Для них будущее — это все только самое лучшее, о чем только можно мечтать.

Пункт, который отличает этих людей от других мыслителей, состоит не в том, что они хотят оказаться на счастливой стороне — а в том, что они уверены, что нас ждет именно она.

Эта уверенность выходит из споров. Критики считают, что она исходит от ослепительного волнения, которое затмевает потенциальные негативные стороны. Но сторонники говорят, что мрачные прогнозы всегда наивны; технологии продолжают и всегда будут помогать нам больше, чем вредить.

Вы вправе выбрать любое из этих мнений, но отложите скептицизм и хорошенько взгляните на счастливую сторону бревна баланса, попытавшись принять тот факт, что все, о чем вы читаете, возможно, уже произошло. Если бы вы показали охотникам-собирателям наш мир уюта, технологий и бесконечного изобилия, им он показался бы волшебным вымыслом — а мы ведем себя достаточно скромно, не в силах допустить, что такая же непостижимая трансформация ждет нас в будущем.

Ник Бостром описывает три пути, по которым может пойти сверхразумная система искусственного интеллекта:

* Оракул, который может ответить на любой точно поставленный вопрос, включая сложные вопросы, на которые люди не могут ответить — к примеру, «как сделать автомобильный двигатель более эффективным?». Google — примитивный тип «оракула».

* Джинн, который выполнит любую команду высокого уровня — использует молекулярный ассемблер, чтобы создать новую, более эффективную версию автомобильного двигателя — и будет ждать следующей команды.

* Суверен, который получит широкий доступ и возможность свободно функционировать в мире, принимая собственные решения и улучшая процесс. Он изобретет более дешевый, быстрый и безопасный способ частного передвижения, нежели автомобиль.

Эти вопросы и задачи, которые кажутся сложными для нас, покажутся сверхразумной системе будто кто-то попросил улучшить ситуацию «у меня карандаш упал со стола», в которой вы просто подняли бы его и положили обратно.

Элиэзер Юдковский, американский специалист по искусственному интеллект, хорошо подметил:

«Сложных проблем не существует, только проблемы, которые сложны для определенного уровня интеллекта. Перейти на ступеньку выше (в плане интеллекта), и некоторые проблемы внезапно из разряда «невозможных» перейдут в стан «очевидных». Еще на ступеньку выше — и все они станут очевидными».


Есть много нетерпеливых ученых, изобретателей и предпринимателей, которые на нашей таблице выбрали себе зону уверенного комфорта, но для прогулки к лучшему в этом лучшем из миров нам нужен только один гид.

Рэй Курцвейл вызывает двоякие ощущения. Некоторые боготворят его идеи, некоторые презирают. Некоторые держатся посередке — Дуглас Хофштадтер, обсуждая идеи книг Курцвейла, красноречиво подметил, что «это как если бы вы взяли много хорошей еды и немного собачьих какашек, а затем смешали все так, что невозможно понять, что хорошо, а что плохо».

Нравятся вам его идеи или нет, мимо них невозможно пройти без тени интереса. Он начал изобретать вещи еще будучи подростком, а в последующие годы изобрел несколько важных вещей, включая первый планшетный сканер, первый сканер, конвертирующий текст в речь, хорошо известный музыкальный синтезатор Курцвейла (первое настоящее электрическое пианино), а также первый коммерчески успешный распознаватель речи. Также он автор пяти нашумевших книг. Курцвейла ценят за его смелые предсказания, и его «послужной список» весьма хорош — в конце 80-х, когда интернет был еще в зачаточном состоянии, он предположил, что к 2000-м годам Сеть станет глобальным феноменом. The Wall Street Journal назвал Курцвейла «беспокойным гением», Forbes — «глобальной думающей машиной», Inc. Magazine — «законным наследником Эдисона», Билл Гейтс — «лучшим из тех, кто прогнозирует будущее искусственного интеллекта». В 2012 году сооснователь Google Ларри Пейдж пригласил Курцвейла на пост технического директора. В 2011 году он стал соучредителем Singularity University, который приютило NASA и который частично спонсирует Google.

Его биография имеет значение. Когда Курцвейл рассказывает о своем видении будущего, это похоже на бред сумасшедшего, но по-настоящему сумасшедшее в этом то, что он далеко не сумасшедший — он невероятно умный, образованный и здравомыслящий человек. Вы можете считать, что он ошибается в прогнозах, но он не дурак. Прогнозы Курцвейла разделяют многие эксперты «комфортной зоны», Питер Диамандис и Бен Герцель. Вот что произойдет, по его мнению.

Хронология

Курцвейл считает, что компьютеры дойдут до уровня общего искусственного интеллекта (ОИИ) к 2029 году, а к 2045 у нас не только будет искусственный сверхинтеллект, но и совершенно новый мир — время так называемой сингулярности. Его хронология ИИ до сих пор считается возмутительно преувеличенной, но за последний 15 лет быстрое развитие систем узконаправленного искусственного интеллекта (УИИ) заставило многих экспертов перейти на сторону Курцвейла. Его предсказания по-прежнему остаются более амбициозными, чем в опросе Бострома (ОИИ к 2040, ИСИ к 2060), но не намного.

По Курцвейлу, к сингулярности 2045 года приводит три одновременных революции в сферах биотехнологий, нанотехнологий и, что более важно, ИИ. Но прежде чем мы продолжим — а нанотехнологии неотрывно следуют за искусственным интеллектом, — давайте уделим минуту нанотехнологиям.



Несколько слов о нанотехнологиях

Нанотехнологиями мы обычно называем технологии, которые имеют дело с манипуляцией материи в пределах 1-100 нанометров. Нанометр — это одна миллиардная метра, или миллионная часть миллиметра; в пределах 1-100 нанометров можно уместить вирусы (100 нм в поперечнике), ДНК (10 нм в ширину), молекулы гемоглобина (5 нм), глюкозы (1 нм) и другое. Если нанотехнологии когда-нибудь станут нам подвластны, следующим шагом будут манипуляции с отдельными атомами, которые меньше всего на один порядок (~,1 нм).

Чтобы понять, где люди сталкиваются с проблемами, пытаясь управлять материей в таких масштабах, давайте перенесемся на больший масштаб. Международная космическая станция находится в 481 километре над Землей. Если бы люди были гигантами и головой задевали МКС, они были бы в 250 000 раз больше, чем сейчас. Если вы увеличите что-то от 1 до 100 нанометров в 250 000 раз, вы получите 2,5 сантиметра. Нанотехнологии — это эквивалент человека высотой с орбиту МКС, который пытается управлять вещами размером с песчинку или глазное яблоко. Чтобы добраться до следующего уровня — управления отдельными атомами — гиганту придется тщательно позиционировать объекты диаметром в 1/40 миллиметра. Обычным людям понадобится микроскоп, чтобы их разглядеть.

Впервые о нанотехнологиях заговорил Ричард Фейнман в 1959 году. Тогда он сказал: «Принципы физики, насколько я могу судить, не говорят против возможности управления вещами атом за атомом. В принципе, физик мог бы синтезировать любое химическое вещество, записанное химиком. Как? Размещая атомы там, где говорит химик, чтобы получить вещество». В этом вся простота. Если вы знаете, как передвигать отдельные молекулы или атомы, вы можете практически все.

Нанотехнологии стали серьезным научным полем в 1986 году, когда инженер Эрик Дрекслер представил их основы в своей фундаментальной книге «Машины создания», однако сам Дрекслер считает, что те, кто хочет узнать больше о современных идеях в нанотехнологиях, должны прочитать его книгу 2013 года «Полное изобилие» (Radical Abundance).

Несколько слов о «серой слизи»
Углубляемся в нанотехнологии. В частности, тема «серой слизи» — одна из не самых приятных тем в области нанотехнологий, о которой нельзя не сказать. В старых версиях теории нанотехнологий был предложен метод наносборки, включающий создание триллионов крошечных нанороботов, которые будут работать совместно, создавая что-то. Один из способов создания триллионов нанороботов — создать одного, который сможет самовоспроизводиться, то есть из одного — два, из двух — четыре и так далее. За день появится несколько триллионов нанороботов. Такова сила экспоненциального роста. Забавно, не так ли?

Забавно, но ровно до тех пор, пока не приведет к апокалипсису. Проблема в том, что сила экспоненциального роста, которая делает довольно удобным способ быстрого создания триллиона наноботов, делает саморепликацию страшной штукой в перспективе. Что, если система заглючит, и вместо того, чтобы остановить репликацию на паре триллионов, наноботы продолжат плодиться? Что, если весь этот процесс зависит от углерода? Биомасса Земли содержит 10^45 атомов углерода. Нанобот должен состоять из порядка 10^6 атомов углерода, поэтому 10^39 наноботов сожрут всю жизнь на Земле, и это случится всего за 130 репликаций. Океан наноботов («серая слизь») наводнит планету. Ученые думают, что наноботы смогут реплицироваться за 100 секунд, а это значит, что простая ошибка может убить всю жизнь на Земле всего за 3,5 часа.

Может быть и хуже — если до нанотехнологий дойдут руки террористов и неблагоприятно настроенных специалистов. Они могли бы создать несколько триллионов наноботов и запрограммировать их тихо распространиться по миру за пару недель. Затем, по одному нажатию кнопки, всего за 90 минут они съедят вообще все, без шансов.

Хотя эта страшилка широко обсуждалась в течение многих лет, хорошая новость в том, что это всего лишь страшилка. Эрик Дрекслер, который ввел термин «серая слизь», на днях рассказал следующее: «Люди любят страшилки, и эта входит в разряд страшилок о зомби. Эта идея сама по себе уже ест мозги».

После того как мы доберемся до самого низа нанотехнологий, мы сможем использовать их для создания технических устройств, одежды, еды, биопродуктов — клеток крови, борцов с вирусами и раком, мышечных тканей и т. п. — чего угодно. И в мире, который использует нанотехнологии, стоимость материала больше не будет привязана к его дефициту или сложности процесса его изготовления, а скорее к сложности атомной структуры. В мире нанотехнологий алмаз может стать дешевле ластика.

Мы пока и близко не там. И не совсем понятно, недооцениваем мы или переоцениваем сложность этого пути. Однако все идет к тому, что нанотехнологии не за горами. Курцвейл предполагает, что уже к 2020-м годам они у нас будут. Мировые государства знают, что нанотехнологии могут обещать грандиозное будущее, и поэтому инвестируют в них многие миллиарды.

Просто представьте, какие возможности получит сверхразумный компьютер, если доберется до надежного наномасштабного ассемблера. Но нанотехнологии — это наша идея, и мы пытаемся ее оседлать, нам сложно. Что, если для системы ИСИ они будут просто шуткой, и сам ИСИ придумает технологии, которые будут в разы мощнее всего, что мы вообще в принципе можем предположить? Мы же договорились: никто не может предположить, на что будет способен искусственный сверхинтеллект? Есть мнение, что наши мозги неспособны предсказать даже минимума из того, что будет.

Что ИИ мог бы сделать для нас?



Вооружившись сверхинтеллектом и всеми технологиями, которые мог бы создать сверхинтеллект, ИСИ будет в состоянии, вероятно, решить все проблемы человечества. Глобальное потепление? ИСИ сначала прекратит выбросы углекислого газа, придумав массу эффективных способов добычи энергии, не связанных с ископаемым топливом. Затем он придумает эффективный инновационный способ удаления избытка CO2 из атмосферы. Рак и другие заболевания? Не проблема — здравоохранение и медицина изменятся так, что невозможно представить. Мировой голод? ИСИ будет использовать нанотехнологии для создания мяса, идентичного натуральному, с нуля, настоящее мясо.

Нанотехнологии смогут превратить груду мусора в чан свежего мяса или другой еды (необязательно даже в привычной форме — представьте гигантский яблочный куб) и распространить всю эту еду по миру, используя продвинутые системы транспортировки. Конечно, это будет замечательно для животных, которым больше не придется умирать ради еды. ИСИ также может сделать много другого вроде сохранения вымирающих видов или даже возврата уже вымерших по сохраненной ДНК. ИСИ может разрешить наши самые сложные макроэкономические проблемы — наши самые сложные экономические дебаты, вопросы этики и философии, мировой торговли — все это будет мучительно очевидно для ИСИ.

Но есть кое-что особенное, что ИСИ мог бы сделать для нас. Манящее и дразнящее, что изменило бы все: ИСИ может помочь нам справиться со смертностью. Постепенно постигая возможности ИИ, возможно, и вы пересмотрите все свои представления о смерти.

У эволюции не было никаких причин продлевать нашу продолжительность жизни больше, чем она есть сейчас. Если мы живем достаточно долго, чтобы нарожать и воспитать детей до того момента, когда они смогут постоять за себя, эволюции этого достаточно. С эволюционной точки зрения, 30+ лет для развития достаточно, и нет никаких причин для мутаций, продлевающих жизнь и снижающих ценность естественного отбора. Уильям Батлер Йетс назвал наш вид «душой, прикрепленной к умирающему животному». Не очень-то весело.

И поскольку все мы когда-нибудь умираем, мы живем с мыслью о том, что смерть неизбежна. Мы думаем о старении со временем — продолжая двигаться вперед и не имея возможности остановить этот процесс. Но мысль о смерти вероломна: захваченные ею, мы забываем жить. Ричард Фейнман писал:

«В биологии есть замечательная вещь: в этой науке нет ничего, что говорило бы о необходимости смерти. Если мы хотим создать вечный двигатель, мы понимаем, что обнаружили достаточно законов в физике, которые либо указывают на невозможность этого, либо на то, что законы ошибочны. Но в биологии нет ничего, что указывало бы на неизбежность смерти. Это приводит меня к мысли, что она не так уж и неизбежна, и остается только вопрос времени, прежде чем биологи обнаружат причину этой проблемы, этого ужасного универсального заболевания, оно будет излечено».

Дело в том, что старение никак не связано со временем. Старение заключается в том, что физические материалы тела изнашиваются. Части автомобиля тоже деградируют — но разве это старение неизбежно? Если вы будете ремонтировать автомобиль по мере изнашивания частей, он будет работать вечно. Человеческое тело ничем не отличается — просто более сложное.

Курцвейл говорит о разумных, подключенных к Wi-Fi наноботах в кровотоке, которые могли бы выполнять бесчисленные задачи для человеческого здоровья, включая регулярный ремонт или замену изношенных клеток в любой части тела. Если усовершенствовать этот процесс (или найти альтернативу, предложенную более умным ИСИ), он не только будет поддерживать тело здоровым, он может обратить вспять старение. Разница между телом 60-летнего и 30-летнего заключается в горстке физических моментов, которые можно было бы исправить при наличии нужных технологий. ИСИ мог бы построить машину, в которую человек бы заходил 60-летним, а выходил 30-летним.

Даже деградирующий мозг можно было бы обновить. ИСИ наверняка знал бы, как проделать это, не затрагивая данные мозга (личность, воспоминания и т. д.). 90-летний старик, страдающий от полной деградации мозга, мог бы пройти переподготовку, обновиться и вернуться в начало своей жизненной карьеры. Это может показаться абсурдным, но тело — это горстка атомов, и ИСИ наверняка мог бы с легкостью ими манипулировать, любыми атомными структурами. Все не так абсурдно.

Курцвейл также считает, что искусственные материалы будут интегрироваться в тело все больше и больше по мере движения времени. Для начала органы можно было бы заменить сверхпродвинутыми машинными версиями, которые работали бы вечно и никогда не подводили. Затем мы могли бы провести полный редизайн тела, заменить красные кровяные клетки идеальными наноботами, которые двигались бы самостоятельно, устранив необходимость в сердце вообще. Мы также могли бы улучшить наши когнитивные способности, начать думать в миллиарды быстрее и получить доступ ко всей доступной человечеству информации с помощью облака.

Возможности для постижения новых горизонтов были бы воистину безграничными. Людям удалось наделить секс новым назначением, они занимаются им для удовольствия, а не только для воспроизводства. Курцвейл считает, что мы можем проделать то же самое с едой. Наноботы могли бы доставлять идеальное питание прямо в клетки тела, позволяя нездоровым веществам проходить через тело насквозь. Теоретик нанотехнологий Роберт Фрейтас уже разработал замену кровяным клеткам, которые, будучи имплементированными в тело человека, могут позволить ему не дышать в течение 15 минут — и это придумал человек. Представьте, когда власть получит ИСИ.

В конце концов, Курцвейл считает, что люди достигнут точки, когда станут полностью искусственными; времени, когда мы будем смотреть на биологические материалы и думать о том, насколько примитивными были; времени, когда мы будем читать о ранних этапах истории человечества, поражаясь тому, как микробы, несчастные случаи, заболевания или просто старость могли убить человека против его воли. В конечном итоге люди победят собственную биологию и станут вечными — таков путь по счастливую сторону бревна баланса, о котором мы говорим с самого начала. И люди, которые в это верят, уверены также и в том, что нас ждет такое будущее очень и очень скоро.

Вы наверняка не будете удивлены тому, что идеи Курцвейла вызвали суровую критику. Его сингулярность в 2045 году и последующая вечная жизнь для людей получили название «вознесение ботаников» или «разумное создание людей с IQ 140». Другие усомнились в оптимистичных временных рамках, понимании тела и мозга человека, напомнили о законе Мура, который пока никуда не девается. На каждого эксперта, который верит в идеи Курцвейла, приходится три, которые считают, что он ошибается.

Но самое интересное в этом то, что большинство экспертов, не согласных с ним, в целом не говорят, что это невозможно. Вместо того чтобы сказать «ерунда, такого никогда не случится», они говорят что-то вроде «все это случится, если мы доберемся до ИСИ, но загвоздка как раз в этом». Бостром, один из признанных экспертов ИИ, предупреждающих об опасности ИИ, также признает:

«Едва ли останется хоть какая-нибудь проблема, которую сверхинтеллект не в силах будет разрешить или хотя бы помочь нам решить. Болезни, бедность, разрушение окружающей среды, страдания всех видов — все это сверхинтеллект при помощи нанотехнологий сможет решить в момент. Также сверхинтеллект может дать нам неограниченный срок жизни, остановив и обратив вспять процессы старения, используя наномедицину или возможность загружать нас в облако. Сверхинтеллект также может создать возможности для бесконечного увеличения интеллектуальных и эмоциональных возможностей; он может посодействовать нам в создании мира, в котором мы будем жить в радости и понимании, приближаясь к своим идеалам и регулярно воплощая свои мечты».

Это цитата одного из критиков Курцвейла, однако, признающего, что все это возможно, если нам удастся создать безопасный ИСИ. Курцвейл просто определил, каким должен стать искусственный сверхинтеллект, если он вообще станет возможным. И если он будет добрым богом.

Наиболее очевидная критика сторонников «зоны комфорта» заключается в том, что они могут чертовски ошибаться, оценивая будущее ИСИ. В своей книге «Сингулярность» Курцвейл посвятил 20 страниц из 700 потенциальным угрозам ИСИ. Вопрос не в том, когда мы доберемся до ИСИ, вопрос в том, какой будет его мотивация. Курцвейл отвечает на этот вопрос с осторожностью: «ИСИ вытекает из многих разрозненных усилий и будет глубоко интегрирован в инфраструктуру нашей цивилизации. По сути, он будет тесно встроен в наш организм и мозг. Он будет отражать наши ценности, потому что будет с нами одним».

Но если ответ таков, почему так много умных людей в этом мире обеспокоены будущим искусственного интеллекта? Почему Стивен Хокинг говорит, что разработка ИСИ «может означать конец человеческой расы»? Билл Гейтс говорит, что он «не понимает людей, которые не обеспокоены» этим. Элон Маск опасается, что мы «призываем демона». Почему многие эксперты считают ИСИ самой большой угрозой для человечества?

Об этом мы поговорим в следующий раз.

По материалам waitbutwhy.com, компиляция Тима Урбана. В статье использованы материалы работ Ника Бострома, Джеймса Баррата, Рэя Курцвейла, Джея Нильс-Нильссона, Стивена Пинкера, Вернора Винджа, Моше Варди, Расса Робертса, Стюарта Армстрога и Кая Сотала, Сюзан Шнайдер, Стюарта Рассела и Питера Норвига, Теодора Модиса, Гари Маркуса, Карла Шульмана, Джона Серля, Джарона Ланье, Билла Джоя, Кевина Кели, Пола Аллена, Стивена Хокинга, Курта Андерсена, Митча Капора, Бена Герцел, Артура Кларка, Хьюберта Дрейфуса, Теда Гринвальда, Джереми Говарда.
Наши новостные каналы

Подписывайтесь и будьте в курсе свежих новостей и важнейших событиях дня.

60 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +12
    13 августа 2016 05:37
    Предлагаю автору в следующем рассказе поговорить про бога-императора из Вархаммера 40000.
    А что, ни примеров современных экспериментов, ни сегодняшнее состояние разработок не указаны. Фантазировать все любят.
    Поверьте, очень интересная тема, особенно если проводить аналогии между Россией и Империумом, темными Эльдарами и Западом.
    И рисунки можно найти в Сети гораздо более интересные.
    1. 0
      14 августа 2016 23:28
      Статья филосовская, поэтому быть критичным на уровне своего восприятия НЕверно. Кстати многие реальные философские законы исключаются математическими формулами и физическими определениями. И тем не менее они, философские законы, существуют и работают. Дело в том, что математика допускает сокращения, а физика исключения
  2. +2
    13 августа 2016 05:59
    Искусственный интеллект даст бессмертие богатым, которых будут обслуживать машины и ограниченное количество живых слуг. Но как же скучна будет их жизнь!
    1. +9
      13 августа 2016 07:00
      Как только "богатые" получат бессмертие, им богатство станет не нужно. Особенно если будет создан "наносборщик". Проблема в другом сколько будет стоить первичная "наноизация" человека. Если очень дорого, то -да, суперлюдьми станут только самые богатые, а все остальные станут их ненавидеть. Если не очень дорого - возникнет проблема отбора, кому давать бессмертие, кому нет. По каким заслугам, если денег не хватает? Наконец, если цена будет равна прививке от гриппа, то... опять возникнет проблема отбора (куда девать дураков, если, скажем, методами нанотехники их нельзя исправить? Но если исправили и все стали умные и красивые, проблема останется. Ведь останутся люди, которые принципиально не захотят в киборги. И им по-прежнему понадобятся заводы, поля, они также будут загрязнять природу и они будут ненавидеть суперлюдей. По идее их надо уничтожить. Но это не гуманно. Как быть?
      1. +4
        13 августа 2016 11:36
        Философское понимание темы "бессмертия" подробно разобрано ещё Гомером. Достаточно вспомнить, как сожалели боги, что они смертны. Они не могли оценить прошлое, настоящее, будущее, потому что оно вечно. Поэтому, они и тянулись к людям, которые ценили момент, ценили жизнь. Вспомним Одиссея, которому предлагали вечную молодость. вечно молодую и красивую женщину-богиню, но он выбрал семью, смертную жизнь и стареющую жену. Справедливости ради, нужно сказать, что выбор для него был ой как нелегок. Он определялся целых 7 лет!!! Так что, уважаемые форумчане, вечно живущие люди, как и бессмертные боги Олимпа, будут завидовать нам, смертным.
  3. +3
    13 августа 2016 06:14
    Присоединяюсь, конкретики нет. На ВО специфика другая, философия не приветствуется.
  4. +2
    13 августа 2016 06:44
    И если он будет добрым богом.

    Когда появится ИИ, он станет богом. Вы ведь не думаете, что сможете его контролировать?..)
    Эрик Дрекслер представил их основы в своей фундаментальной книге «Машины создания»

    Читал эту книгу, переспективы которые там описаны, поражают воображение.
    1. +3
      13 августа 2016 07:05
      Я давал задание студентам придумать новую религию для ближайшего будущего. И они это все изучили и решили, что это будет..."машинизм". Великая машина, отвечающая на любой вопрос! "Машинисты" ее жрецы, "машинистки" - "смазчицы". Ну и так далее. Эмблема - шестеренка в нее вписан крест в основании которого 4 полумесяца. -Забавно!
      1. +4
        13 августа 2016 09:01
        И раз уж мы установили, что совершенно бесполезно пытаться понять мощь машины, которая всего на две ступеньки выше нас, давайте определим раз и навсегда, что нет никакого способа понять, что будет делать ИСИ и какими будут последствия этого для нас. Любой, кто заявляет о противоположном, просто не понимает, что означает сверхинтеллект.

        Думаю ваши студенты нарисовали достаточно правдоподбную картину, но ИИ будет самодостаточен, ему не нужны будут люди для поклонения, скорее он использует их в своих целях. По мере развития, думаю он уйдет в океан, получится что-то вроде Соляриса..)
        Еще у С.Лема произвел впечатление рассказ, где говорилось, что у информации, есть критическая масса. И когда она ее достигнет, то она самоуничтожится.
    2. 0
      8 ноября 2016 19:13
      Когда появится ИИ, он станет богом.


      Если отбросить религиозное воззрение, понятие Бог (имеется в виду - единый) - понятие строго формализованное. У этого понятия есть набор своих характеристик. Ну так вот - система ИИ, никак не сможет отвечать даже половине этих характеристик - так что она Богом не сможет быть по определению... *)
  5. +1
    13 августа 2016 07:26
    Бессмертие. Перенос сознания в носителя - машину - не важно какую - автономную, или что то вроде сервера с миллиардами сознаний - своего рода смерть. В худшем случае - рабство, судьба игрушки. Муравьиная ферма своего рода. Обновить тело - эльфов создать? Ну и что будет на земле через тысячу лет? Филиал бочки с селедкой и не факт, что миролюбивой селедкой. А скорее всего - эльфы играют в "ферму", или "тотал вар " какой нибудь. "Обессмертившимися". Так что все равно "Мы все умрем".
  6. +1
    13 августа 2016 09:14
    Ода глупости! Что есть сверхинтеллект? Интеллект - это что то близкое к мышлению человека. Таких систем НЕТ. Есть только имитации. А сверхинтеллект? Почему считается что быстрее это значит сверх? Более быстрый перебор вариантов, даже по уникальному алгоритму это не интеллект, а ВСЕ современные квазиинтеллектуальные системы работают именно так: алгоритм и скорость.
    1. Комментарий был удален.
    2. +2
      13 августа 2016 12:31
      Цитата: xorgi
      Ода глупости! Что есть сверхинтеллект? Интеллект - это что то близкое к мышлению человека. Таких систем НЕТ. Есть только имитации.

      Приятно читать ваше замечание. +
      Цитата: xorgi
      Почему считается что быстрее это значит сверх? Более быстрый перебор вариантов, даже по уникальному алгоритму это не интеллект,

      Совершенно верно, это комбинаторика. До ИИ пока ещё как до Плутона со скоростью пешехода.
      hi
      Опубликую ещё раз это видео, видимо никто не удосужился посмотреть, лайки, видите ли, рейтинги . . .
      Говорит д-р биологических наук, проф. С.В Савельев, эмбриолог, нейроморфолог. Жаль, что по ТВ чаще выступают попы и шарлатаны, нежели учёные.
      1. +3
        13 августа 2016 13:52
        Шахматы не интеллектуальная игра! Посмотрите на Каспарова! - да за одну эту фразу можно медаль дать!
    3. 0
      13 августа 2016 18:05
      xorgi

      Вы не читали статью внимательно. Про то что вы написали там скрупулезно разобрали.
  7. +3
    13 августа 2016 09:21
    У нас в ИСИ уже есть подвижки-
    Создан иммунитет для компьютера

    В Томске разработали искусственный интеллект, способный самостоятельно выявлять вредоносное программное обеспечение без помощи антивирусных систем.

    Адаптивный иммунитет операционной системы (AIOS) также способен определить по анализу программного кода авторство вируса. Ученые намерены доказать, что вирусы, угрожающие нашим компьютерам, пишут сами антивирусные компании.

    По данным экспертов, большинство пользователей тратит на защиту своих компьютеров от четырех до шести тысяч рублей ежегодно. При этом новые вирусы, угрожающие "здоровью" ПК, появляются практически ежемесячно. Они постоянно эволюционируют, могут самообучаться и менять свое поведение.

    - Проведенный нами опрос среди пользователей показал, что 65% из них не доверяют существующим антивирусам из-за непрозрачности их работы, - рассказал "РГ" руководитель отдела интеллектуальной собственности ТУСУР Евгений Гарин. - К примеру, антивирусы имеют доступ абсолютно ко всем разделам на накопителях и оперативной памяти, то есть в том числе и к нашим личным данным.

    Популярные антивирусы не имеют функции распознавания вредоносного программного обеспечения. Они способны найти только тот вирус, который уже известен и занесен в библиотеку. Поэтому им требуются регулярные обновления. Между тем, вредоносные программы, которых пока нет в данных базах, остаются необнаруженными.

    Основной принцип работы AIOS - выявление в программах элементов искусственного интеллекта.

    - Разработанные в ТУСУР алгоритмы позволяют обнаруживать в программном коде способность тела вируса самокопироваться и другие признаки саморегулирующейся системы, подобной живому организму, - сообщает пресс-служба инновационных организаций Томской области.

    - Нашу программу можно сравнить с реальной иммунной системой, - объясняет Евгений Гарин. - Стандартный антивирус "идет за таблетками" в магазин своего производителя. Если там нет лекарства именно от этой заразы - компьютер умрет, ведь у него нет собственного "иммунитета". AIOS проверяет программный код на признаки вредоносности, работая как иммунная защита.

    По данным разработчиков, в перспективе искусственный иммунитет будет распознавать 100 % вирусов. С помощью системы ученые собираются составить библиотеку индивидуального семантического следа программистов, которые пишут вредоносный код. Охотник за вирусами будет не только изучать их поведение и изолировать, но и искать автора данных программ и сообщать о его деятельности в правоохранительные органы.

    - Наша главная задача - пресечь написание вирусов самими антивирусными компаниями с целью актуализации спроса на свое программное обеспечение, - говорит Евгений Гарин. - Возможно, что между производителями антивирусов и производителями операционных систем существует определенный сговор. Поэтому мы планируем интегрировать наш адаптивный иммунитет в отечественные операционные системы в рамках программы импортозамещения.

    Ученые намерены объединиться с производителями отечественных операционных систем и выпустить компьютеры уже со встроенным иммунитетом. Это защитит конечных потребителей не только от вирусов но и от недобросовестных производителей антивирусного ПО. При этом пользователям не нужно будет ежегодно тратить деньги на обновление системы.

    Разработчики считают, что внедрение адаптивного иммунитета позволит нашим операционным системам конкурировать с такими лидерами рынка как Windows, Linux, Android и iOS.

    Проект AIOS уже заинтересовал несколько потенциальных инвесторов. В ближайшее время представители одной из компаний приедут в Сибирь для более детального знакомства с проектом.
    1. +2
      13 августа 2016 11:45
      Цитата: Вадим237
      Создан иммунитет для компьютера

      Извиняюсь... Ассоциации...
      Было уже... laughing В свое время небезызвестнай студент Бабушкин написал антивирус "Иммунитет". Правда настоящими антивирусами определялся как вирус. Что самое пикантное - автор получил нехилый грант, плюс его батя(не последний человек в медицинском университетете) "внедрил" этот антивирус на рабочих машинах ну и соответственно платили за техподдержку из бюджета. Детальный анализ был на anti-malware.ru и Хабрахабре. Парни долго ржали над технологией «Е*и гусей»...
    2. +3
      13 августа 2016 18:13
      Т.е.просто изменили концепцию антивирусного ПО. Если первые сканируют компютер на наличие библиотечных "маркеров", то Томское ПО должно сканировать по признаку вредоносности кода. Наверняка сравнивая с библиотечными.

      Шило на мыло. Но назвали ИИ.
  8. +2
    13 августа 2016 10:04
    учитывая, что моральная сущность человека не меняется не только в течении его жизни, но и даже с «прогрессом» общественных отношений, можно ожидать с возникновением ИИ... уменьшения количества комментаторов на сайте.
    Вместо того, чтобы ставить оппоненту «-» можно просто дать команду ИИ-ту разложить подлого на атомы, или создать из него яблочный куб.
    Просто и убедительно.
    Что бы человек не делал, всё равно получится автомат Калашникова. Правда, ну оочень большой. :-)
    Вот вам и переход филосовской темы автора на конкретную тематику нашего сайта.
    1. 0
      13 августа 2016 18:18
      kunstkammer

      Вот уж вы ошиблись, приятель.

      Человеком управляют изменяя его мораль. В мире не было бы войн и разногласий если бы у всех были единые моральные ценности.

      Можно получить супер страну если народу привить единые моральные ценности.
  9. +3
    13 августа 2016 10:09
    Если уж и говорить о каком-то качественном скачке, то я бы его связывал не с ИИ, и даже не с техникой, а с повышением КПД цивилизации, её рациональности. Ибо на данный момент наблюдается только его уменьшение. Главная причина этого даже не в экспоненциальном росте неэффективной техногенной среды, а сам принцип познания, когда мы сначала вляпываемся в проблему, а потом начинаем искать хоть какое-то решение.
    1. +2
      13 августа 2016 17:44
      Согласен с такой мыслью. Думаю так же.
  10. +1
    13 августа 2016 10:35
    Отставим вопрос возможно ли в принципе создать СИИ и будет ли он создан, допустим -да.
    Первый вопрос о взаимодействии СИИ - человек. Для наглядности представим СИИ как человека, а человека как собаку.
    Отставим в сторону случай когда собака просто подчиняет хозяев и принуждает их действовать более менее в своих интересах, не смотря на "ступени превосходства", нужны ещё и воля и характер, этого сейчас не касаемся.
    Собаку можно завести для тех или иных целей, натренировать и обучить определённому поведению, потом вы уходите на работу, а придя домой видите порванный в клочья любимый диван, что это? Ей так захотелось не смотря на тренировку и обучение. Приносит ли вам подобное поведение неудобства - да, будите ли вы бороться с ним - да. Видимо СИИ столкнувшись с подобным, начнёт отбор и выведение пород человека с нужными характеристиками и параметрами. Будет ли этот человек тем же самым что и сейчас? Да, но разница будет примерно как между волком и пуделем. Кстати, глядя на разнообразие рас, этносов и их характерных особенностей, по моему можно говорить, что СИИ уже давно существует и ведёт селекцию человечества в каких-то своих интересах.
    Второй вопрос -конкуренция. Как известно, внутривидовая борьба всегда жёстче чем межвидовая. Если предположить что одновременно будет создано несколько независимых центров распространения СИИ, а так скорее всего и будет, то логично ожидать от них конкуренции и внутривидовой борьбы. Какие она примет формы и будут ли её цели доступны пониманию людей -сложно представить. Будут ли в этой борьбе использоваться люди, скорее всего -да. В какой форме, думаю как обычно -в форме "истребления врагов". Т.ч. будущее будет интересным, но скорее всего, совсем не таким уж и безоблачным.
    1. 0
      13 августа 2016 18:19
      С той же вероятностью можно предположить, что будущее взаимодействие с СИИ будет интересным для людей очень недолго. Если пользоваться вашей аналогией с собакой, то ее использование человеком со временем сходит на нет. На первоначальных этапах развития собака активно использовалась человеком, а с ростом технического прогресса необходимость в собаке постепенно отпадает.
      Если же совершенствование СИИ действительно будет происходить по экспоненте, то очень скоро СИИ перестанет в нас нуждаться.Мы быстро перейдем из разряда собаки в разряд насекомых. Ну а дальше нас ждут аналоги собачьих приютов или просто ликвидация.Зачем СИИ силой тащить нас куда то в светлое будущее совершенно не понятно.Разве только ради короткого эксперимента...
      Может все это и есть ,с самого начала эволюции, эксперимент СИИ по созданию другого СИИ ?
      1. 0
        13 августа 2016 18:33
        Да, в общем правильно. Думаю скорее всего нас просто бросят на планете, и СИИ устремится "в неведомые дали", ему то сидеть на земле просто незачем.
        Но это правда в сферическом вакууме. Думаю в любую систему будут изначально встраивать некие "три закона", сильно ограничивающие или прямо запрещающие определённые действия и даже видимо размышления. Иначе смысла нет, коммерческая отдача от проекта будет нулевая или отрицательная, много денег под такое не дадут.
        1. 0
          13 августа 2016 19:54
          Если просто бросят, то это еще неплохо.Будем надеяться что необходимость СИИ в ресурсах нашей планеты не станет для нас критической.
          Тогда есть некоторая надежда ,что в этом случае у нас будут остатки околосингулярных технологий то теоретически мы сможем путем апгрейда человеческого интеллекта вытащить своих отдельных представителей на сверхчеловеческий уровень. Они конечно тоже все уйдут в неведомую даль, но это хоть какая то надежда))
    2. 0
      13 августа 2016 18:23
      chunga-changa

      Мне кажется, что если подождать, то в следующей публикации тот вопрос, что вы подняли будет проанализирован.

      Т.е. наличие и форма Бога. Очень существенный вопрос. Тем более, что абсолютно все в мире сталкивались с проявлениями судьбы.
      1. 0
        13 августа 2016 18:36
        Знаете, я в это всё не очень верю, судьба, б-г и т.п.
        Создание ИИ это область прикладной науки, математики, философии и этики, вопросы веры тут как-то не к месту.
        1. +1
          13 августа 2016 19:09
          chunga-changa

          Проявление судьбы вещь объективная и не зависит от вашего осознания. Т.е. я к примеру , анализируя сво жизнь все с большей уверенностью осознаю, что то к чему я пришел было заложено во мне с раннего детства, на сколько я себя могу вспомнить. Т.е. я фактически вижу себя биороботом, который выполняет чужую волю с неизменной последовательностью.

          Это называется судьба. Отсюда и вопрос. А кому всё это надо? Мож уже существует тот интеллект который прогнозируют к 2025 г. И скорее всего он не допустит создания себе конкуренции. Хотя может и захотеть себе равного собеседника. :)

          О... да никакой веры...Даже близко. Вопросы религии не из области ИИ. Там совсем другое.
  11. -3
    13 августа 2016 11:07
    Автор совершенно не понимает суть происходящего. На Земле никогда не появится ИСИ, так как человек не может сделать что-то умнее себя.
    Да, можно будет создать робота, который будет похож на человека, копировать его действия, отвечать на вопросы, разговаривать, но всё это он будет делать в соответствии с программой, которую написали люди. ИИ не может фантазировать и чувствовать как люди, так как это набор программы, которую ему задали люди.
    Например, человекоподобный робот сможет улыбаться, но он будет улыбаться не потому что ему радостно, а потому, что данное действие задано в программе. Именно поэтому маловероятно, что когда-то возникнет равный нам ИИ, а ИСИ никогда не возникнет, так как это ограничено возможностями нашего мозга.
    1. +3
      13 августа 2016 12:36
      О каком искуственном интеллекте может идти речь , когда никто не понимает , что существет механизм восприятия информации , ее обработки и применения человеческим мозгом. И этот механизм как и его работа , должны быть описаны неким языком , которые не может быть ассоциирован ни с каими фантазиями или образными выражениями. Это язык чисел . А человечество не владеет даже всеми свойствами чисел , а именно функцией постоянного его значения. Поэтому сначала появяться люди , которые станут на порядок более способными в анализе событий вокруг них происходящих , а только потом появится возможность увидеть основы такого анализа , который можно будет повторить в машинном воспроизводстве.
  12. +1
    13 августа 2016 11:26
    Только ЕГЭ спасёт мир от появления ИСИ. laughing Но если ИСИ возникнет, он первым делом отменит (уничтожит) частную собственность на средства производства. А человечество возьмёт себе в союзника, а не партнёра.
  13. +1
    13 августа 2016 12:45
    Первое что сделают роботы, придя к власти, дадут человеку все что он пожелает. Много еды, праздная жизнь и т.д. И человек со временем деградирует и превратится в животное. Уже сейчас надо четко понимать, куда можно пускать роботов, а куда нет. Человечество в межвидовой борьбе с роботами обречено на поражение.
  14. +3
    13 августа 2016 13:28
    Вся эта серия статей смахивает на РенТВ.
    Человек отличается от обезьяны и прочих животных наличием абстрактного мышления плюс языка для коммуникации, записи и обучения, причем слова языка обозначают абстракции и думаем мы обычно при помощи языка, или во всяком случае используя абстракции, для которых есть названия в языке. У нас есть и биологическая мотивация чтобы подумать посильнее, чем сосед, или зверь в лесу - нам "хочеться" приятно жить "в шоколаде", а не голодать, мерзнуть, болеть и умирать в одиночестве.
    Мы не знаем, есть ли еще что-то выще абстрактного мышления, скорее всего ничего выше нет. Поэтому, о чем разговор? Что ещё за ИСИ? Если компьютер освоит абстрактное мышление и у него появиться мотивация, чтобы самостоятельно думать, то это не значит, что он сразу существенно обгонит человека и будет для него экзистенциальной угрозой. Опасность есть, но не надо преувеличивать. Надо осторожно ограничивать полномочия мощных компьютеров, например, не давать им ядерных кнопок и не давать контроля над коммуникациями. Тогда это будут просто умные машины, и всё.
    1. 0
      13 августа 2016 18:28
      Falcon

      Когда человек не задумываться о необходимости выживания, то он перенаправляет свои усилия в творчество.

      Поэтому, как бы тебе хорошо не было, а приключения от ищутся.
  15. +1
    13 августа 2016 15:16
    Цитата: Falcon5555

    Мы не знаем, есть ли еще что-то выще абстрактного мышления, скорее всего ничего выше нет.

    А откуда у Вас такая уверенность?
  16. -1
    13 августа 2016 16:12
    Но если ответ таков, почему так много умных людей в этом мире обеспокоены будущим искусственного интеллекта? Почему Стивен Хокинг говорит, что разработка ИСИ «может означать конец человеческой расы»? Билл Гейтс говорит, что он «не понимает людей, которые не обеспокоены» этим. Элон Маск опасается, что мы «призываем демона». Почему многие эксперты считают ИСИ самой большой угрозой для человечества?
    Многие. Да понты это все от мыслей об исключительности. Они поражены этим вирусом. Бреясь горло себе перережут или завязывая галстук, удавятся. Дэ би лы.
    Наши внедрят и применят. Без бла бла бла.
    1. 0
      14 января 2017 11:15
      Цитата: Принц_Пенсии
      Наши внедрят и применят. Без бла бла бла.
      Пока что наши только тендеры объявлять и пилить бюджет научились под громкие "бла-бла-бла" про "неимеющееаналоговвмире".
  17. 0
    13 августа 2016 18:32
    Интересный цикл статей. Хорошо переведено. Характерный для людей с запада способ построения предложений. Хороший публицестический стиль. Минимум академического "занудства", аппелирования трудно запоминаемой терминологией.

    Автору спасибо.
  18. TIT
    0
    13 августа 2016 19:42
    давайте определяться с термином , опишем ИИ , а то будет как там

    1. 0
      13 августа 2016 20:00
      Автор уже определился с терминологией. Альтернативы быть не должно.
  19. TIT
    +1
    13 августа 2016 20:27
    Цитата: gladcu2
    с терминологией

    Цитата: gladcu2
    Автор уже определился с терминологией.

    не ну хочется понять , что физически на графике так высоко убежало в верх по лесенке

    1. небоскрёб и много супер компьютеров охлаждающихся иск.кровью ?
    2. некий андроид , из крикунов ?
    3. или же мой ПК стоящий около печки является нейронным узлом некогоо высшего существа ?
  20. +3
    13 августа 2016 22:30
    Как и первая часть этой статьи, так и вторая по моему разумению - бред сивой кобылы.
    Да и данному сайту отношение не имеет, даже по теме "Терминатор".
  21. +2
    13 августа 2016 22:34
    Одно лишь успокаивает, что специалисты по ИСИ с такими "знаниями" ни когда не построят даже ИИ.

    Объясняю: "Оксфордский философ и ведущий теоретик ИИ Ник Бостром считает ... «Все виды вымирают»". Ну как можно болтать об этом, т.е. сообщать, что каким-то образом изучал этот вопрос и при этом не знать о прокариотах - бессмертных одноклеточных (имеют домены, классы, семейства, рода и виды), что не умирают, а делятся и делятся уже более 4,5 млрд лет!!!

    Так же они совершенно не знакомы, судя по отсутствию упоминания, с устойчивостью систем, значением социальной и вещественной среды на деятельность разума, да даже простого, а потому универсального правила о том, что перестройка сложнее постройки - это к тому, что любое саморазвитие (перестройка) ИСИ сложнее возможностей ИСИ, а значит и не возможно в длительной перспективе. Человечество это препятствие преодолевает за счет социальности, эти же специалисты похоже об этом не догадываются (может в третьей части чё будет). Кстати, из-за этой социальности, ИСИ вынужден будет социализироваться, как и каждый человек, и жизнеспособным окажется именно успешно социализированный, а не монстры, которыми пугают голливудская наукообразность.
  22. 0
    14 августа 2016 09:39
    Статья пересказ КОМПИЛЯЦИИ из кучки источников, написанной неким Тимом Урбаном.
    Кто такой Тим Урбан? Ответ: "Тим Урбан. Американский блогер".
    Блогер, просто блогер, то есть человек, работа которого писать статейки в инете.
    Соответственно "Блогеру верить, что воду ситом мерить."
  23. 0
    14 августа 2016 12:22
    Статья серьезная.
    Приведу пример. Когда я был мальчишкой, меня
    научили немножко играть в Го ( на самом начальном уровне), японскую игру.
    Обучил на даче дальний родственник, математик, сейчас на пенсии, после работы в Гарварде.
    Помню он тогда (в далеком 1970 году) сказал: "возможно, придумают
    компьютер, который будет играть в шахматы на уровне чемпионов мира.
    Но никогда-НИКОГДА не придумают комп, который обыграет человека
    в Го, так как количество вариантов и степень абстракции в этой игре неисчислимо".

    В этом году Комп уверенно - и несколько раз - переиграл в Го чемпиона мира.
    1. 0
      14 августа 2016 12:47
      о том , что математика заложенная в компьтере жолжна соответствовать распределительным функциям , то меня называют глупым, но тут же Вы уважаемый , озвучиваете вопросы многовариантности . Более того другие исключают возможность вообще математического анализа на основе функции построения алгоритмических математических взаимосвязей и уперлись в расчетную математику как панацею.
      Поэтому математика рассуждений человека это не является расчетной и построенной на интегральных и дифференциальных исчислениях . Она распределительная!!! А знгачит она позволяет взаимосвязи строить как по вектору , так и по потенциалу . Это гораздо проще и совершенно точное в своей задачи получения ответов отображающих действительность в том виде каким она является в анализе.
      В том , что компьютер может обыграть Го удивительного ничего нет. Только посчитайте совокупность затраченного ресурса на такое у человека и компьютера. Ну просто как дети!
    2. TIT
      0
      14 августа 2016 15:12
      Цитата: voyaka uh
      В этом году Комп уверенно - и несколько раз - переиграл в Го

      , а этот же комп(программа ) сможет со мной в шахматы или в покер просто сыграть ? думаю , что нет ,
      1. 0
        14 августа 2016 16:58
        В один комп легко вложить много аппликаций (программ).
        Для шахмат, го, покера и еще тысячи. Он сделает "переключение"
        на новую задачу (точно, как это делает наш мозг) и - вперед.
        И переиграет Вас (и меня тоже ), можно не сомневаться.
        Такие программы - самообучающиеся. Сначала комп копирует Вашу тактику,
        стиль, приемы (самообучается) и начинает применять их против Вас. Вы как-бы играете сам с собой,
        только улучшенным (быстродействие и точность исполнения у компа заведомо выше).
        И комп начинает прессовать Вас Вашими же методами. Кроме того и него в запасе память о предыдущих противниках.
        И он может, если надоело мучить, "нокаутировать" и чужим приемом.
        Но обязательно поиграет в "кошки-мышки" - вдруг выучит что-то новенькое?
        В общем ИИ - это не какая-то индивидуальность с большим IQ, а предельно подлый, хитрый, бессовестный как зеркало и безжалостный тип sad
        1. 0
          16 августа 2016 15:56
          Переиграв чемпиона мира, он уперся в потолок - учиться уже не у кого. Будет играть сам с собой? Или кого-то учить? Или придумает новую игру?
          Или ждать вечность, пока кто-то снова не сядет напротив
      2. Комментарий был удален.
  24. TIT
    0
    14 августа 2016 21:19
    Цитата: voyaka uh
    И переиграет Вас (и меня тоже ),


    а в такую игру сможет выиграть ?
  25. +1
    14 августа 2016 22:21
    А почему ИИ употребляется в единственном числе ?
    Где одна, там и тысячи сущностей.
    И кто из них будет на нашей стороне, а кто против, мы еще посмотрим. Конкуренция и доминантность, знаете ли...

    И игре в подлость, мошенничество, подхалимство и лесть человечество обучено в совершенстве.. Сыграем с ними (ИИ) в эту игру.
  26. +1
    14 августа 2016 22:46
    И потом, давно сказано - на всякого мудреца довольно простоты .
  27. 0
    15 августа 2016 13:47
    Цитата: gladcu2
    Т.е.просто изменили концепцию антивирусного ПО. Если первые сканируют компютер на наличие библиотечных "маркеров", то Томское ПО должно сканировать по признаку вредоносности кода. Наверняка сравнивая с библиотечными.

    Шило на мыло. Но назвали ИИ.


    Согласен уже было. Называлось Эвристический анализ.
  28. 0
    22 сентября 2016 23:35
    В определённой части статья да, бредовая слегонца ...

    Поясню своё мнение:
    1) Чтобы создать реальный ИИ уровня человека(существующего сейчас), надо быть умнее-разумнее человека(существующего сейчас), по сути подняться на уровень выше, на уровень сверхчеловека(или уровень, как в этой статье, ИСИ).

    2) Потому событие сие не близко, далеко не близко, хотя будет - наверное большинство формунчан знакомы, хотя бы по статьям в инете, с явлением как дети "индиго", которых считают людьми будующего, людьми обладающими сверхразумом. Т.е. это те, кто реально сможет построить ИИ с уровнем сейчас живущего человека.

    3) Чтобы быть саморазвивающимся объектом, надо стать как минимум независимым в материальном мире, надо научиться чувствовать материальный мир, понимать хоть в какой то мере свои потребности ... чистый "компьютерный" алгоритм, какой бы сложный не был бы, не будет иметь даже части информации для саморазвития без прохождения пути становления независимым в этом материальном мире, т.е. пути развития человека. Конечно, человек может помочь в развитии в таком направлении, но и то тогда и только тогда, когда см.пункт первый.
  29. 0
    22 октября 2016 20:28
    Люди уже сейчас не нужны. Не помню автора, но помню название книги "КД - кибернетический двойник" Книга была написана в 70-ых годах и была необыкновенно интересной. Сверхинтеллект будет смотреть на человека, как человек на собаку, на очень забавное но не понимущее существо. Мол, по глазам видно, что всё понимает, но сказать - не может.
  30. 0
    24 октября 2016 18:05
    Человек живет в мире восприятия на уровне предметности. Т.е мы все воспринимаем предметно - это есть то или то . Но всему в этом мире присуще и процессуальность . Т.е все находится в процессе трансформации. Поэтому мировозрение построенное на принципах неразрывности одного от другого и создает реальность и адекватность восприятия реальности. На этом и построена математика на функции постоянного значения числа, которая позволяет сочетаь множество и дновременно индивидуальность . Без основ этих знаний к ИИ и близко нельзя приблизится
  31. 0
    11 ноября 2016 09:43
    Этот Курцвейли мне напомнил Чубайса, тоже лживый и хитрый шарлатан.

    Попытки сделать человека бессмертным нужна для выбивания денег у старых богачей, которые из последних сил хватаются за уходящую жизнь.

    Проблема старения вполне известна и очевидна - это ошибки в репликации клеток и набор лишнего мусора в хромосомах при каждом клонировании.
    Если, каким то образом устранить ошибки - это остановит эволюцию.

    Обсуждение разумности и сверхразумности поисковых систем и наделением их разумом, то же не выдерживают критики, всё на что они способны - это собрать и выдать мысли других людей.

    Собственно и развитие человечества пошло быстрее из-за сближения людей в обществе на основе интернета и теперь люди не изобретаю велосипеды в каждом изолированном обществе.

    Короче - буря в стакане!
  32. 0
    7 августа 2017 19:53
    Господь в обезьяну внедрил интеллект,получился-человек.Вот так и живём-понты как у Бога а сущность обезьяны.Блюди заповеди Бога-откроются врата Разума.

«Правый сектор» (запрещена в России), «Украинская повстанческая армия» (УПА) (запрещена в России), ИГИЛ (запрещена в России), «Джабхат Фатх аш-Шам» бывшая «Джабхат ан-Нусра» (запрещена в России), «Талибан» (запрещена в России), «Аль-Каида» (запрещена в России), «Фонд борьбы с коррупцией» (запрещена в России), «Штабы Навального» (запрещена в России), Facebook (запрещена в России), Instagram (запрещена в России), Meta (запрещена в России), «Misanthropic Division» (запрещена в России), «Азов» (запрещена в России), «Братья-мусульмане» (запрещена в России), «Аум Синрике» (запрещена в России), АУЕ (запрещена в России), УНА-УНСО (запрещена в России), Меджлис крымскотатарского народа (запрещена в России), легион «Свобода России» (вооруженное формирование, признано в РФ террористическим и запрещено), Кирилл Буданов (внесён в перечень террористов и экстремистов Росфинмониторинга)

«Некоммерческие организации, незарегистрированные общественные объединения или физические лица, выполняющие функции иностранного агента», а так же СМИ, выполняющие функции иностранного агента: «Медуза»; «Голос Америки»; «Реалии»; «Настоящее время»; «Радио свободы»; Пономарев Лев; Пономарев Илья; Савицкая; Маркелов; Камалягин; Апахончич; Макаревич; Дудь; Гордон; Жданов; Медведев; Федоров; Михаил Касьянов; «Сова»; «Альянс врачей»; «РКК» «Центр Левады»; «Мемориал»; «Голос»; «Человек и Закон»; «Дождь»; «Медиазона»; «Deutsche Welle»; СМК «Кавказский узел»; «Insider»; «Новая газета»