Reasonable. Mournful. Eternal.

4_PpSo9dC58V_bp60pf2tw-wide

Разумное, скорбное, вечное

Стивен Хокинг, Элон Маск и другие ученые и изобретатели считают искусственный интеллект угрозой жизни на Земле. Директор Института будущего человечества в Оксфорде и автор бестселлера «Superintelligence: Paths, Dangers, Strategies» Ник Бостром рассказал Esquire, почему сверхразум может уничтожить людей всего за одну секунду.

В уз­ких об­ла­стях воз­мож­но­сти ис­кус­ствен­но­го ин­тел­лек­та уже на­мно­го пре­вы­ша­ют че­ло­ве­че­ские: Гар­ри Ка­с­па­ров, чем­пи­он ми­ра по шах­ма­там, про­играл про­грам­ме Deep Blue в да­ле­ком 1997 го­ду. По­ис­ко­вые за­про­сы, рас­по­зна­ва­ние ре­чи, ло­ги­сти­ка — в этом спе­ци­а­ли­зи­ро­ван­ные си­сте­мы луч­ше нас. Но на са­мом де­ле они по­ка не об­ла­да­ют мыш­ле­ни­ем как та­ко­вым, и ни­кто сей­час не зна­ет, ко­гда бу­дет изоб­ре­тен на­сто­я­щий ис­кус­ствен­ный ин­тел­лект.
Боль­шин­ство уче­ных схо­дят­ся во мне­нии, что ве­ро­ят­ность его по­яв­ле­ния до се­ре­ди­ны XXI ве­ка — 50%. Про­гноз очень аб­стракт­ный, и оче­вид­но, что про­изой­ти это мо­жет как на­мно­го рань­ше, так и го­раз­до поз­же. В 1940-х го­дах, ко­гда бы­ли со­зда­ны пер­вые ком­пью­те­ры, уче­ные пред­ска­зы­ва­ли по­яв­ле­ние ма­шин, пре­вос­хо­дя­щих ин­тел­лект че­ло­ве­ка, к 1960-м. Про­гноз не сбыл­ся, но уже то­гда ма­те­ма­тик Ир­винг Джон Гуд, ра­бо­тав­ший во вре­мя Вто­рой Ми­ро­вой вой­ны над взло­мом не­мец­ких шиф­ров в ко­ман­де Ала­на Тью­рин­га, пре­ду­пре­ждал: «Сверх­ум­ная ма­ши­на — по­след­нее изоб­ре­те­ние, ко­то­рое пред­сто­ит сде­лать че­ло­ве­че­ству, при усло­вии, ко­неч­но, что эта ма­ши­на бу­дет нас слу­шать­ся и ука­жет, как ее кон­тро­ли­ро­вать». Дру­ги­ми сло­ва­ми, пер­вый же ис­кус­ствен­ный ин­тел­лект, со­здан­ный людь­ми, с боль­шой ве­ро­ят­но­стью бу­дет стре­мить­ся к не­огра­ни­чен­но­му овла­де­нию ре­сур­са­ми, а его це­ли ни­как не бу­дут свя­за­ны с бла­гом че­ло­ве­че­ства. Если учесть, что лю­ди со­сто­ят из по­лез­ных ре­сур­сов — та­ких, на­при­мер, как ор­га­ни­зо­ван­ные в опре­де­лен­ном по­ряд­ке мо­ле­ку­лы — и са­ми за­ви­сят от мно­же­ства зем­ных ре­сур­сов, од­ним из наи­бо­лее ве­ро­ят­ных по­след­ствий по­яв­ле­ния ис­кус­ствен­но­го ин­тел­лек­та ста­нет пол­ное ис­чез­но­ве­ние че­ло­ве­че­ства. Пред­ставь­те, что пе­ред но­си­те­лем свер­х­ра­зу­ма за­чем-то вста­ла за­да­ча мак­си­маль­но уве­ли­чить про­из­вод­ство скре­пок для бу­ма­ги. В этой свя­зи у не­го бу­дут как ми­ни­мум две при­чи­ны уни­что­жить че­ло­ве­че­ство: что­бы мы не смог­ли ему ка­ким-то об­ра­зом по­ме­шать и что­бы ис­поль­зо­вать на­ши те­ла как сы­рье.
В Гол­ли­ву­де лю­бят изоб­ра­жать но­си­те­лей ис­кус­ствен­но­го ин­тел­лек­та на служ­бе у дик­та­то­ров, но мне ка­жет­ся, ве­ро­ят­ность это­го край­ней ма­ла: он не бу­дет де­лать ни­ка­ких раз­ли­чий меж­ду людь­ми, и ре­прес­сив­ные пра­ви­тель­ства та­кие же по­тен­ци­аль­ные его жерт­вы, как угне­та­е­мое ими боль­шин­ство. Дру­гой гол­ли­вуд­ский штамп — эпи­че­ская бит­ва от­ря­да хра­бре­цов с ар­ми­ей ро­бо­тов. По­че­му-то Тер­ми­на­тор и ему по­доб­ные но­си­те­ли свер­х­ра­зу­ма ни­ко­гда не мо­гут осу­ще­ствить свой зло­ве­щий за­мы­сел мгно­вен­но, им на­до по­до­ждать, по­ка рас­кру­тит­ся за­хва­ты­ва­ю­щий сю­жет. А там на­встре­чу обя­за­тель­но вый­дет горст­ка ге­ро­ев, каж­дый из ко­то­рых об­ла­да­ет уни­каль­ным на­вы­ком, и вме­сте они уни­что­жат без­упреч­ный, на пер­вый взгляд, ме­ха­низм, в ко­то­ром об­на­ру­жит­ся ро­ко­вой изъ­ян. Вы­ну­жден разо­ча­ро­вать: в ре­аль­ной жиз­ни го­раз­до бо­лее ве­ро­ят­ным пред­став­ля­ет­ся сце­на­рий, при ко­то­ром мы все умрем за од­ну се­кун­ду, а Зем­ля пре­вра­тит­ся в один боль­шой ком­пью­тер, мил­ли­ар­ды лет за­ня­тый ему од­но­му по­нят­ны­ми вы­чис­ле­ни­я­ми.
Уже сей­час не­ко­то­рые си­сте­мы, у ко­то­рых еще нет сво­ей во­ли или спо­соб­но­сти пла­ни­ро­вать дей­ствия, прак­ти­че­ски не­воз­мож­но вы­клю­чить. Где на­хо­дит­ся кноп­ка вы­клю­че­ния ин­тер­не­та, на­при­мер? Я уж не го­во­рю о том, что но­си­тель ис­кус­ствен­но­го ин­тел­лек­та на­вер­ня­ка пре­ду­смот­рит по­пыт­ку его от­клю­че­ния и за­ра­нее пред­при­мет не­об­хо­ди­мые ме­ры без­опас­но­сти. И уж точ­но он смо­жет най­ти ме­то­ды вли­я­ния на фи­зи­че­ский мир, что­бы ма­ни­пу­ли­ро­вать во­лей лю­дей, за­ста­вить их ра­бо­тать на се­бя или предо­ста­вить до­ступ к со­зда­нию соб­ствен­ной ин­фра­струк­ту­ры.
Не сто­ит ли нам пре­кра­тить раз­ра­бот­ку ис­кус­ствен­но­го ин­тел­лек­та в та­ком слу­чае? К со­жа­ле­нию, это ри­то­ри­че­ский во­прос. Не су­ще­ству­ет од­ной ор­га­ни­за­ции, ко­то­рая бы це­ле­на­прав­лен­но ве­ла эту ра­бо­ту и под­чи­ня­лась ка­ко­му-то пра­ви­тель­ству. На­о­бо­рот, по все­му ми­ру раз­бро­са­но мно­же­ство част­ных ком­па­ний и ла­бо­ра­то­рий, огром­ное ко­ли­че­ство лю­дей за­ни­ма­ют­ся про­грамм­ным обес­пе­че­ни­ем, ней­ро­био­ло­ги­ей, ста­ти­сти­кой, ди­зай­ном ин­тер­фей­сов — их ис­сле­до­ва­ния тем или иным об­ра­зом вно­сят свой вклад в со­зда­ние ис­кус­ствен­но­го ин­тел­лек­та. В этом смыс­ле че­ло­ве­че­ство по­хо­же на ре­бен­ка, иг­ра­ю­ще­го с бом­бой — вер­нее, это це­лый дет­ский сад, и в лю­бой мо­мент ка­кой-ни­будь при­ду­рок мо­жет на­жать не на ту кноп­ку. Так что ко­гда вы чи­та­е­те о но­вых от­кры­ти­ях в об­ла­сти ин­тел­лек­ту­аль­ных си­стем, страх здесь бо­лее аде­кват­ная ре­ак­ция, чем эй­фо­рия от от­кры­ва­ю­щих­ся пер­спек­тив. Но пра­виль­нее все­го в дан­ном слу­чае как мож­но ско­рее со­сре­до­то­чить­ся на за­да­чах, ко­то­рые по­мо­гут умень­шить рис­ки, ис­хо­дя­щие от свер­х­ра­зу­ма, еще до его по­яв­ле­ния. Од­ним из воз­мож­ных ре­ше­ний яв­ля­ет­ся со­зда­ние про­фес­си­о­наль­но­го со­об­ще­ства, ко­то­рое объ­еди­ни­ло бы биз­не­сме­нов, уче­ных и ис­сле­до­ва­те­лей, а так­же на­пра­ви­ло тех­но­ло­ги­че­ские ис­сле­до­ва­ния в без­опас­ное ру­сло и вы­ра­бо­та­ло сред­ства кон­тро­ля над их ре­зуль­та­та­ми.
За свою ис­то­рию че­ло­ве­че­ство не на­учи­лось управ­лять сво­им бу­ду­щим. Раз­ные груп­пы лю­дей все­гда стре­ми­лись к до­сти­же­нию соб­ствен­ных це­лей, ча­сто всту­пая кон­фликт с друг с дру­гом. Гло­баль­ное тех­но­ло­ги­че­ское и эко­но­ми­че­ское раз­ви­тие до сих пор не яв­ля­ет­ся пло­дом со­труд­ни­че­ства и стра­те­ги­че­ско­го пла­ни­ро­ва­ния, и ед­ва ли не по­след­нее, что оно учи­ты­ва­ет — это судь­ба че­ло­ве­че­ства. Пред­ставь­те се­бе школь­ный ав­то­бус, под­ни­ма­ю­щий­ся в го­ру и на­би­тый ра­зы­грав­ши­ми­ся деть­ми. Это че­ло­ве­че­ство. Но если по­смот­реть на ме­сто во­ди­те­ля, мы уви­дим, что оно пу­сто. Со­вер­шая но­вое от­кры­тие, мы каж­дый раз бе­рем из кор­зи­ны мяч и ки­да­ем его о сте­ну — по­ка что это бы­ли толь­ко бе­лые мя­чи и се­рые мя­чи, но од­на­жды мо­жет по­пасть­ся и чер­ный мяч, ко­то­рый, уда­рив­шись о сте­ну, вы­зо­вет ка­та­стро­фу. Смысл в том, что у нас не бу­дет шан­са спря­тать чер­ный мяч обрат­но в кор­зи­ну: как толь­ко от­кры­тие со­вер­ша­ет­ся, его не­воз­мож­но от­ме­нить.
Статья из рубрики: мнение
Дата: 26 марта
Esquire

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Можно использовать следующие HTML-теги и атрибуты: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>