Религия Этика Искусственный интеллект
Назад

Станет ли искусственный разум угрозой человечеству?

19 октября 2022

Искусственный интеллект относится к так называемым экспоненциальным, то есть бурно развивающимся технологиям. В последнее время все мы наблюдаем, как стремительно, примерно каждые два года, меняются компьютерные технологии, создаются новые процессоры. В связи с этим, можно предположить, в таком же темпе происходит развитие искусственного интеллекта, появляются уникальные достижения в этой области. 

 Из-за того, что технологии развиваются скачкообразно, они могут за короткий промежуток времени коренным образом изменить жизненный уклад людей. И это вовсе не означает, что с этим мы столкнулись только сейчас. Стоит вспомнить, например, развитие автомобильной промышленности, когда благодаря Генри Форду и конвейеру за десять лет улицы Нью-Йорка освободились от лошадей и стали активно заполняться автомобилями.

Что будет с искусственным интеллектом с технической точки зрения через 15-30 лет, трудно предсказать. Вполне возможно, что лет через 10-15 появятся летающие такси, ведь уже сейчас есть довольно интересные прототипы. Учитывая то, что сегодня большое значение придается биотехнологиям, поэтому, кто знает, может с бионикой через 20-30 лет дело дойдет и до гибридов. 

Опять-же сейчас есть другая бурно развивающаяся технология – это скорость передачи данных 5-G, что на порядок быстрее, чем 4-G сети.

Соответственно, одна из особенностей этих технологий заключается в том, что сложно предсказать, в какую сторону они разовьются. Известны чисто технические методы познания действительности – как человек, пытающийся быть православным христианином, но вместе с тем есть другие способы познания действительности, выходящие за рамки логического опыта, такие как техника, о чем идет речь, и история развития этой области полна смешных предсказаний, идущих от довольно серьезных людей. Так, председатель совета директоров IBM предполагал, что рынок мировых компьютеров будет не более пяти штук, и многие люди полагали, что домашние компьютеры людям не нужны. Тот же Билл Гейтс думал о том, что памяти 640 килобайт достаточно будет каждому, а сейчас у каждого в кармане в 100 раз больше памяти.

Тут с большой опаской стоит прислушиваться ко всякого рода визионерам. Почему? Сейчас часть людей, которые принимают решения, находятся под влиянием таких визионеров, как Курцвейл или тот же Харари. И это все, как говорится, от лукавого. Потому что, если есть большое количество предсказаний, то какие-то из них обязательно сбудутся. Можно процитировать того же капитана Врунгеля, который говорил, что «стоящие часы очень точны два раза в день». Так и здесь. Получается, что, если угадал, то это все распиаривается, ну а если не угадал, то молчок.

Мем искусственного интеллекта

Основная проблема этики искусственного интеллекта – это этика использования самого термина. Потому что сейчас искусственный интеллект превратился в какой-то мем, и, если говорить о более точных формулировках, то используется он сплошь и рядом вне зависимости от изначальной формулировки. И некоторыми используется с точки зрения привлечения внимания к их продуктам. А многими – лишь для того, чтобы переписать существующие соглашения по информационным технологиям, потому что в принципе любую компьютерную технологию можно обозвать искусственным интеллектом.

Хотя изначально искусственный интеллект воспринимался как инженерно-математическая дисциплина, занимающаяся созданием программ и устройств, имитирующих (это один из краеугольных камней дискуссии по этике и по правам человека) когнитивные и интеллектуальные функции человека, включающие в том числе анализ данных для принятия решений.

То есть мы говорим фактически о какой-то модели, причем не воспроизведения. Самолет не копия птицы, он не копирует птицу, самолет – это устройство, которое летает. Оно имитирует полет, вернее, тоже летает, но при этом никто же не говорит, что самолет – это птица.

То же самое и здесь. Эти технические системы каким-то образом моделируют или имитируют когнитивные и интеллектуальные функции человека, но при этом никто изначально не придавал смысла какого-то искусственного разума или какого-то прибора, который бы обладал самосознанием. Более того, если мы говорим о тех изначальных смыслах искусственного интеллекта, надо понимать, что artificial intelligence изначально воспринимался именно как сбор и обработка данных. То есть как искусственная система сбора и обработки данных. Почему? Потому что intelligence в переводе с английского означает сбор и обработка данных или разведка (intelligence). Достаточно вспомнить фильмы с Джемсом Бондом Intelligence Service, что, в первую очередь, имеет смысл именно разведки. А уже во вторую –  интеллект, интеллектуальные способности. Потому что для разума, для сознания у англичан есть другое слово – consciousness. Если consciousness – это сознание, то в intelligence они больше вкладывают смысл сбора и обработки данных. 

Такое двойное значение слова intelligence – интеллект очень многих вводит в некое заблуждение. Поэтому сейчас стали использовать следующие термины – это слабый искусственный интеллект, это интеллектуальный алгоритм, который имитирует человеческий разум в решении конкретных узкоспециализированных задач. Например, игра в шахматы. Играет алгоритм в шахматы хорошо, двигает фигуры, куда следует, но при этом у него нет ни сознания, ни разума, ни тем более души.

Возможность брака с ИИ

И есть много алгоритмов, которые сейчас функционируют вокруг нас: распознавание номеров, интеллектуальные игры, сложные вычисления. Они представляют из себя набор программного кода и железа. Ни о каком самосознании, сознании, душе, этике, эмоциях речи нет и в принципе быть не может. Как у табуретки. В некотором плане, можно сказать, что одни мастера делают табуретки, а другие мастера пишут программы, затем эти программы запускают в железо. В этом плане никакой разницы по большому счету нет. 

Но из-за того, что человеку свойственно психологически анимировать мир вокруг себя, и тем самым многие люди, особенно далекие от технических систем, склонны к некоему одушевлению этих приборов, системных устройств. Более того, если взять разные страны, то можно увидеть, что очень сильный тренд по приданию субъектности этим системам идет из Азии. Почему? Потому что это в их традиции. 

В их национальной традиции. А они по своему укладу в значительной мере – язычники. И, хотя буддизм там внес свою лепту, понятно, что языческая традиция в Японии очень сильна. Они анимируют все вокруг себя. У них есть духи воды, деревьев и всего. Соответственно, эта их анимистическая традиция накладывает свой отпечаток, регулирует. Они склонны продавливать эту историю с приданием субъектности, с приданием прав искусственному интеллекту наравне с людьми. Если даже выйти за этическую сторону, то, скажем, возможность брака с искусственным существом, с роботизированными куклами и т.д., которая там сейчас активно обсуждается, не исключена. Почему это страшно, чем? 

На самом-то деле у куклы, у любого устройства всегда есть хозяин. И получается, что создается прецедент асимметрии ответственности. Ведь робот исполняет те команды, которые в него заложены. И как дать ему какие-то права? Он будет делать то, что в него заложил либо его хозяин, либо его производитель. Соответственно, он может делать всякие ужасные вещи, при этом ни его хозяин, ни производитель не виноваты. То есть люди или те группы людей, которые на самом деле двигают этим роботом, что могут сказать – что мы накажем этого робота? Жесткий диск сотрем? В этом случае можно задать такой вопрос: «Ответственность – это поощрение или наказание. Вот скажите, пожалуйста, как вы будете поощрять или наказывать робота? Что, жесткий диск ему потрете? А поощрять как? Больше памяти добавите?».

Машина страдать не может

Есть такой израильский философ очень популярный, который много рассуждает на темы искусственного интеллекта, будущего человечества, у него много есть русофобских заявлений и много заявлений довольно странных с этической точки зрения, но одну мысль он высказывает интересную. Мысль о том, что раздел между одушевленным и неодушевленным идет по линии страдания, и машина страдать не может. А человек может. Где-то здесь пролегает понятная даже для нецерковных людей граница. Хотя, наверное, есть более тонкие определения, отделяющие одушевленное от неодушевленного.

И то, что сейчас называют искусственным интеллектом – это все слабый искусственный интеллект, и здесь никакого сознания, самосознания, прав с технической точки зрения быть не может. С другой стороны, сейчас активно обсуждается гипотетический вопрос о создании так называемого сильного искусственного интеллекта, того, что действительно можно будет называть искусственным разумом. Алгоритма, способного решать широкий спектр задач как минимум наравне с человеческим разумом.

Интеллектуально этот алгоритм может превосходить когнитивные способности человека практически во всех областях и может превосходить самых одаренных людей во всех аспектах: от логики до жизненной мудрости в решении всех проблем. 

Давайте разберем эту проблему – создание сильного искусственного интеллекта. Во-первых, с чисто технической точки зрения на полупроводниковой базе с теми устройствами микропроцессоров, которые сейчас являются технологической базой, но на этой базе создать сильный искусственный интеллект невозможно. 

Опять же с чисто технической точки зрения есть простые формулы, которые показывают, что для создания такой машины потребуется в сотни раз больше электрической энергии, чем есть сейчас на планете. А, самое главное, это то, что полупроводниковые технологии уже уперлись в свой предел развития. Мы сейчас уже говорим о 5-нанометровых технологиях, ну а дальше что? Дальше уже двигаться некуда. Ну может дело дойдет до 3-нанометровых, а дальше – все, это предел. 

Итак, полупроводниковая технология имеет свой предел, и поэтому такой алгоритм создан быть не может, кто бы и что вам ни говорил – с маркетинговой или с политической точки зрения.

Есть другая линия развития, она связана с тем, что можно на биотехнологической основе каким-то образом расширить сознание человека, соединять сознание многих людей через некие интерфейсы в одну какую-то систему, которая будет обладать действительно более сильными способностями когнитивными, чем отдельный человек. Но здесь уже вопрос – это же не машина? Это групповое мышление людей и это изменение сознания людей. Поэтому говорить о том, что это у нас что-то отдельное от человека не стоит.

Наверное, здесь можно сказать о том, что можно развивать способности людей, можно объединять людей в группы и развивать их творческие способности именно к коллективному мышлению, что есть технологии, которые помогают это сделать, что, однако, есть риски и опасности. Это более органичный путь развития человека. О каком-то машинном, искусственном интеллекте речь не идет.   

Хотя, конечно, всегда есть вероятность того, что человечество изобретет какую-то новую вычислительную базу, где интеллектуальные алгоритмы будут мощнее, сильнее. Но, можно предположить, на цифровой базе что-то сравнимое с человеком по интеллектуальной мощи, вряд ли будет создано. На то есть масса причин.

В свое время был введен термин «бытовой искусственный интеллект». Одна из особенностей этого термина состоит в том, что он постоянно меняется. У нас, например, многие приборы и системы, которые назывались интеллектуальными, сейчас уже никто так не называет. В свое время калькулятор был примером искусственного интеллекта. Или другой пример – поисковики. Сейчас мало кто ассоциирует поисковики, тот же Яндекс или Гугл, с искусственным интеллектом. Хотя изначально это позиционировалось как успех искусственного интеллекта, ведь там действительно много машинного обучения.

Как слабый искусственный интеллект устроен? Это некий конструктор из данных программного обеспечения и обеспечивающих технологий. Данные нужны для того, чтобы обучать программу, нужно программное обеспечение – это тот самый блок, который обучается, то есть это софт, и еще нужно железо, на котором все это запускается. Плюс дополнительно к железу нужны приборы для сбора данных – сенсоры, датчики, графические карты, роботы и прочее.

Человек – не цифровая обезьяна

Сейчас слабый искусственный интеллект в основном основан на машинном обучении. У нас есть данные, мы по ним находим какие-то закономерности. Предположим, человек ложится спать в 10 часов вечера, а встает в 7 часов утра. И если долго за ним наблюдать, то можно обнаружить такую закономерность. Тем самым строится некая статистическая модель поведения и можно довольно успешно ее предсказывать. 

Вот даже на этом простом примере видна вся слабость этой технологии в плане познания мира. Потому что технология лепит какую-то матрешку. Это некое обезьянничание. Да, оно делает некую цифровую модель человека, который ложиться спать во столько-то, а встает во столько-то. Но ведь человек в какой-то момент может этот цикл изменить. Например, сменив работу, он начал дежурить в ночную смену и все поменялось. Человек может это сделать, но машина-то об этом не знает. Она пытается предсказать его поведение, и какое-то время достаточно успешно это делает, а дальше что? У нас появился цифровой человек! Мы же видим – Максим Федоров, виртуальная модель, она ложится спать, как Максим Федоров, она встает, как Максим Федоров, ест в то же время, что и Максим Федоров. Значит, это у нас Максим Федоров, только цифровой. Ну ведь это бред!

Почему? Потому что человек в любой момент может сделать все, что угодно: поменять работу, у него могут появиться новые интересы. Допустим, может организовать какое-то совещание с коллегами из США и ляжет спать не в 10 часов, а в два или в три часа ночи. Человек все это может сделать, но машина про него этого не знает. Получается, что цифровой интеллект – это, в лучшем случае, цифровая обезьяна: достаточно успешно гримасничает, показывает то или иное явление. Но в этом плане все делается без глубокого понимания. Глубокого понимания того, кто такой объект исследования, а такого подхода нет.  

Глобальное нарушение приватности и другие риски

Теперь о том, какие основные риски сейчас обсуждаются в плане искусственного интеллекта. Один из этических вопросов – это, конечно, работа. Очень много рутинных операций может быть заменено искусственным интеллектом. Как, например, навигация. Если раньше надо было учить карту Москвы, чтобы по ней было удобно ездить, или иметь человека в машине, который покажет, куда ехать, то сейчас включил Яндекс-навигатор и поехал. К чему это привело? Допустим, к тому, что работа таксиста перестала быть хорошо оплачиваемой, перестала быть работой, на которую отбирают по довольно жестким критериям, как это было еще 20 лет назад. Сейчас такси переживает кризис. Так, человек с минимальным опытом вождения может, приехав из другого города или из другой страны, получить лицензию и работать таксистом. 

Это одна из проблем. А насколько вообще этично заменять человека? Вспомним про евангельскую этику, где сказано, что «в поте лица будешь добывать хлеб свой».  Хотя вроде бы были и благие намерения, что, вот наступит «золотой век», когда машины заменят людей, люди станут свободными от труда, будут иметь время творить, саморазвиваться… К сожалению, на планете есть достаточное количество наблюдений за теми слоями населения, которые уже целыми поколениями свободны от труда. И что?

Возьмем ту же самую Германию, где миллионы людей живут на пособия. Вполне комфортно при этом. Более того, у них есть масса свободного времени. К чему это привело? Это привело к некоему количеству достаточно ленивых людей. А какого-то положительного результата от этих инициатив пока не видно. Всякий ли род деятельности нужно заменять – большой вопрос.

Но, с другой стороны, человечество с такими вызовами уже сталкивалось. В свое время такие же дискуссии проводились, когда появились паровые машины, паровозы, поезда. Как правило, смена технологического уклада действительно сопровождается всплеском безработицы, но со временем технологии находят для людей другие виды деятельности. Поэтому здесь сильных опасений не видно. Но тем не менее некоторым слоям населения может стать не по себе во время этой новой индустриальной революции.

Еще есть проблемы. Они связаны с тем, что налицо глобальное нарушение приватности. Это камеры, это данные, которые собираются в телефонах, в компьютерах, буквально везде. Здесь опять же есть вопросы, связанные с таинствами Церкви. Не зря говорится и в Новом Завете, и в Ветхом Завета, что молитва, должна делаться не напоказ, что многие благие дела должны делаться в тайне. Для тех же, кто придерживается религиозных взглядов, хочется быть наедине с Богом.  

Вместе с тем, человеку нужно какое-то уединение, какое-то понимание того, что он один на один с собой – это для тех, кто придерживается атеистических взглядов. А теперь представьте себе, что у нас все открыто, хотя многие считают, что хорошему человеку нечего скрывать. Но ведь тут дело не в том, что кто-то делает что-то плохое, нет. Просто некоторые моменты своей жизни не хочется с кем-то обсуждать, кроме как, допустим, со священником. Наверное, не зря исповедь – это все-таки таинство, которое проходит один на один.

В некоторых протестантских общинах есть правило публичной исповеди, есть протестантские общины, где вообще живут без штор. Это, с одной стороны. С другой –  есть эксперименты над людьми, над высшими приматами, которые показывают, что если человека или даже обезьяну лишить возможности уединиться, когда они под круглосуточным наблюдением, то они начинают страдать физически. К примеру, обезьяны лишаются воли к жизни, да это и у людей можно наблюдать.

На самом то деле, даже с биологической точки зрения, мы являемся существами, которым нужна уединенность, какая-то конфиденциальность. И многие психологи это подтверждают, говоря, что есть вещи, которые можно обсуждать только с другом, с близкими людьми. Да и зачем нужны технологии для того, чтобы жить публично?  

И в этом плане, возникает очень много этических вопросов. Есть  моменты, связанные с деанонимизацией. Все мы знаем, что происходит с персональными данными, как они продаются и перепродаются за микросекунды.  И это тоже про этику. Например, формально в большинстве стран приняты законы о персональных данных. Например, те данные, которые передаются в банк или в медицинское учреждение анонимизируются. То есть люди, которые их обрабатывают, не знают ни фамилий, ни имен, ни отчеств, ни адресов.  

Но, с другой стороны, учитывая то обилие открытых данных, которые люди сами о себе выкладывают в интернет, передают на какие-то сайты, тем самым явно или неявно оставляют о себе информацию в пространстве. Ну а дальше любой специалист, даже на уровне студента, может деанонимизировать от 70 до 80 процентов всех людей. И если это могут делать люди, не имеющие полного образования, то что говорить о более продвинутой команде, когда риск деанонимизации очень велик, до 95 процентов. Вот такой результат пользования социальной сетью. 

Еще такой момент. Не секрет, что наше общество стало более открытым в настоящее время. Из-за того, что поток информации о каждом человеке увеличился в 1000 раз за последние 200 лет, поэтому в условиях цифрового ожирения, цифрового переизбытка какие-то вещи просто невозможно увидеть. Получается, что какая-то шумовая атака происходит на людей. С одной стороны, про конкретного человека можно вообще все узнать, всю его подноготную вытащить, а, с другой стороны, люди стали больше заняты каким-то информационным шумом. 

Все отмечают, что за последние 20-30 лет потерялись межличностные отношения. А почему? А потому, что семь дней в неделю 24 часа в сутки люди отвечает на эсэмэски, по ватсапу или сидит в соцсетях вместо того, чтобы общаться с близкими наяву. В итоге снижается не только качество личных отношений, но и качество науки и качество интеллектуальной деятельности. Снижается качество жизни. 

Максим Валериевич Федоров, член-корреспондент Российской академии наук, ректор Научно-технологического университета «Сириус» (из доклала на заседании профильной рабочей группы Межсоборного Присутствия, Москва, 2020 год