Светская и религиозная этика в отношении искусственного интеллекта
Опасения по поводу этики применения Искусственного Интеллекта старше, чем сам ИИ. Фраза «искусственный интеллект» была впервые использована Маккарти и его коллегами в 1955 году. Однако в 1920 году Капек уже опубликовал свою научно-фантастическую пьесу, в которой роботы, страдающие от насилия, восстают против человеческой тирании, а к 1942 году Айзек Азимов предложил свои знаменитые три «закона робототехники», которые гласят, что роботы не должны причинять вреда людям, не должны причинять вреда другим роботам и не должны причинять вреда себе. На протяжении большей части прошлого века, когда проблемы ИИ по сути изучались только учеными в исследовательских лабораториях, опасения по поводу этики ИИ в основном поднимались писателями-фантастами. В этом столетии, когда ИИ начал проникать почти во все аспекты жизни, опасения по поводу этики применения ИИ начали озвучиваться уже в материалах основных средств массовой информации. Так какие проблемы и вопросы, связанные с этикой использования ИИ нас могут ожидать в ближайшем будущем или уже стоят на повестке дня?
Первая категория опасений по поводу ИИ, ее можно назвать категорией суперразведки, связана со страхом, что машины однажды могут стать более умными, чем люди, и нанести вред человеческим интересам.
Второй набор проблем – категория предвзятости – не только более явственна, но и более актуальна. Вопросы безопасности и конфиденциальности данных, а также алгоритмическая предвзятость и справедливость передаваемой информации становятся одними из самых обсуждаемых. Опасения по поводу безопасности и конфиденциальности данных не специфичны исключительно для ИИ, они касаются всех информационных технологий.
Третья категория проблем, связанных с ИИ, это категория зловещих целей. Она касается людей, намеренно использующих ИИ в неподобающих целях, таких как дезинформация, слежка и оружие. Это может включать в себя применение оружия национальными государствами или преступными организациями, наблюдение со стороны государственных учреждений или крупных корпораций и крупномасштабную дезинформацию со стороны политических или личных оппонентов.
Общая модель среди трех вышеперечисленных категорий это растущая роль людей. В первой категории, в то время как люди создают ИИ, они в основном пассивны, поскольку агенты ИИ пытаются захватить мир; во второй люди несут ответственность за предубеждения артефактов ИИ, которые они создают; в третьей люди намеренно используют инструменты ИИ для зловещих целей. Проблемы в третьей категории сильно усиливаются природой, структурой и политикой человеческой власти. Например, существует огромная разница во власти между людьми, как внутри страны, так и между странами. Внутри страны, в большинстве случаев, крошечная элита обладает огромной властью, в то время как большинство в нижней части иерархии имеет ее мало. Обеспокоенностью здесь является то, что в большинстве стран элиты в стране будут использовать ИИ для защиты и продвижения своей власти, чтобы сделать распределение власти еще более искаженным, чем сейчас, следовательно более искаженное распределение власти увеличит человеческое неравенство и поставит под угрозу справедливое развитие общества во всем мире. Аналогичную проблему можно усмотреть и в отношениях между странами: небольшое количество стран обладают огромным количеством власти, в то время как большинство стран имеют ее в меньшей степени. Более могущественные страны будут иметь возможность использовать ИИ для прогнозирования своей власти еще дальше, чем сейчас. В этом смысле категория проблем «суперинтеллекта» чревата подлогом – ее воображаемые футуристические опасения по поводу ИИ отвлекают внимание от реальных и нынешних опасностей, связанных с человеческой силой.
Одной из значительных тем в диалоге об этике ИИ являются сугубо религиозные понятия, а именно эсхатология, апокалипсис и спасение. В своей статье 2003 года «Искусственный интеллект и христианское спасение: совместимость или конкуренция» Илия Делио отмечает различие между христианским спасением и тем, что она называет техно-спасением. Благодаря своей «случайной непредвиденной ситуации» ИИ никогда не сможет обеспечить совершенствование жизни и имморальность. Христианское спасение, с другой стороны, качественно отличается, ибо имеет основание в воплощении и жертве Христа, оно касается всего человека, а не только разума, как гностического техно-обитания, и является единственным, совпадающим с достоинством человеческой личности как Образа Божия (Imago Dei).
Роберт М. Герачи устанавливает интересную связь между апокалиптической религиозной мыслью, еврейской и христианской, и нынешним «апокалиптическим ИИ», рассматривая последнего как «законного наследника» первого. Он в обоих религиозных течениях видит дуалистический взгляд на мир, но, если в религиозном апокалиптизме Бог вмешивается, чтобы дать победу добра над злом, в апокалиптическом ИИ именно эволюция обеспечивает победу разума над невежеством. И Бог, и эволюция дают трансцендентные обещания на будущее. Предполагается, что апокалиптический ИИ будет расти в воздействии, и богословы и ученые-религиоведы должны будут уделять этому больше внимания.
Рональд Коул-Тернер также утверждает в своем исследовании 2012 года, что более глубокий анализ выявляет тесную связь между религиозными взглядами на будущее и трансгуманистическими надеждами на особенность. Он параллельно рассматривает как пример американские евангельские взгляды на будущее, и светские идеи будущего, как их представлял Рэй Курцвейл. Коул-Тернер приходит к выводу, что эти два, хотя и принципиально отличающиеся во многих отношениях явления, также имеют много общего, а именно постулирование четкой периодизации в будущем, раскрывающем историю Космоса.
Книга Норин Херцфельд «По нашему образу: искусственный интеллект и человеческий дух» остается ранней классикой на тему умных машин и Imago Dei. Используя примеры известных ИИ из научной фантастики, таких как HAL 9000 или R2-D2, она ставит под сомнение проект человечества, пытаясь создать что-то по своему собственному образу. Она проводит параллель с библейской историей о людях, созданных по образу Божьему, для которой она анализирует три исторические интерпретации: материальное, функциональное и относительное. В более поздней статье она рисует прекрасную аналогию между историей интерпретации творения по образу Божию и историей сферы ИИ. Подобно тому, как богословы перешли от существенной интерпретации к функциональной и, наконец, к реляционной, точно так же, и исследования ИИ перешли от материальной модели (символический ИИ) к функциональной в 1980-х годах, с менее амбициозными целями и большей ориентацией на реализацию узких, конкретных задач. Она правильно предсказывает второй сдвиг, от функционального к реляционному, который она уже замечает в проектах конца 1990-х годов, таких как COG и Kismet, к долгожданному прохождению теста Тьюринга, который по сути является реляционным.
Некоторые богословы осмелились оспорить само понятие интеллекта в машинах. В своей статье «Где есть жизнь, там есть и интеллект» Тед Петерс описывает семь характеристик интеллекта: внутренность, интенциональность, общение, адаптация, решение проблем, саморефлексия, суждение. Позже он возвращается к этим характеристикам, чтобы показать, что ИИ, по крайней мере в своем нынешнем бестелесном создании, не квалифицируется как интеллект, и что даже самая примитивная биологическая жизнь удовлетворяет критериям лучше, чем ИИ.