Религия Этика Искусственный интеллект
Назад

О чем не сказал Папа Римский, искусственный интеллект и христианская реальность

19 октября 2022

Ватикан разработал этические принципы развития искусственного интеллекта, призванные защитить человечество в целом и права и свободы каждого индивидуума. Документ уже поддержали IBM и Microsoft, одни из ведущих разработчиков искусственного интеллекта. Автор статьи проводит анализ основных призывов опубликованного этического кодекса.


Папа Римский высказался, но не сказал того, что от него было бы логично ожидать.

Римская Католическая Церковь сделала ход — 28 февраля был опубликован «Призыв Рима к этичности искусственного интеллекта»[1], который подготовила Папская академия жизни. Подписи под ним поставили Папа Римский Франциск, представители IBM, Microsoft, ФАО (Продовольственная и сельскохозяйственная организация ООН) и правительства Италии. Документ на четырех страницах состоит из введения, трех глав («Этика», «Образование», «Права») и перечисления 6 пунктов, которые подписанты собираются соблюдать.

Во введении содержится обоснование необходимости регулировать отношение искусственного интеллекта к человечеству и окружающей среде, так как технологии потенциально могут угрожать правам и свободам человека, а также призыв к заинтересованным сторонам объединиться вокруг этого документа ради будущего, в котором не должен померкнуть «блеск человеческой расы». В главе об этике говорится, что искусственный интеллект (ИИ) должен создаваться так, чтобы защищать человека и планету, и что необходимо обеспечить права и свободы личности, способствовать самореализации и оградить человека от эксплуатации машиной. Образование — наиболее очевидная область, где новые технологии, в том числе ИИ, могут дать большие возможности человечеству, обеспечить равный доступ для всех граждан, в первую очередь маломобильных. Отдельно отмечается, что в вопросах образования важно иметь возможность предоставления знаний на «аналоговых» (традиционных, офлайновых) носителях для пожилых людей. Образование в документе называется благом, с помощью которого человек сможет полнее раскрыться и самореализоваться. Заключительная глава о правах человека в целом сводится к двум тезисам: необходимо всегда раскрывать логику и мотивацию принятия решений машиной, а также заложить в основу алгоритмов этику, чтобы именно «алгор-этика» (algor-ethics) определяла развитие ИИ. Шесть пунктов, под которыми предлагается подписаться, это: прозрачность (объяснимость решений ИИ); инклюзивность и отсутствие дискриминации; ответственность разработчиков (имеется в виду внутренняя); беспристрастность разработчиков и тех, кто использует ИИ в работе; надежность; безопасность и конфиденциальность.

В тексте содержатся две ссылки на Всеобщую декларацию прав человека ООН, к тому же еще один раз упоминаются структуры, входящие в ООН. Дважды упоминается политика и политики. SEO-анализ английского оригинала текста (например, на сервисе https://istio.com/) дает такие результаты: вокабуляр состоит из 526 слов, индекс «водности» (процент содержания в тексте ничего не значащих, не несущих полезной информации слов) — 59% (при том что максимально допустимым считается 60%). Десятка частотных слов: «человек», «принцип», «система», «технология», «образование», «цифровой», «этический», «социальный», «индивидуальный», «планета». Слово «этика» упоминается пять раз. Слово «ценности» — два раза, оба раза рядом со словом «принципы», но о том, какие это принципы и ценности, не говорится ни слова. Ни разу не встречаются слова «добро», «зло», «любовь», «смысл жизни», «назначение человека», «счастье», которые, согласно традиционному пониманию этики как дисциплины о нравственности и морали, являются ее проблемным ядром. Собственно, слова «мораль» в тексте тоже нет, как и слова «вера». Слово «религия» упоминается один раз — в цитате из Всеобщей декларации прав человека ООН, где оно проходит через запятую с языком, политическими предпочтениями, расой, цветом кожи и полом — признакам, по которым недопустима дискриминация. Римский призыв, подготовленный Папской академией жизни, не содержит ни слова о Боге, не говорит об Иисусе Христе.

Текст получился неожиданным и как будто специально «светским». Если бы он готовился в недрах IBM или Microsoft, то получил бы, наверное, сразу волну одобрения и энтузиазма — мол, гиганты индустрии повернулись лицом к человеку и озаботились вопросами этики; а когда Папа Римский — безусловный авторитет для западного мира в вопросах этики, глава миллиардной церкви — подписал бы его, это было бы печатью признания и этичности.

Документ сложно назвать религиозным или этическим, зато он выглядит довольно общим и абстрактным — очень удобным для развития ИИ, — особенно в этически неоднозначных вопросах. Текстом невозможно пользоваться, чтобы привлекать к ответственности в случае нарушения, потому что собственно доказать нарушение в соответствии с этим изложением в разы сложнее, чем оправдаться, цитируя неконкретные положения. Об этом пишут свидетели подписания: «Присутствовавшие на конференции представители ИТ-гигантов заявили, что не намерены отказываться от своих проектов в этой сфере, так как не чувствуют опасения о возможном неэтичном использовании технологии ИИ»[2].

Христианская этика для ИИ

В разработке думающих и принимающих решения алгоритмов критическое значение имеют базовые установки — правила принятия решений и конкретные массивы данных, на которых обучается машина, чтобы потом оперировать теми решениями, которые принимала, и постоянно улучшать их. Главное, таким образом, чем и как «кормить» ИИ на этапе «выращивания» — как учить относиться к тем выводам, которые машина может делать, обрабатывая массивы данных. Речь, конечно, идет о так называемом «сильном ИИ», по возможностям сравнимым с человеческим.

Зачем в принципе этика ИИ и как ее можно воспринимать? Главное, наверное, о чем заботится человек при проектировании ИИ, — это собственная безопасность и защита от того, что ИИ начнет принимать «алгоритмически» обоснованные и с формальной точки зрения рациональные решения, которые, однако, будут ущемлять человека и создадут непривычный мир, в котором человеку будет неуютно и он в конце концов потеряет свое доминирующее положение. Человек хочет обучить ИИ собственной этике, чтобы «обуздать» его, сделать в принципе таким же, как сам человек, в принятии решений. Какова же основа этой этики? Такая же, как у всей современной западной цивилизации, породившей глобальный мир, в котором живет технологический авангард и который так или иначе определяет направление развития. Основа — христианская.

Сегодня, однако, в силу многих политических или общественных причин этот ответ кажется неочевидным или нежелательным, поэтому идет поиск дистиллированной этики, очищенной от «примесей» религии и прочего. Поскольку нет (или пока нет) единого текста или «места», где содержится основа этой этики (считается, что это область «здравого смысла», которая тем не менее постоянно пополняется выгодными популярными, популистскими, хайповыми положениями), сама новая этика будет подвержена эрозии, а ИИ с такой этикой попадет в зону «турбулентности». Без стройной единой центральной мысли, основанной на высшем понимании, на Откровении, даже если подписантами текста будут церковные иерархи, он не сможет внести вклад в развитие этики. Такого текста, наверное, общество интуитивно ожидает от Церкви Христовой, но пока не получило. Ожидает, хотя и боится себе в этом признаться, и поэтому гонит от себя эту мысль. Ожидает хотя бы из желания просто узнать, что скажет Церковь, чтобы потом решить — принимать или отказываться.

Что христианского должен ИИ знать о человеке, чтобы быть этичным:

  1. человек уникален по сравнению со всеми другими обитателями Земли, он является венцом творения;
  2. нет ничего более таинственного и совершенного на Земле в видимом мире, чем человек, и сделать его лучше, «механически» вмешавшись во внутреннее «устройство», невозможно именно в силу таинственности и непознаваемости до конца состава человека. Совершенствование человека возможно только в духовном смысле и является исключительно индивидуальной и внутренней деятельностью, осуществляемой исключительно персонально и по самостоятельному решению каждого конкретного человека;
  3. человек физически смертен, и в принципе ничто этого не может изменить;
  4. у человека есть нематериальная душа, она бессмертна и нуждается в общении с нематериальным миром;
  5. за отпущенное время человек должен прожить счастливую, достойную и полноценную жизнь;
  6. у каждого человека есть «компас», по которому он хочет, но боится жить, — совесть;
  7. разум человека несовершенен;
  8. на принципиальном уровне то, что делает человека по-настоящему счастливым, а что несчастным, известно — конкретно и по пунктам для всех и каждого человека (заповеди, учение и пример земной жизни Господа);
  9. у человека всегда есть выбор, и он может изменяться, человек суверенен в своем выборе и несет за него посмертную ответственность;
  10. человека ничто не может до конца удовлетворить из того, что он видит вокруг себя и что может получить в материальном мире, у человека есть внутренняя тяга к нематериальному, и только удовлетворяя эту тягу, он успокаивается и становится счастливым.

«Зная» это, ИИ сможет полноценно помогать человеку быть информированным при принятии ежедневных решений, — делать так, чтобы каждый выбор человека был более осознанным. По сути, это мало чем отличается от памяток или напоминаний. ИИ в скором времени будет знать о человеке гораздо больше, чем его друзья и близкие; общение с ИИ будет занимать у человека все свободные от действий в реальном мире минуты, как и сейчас в любую свободную минуту человек обращается к мобильному телефону.

Некоторые кейсы. Финансы в значительной степени оцифрованы и прозрачны, банковский ИИ анализирует миллионы переводов в день, а через это — финансовое (и не только) поведение людей. Причем делает это очень точно — на словах люди более легковесны и могут вводить в заблуждение даже самих себя, поведение же, связанное с деньгами, более ответственно. Банковский ИИ в скором времени может делать очень глубокие выводы про каждого человека. Он сможет видеть воровство, аморальные расходы и прочее — и хорошие, и плохие поступки, связанные с деньгами. Если увидит незаконные действия — он, конечно, сообщит об этом в соответствующие органы. Однако ИИ будет уметь анализировать эти действия не только на предмет законности, но и этичности, будет хранить заметки об этом, чтобы, например, когда человек будет мучаться совестью, предложить ему найти причину и варианты исправления. Например, ИИ будет знать, кто на самом деле нуждается, и сможет предложить человеку, у которого есть возможность помочь, сделать доброе дело.

Контент в медиа ИИ также легко сможет фильтровать / модерировать с точки зрения манипуляции, вредного или разлагающего воздействия на психику человека. Определять это воздействие ИИ будет, например, по тому, к чему призывает автор. Фильтровать контент можно автоматически, учитывая возраст, пол, историю и психологическую конституцию человека. Так, дети не будут играть в агрессивные игры, которые постепенно стирают грань между реальностью и виртуальностью, — ИИ сможет спасти учеников и учителей от расстрела переигравшими в игры товарищами. Ранняя половая жизнь не будет начинаться в школах у детей, которые к этому совершенно не готовы, и тогда они не будут приходить к страшному разочарованию в отношениях между полами и в институте семьи. Будет меньше одиночества в социальных сетях, бесполезных и выматывающих отношений, зависимости от лайков и отчаяния, и ощущения непринятости, и личного обесценивания. ИИ сможет оценить полезность времяпрепровождения с точки зрения смысла жизни человека и предложит от чего-то отказаться и кого-то заблокировать (по аналогии с тем, как сейчас функция отслеживания «экранного времени» предлагает пользователям статистику, чтобы человек мог оценить полезность использования девайса).

Рабочий график, график частной жизни человека, составляемый ИИ-ассистентом, будет более насыщен полезным времяпрепровождением. ИИ будет понимать ограниченность времени человека и предлагать заполнить время важными событиями и отсечь ненужные. Появятся добрые дела, на которые обычно у человека нет времени, например, будет возможность помочь кому-то именно тем умением или возможностями, которые у человека есть.

Подчеркну, что каждом из случаев ИИ только предлагает, а не совершает выбор. Это технология, еще более уважительно относящаяся к человеку, чем, например, ИИ в машине или самолете, где решения принимаются без человека и за человека. ИИ сможет отвечать на запросы человека относительно его морального состояния, настроения и причин этого состояния. ИИ сможет анализировать жизнь человека с точки зрения фактов, статистики, обобщения данных и выдавать предположения и гипотезы — это, пожалуй, самый важный инструмент, который ИИ даст человеку. Происходить это будет по аналогии с измерением медицинских показателей, которые техника уже научилась отслеживать (пульс, физические нагрузки и т.п., а скоро — еда, калории и все медицинские анализы, которые сдает человек). При отслеживании внутреннего (духовного) состояния человеку будет важно, чтобы в алгоритме была не этическая пустота (иначе все теряет смысл), а четкая этическая и правильная «линейка».

Пока соревнование между корпорациями идет за то, чтобы создать самого близкого к человеку и незаменимого ассистента. За близость к человеку соревнуются банковские приложения, социальные сети, программы отслеживания здоровья, операционная система любимого гаджета и т. д. Каждая корпорация будет предлагать свою версию этики ИИ через эстетику. Внешний вид устройств и операционных систем и пользовательские привычки важны как способ завоевывать человека. Люди делятся на поклонников определенного производителя гаджета, операционной системы и т. п., и в зависимости от этого они доверяют корпорациям свои финансовые дела, состояние здоровья, личную жизнь с фотографиями и видео и многое другое.

Пока пользователю достаточно общих заявлений о приверженности честному отношению к персональному контенту — то, что пишется в никем не читаемых правилах пользования, которые можно или принять полностью как есть, или отказаться от использования гаджета. Как раз в таком отношении к пользователям — по сути непартнерском (без возможности обсуждения) и шантажирующим отказом в предоставлении услуг — видится ключевая опасность нового соглашения относительно этики, которое будут вырабатывать корпорации. В какой-то момент люди будут поставлены в такие же условия — поставить галочку, соглашаясь с пониманием этики, которая есть у производителя, или отказаться от технологии — при пользовании сложными масштабными системами, без которых жизнь в современном обществе будет невозможна.

Прогрессивные мыслители и либеральная общественность защищают ИИ от религии и систем морали, думая, что таким образом обеспечат «светскость и свободу», но на самом деле это скорее развяжет руки корпорациям, главная цель которых — извлечение прибыли. И хорошо, если целью будет только извлечение прибыли, а не переустройство всего мира, оказавшегося у порога кризиса демократической модели самоуправления и встречающегося со значительными рисками.

Конечно, иллюзий нет — ситуация, когда все производители согласятся создать единую, высоконравственную, ориентированную на благо человека систему этики ИИ, невозможна. История человечества и природа человеческих отношений не дают обманываться на этот счет. Произойдет скорее другое — начнется разделение человечества через добровольный выбор пользователя того или иного ИИ по этическим и эстетическим предпочтениям.

Думаю, что Церкви должно быть важно добиться того, чтобы в мире будущего пользователям предлагалась возможность переобучать или просто обучать ИИ в соответствии с христианским мировоззрением. Именно об этом могло быть заявление, подобное призыву Рима — четкое, нравственно обоснованное, закрытое и ясное, основа, краеугольный камень будущего мира. Такой новый призыв должен сам стать четкой границей, отделяющей правильное от неправильного, этичное от неэтичного. Конечно, такая этика не может насильно «натягиваться» на всех — и это, наверное, первая мысль, которая должна звучать в заявлении Церкви о начале работы в этом направлении. Не будет насильственной христианизации ИИ — это невозможно — но будет создана (и она будет оставаться открытой) среда, где ИИ работает в соответствии с христианскими принципами.

Не должно быть сомнений и в том, что наравне с нынешней магистральной — так называемой «постхристианской», или атеистической, появятся также китайская, исламская, буддистская, иудейская основы для ИИ.

Христианская реальность

Широкое применение ИИ позволит создать новое взаимодействие с окружающей действительностью. Границы между нашим воображением, создаваемой машиной реальностью и воображением других людей будут размыты. Мы будем жить в добавленных интерьерах и наслаждаться сложносоставными пейзажами. Новую реальность мы будем считать своим домом и средой обитания и не будем в скором времени знать реальное соотношение между тем, что существуют в физическом, что существует в добавленном, а что — только в виртуальном мирах, это будет не слишком важно для ежедневной жизни. Этика тоже будет делиться по такому принципу — то, что недопустимо в реальном мире, в добавленном будет вполне возможно и уж точно будет обыденностью в виртуальном. Трагедии будут происходить, когда будут путаться среды, переход между которыми будет «бесшовным». Так, сейчас поклонники шутеров расстреливают реальных людей с теми же чувствами, что и в игре, а этическая путаница приводит к женитьбе на механической кукле. Кому-то может показаться более безопасной реальность, где последствия будут наименее тяжелыми и легко устранимыми, и это будет основанием для «переселения» в виртуальную реальность.

Отказ от жизни в сложносоставной реальности не может быть действенным решением — придется отказаться от использования техники и коммуникаций, возможностей для образования и здоровья и т. п. К жизни, какой живут, например, амиши, мало кто готов и мало кто сможет так жить. Главным вопросом будет создание единой и стройной этической реальности, в которой человеку будет комфортно жить во всех средах. Человек захочет иметь моральный якорь в «реальной реальности», иметь ее в качестве ориентира, чтобы не потеряться в добавленном или виртуальном мирах. Человеку нужно будет «выныривать» и возвращаться к реальности, чтобы оставаться человеком — чтобы все его части тела работали, глаза смотрели на реальные вещи, сердце испытывало реальные эмоции.           

«Реальная реальность» — это Христос, которого нет в виртуальной. В виртуальной могут оказаться подделки — лжехристы и лжепророки. Думаю, у многих художников или социальных инженеров в секуляризованной среде без трения, которой будет виртуальный мир, появится соблазн создать свою версию Святого Образа, чтобы таким образом управлять и Им, и людьми — «Ибо восстанут лжехристы и лжепророки, и дадут великие знамения и чудеса, чтобы прельстить, если возможно, и избранных» (Мф 24:24). Всем ли будет этот обман очевиден и понятен?

Создание христианской реальности как «сверхоперационной системы», ставящейся поверх всех технических изобретений, приспособлений и реальностей — это, видимо, вторая по важности технологическая задача для Церкви, заботящийся о своих чадах на пороге принципиальных изменений условий существования человечества.

Приложение

Призыв Рима к этичности искусственного интеллекта

Рим, 28 февраля 2020 г.

Введение

Искусственный̆ интеллект (ИИ) вызывает глубокие изменения в жизни людей, и так будет продолжаться дальше. ИИ предоставляет огромный потенциал, когда дело касается улучшения общественной жизни и личного благополучия, расширяя человеческие возможности и облегчая многие задачи, которые теперь могут решаться более эффективно и результативно. Однако эти результаты ничем не гарантированы. Происходящие в настоящее время преобразования являются не просто количественными. Прежде всего они качественные, потому что влияют на то, как эти задачи решаются, и на то, как мы воспринимаем реальность и саму природа человека, причем настолько, что они (эти преобразования — П.Т.-С.) могут влиять на наши умственные привычки и привычки, касающиеся взаимоотношений между людьми. Новая технология должна исследоваться и создаваться в соответствии с критериями, обеспечивающими ее служение всей «человеческой семье» (преамбула, Всеобщая декларация прав человека ООН), и с уважением к присущему достоинству каждого из ее членов и всех природных сред, а также с учетом потребностей тех, кто наиболее уязвим. Цель состоит не только в том, чтобы убедиться, что никто не исключен из процесса, но в том, чтобы расширить области свободы, которым может угрожать обработка алгоритмами.

Учитывая инновационный и сложный характер вопросов, поставленных цифровым преобразованием, важно, чтобы все заинтересованные стороны работали вместе и чтобы все потребности были учтены. Этот призыв является шагом вперед с целью взращивать общее понимание и способствовать поиску языка и решений, которые все могут разделить.

Исходя из этого, мы можем признать и принять на себя обязанности, которые должны учитываться во всем процессе технологических инноваций — от проектирования до распространения и использования, поощряя действительную приверженность этому в области практических действий. В долгосрочной перспективе ценности и принципы, которые мы можем внедрить в ИИ, помогут создать основу для регулирования, что станет точкой отсчета для цифровой этики, которая будет направлять наши действия и продвигать использование технологий на благо человечества и окружающей среды.

Сейчас как никогда ранее мы должны гарантировать перспективы развития ИИ с акцентом не на саму технологию, а на благо человечества и окружающей среды, нашего единого и общего дома и всех его обитателей, неразрывно с ним связанных. Другими словами, это и есть видение, в котором человеческие существа и природа лежат в основе развития цифровых инноваций и поддерживаются ими, а не постепенно заменяются технологиями, которые ведут себя как рациональные акторы, но никоим образом не являются людьми. Пора начинать готовиться к более технологичному будущему, в котором машины будут иметь важное значение и играть большую роль в жизни людей, — но и к такому будущему, в котором будет очевидным, что технический прогресс утверждает блеск человеческой расы и остается зависимым от ее этической целостности.

Этика

Все люди рождаются свободными и равными в своем достоинстве и правах. Они наделены разумом и совестью и должны действовать по отношению друг к другу в духе общения (Ст. 1 Всеобщей декларации прав человека ООН). Это фундаментальное условие свободы и достоинства также должно быть защищено и гарантироваться при создании и использовании систем ИИ. Это должно быть сделано путем защиты прав и свобод индивидуумов, чтобы они не подвергались дискриминации со стороны алгоритмов из-за их «расы, цвета кожи, пола, языка, религии, политических или иных взглядов, национального или социального происхождения, собственности, рождения» (ст. 2 Всеобщей декларация прав человека ООН).

Системы ИИ должны быть задуманы, спроектированы и внедрены так, чтобы служить и защищать людей и среду, в которой они живут. Эта базовое целеполагание должно привести к созданию условий жизни (как социальных, так и личных), которые позволят как группам, так и отдельным индивидуумам стремиться к тому, чтобы полностью самореализоваться где это возможно.

Для того чтобы технический прогресс соответствовал истинному прогрессу человечества и уважению к планете, он должен соответствовать трем требованиям. Он должен включать каждого человека и никого не должен дискриминировать; в его сердцевине должно заключаться благо для всего человечества и благо каждого отдельного человека; наконец, он должен быть внимателен к сложной реальности нашей экосистемы и характеризоваться тем, как он заботится и защищает планету (наш единый и общий дом), как практикует подход устойчивого развития, что включает в себя также использование искусственного интеллекта в обеспечении устойчивых продовольственных систем в будущем. Кроме того, каждый человек должен точно знать, когда он или она взаимодействует с машиной.

Технология на основе ИИ никогда не должна использоваться для эксплуатации людей, особенно тех, кто наиболее уязвим. Вместо этого ее следует использовать для того, чтобы помочь людям развить свои способности (расширение прав и создание возможностей) и поддерживать планету.

Образование

Преобразование мира через инновации ИИ означает обязанность строить будущее для и вместе с молодыми поколением. Эта обязанность должна выражаться в приверженности образованию, разработке конкретных учебных программ, охватывающих различные дисциплины в области гуманитарных наук, естественных наук и технологий, чтобы нести ответственность за воспитание молодого поколения. Это обязательство означает работу по улучшению качества образования, которое получают молодые люди; оно должно распространяться с помощью методов, которые доступны всем, никого не дискриминируют и могут предложить равенство возможностей и отношений. Всеобщий доступ к образованию должен быть достигнут на принципах солидарности и справедливости.

Доступ к обучению в течение всей жизни должен быть гарантирован также пожилым людям, которым должны быть предоставлены возможности доступа к офлайн-сервисам во время цифрового и технологического транзита. Кроме того, эти технологии могут оказаться чрезвычайно полезными, так как помогут людям с ограниченными возможностями учиться и становиться более независимыми: инклюзивное образование также означает использование ИИ для поддержки и интеграции всех и каждого человека, помощь и возможности для общественного участия (например, удаленная работа для людей с ограниченной мобильностью, технологическая поддержка для людей с когнитивными нарушениями и т. д.).

Влияние преобразований, вызванных ИИ, на общество, работу и образование заставляет пересматривать школьные программы, чтобы сделать лозунг «никто не останется позади» реальностью. В области образования необходимы реформы для установления высоких и объективных стандартов, которые помогут улучшить индивидуальные результаты. Эти стандарты не должны ограничиваться овладением цифровыми навыками, но вместо этого следует сосредоточиться на том, чтобы каждый человек мог полностью реализовать свои способности и работать на благо сообщества, даже когда он не получит личной выгоды от этого.

Когда мы разрабатываем и планируем общество завтрашнего дня, использование ИИ должно следовать образу действия, которое является социально-ориентированным, творческим, соединяющим, продуктивным, ответственным и способным положительно влиять на личную и общественную жизнь подрастающего поколения. Социально-этическое влияние должно быть также в основе образовательной деятельности ИИ. Основной целью образования должно быть повышение осведомленности о возможностях, а также о возможных критических вопросах, которые ставит использование ИИ с точки зрения социальной интеграции и индивидуального уважения.

Права

Развитие ИИ в служении человечеству и планете должно быть отражено в нормативных актах и принципах, которые защищают людей — особенно слабых и обездоленных — и окружающую среду. Приверженность этичности всех заинтересованных сторон является важной отправной точкой; чтобы сделать такое будущее реальностью, где ценности, принципы, а в некоторых случаях правовые нормы, являются абсолютно незаменимыми для поддержки, структурирования и руководства этим процессом.

Чтобы разрабатывать и внедрять системы искусственного интеллекта, которые приносят пользу человечеству и планете, выстраивают и поддерживают международный мир, развитие ИИ должно идти рука об руку с вопросами цифровой безопасности.

Для того чтобы ИИ мог служить инструментом во благо человечества и планеты, мы должны поместить тему защита прав человека в цифровую эпоху в центр общественной дискуссии. Пришло время задать вопрос, требуют ли новые формы автоматизации и алгоритмизации развития более сильного чувства ответственности. В частности, будет важно рассмотреть некоторую форму «обязанности объяснения»: мы должны думать о том, чтобы сделать понятными не только критерии принятия решений алгоритмическими агентами на основе ИИ, но также их цели и задачи. Эти устройства должны быть в состоянии представить людям информацию о логике алгоритмов, используемых для принятия решений. Это повысит прозрачность, прослеживаемость и ответственность и сделает автоматизированный процесс принятия решений более обоснованным.

Необходимо поощрять новые формы регулирования для обеспечения прозрачности и соблюдения этических норм и принципов, особенно для передовых технологий, которые имеют более высокий риск воздействия на права человека, например распознавание лиц.

Чтобы достичь этих целей, мы должны начинать создание каждого алгоритма с «алгор-этического» («алгоритмически-этическим») видения, то есть намеренно с этического подхода.

Проектирование и планирование систем ИИ, которым мы можем доверять, предполагает поиск консенсуса между лицами, принимающими политические решения, учреждениями системы ООН и другими межправительственными организациями, исследователями, научными кругами и представителями неправительственных организаций относительно этических принципов, которые должны быть встроены в эти технологии. По этой причине подписанты Призыва выражают желание работать вместе, в этом контексте и на национальном и международном уровне продвигать «алгоритм этики», а именно этичное использование ИИ, как оно определяется следующими принципами:

  1. Прозрачность: системы ИИ должны быть объяснимыми;
  2. Включение (инклюзивность): потребности всех людей должны быть приняты во внимание, чтобы каждый мог получить пользу, и всем людям были бы предложены наилучшие условия для самовыражения и саморазвития;
  3. Ответственность: те, кто разрабатывает и внедряет использование ИИ, должны действовать с ответственностью и открыто;
  4. Беспристрастность: не создавайте ИИ и не действуйте предвзято, таким образом гарантируется соблюдение справедливости и уважение к человеческому достоинству;
  5. Надежность: системы ИИ должны быть в состоянии работать надежно;
  6. Безопасность и конфиденциальность: системы ИИ должны работать безопасно и уважать частную жизнь пользователей.

Эти принципы являются фундаментальными элементами благих инноваций.

Перевод с английского — П. Тренин-Страусов.

Источник