Религия Этика Искусственный интеллект
Назад

Надежность искусственного интеллекта

08 ноября 2022

Аннотация сентябрьского номера журнала «Юрист предприятия» (06/2022)

В специальном выпуске журнала «Юрист предприятия» с приложением «Юрист прихода» за сентябрь 2022 года приведены материалы о надёжности искусственного интеллекта, которые подготовлены Центром подготовки руководителей и команд цифровой трансформации РАНХиГС. Исследователями выводятся несколько аспектов этой проблемы.

Первый, сугубо технический, касается надежности и безопасности технических (программно-технических) систем вообще. В обычных системах существует не меньший риск ошибок и технических сбоев, чем в интеллектуальных, поэтому этот аспект не является специфичным для ИИ. Ошибка в ПО (не интеллектуальном) системы управления ядерным реактором, скорее всего, гораздо опаснее по сравнению с ошибками в ИИ для выдачи потребительского кредита.

Второй аспект касается самой сути работы ИС. Поскольку ИИ занимается решением слабо формализуемых задач, используя различного рода эвристики (сложно доказать корректность правил, но на практике они дают приемлемые результаты), правдоподобные рассуждения и тому подобные механизмы, зачастую от систем ИИ и не ждут оптимального, единственно верного решения, обходясь решением «субоптимальным», «разумным», «пригодным». Именно для проверки корректности, контроля требуется объяснительная компонента, о которой говорилось выше. Здесь проблема надежности пересекается с проблемой прозрачности ИИ.

Приводится мнение, что машинная этика, или этика «поведения» систем ИИ, вызывает целый ряд проблем, прежде всего, – понимание того, в чем заключается этичность решения. Основная сложность – в выборе тех самых этических норм, которые будут закладываться в ИИ. Делается вывод, что в сфере развития и внедрения новых технологий, в том числе цифровых, все большее развитие получают специализированные виды оценки, которые интегрируются в государственное управление и нормотворческий процесс. К теме внедрения оценки воздействия алгоритмических систем в РФ приводится результат исследования, который показывает, что на сегодняшний день перспективным является внедрение оценки воздействия алгоритмических систем как специальной оценки в рамках процедур оценки регулирующего воздействия проектов НПА и оценки фактического воздействия и мониторинга правоприменения действующих НПА. Вместе с тем она Поиск решений в этике данных должна быть включена не только в систему правового регулирования, но и в цифровую трансформацию государственного управления в целом. Последнее предполагает, что ее будут использовать при стратегическом и текущем планировании в государственном управлении, при реинжиниринге управленческих процессов и административных процедур, при оценке результативности и эффективности цифровой трансформации государственного управления.

Развитие технологий ИИ поставило вопрос о необходимости принятия первых законодательных актов в этой сфере. В каждой стране он решается индивидуально, с учетом особенностей местной правовой системы. К 2020 году в разных странах накоплен собственный опыт законодательного регулирования отношений, возникающих в связи с развитием ИИ, – от национальных стратегий ИИ до принципов применения ИИ в конкретных сферах. В выпуске приведено описание основных видов документов, посвященных правовым аспектам ИИ.

Еще одна тема в рамках анализа проблемы – «Интернет-вещи». В каждом решении ИВ одновременно задействовано много различных технологий, включая механизмы идентификации, собственно, подключение к интернету тем или иным образом, мониторинг. Именно при разработке конкретного решения, использовании комбинации технологий, ее реализации и внедрении и возникают этические проблемы. Наибольшее количество этических проблем связано с устройствами ИВ, носимыми на теле человека. Более того, ИВ создает так называемый эффект гиперподключенного мира, в котором технологически каждый объект может быть подключен, способен передавать информацию, «ощущать» свое окружение, получать обратную связь, быть управляемым на основе простых правил/триггеров или через приложения, а также быть частью процесса и/или системы принятия решений. В такой парадигме ИВ создает сетевой эффект и позволяет интегрировать системы совершенно разной природы, что влечет за собой требования к интероперабельности систем.

Исследование приводит вывод, что, как и индустрия интернета в целом, ИВ нуждается в специализированном законодательстве для принятия решения в конкретных ситуациях, которые могут возникнуть в рамках реализации решений ИВ. Как следствие, нормативные акты, регулирующие сферу ИВ, должны быть сосредоточены на возможностях системы (например, как данные могут быть повторно использованы или проданы), а не на вопросах технической реализации.

Источник