ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN ORGANIZATIONAL AND MANAGEMENT ENVIRONMENT: ETHICAL PROBLEMS
Abstract and keywords
Abstract (English):
Artificialis intelligentia (inferius – AI) an active evolvere agro scientia, quae est iam esse successfully implemented in usu. In discutit partes AI exsecutionem in socialis sphaera. Autem, dictum notat quod prospere exsequendam hoc technicae potest facere, non solum eventus. Passum AI progressionem exigit augeri attentionem ad exitus AI ethicorum, et causa penes est unum ex multis ethica pericula oriuntur, cum usura ratio, quae fundatur in AI. In hoc nexu, auctores nota, quod prioritizing ethica viasque AI gravis gradus impenderunt securitatem praestat, et crescentes gradus recognitionem hoc technology. Sed, notandum quod quaedam vacuum formavit circa ethica exitibus AI hodie. Auctores nota, quod non est, patet responsio ad plures quaestiones, quomodo ad invigilandum, aequalis occasiones omnes users AI-substructio vitae, quomodo ad invigilandum, ut AI progreditur transparently. Ergo, auctores articulus hortamur, ut operam ad hoc, quod AI est a technology, efficens usum, quae pendet summus qualitas disciplina, constans et iudicium, et quidem ethica firmamentum secundum inclusive adventu.

Keywords:
artificialis intelligentia; socialis sphaera; ethica de artificialis intelligentia; principia ethica
Text
Publication text (PDF): Read Download

С появлением в середине XX-го века первых вычислительных машин и дальнейшим изобретением компьютеров начали формироваться условия для создания ИИ. А разработка в 2010-х годах новейших графических процессоров, позволяющих ускорять сложнейшие вычисления, усилила интерес к развитию ИИ. Вместе с этим становился все более актуальным вопрос ответственности за использование систем, основанных на ИИ. Целью данной статьи, с одной стороны, является показать, что активное использование ИИ в социальной сфере организации способно приносить ей пользу. С другой стороны, мы хотим подчеркнуть, что нельзя заявлять о безрисковом характере внедрения этой сложной и постоянно развивающейся технологии. Как и любой проект, ИИ требует предварительного анализа, планирования, тщательного выбора инструментов, оценки, обратной связи и постоянного совершенствования.

Благодаря влиянию научно-фантастических произведений в массовой культуре понятие ИИ стало ассоциироваться с роботами, способными к поведению, реакциям, эмоциям, присущим человеку [5]. Научное же сообщество по-другому интерпретирует определение ИИ. Достаточно часто ИИ сегодня рассматривается как область когнитивных вычислений [14]. Однако, первоначальная трактовка данного понятия, сформулированная в 1955 году Джоном Маккарти, определяет ИИ как «науку и технику создания интеллектуальных машин» [9].

Мы придерживаемся более широкого взгляда на толкование сути данного явления, соглашаясь с авторами, которые рассматривают ИИ, как технологию, алгоритм, устройство или компьютерную программу, способную решать интеллектуальные задачи, включающие анализ данных, прогнозирование, принятие решений, что ранее было возможно выполнить только человеку [14; 16]. Обладая достаточной информацией об этой области науки, несложно себе представить, что ИИ перестал быть популяризированным мифом и стал частью нашей жизни. Этот факт подтверждается исследованием McKinsey Analytics «The state of AI in 2020», проведенном в 2020 году с привлечением 2395 респондентов. Результаты опроса показывают, что около 50% организаций из числа участников исследования используют компоненты ИИ хотя бы в одном бизнес-процессе [11].

Во многих областях управления ИИ оказывает серьезное влияние на способы взаимодействия людей друг с другом. На этом пути мы можем столкнуться с существенными этическими проблемами, требующими тщательного философского и этического анализа и регулирования. Сегодня множество работ ведущих отечественных и зарубежных ученых посвящено изучению социального воздействия ИИ на многие сферы жизни человека и, прежде всего, на социальную сферу с целью поиска путей избегания каких-либо негативных последствий бесконтрольного использования ИИ [16].

Чаще всего авторы, исследующие этику ИИ, обращают внимание на проблему предвзятости, которая закладывается в процесс принятия решений ИИ. Наиболее частые предубеждения связаны с гендерной предвзятостью [2]. Кроме этого, большая доля опасений высказывается в отношении технологий ИИ, заменяющих людей на их рабочих местах [12, 13].

Мы задались целью получить ответ на вопрос, кто сегодня играет значимую роль в создании, принятии и обеспечении соблюдения этических и моральных стандартов? Некоторые исследователи высказывают предположения, что ИИ и автоматизация существенным образом повлияют на разрыв в благосостоянии населения. Какова должна быть государственная политика и какие нормативные акты могут помочь в предотвращении появления этого разрыва? Как помочь тем работникам, кому на смену идет ИИ, кто должен гарантировать, что в программы ИИ не заложены различные человеческие предубеждения, можно ли говорить о единой общемировой этике ИИ или в ней должны учитываться культурные особенности разных стран.

Внедрение ИИ резко возросло за последние 6 лет. В 2015 году Gartner [3] обнаружила, что только 25% компаний используют или планируют использовать решения ИИ. Но к 2019 году это число выросло до 37 процентов. Очевидно, что по мере того, как технологии совершенствуются и бизнес видит ценность внедрения ИИ, эта тенденция будет только усиливаться. В ходе опроса, проведенного компанией Cognilytica в 2020 году среди 1500 представителей компаний и государственных органов, почти 90 процентов респондентов заявили, что в ближайшие два года они будут внедрять ИИ в полном объеме [4].

Еще одним толчком к внедрению в работу компаний ИИ в последние годы стала пандемия Covid-19. Несомненно, это масштабное явление разделило нашу жизнь на до и после. Бизнесу пришлось адаптироваться, автоматизироваться, переключаться на удаленную работу и переходить в online-пространство. Как ни странно, именно в этот период многие организации стали активно инвестировать в технологии ИИ.

Анализируя данные о трансформации процессов, как на уровне рынка труда, в отдельных областях социальной сферы, так и на уровне отдельного работника, мы лишь подтверждаем существующее положение, как о глобальных преимуществах, так и о существенных ограничениях использования технологий ИИ, которые будут возникать до тех пор, пока не будут приняты и не заработают законы и нормативные акты, регулирующие вопросы этики ИИ (таблица).

Таблица – Преимущества, ограничения и риски использования технологий, основанных на ИИ в социальной сфере

 

Преимущества использования технологий ИИ

Ограничения и риски использования ИИ

Рынок труда

Появление новых профессий, удешевление производства продукции, увеличение темпов и объемов производства, высвобождение свободного социального времени для отдыха и интеллектуальной деятельности

Возможное вытеснение людей с рынка труда, массовая безработица, угроза низкоквалифицированным рабочим, чьи рабочие места могут быть легко автоматизированы

Технологии управления персоналом организации

Использование ИИ при выявлении и отборе кандидатов (автоматизация поиска, проведения интервью)

Возможна дискриминация кандидатов при отборе по результатам анализа ИИ успешных работников

Сбор информации с помощью чат-ботов, использование ИИ для самообслуживания сотрудников

Злоупотребление руководством организации полученными данными в целях усиления психологического воздействия на работников

Активное использование ИИ в обучении и адаптации сотрудников (vr, дополненная реальность)

Обесценивание физического развития человека – оно становится малозначимым для производства и функционирования человека в обществе

Ускорение обработки больших данных и принятия решений, внедрение электронного документооборота

ИИ всегда будет анализировать ситуацию с точки зрения предварительных данных и прошлого опыта, ограниченность творческого и гибкого подхода в решении оперативных задач

Выявление сотрудников, подверженных рискам увольнения

«Цифровое рабство» – беспрецедентные возможности для манипуляции различными аспектами жизни работников обладателями персональных данных

Увеличение заработной платы в высокотехнологичных отраслях и странах с большим процентом молодого населения (например, Индия, Китай)

Стагнация или падение уровня заработной платы в широком спектре профессий со средним уровнем дохода, поляризация доходов.

Расширение существующих гендерных разрывов в оплате труда, так как в мире всего лишь около 20% женщин, владеющих технологиями ИИ

Коммуникации и удаленная работа

Ускорение коммуникаций, мгновенная связь, чат-боты с сотрудниками 24/7

Трудности с личным общением, социальное дистанцирование и социальная изоляция, оторванность от социума, рост социальной неустойчивости

 

Приведенные данные дополняет аргументы об актуальности и масштабности развития ИИ. С другой стороны, очевидны риски распространения ИИ в социальной сфере. Расшифровывая приведенные в таблице данные, можно отметить следующее. Исследование McKinsey показало, что к 2030 году роботы заменят по меньшей мере 30 % человеческого труда, то есть почти 400-800 миллионов рабочих мест. Это, в свою очередь, повлечет за собой увольнение и поиск новой работы для 375 миллионов человек [10]. Это только данные, подтверждающие возможный риск в одной из областей применения ИИ, однако, это прогнозируемые данные. Более актуальной и серьезной непосредственной проблемой является сегодня неправильное использование ИИ либо по небрежности, либо по злому умыслу.

Кроме этого, машинам неподвластен так называемый эмоциональный интеллект. Да, машины способны моментально обрабатывать огромные данные и принимать логические решения, основанные на принципах статистики. Но когда ожидания и удовлетворение клиентов основываются на небольшом сочувствии, ИИ практически бессилен. Например, даже простое решение о покупке в той или иной степени чаще коренится в эмоциональной потребности, чем в рациональном выборе.

Еще одним, казалось бы, эффективным направлением для использования ИИ является автоматизация рутинных задач. Современные системы способны анализировать поступающие на почту электронные письма, категорируя и сортируя их, обрабатывать поступающие запросы и голосовые сообщения, анализировать документы. Все эти рутинные задачи могут быть переданы в обязанность ИИ. Однако, наступление ИИ в отраслях с большим количеством рутинных рабочих мест – производство, колл-центры, банки, розничная торговля и т. д. может нести разрушительный характер не только с точки зрения изменения структуры занятости на рутинных работах и вытеснения работников с рабочих мест. Данный процесс вынудит действующих игроков рынка конкурировать в быстроте автоматизации рутинных процедур. Поскольку, естественно, победившие в этой конкурентной борьбе, получат экономические выгоды и сверхприбыли. Небольшое количество компаний (ИИ-компании, Интернет+ИИ-компании, ИИ-SaaS-компании и т. д.) будут иметь сверхприбыль, а все другие разорятся, не выдержав конкуренции, или будут близки к этому.

Одним из направлений внедрения ИИ является выявление сотрудников, подверженных риску увольнения. Мы выяснили, что подобный анализ проводится с помощью платформ, оценивающих рабочую активность человека, основываясь на использовании мобильных устройств, электронной почты, пропусков, сравнивая при этом эти данные с его средними и более ранними результатами, а также с оптимальными моделями поведения. Обработав полученную информацию, платформа передает данные руководителю или менеджеру. Такая система позволяет оперативно оценивать сигналы об отсутствии у сотрудника вовлеченности в работу, о возможном желании покинуть организацию.

Однако, в рамках концепции психологического контракта, руководители должны не забывать об этической стороне при внедрении подобных платформ и приложений для сбора информации о сотрудниках, так как у руководителей и их подчиненных могут быть различные цели использования передаваемой и получаемой информации. Подчиненные могут делиться данными о своей физической активности в целях управления здоровьем и безопасностью, а руководители могут использовать данную информацию в целях более точечного воздействия в своей управленческой практике. Поэтому, так называемый психологический контракт между руководителем и подчиненными может быть нарушен, если последние почувствуют, что за ними наблюдают или злоупотребляют их данными [2].

Какие можно дать гарантии в отношении того, что алгоритмы, закладываемые при разработке умных машин, не нарушают фундаментальные права человека — от конфиденциальности данных до свободы выбора и свободы совести? Будет ли доступна свобода действий, когда наши желания предвосхищаются и направляются с помощью технологий ИИ? Могут ли ценности программироваться и кем? Кому вообще подчиняются люди, осуществляющие взаимодействие с системой ИИ? Умной машине или ее разработчикам? Кто несет ответственность за управленческие решения ИИ?

Таким образом. достижения в области ИИ породили целый ряд все более острых и сложных моральных вопросов.

Нынешние усилия по поиску ответов на этические, социальные и правовые проблемы, связанные с применением технологий, основанных на ИИ, в настоящее время все еще представляют собой набор разрозненных инициатив. Это обстоятельство усиливает необходимость широкого диалога работодателей, представителей социальной сферы, власти, в центре которого будут ценности, закладываемые в технологии ИИ и определение самой роли данных технологий в организациях в частности и в обществе в целом.

В целом необходимо помнить, что ИИ - это инструмент, а не конкурент, он служит человеку, но не наоборот. Однако, при таких масштабных направлениях использования технологий ИИ возникает закономерный вопрос - кто будет ответственен за внедрение ИИ в организации, обществе, государстве?

Что касается уровня организации, то в современных компаниях возникают сложности, как со специалистами, обладающими навыками и знаниями в области этики ИИ, непониманием подходов к ИИ, так и в целом с регламентирующими положениями, закрепляющими ответственность за использование технологий ИИ.

Конечно, на государственном уровне предпринимается большее число шагов к регулированию вопросов этики ИИ. Однако, директивные органы должны более активно взаимодействовать с инженерами и проектировщиками в разработке систем ИИ, в противном случае поведение ИИ будет целиком и полностью зависеть от их создателей, которые не являются экспертами в вопросах, присущих разработке государственной политики. На самом деле, инженеры-проектировщики, занимающиеся системами ИИ, могут вообще не иметь представления о том, что они кодируют законы, политику, этику и мораль.

Поэтому многие развитые и развивающие страны мира активно создают внедряют национальные стратегии ИИ. В России этот вопрос был также официально поднят в 2019 году по поручению Президента РФ.

В 2017 году В.В. Путин выразил мнение, что страна, которая первой овладеет ИИ, станет “правителем мира” [1].

Одним из направлений регулирования ИИ В России является государственная программа цифровизации «Стратегия развития информационного общества в России на 2017-2030 годы», утвержденная Указом № 203 Президента РФ в 2017 г. Руководит этими процессами Министерство цифрового развития, связи и массовых коммуникаций РФ, которое реализует национальные программы «Цифровая экономика Российской Федерации», «Электронное правительство» и другие проекты. В соответствии с этим в федеральных органах исполнительной власти появились руководители по цифровой трансформации (РЦТ).

Минэкономразвития России создало паспорт федерального проекта «Искусственный интеллект», в котором отражены направления содействия развития интеллектуального потенциала и обучения ИИ.

Однако, стоит помнить, что ИИ – это совершенно инновационный проект, который требует жестких процедур анализа, оценки, планирования и т.п. Обеспечение этики ИИ является неотложной и критической задачей. При этом отметим, что в РФ, как и во многих других странах, до сих пор не приняты законы, регулирующие вопросы этики ИИ. Вот здесь и возникает основная сложность.

Чтобы сделать поведение машины (принятие моральных решений) приемлемым для человека, требуются объяснения самого процесса принятия решений [6]. Одна из психологических проблем для реализации этики ИИ заключается в том, что люди применяют различные моральные ценности для себя и для других. Идеальным решением будет разработка систем ИИ, которые следуют идеальным этическим принципам. Это просто звучит в теории, но это весьма затруднительно реализовать на практике. Для того, чтобы разработчики могли создать абсолютно безвредную систему или технологию ИИ, самим разработчикам нужно четко понимать, что такое вред. Для этого потребуется глобальный уровень этики, который включает в себя общий набор информации между разработчиками этических стандартов (организации, общества, государства) и разработчиками ИИ.

Страной, которая запустила первую национальную стратегию по регулированию ИИ в марте 2017 года, стала Канада, за ней вскоре последовала Япония, и с тех пор было опубликовано множество инициатив, включая национальные стратегии Европейских стран, Китая, ОАЭ, Сингапура, США, России и ряда других. Рассмотрим некоторые из них.

Так, в Евросоюзе создано большое количество резолюций и хартий, направленных на обеспечение этики ИИ. Например, Резолюция Европейского парламента о гражданско-правовых нормах, касающихся робототехники, содержит призыв к Европейской комиссии принять предложение о законодательном акте, предусматривающем гражданско-правовые нормы об ответственности роботов и ИИ. В этом же документе содержится требование определить критерии для классификации роботов, которые должны быть зарегистрированы где-либо. Также в Евросоюзе проходит активное обсуждение хартии, которая будет представлять собой кодекс поведения инженеров-робототехников и роботов, которым будет присвоен статус электронных лиц и на которых предлагается возложить ответственность за те решения, которые они будут принимать самостоятельно.

В июле 2017 года Государственный совет Китая выпустил новое поколение ИИ - План развития, в котором изложены долгосрочные стратегические цели развития ИИ в Китае до 2030 г. Он содержит “гарантийные меры”, такие как разработка системы регулирования ИИ и усиление защиты интеллектуальной собственности и разработка нормативных и этических рамок. Эта мера направлена на укрепление исследований по правовым, этическим и социальным вопросам, связанным с ИИ, и создание нормативных и этических рамок для обеспечения здорового развития ИИ. В Германии создана Комиссия по этике ИИ, в США выделяются миллиарды долларов не только на программы создания ИИ, но и на программы поддержки равных прав и конфиденциальности при использовании ИИ.

Отличным ресурсом в этом контексте является сравнительный обзор 84 этических руководящих принципов, выпущенных национальными или международными организациями из различных стран [7]. Мы обнаружили сильную конвергенцию данного ресурса с собственными исследованиями [8] наиболее значимых этических принципов, связанных с применением ИИ. Среди этих принципов выделим следующие:

- прозрачности,

- справедливости и честности,

- безопасности (ненасилия),

- объяснимости,

- конфиденциальности.

Данное обстоятельство подтверждается и статистическими базами данных, имеющих отношение к социальным, поведенческим аспектам внедрения технологий ИИ. Однако, даже эти принципы, провозглашаемые во всех общественных документах в разных странах, наполняются своим собственным, отличительным смыслом в зависимости от кросс-культурных особенностей той или иной страны. Поэтому мы можем сделать вывод, что человеческий фактор будет еще долго являться определяющим при разработке принципов поведения умной машины, а желание смягчить этические принципы в сфере ИИ в угоду собственного обогащения, к сожалению, будет способствовать появлению расплывчатых формулировок в правилах и предписаниях.

Как мы видим из приведенных исследований, внедрение ИИ ведется не только в бизнес-процессы, направленные на внешнее взаимодействие, но и преобразует внутренние процессы, связанные с сотрудниками. Из этого следует, что трансформируется и социальная сфера организации. В практическом отношении ИИ располагает значительными возможностями для использования. Но одновременно с этим необходимо осуществлять разработку новых этических подходов его применения. Мы делаем вывод, что не может быть однозначных, общемировых решений при разработке таких морально-этических принципов ИИ, поскольку до сих пор культурные особенности нации определяют существующую в той или иной стране мораль. Разработкой концепций этики ИИ занимаются в основном западные ученые. Соответственно, необходимо добиваться того, чтобы данные разработки носили инклюзивный характер, включая в себя и незападные концепции этики, к примеру, этику православных добродетелей или конфуцианские перспективы.

Поэтому мы придаем большое значение целенаправленной, скоординированной работе по формированию этических принципов ИИ, поскольку данная область все еще находится в стадии становления, приобретая все большую практическую значимость. Мы надеемся, что данная статья подтолкнет заинтересованных лиц к развертыванию конструктивной дискуссии по этике ИИ, а выделенные главные принципы этики ИИ, будут полезным инструментом при формировании этико-правовой базы использования ИИ в социальной сфере.

References

1. «Tot, kto vozglavit II, budet pravit' mirom»: Putin rossiyskim detyam v Den' znaniy. [Elektronnyy resurs]. - Rezhim dostupa: https://www.rt.com/news/401731-ai-rule-world-putin/ (data obrascheniya: 29.04.2022).

2. Chang, K. Artificial intelligence in personnel management: the development of APM model. The Bottom Line. - 2020. - vol. 33 No. 4, pp. 377-388. DOIhttps://doi.org/10.1108/BL-08-2020-0055.

3. Gartner Survey Shows 37 Percent of Organizations Have Implemented AI in Some Form. Rezhim dostupa: https://www.gartner.com/en/newsroom/ press-releases/2019-01-21-gartner-survey-shows-37-percent-of-organizations-have/ (data obrascheniya: 27.04.2022).

4. Global AI Adoption Trends & Forecast. Rezhim dostupa: https://www.cognilytica.com/2020/01/22/global-ai-adoption-trends-forecast-2020/ (data obrascheniya: 30.04.2022).

5. Gunkel, D. J., Byson, J. J., & Torrance, S. Behind the Mask: Machine Morality. In K. Miller, M. J. Wolf, & F. Grodzinsky (Eds.), The Machine Question: AI, Ethics and Moral Responsibility. Birmingham: AISB/IACAP World Congress, 2012, 34-38.

6. Chang, K. Artificial intelligence in personnel management: the development of APM model. The Bottom Line. - 2020. - vol. 33 No. 4, pp. 377-388. DOIhttps://doi.org/10.1108/BL-08-2020-0055.

7. Gartner Survey Shows 37 Percent of Organizations Have Implemented AI in Some Form. Rezhim dostupa: https://www.gartner.com/en/newsroom/ press-releases/2019-01-21-gartner-survey-shows-37-percent-of-organizations-have/ (data obrascheniya: 30.04.2022).

8. Indurkhya, B. Is morality the last frontier for machines, New Ideas Psychol. - 2019. - vol. 54, R. 107-111. Rezhim dostupa: https://doi.org/10.1016/j.newideapsych.2018.12.001 (data obrascheniya: 27.04.2022).

9. Jobin, A., Ienca, M. & Vayena, E. The Global Landscape of AI Ethics Guidelines. Nature Machine Intelligence. - 2019. - 1(9), 389-399.

10. Leonov V. A., Kashtanova E. V. & Lobacheva A. S. Ethical aspects of the use of artificial intelligence in the social sphere and management environment. - 2022. - vol. 118., rr. 989-998. DOIhttps://doi.org/10.15405/epsbs.2021.04.02.118.

11. Sinhaa, N., Singhb, P., Guptaa, M. & Singha P. Robotics at workplace: An integrated Twitter analytics - SEM based approach for behavioral intention to accept. International Journal of Information Management, 55 (2020) 102210. DOI: 10.1016 / j. ijinfomgt.2020.102210

12. McKinsey, Poteryannye rabochie mesta, priobretennye rabochie mesta: chto buduschee raboty budet oznachat' dlya rabochih mest, navykov i zarabotnoy platy. Rezhim dostupa: https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages# (data obrascheniya: 28.04.2022).

13. McKinsey, Sostoyanie iskusstvennogo intellekta v 2020 godu. Rezhim dostupa: https://www.mckinsey.com/business-functions/quantumblack/our-insights/global-survey-the-state-of-ai-in-2020 (data obrascheniya: 30.04.2022).

14. Sadovaya E. S. Cifrovaya ekonomika i novaya paradigma rynka truda. World economy and international relations. - 2018. - vol. 62, № 12. - P. 35-45. DOI:https://doi.org/10.20542/0131-2227-2018-62-12-35-45.

Login or Create
* Forgot password?