Институт психологии Российской академии наук (соискатель)
УДК 15 Психология
Повышение психологической устойчивости к манипулятивному воздействию и профилактика вовлечения несовершеннолетних в противоправную деятельность с помощью информационно-коммуникационных технологий (ИКТ) являются важными задачами государства. В статье анализируются некоторые психологические механизмы, способствующие манипулированию в сети интернет, в том числе эффекты нормативного влияния, конформности, воспринимаемого межличностного сходства, каскадов доступной информации, эмоционального заражения, гемофильности, ложных воспоминаний, множественности источников. Авторами проанализированы основные стратегии продвижения ложной и вводящей в заблуждение информации: искусственной поляризации, управления ложными аккаунтами от имени лидеров общественного мнения, создания эмоциональных сообщений, использования теорий заговора, троллинга, направленного на провоцирование травли пользователей в сети, дефамации и делегитимации оппонентов. Также обращается внимание на способы противодействия деструктивному информационно-психологическому воздействию, которые включают не только пути совершенствование законодательного аппарата и использование программно-технических решений, но и повышение уровня психологической устойчивости граждан, проведение профилактических и упредительных мероприятий, направленных на формирование представлений об информационных угрозах, их видах, способах выявления и защиты, групповых норм и ценностей. Указывается на необходимость разработки и внедрения в социокультурную и образовательную среды специальных педагогических и психологических тренингов и игр, созданных в виде компьютерных программ, мобильных приложений и онлайн-симуляторов.
психологическая устойчивость, профилактика, психолого-педагогические тренинги, информационно-коммуникационные технологии, поляризация, троллинг
Введение. В условиях бурного развития информационных технологий новые виды СМК (блоги, социальные сети) становятся не только основным источником информации, местом социальных взаимодействий, но и одним из основных источников угроз информационно-психологической безопасности личности, обществу и государству. Стоит отметить, что на январь 2021 года число пользователей интернет в мире достигло 4,66 млрд человек или 59.5% жителей планеты Земля [20]. И эта цифра продолжает расти.
Содержание понятия «информационно-психологическая безопасность» в общем виде можно обозначить как состояние защищенности индивидуальной, групповой и общественной психологии и, соответственно, социальных субъектов различных уровней общности, масштаба, системно-структурной и функциональной организации от воздействия информационных факторов, вызывающих дисфункциональные социальные процессы [1].
В доктрине информационной безопасности РФ отмечается, что «различные террористические и экстремистские организации широко используют механизмы информационного воздействия на индивидуальное, групповое и общественное сознание в целях нагнетания межнациональной и социальной напряженности, разжигания этнической и религиозной ненависти либо вражды, пропаганды экстремистской идеологии, а также привлечения к террористической деятельности новых сторонников» [2].
Проблема. Согласно данным исследования Института психологии РАН и Исследовательской группы «ЦИРКОН», проведенного в 2019 году, в группу риска людей, которые наиболее подвержены манипуляторным и дезинформационным воздействиям в интернет входят пожилые граждане и молодежь [7]. Что касается молодежи, то в большей степени это связано с той категорией молодых людей, которая не идентифицирует себя как гражданина страны, не доверяет информации официальных органов, а интересуется альтернативными новостными источниками. При работе с этой категорией манипуляторы часто используют фактор негативной идентичности и в качестве аргументации якобы истинности своих слов заявляют о том, что они говорят «правду, которая призвана противостоять патриотической пропаганде». «Патриотическая пропаганда» в представлениях юношей и девушек с низкой гражданской идентификацией является негативным проявлением, а потому они с легкостью готовы поверить во что угодно. Прокатившаяся недавно волна протестных митингов, в которую были вовлечены молодые люди, косвенно подтверждают этот аргумент. Кроме того, необходимо отметить, что манипуляторами и организаторами использовался фактор новой короновирусной инфекцией COVID-19 и инфодемии, последствием которых стали негативные эмоциональные состояния, тревожность и страх.
Анализ состояния проблемы на современном этапе. На уязвимость молодежи в сети интернет указывают многие российские и зарубежные исследователи. Они отмечают в качестве возможных причин низкие уровни «цифровой грамотности» и «социальной компетентности». В связи с этим обращается внимание на необходимость активных действий в образовательной и воспитательной сферах, направленных на формирование «цифровой компетентности», как общей способности и меры освоения соответствующих компетенций, позволяющих успешно использовать инфокоммуникационные технологии в жизнедеятельности. Предлагается включение в понятие «цифровой компетентности» четырех блоков: информационной и медиакомпетентности (знания, умения, мотивация и ответственность, связанные с поиском, пониманием, организацией, архивированием цифровой информации и ее критическим осмыслением); коммуникативной компетентности (знания, умения, мотивация и ответственность, необходимые для различных форм коммуникации); технической компетентности (знания, умения, мотивация и ответственность, позволяющие эффективно и безопасно использовать технические и программные средства для решения различных задач, в том числе использования компьютерных сетей); потребительской компетентности (знания, умения, мотивация и ответственность, позволяющие решать с помощью цифровых устройств и интернета различные повседневные задачи, связанные с конкретными жизненными ситуациями, предполагающими удовлетворение различных потребностей). При этом отмечается, что формирование «цифровой компетентности» в настоящее время затруднено радом факторов. В частности, указывается, сложившаяся в России культура самостоятельного обучения использованию интернета. Уже третье поколение пользователей овладевает цифровыми компетенциями самостоятельно, не имея возможности регулярно и систематически обсуждать информацию в сети интернет, сравнивать свои цифровые знания и умения с уровнем сверстников, родителей и экспертов [8].
На наш взгляд, при организации противодействия манипулятивным технологиям должны учитываться технологии, способы и методы продвижения деструктивного контента. Например, в интернет часто используются одни и те же стратегии, связанные с психологическими эффектами и феноменами. Например, применяется так называемый метод искусственной поляризации [16; с. 159–171]. Он заключается в столкновении между собой оппозиционно настроенных сообществ [24; с. 36–39]. Например, в социальной сети создаются несколько фейковых групп. Одна из них условно «за белых», другая – «за черных». Администраторы наполняют группы определенным контентом, содержащим положительные аргументы в пользу одних и отрицательные аргументы – в отношении других. В группу запускаются «фейковые участники», боты, задача которых завлечь как можно больше сторонников определенных идей, взглядов, а также постоянно повышать уровень агрессии в отношении оппозиционного сообщества. Аналогичная работа проводится в других пабликах. В определенный момент модераторы должны столкнуть участников между собой и по возможности сделать это не в офлайн, а в реальных условиях. Пользователи обычно не подразумевают о настоящих целях организаторов. Кроме того, действует так называемая гемофильность, склонность людей объединяться вокруг общих интересов, а также склонность доверять тем, кто имеет схожие убеждения, взгляды, даже если они будут ложью.
Другим приемом воздействия на молодых людей является троллинг, часто применяемый для дефамаций, делегитимаций [23], провоцирования и травли оппонентов [15; с. 85–87]. Троллинг рассматривается как акт намеренной провокации в онлайн-среде с целью получения необходимой реакции от пользователя. Существуют три основные типа сообщений троллей: 1) «правдивые сообщения» - ложные сообщения, которые тщательно маскируются под правдивые; 2) сообщения для получения желаемых ответов; 3) провокационные сообщения, направленные на активизацию дискуссий, споров и т.д [18]. Примечательно, что троллинг может применяться как целенаправленно деструктивными силами, так и подхватываться молодыми людьми бесцельно под воздействием так называемого эффекта растормаживания. Суть эффекта заключается в ослаблении психологических барьеров, ограничивающих выход скрытых чувств и потребностей. В результате люди начинают вести себя в виртуальном пространстве так, как не поступали бы в реальной жизни [28]. Анонимность в сети позволяют молодым людям чувствовать себя более уверенными и защищёнными. С другой стороны это приводит и к чувству вседозволенности, созданию деструктивных фейковых аккаунтов с различными образами, моделями поведения, взаимодействиями с окружающими.
Еще одной распространенной стратегией является использование теорий заговора. Продвижению конспирологии или теорий заговора, объясняющей все значимые события результатом деятельности тайной группы злоумышленников, способствуют негативное отношение к общественным нормам [12], отсутствие антиконспирологических аргументов в медийном пространстве [26], негативное отношение к медицинскому вмешательству, в том числе вакцинам [22], высокий уровень религиозности и правая идейно-политическая ориентация [14]. В ходе недавнего исследования социальной сети Facebook в Италии было установлено, что вне зависимости от страны распространения пользователи чаще комментируют и ставят «лайки» именно в конспирологических новостях, чем, например, в научных [11]. При этом внимание общественности чаще всего привлекают такие формы подачи информации как «мемы».
Существует стратегия, которая опирается на создание и распространение провокационного эмоционального контента. Воздействие через эмоциональные материалы связано с психологическим эффектом рамки, когнитивным искажением, при котором форма подачи информации влияет на ее восприятие человеком. Установлено, что когнитивной оценке конкретного события предшествует эмоциональная реакция на новостной фрейм [17]. Эмоции при этом выступают своеобразным редактором восприятия событий человеком и оказывают влияние на его поведение [21].
Наконец, используется стратегия имитации, которая заключается в использовании фейковых аккаунтов от имени известных людей и организаций. Это связано со сформированным ранее в массовом сознании положительным образом личности, за которую выдает себя злоумышленник, доверием к этому образу, верой в то, что он тот, за кого себя выдает и как следствие – доверием к содержанию исходящей от него информации и готовностью к рефлексии в реальных условиях.
В интернет широко распространен эффект нормативного влияния или влияния посредством социальных и групповых норм, при котором человек, стремясь быть «как все», боясь непохожести, отличия от других, повторяет действия других людей, например, репостит контент менеджеров фейков. Большое влияние на распространение лжи оказывает также конформность, то есть изменчивость модели поведения, зависящая от реального или воображаемого давления других людей, воспринимаемое межличностное сходство, при котором один человек видит похожие на него черты у другого человека, начинает повторять за его действиями. Большой вклад в продвижение фейков вносят, так называемые каскады доступной информации. При этом когнитивном искажении рост коллективной веры в какую-либо информацию напрямую связан с количеством ее повторов, доступностью, убедительностью, аргументированностью, ссылками на авторитетные источники. Особенность этого эффекта объясняется социальной природой человека, тем, что человек получает основную информацию от других людей. В условиях развития новых технологий, социальных сетей, появилась возможность еще больше и чаще получать необходимую, как кажется человеку, информацию от пользователей, воспринимаемых за обычных людей. Усвоению дезинформации способствует социально-психологический механизм передачи психического настроя другим людям от одного человека или группы людей, так называемое эмоциональное заражение. Часто этот феномен рассматривается в условиях неорганизованного и антисоциального поведения, на митингах, в толпе. Однако, данное явление характерно и для социальных сетей, интернет-форумов, блогов, где хаотично распространяются различные типы недостоверной информация. При хаотизации происходит эмоциональное заражение, понижается уровень критичности воспринимаемой информации, появляется шаблонность в действиях и соответственно быстрее подхватывается любая не сложная информация [4, 5] .
Также необходимо обратить внимание на использование потенциала сети интернет для незаконного сбора, анализа и онлайн-координации, вербовки пользователей деструктивными субъектами ИПВ.
В сети широко распространен так называемый метод сбора информации по «цифровым следам», по фотографиям, сообщениям и т.д. Для сбора «цифровых следов» используются программы-краулеры, автоматически отыскивающие и скачивающие данные по заданным критериям, а при изучении социальных сетей – приложения, которые подключаются через интерфейс Twitter, Facebook, В контакте и других сетей (API — Application Programming Interface) [6]. Обработка «цифровых следов», семантический анализ SMS, интернет-запросов и постов в сетях, а также которые человек оставляет в реальном мире, соприкасаясь с сетью электронных устройств, не говоря уже о показаниях сенсора движения в смартфоне и триангуляции его положения по системам GPS, уже сегодня позволяет контролировать и направлять потоки пользователей в необходимое русло.
Яркий пример использования цифровых технологий в организации протестов можно было наблюдать в Китае в 2019 году. Для активизации протестной активности использовался прием манипуляции страхами путем постоянного вбрасывания в интернет информации об усилении полицейского контроля, различных провокационных материалов о недовольстве властями, их действиями, дискредитации действий правоохранительных структур, их жестокости по отношению к протестующим. Технология организации митинга включала: 1) вброс информации о планируемом мероприятии на специальном закрытом форуме LIHKG; 2) астротурфинг и массовое распространение через перепосты и создание фейковых аккаунтов в Telegramm; 3) подготовку графиков проведения протестных митингов и их распространение через сервис AirDrop; 4) публикацию в день проведения митинга карты места проведения мероприятия и обращение ко всем участникам с просьбой информирования организаторов мероприятия о своем месте в цепочке митингующих через форму Google Docs; 5) сбор фото- и видеоотчетов от протестующих в публичной директории облачного сервиса Dropbox для последующего распространения в СМИ. Отдельно стоит отметить, организацию в интересах протестующих информационно-психологического воздействия за рубежом, в том числе в США и Европе,
с целью формирования положительного общественного мнения жителей этих стран о действиях оппозиции [3].
Очевидно, что в связи с возрастающим числом примеров использования ИКТ в деструктивных целях необходима разработка комплекса мер, направленных противодействие негативному информационно-психологическому воздействию. В настоящее время такая работа проводится.
Во-первых, противодействие деструктивной и ложной информации в интернет направлено на совершенствование существующей нормативно-правовой базы, повышение ответственности за распространение недостоверной, порочащей честь и достоинство информации, склонение к противоправной деятельности несовершеннолетних граждан в сети интернет. В частности, здесь необходимо отметить законы о фейковых новостях и наказании за их распространение: Федеральный закон от 18.03.2019 № 31-ФЗ «О внесении изменений в статью 15-3 Федерального закона «Об информации, информационных технологиях и о защите информации», Федеральный закон от 18.03.2019 № 27-ФЗ «О внесении изменений в Кодекс Российской Федерации об административных правонарушениях». В соответствии с законодательством запрещается распространение в интернете информации, которая создает «угрозу причинения вреда жизни или здоровью граждан, имуществу, угрозу массового нарушения порядка и общественной безопасности, угрозу создания помех функционирования или прекращения функционирования объектов жизнеобеспечения, транспортной или социальной инфраструктуры, кредитных организаций, объектов энергетики, промышленности или связи».
Во-вторых, ведется выявление и блокировка деструктивного контента с помощью алгоритмов и машинного обучения, в том числе за счет:
1) сопоставления с дополнительной информацией, например, данных о географических, погодных и других условиях (поисковая система «Wolfram Alpha»); 2) детализации объектов видеоконтента с целью обнаружения признаков предметов, созданных с помощью искусственного интеллекта, например отсутствие изменений на лице у человека из-за кровотока;
3) пометки «фейковой» информации уникальным криптографическим идентификатором [25]. Для выявления так называемого «дипфейка», то есть применения систем искусственного интеллекта для генерации ложного видеоконтента, неотличимого от реальности, используются все более сложные технические решения, основанные на глубоком обучении и нейросетях, требующих все больших массивов данных для обучающих выборок [10].
В третьих, проводится комментирование недостоверной информации представителями экспертного сообщества в СМК, а также создаются специальные проекты «Антифейк». Широкую известность в России получил, например, проект «Вбросам.нет», который с недавнего времени возглавляется членом научного совета при Совете Безопасности России, доктором политических наук, профессором МГУ им. М.В. Ломоносова А. В. Манойло. Он является известным в нашей стране специалистом по информационным и психологическим войнам, цветным революциям.
Вместе с тем, на наш взгляд, одних только вышеперечисленных мер недостаточно. В пользу этого говорит недавний пример с действиями администрации Facebook, которая в борьбе с фейковой информацией помимо блокировок деструктивного контента, начала применять метод предоставления дозированной информации (метод «осмысленных связей»), основанной на личных предпочтениях пользователей. В результате, стремясь расставлять приоритеты в отображении содержимого, которым делятся друзья пользователей и члены их семей, было спровоцировано усиление собственных убеждений пользователей [19], а также всплеск «фейковых новостей» [13].
Представляется, что в будущем необходимо активизировать работу по повышению психологической устойчивости и рефлективности пользователей социальных сетей, совершенствовать работу по профилактике вовлечения несовершеннолетних в противоправную деятельность с помощью информационно-коммуникационных технологий (ИКТ). Под психологической устойчивостью подразумевается характеристика личности, состоящая в сохранении оптимального функционирования психики в условиях фрустрирующего и стрессогенного воздействия трудных ситуаций. Она не является врожденным свойством личности, а формируется одновременно с ее развитием и зависит от типа нервной системы человека, его опыта, профессиональной подготовки, навыков и умений поведения и деятельности, уровня развития познавательных структур личности [9].
Одним из профилактических методов может быть внедрение в социокультурную и образовательную среды специальных психолого-педагогических тренингов и игр, созданных в виде компьютерных программ, мобильных приложений и онлайн-симуляторов. Такие программы могут быть основаны по примеру маркетинговых КВИЗов, которые часто используются при такой форме досуга, как квесты и викторины. Представляется, что эти программы могут быть направлены на разъяснение основных манипуляционных форм, методов, стратегий, способов и мест их распространения, отработку навыков распознавания фейков в реальных условиях. Исследования, связанные с опытом внедрения подобных программ за рубежом показывают, что после их прохождения у людей повышается уровень критичности к информации, формируется более полное представление о содержании информационных угроз [27]. Подобная «прививка», на наш взгляд, будет способствовать ориентации в потоке хаотичной информации, позволит молодым людям самостоятельно отличать деструктивный контент и осознавать последствия при его продвижении, распространении или создании.
Заключение. Таким образом, осуществляемое сегодня деструктивное информационно-психологическое воздействие с помощью информационно-коммуникационных технологий имеет в своей основе учет множества психологических механизмов, социально-демографических и личностных характеристик граждан. Такое воздействие зачастую осуществляется точечно, адресно и представляет угрозу личности, обществу и государству. Ввиду роста количества людей активно пользующихся интернет, особенно молодежи встает вопрос о необходимости формирования «цифровой компетентности». Противодействие и профилактика деструктивным явлениям в сети, на наш взгляд, должны заключаться, прежде всего, в формировании психологической устойчивости к деструктивному воздействию, а также в разработке комплекса мер, направленных на совершенствование существующих методов обучения и воспитания. В этой связи перспективным представляет разработка специальных программ-тренажеров и онлайн-симуляторов. Они будут способствовать более широкому охвату молодежной аудитории, наиболее эффективному донесению до нее информации об источниках, канал, формах, методах информационных угроз, а также позволят увеличить уровень критичности к информации и психологической устойчивости.
1. Грачев Г.В. Информационно-психологическая безопасность личности: состояние и возможности психологической защиты / Под общ. ред. С. А. Анисимова, А. А. Деркача; Рос. акад. гос. службы при Президенте РФ. - М. : Изд-во РАГС, 1998. - 120 с.
2. Доктрина информационной безопасности РФ//Российская Газета. - 6.12.2016г. URL.: https://rg.ru/2016/12/06/doktrina-infobezobasnost-site-dok.html (дата обращения: 22.01.2021).
3. Дудаков М. «Цифровая» революция в Гонконге. Роль онлайн-инструментов в массовых протестах 2019 г. Аналитический доклад. М.: «ЦИНК». 2019. 38 с. [Электронный ресурс]. URL: https://zn.center/research/cifrovaa-revolucia-v-gonkonge-rolonlajn-instrumentov-v-massovyh-protestah-2019 (дата обращения: 22.01.2021).
4. Ерофеева М. А. Гендерные образы в социальных сетях // В сборнике: Прикладная психология на службе развивающейся личности. Сборник научных статей и материалов XVI научно - практической конференции с международным участием. Коломна: Изд-во: ГСГУ, 2019. С. 46-49.
5. Ерофеева М. А. Репрезентация гендерных образов современных студентов в социальных сетях (на примере социальной сети "ВКонтакте") // Человеческий капитал. 2018. № 11-2(119). С. 56-61.
6. Ледовая Я.А., Тихонов Р.В., Боголюбова О.Н., Иванов В.Ю., Яминов Б.Р. Организационно-методические вопросы сбора данных в онлайн-исследовании поведения пользователей социальной сети «Фейсбук» из России и США // Вестник Санкт-Петербургского университета. Серия 16. Психология. Педагогика. 2017. Т. 7(4). С. 308-327. https://doi.org/10.21638/11701/spbu16.2017.402
7. Нестик Т. А., Михеев Е. А. Информационные войны с использованием систем искусственного интеллекта: анализ психологических механизмов воздействия // Организационная психология и психология труда, 2019. 4 (4). 148-174.
8. Солдатова Г.У. Цифровая компетентность подростков и родителей. Результаты всероссийского исследования / Г.У. Солдатова, Т.А. Нестик, Е.И. Рассказова, Е.Ю. Зотова. - Москва: Фонд Развития Интернет. 2013. - 143 с.
9. Энциклопедический словарь по психологии и педагогике (сводный). 2012. URL: http://med.niv.ru/doc/dictionary/psychology-and-pedagogy/index.htm (дата обращения: 30.01.2021)
10. Agarwal S., Farid H., Gu Y., He M., Nagano K., Li H. Protecting World Leaders Against Deep Fakes //CVPRWorkshops. 2019. [Электронный ресурс]. URL: https://farid.berkeley.edu/downloads/publications/cvpr19/cvpr19a.pdf (дата обращения: 12.01.2020).
11. Bessi A., Petroni F., Del Vicario M. et al. Viral misinformation: The role of homophily and polarization // Proceedings of the 24th International Conference on World Wide Web Companion 18 May 2015. P. 355-356. URL: https://arxiv.org/abs/1411.2893 (дата обращения 21.01.2018).
12. Conroy, K., Rosenthal, S. L., Zimet, G. D., Jin, Y., Bernstein, D. I., Glynn, S., & Kahn, J. A. Human papillomavirus vaccine uptake, predictors of vaccination, and self-reported barriers to vaccination. Journal of Women's Health, 18, 1679-1686. doi:https://doi.org/10.1089/jwh.2008.1329
13. Frankel S., Fandos N. (2018) Facebook identifies new influence operations spanning globe. The New York Times. 21 August, https://www.nytimes.com/2018/08/21/technology/facebook-political-influence-midterms.html.
14. Freeman D., & Bentall, R. (2017). The concomitants of conspiracy concerns. Social Psychiatry and Psychiatric Epidemiology, 52, 595-604.
15. Griffiths MD (2014) Adolescent trolling in online environments: a brief overview. Education for Health 32(3):85-87
16. Groenendyk E. Competing motives in a polarized electorate: political responsiveness, identity defensiveness, and the rise of partisan antipathy. Political Psychology, 39:159-171, 2018. https://doi.org/10.1111/pops.12481
17. Gross, K. (2008). Framing persuasive appeals: Episodic and thematic framing, emotional response, and policy opinion. Political Psychology, 29, 169-192.
18. Herring, S., Job-Sluder, K., Scheckler, R. & Barab, S. (2002).Searching for safety online: Managing “Trolling” in a feminist forum. The Information Society, 18, 371-384.
19. Isaac M. Facebook overhauls news feed to focus on what friends and family share. New York Times. January 11, 2018 URL.: https://www.nytimes.com/2018/01/11/technology/facebook-news-feed.html. (дата обращения: 21.02.2021).
20. Kemp S. The Digital 2021 Global Overview Report. 2021. URL: https://wearesocial.com (дата обращения: 21.02.2021).
21. Lazarus, R. S. 1991. Emotion and adaptation. New York: Oxford University Press.
22. Lewandowsky S, Gignac GE, Oberauer K (2013) The role of conspiracist ideation and worldviews in predicting rejection of science. PLOS ONE 8(10):1-11.https://doi.org/10.1371/journal.pone.0075637
23. Lischka JA (2017) A Badge of Honor?, Journalism Studies, 20:2, 287-304, DOI:https://doi.org/10.1080/1461670X.2017.1375385
24. Melki M, Pickering A (2014) Ideological polarization and the media. Economic Letters, 125 (1):36-39. https://doi.org/10.1016/j.econlet.2014.08.008
25. Memes That Kill: The Future Of Information Warfare/CBInsights, 2018. URL: https://www.cbinsights.com/research/future-of-informationwarfare/(дата обращения: 28.01.2020).
26. Mocanu D., Rossi L., Zhang Q., Karsai M.; Quattrociocchi W.. Collective attention in the age of (mis)information
27. Roozenbeek J., Van der Linden S. Fake news game confers psychological resistance against online misinformation//Nature. 2019. P. 1-10 DOI: doi.org/10.1057/s41599-019-0279-9.
28. Suler J. R. (2004). The online dishibition effect. CyberPsychology and Behaviour , 7, 321-326.