Интервью с Александром Гребенюком — заместителем директора по научной работе Высшей школы современных социальных наук МГУ имени М.В. Ломоносова.
Вопрос: Александр Александрович, Вы работаете в области Цифровой социологии, расскажите пожалуйста, что это за наука?
А.А.: Цифровая социология – новое для мировой и российской науки направление научно-практической деятельности, которое заключается:
в анализе практик использования человеком цифровых средств массовой коммуникации (в первую очередь социальных сетей: ВКонтакте, Facebook, Instagram, Одноклассники и др.), как части повседневной жизни, а также социально-психологических последствий данных практик;
в исследовании того, как различные цифровые социальные технологии формируют модели поведения человека и социального взаимодействия;
в изучении взаимовлияния социальных процессов, протекающих в реальном и виртуальном (прежде всего, в социальных сетях) мирах.
Иными словами, Цифровая социология – отрасль социологии, ее субдисциплина, которая выступает как платформа для взаимопроникновения различных методов изучения социальных медиа (лингвосемантические методы, анализ «больших данных», анализ фото и видео контента, тематического моделирования, социологических методов) с целью решения новых актуальных задач исследования общественного развития. Цифровые технологии изменили наш мир, и, конечно, науку, которая его изучает. Современные социологи уже не могут обходиться прежними методами исследований и для этого они должны уверенно обращаться с цифровыми данными. В рамках Цифровой социологии существует несколько основных тематик исследований:
- социальные медиа и их влияние на динамику общественных процессов;
- цифровой профиль человека и особенности его поведения в сети;
- цифровые методы получения первичных социальных данных;
- использование «больших данных» в анализе социальных процессов;
- совершенствование методики социологических онлайн опросов;
- социальные технологии в цифровом пространстве.
Вопрос: Недавно ФБР выпустило отчет, в котором делается вывод, что штурм Капитолия был организован на Facebook. С использованием Искусственного Интеллекта и алгоритмов Машинного Обучения. Применялись персонализированные рекомендации политизированного контента, люди вовлекались в экстремистские сообщества и т.п. Согласны ли Вы с такой трактовкой?
А.А. Эти магические слова: Искусственный Интеллект, Нейросети, Машинное Обучение, Большие данные – они сегодня все чаще и чаще присутствуют в научном дискурсе. И может показаться, что существуют универсальные методы, с помощью которых можно собрать людей, искусственно погрузить их в какую-то повестку, мобилизовать их на активные действия – например, на штурм Капитолия. С одной стороны, это все реально сделать. Более того, мы и у нас в России наблюдаем, что под некоторые акции с помощью определенных алгоритмов происходит так называемый «нагоняй» людей. С другой стороны, Искусственный Интеллект в данном случае используется, но не в значении некоего «синтетического мозга», который применяет хитрые понятные только ему одному схемы для манипулирования населением. На самом деле, конечно, операторы этих алгоритмов, определяющие цели и задачи, – люди. Именно они выбирают через определенный таргетинг целевую аудиторию на которую затем рассылаются сообщения и формируется какая-то социальная группа для, например, протестных акций или продажи маек с криминальной символикой.
Я не могу вам сказать определенно, у меня нет данных, действительно ли в США использовались нейросети для формирования организованного протеста. Но я могу с уверенностью говорить, что только инструментами Искусственного Интеллекта сделать это невозможно. И не стоит думать, что есть какая-то универсальная машина, которая, в случае чего, выведет огромное количество людей и они будут штурмовать Капитолий. Все это можно делать только тогда, когда в обществе есть либо действительно протестные настроения, либо запрос на какие-то акции. Вот когда это есть, когда есть понимание какие социальные группы находятся в состоянии высокой протестной активности, чьи права ущемляются — тогда, конечно, с помощью определенных цифровых методов можно разогреть протест. Когда он есть на каком-то уровне, мы можем его усилить, используя элементы Искусственного Интеллекта. Я практически уверен, что таких запросов: «Собираемся все вместе! Идем штурмовать Капитолий!» — не было. Но были люди, которые находились в определенных протестных группах, они обсуждали общую повестку, связанную с прошедшими выборами, и были крайне недовольны положением дел.
На территории США и Западной Европы мы можем с вами выделить несколько групп права которых на протяжении последних 10-15 лет ущемляются, чье мнение уже считается каким-то девиантным. Например, это, так называемый, рабочий класс в США – его мнение уже считается неформальным, каким-то неправильным. И вот такую социальную группу в США, как показала практика, можно с использованием Искусственного Интеллекта выводить на протест. Но утверждать, что все это — сам захват Капитолия, как протестный акт — было сконструировано исключительно в социальной сети Facebook, что люди только под стимулированием Искусственного Интеллекта вышли, я бы так не стал.
Вопрос: Использовались ли методы цифровых манипуляций при организации прошедших в России протестов?
А.А. Однозначно использовались. Мы наблюдаем сейчас использование этих алгоритмов внутри российского политического процесса. При этом, приходится констатировать, что их использование происходит на грани и даже за гранью определенных нравственно-этических норм. Например, пред выступлением 23-го января мы фиксировали таргетированную рассылку в ТикТоке, ориентированную на возрастную группу 12-14 лет. То есть мы наблюдали вовлечение в протестную политическую активность детей. Вот вам свежий яркий пример!
Мы также знаем примеры, когда группы в социальных сетях, которые были посвящены рыбалке, шопингу и еще чему-то вдруг одномоментно становились политическими. Там менялся контент и так далее… Использовались разные технологии вовлечения и на территории России они применялись.
Вопрос: Можно ли эти технологии использовать как альтернативу, как инструменты профилактики экстремизма? И разрабатываются ли на основе Цифровой социологии такие инструменты?
А.А. Я не владею информацией кто разрабатывает и разрабатываются ли подобные инструменты по профилактике. Но возможности использования сетевых технологий во благо существуют. Мы можем выявлять группы риска, пытаться с этими группами входить в контакт посредством определенного контента. Чтобы пользователи, например, экстремистских групп видели и альтернативную точку зрения.
Тут нужно понимать один очень важный момент. Существует термин «Facebook Bubble». Когда человек попадает в какую-то группу в сети, начинает общаться там с людьми, которые в этой группе состоят и разделяют определенные взгляды группы. Он потребляет соответствующий размещенный в группе контент и за короткий промежуток его информационное потребление меняется. Меняется оно в соответствии с тематикой группы. Нейросети понимают что человеку нравится, какой контент он потребляет и через рекомендации и точечные предложения ему предлагается поток подобной информации.
Сегодня у жителя крупного мегаполиса дефицит свободного времени. Как правило, у него есть час — полтора, чтобы что-то почитать, посмотреть в сети. Он заходит в какую-то группу, например, людей, которые верят в плоскую Землю. Там соответствующий контент. В группе ему предлагаются определенные видеоролики, текстовая и фото информация. Он за свой час, пробегая по ссылкам в этой группе или перейдя в другую «дружественную» группу и посмотрев видео на YouTube, знакомится с одной точкой зрения – а познакомиться со второй, у него уже просто нет времени. И вот так, изо дня в день, человек попадает в так называемый «фейсбучный пузырь». Как говорят психологи, происходит эмоциональное заражение. У него структура потребляемого контента – однотипна. То есть, это однотипные группы и в этих группах примерно схожий контент. YouTube ему делает рекомендации в соответствии с его предыдущими просмотрами. Таким образов за короткий промежуток времени человек настолько погружается в одну тематику, что пробиться к нему альтернативной точки зрения практически невозможно.
В этой связи, основная задача – это попытаться человеку, который во что-то погружен или находится, например, в экстремистских группах и потребляет связанный с этим контент, предложить альтернативную точку зрения. Не навязывая, но чтобы он хотя бы сравнил то, что он смотрит, с тем, что есть на самом деле. Чтобы он увидел другую точку зрения. Технически сейчас это возможно.