С ботами знаком практически каждый интернет-пользователь. Это фейковые профили в социальных сетях, которые маскируются под реальные аккаунты и комментируют посты, как правило, на политические темы.

Рассказываем, как отличить бота от реального человека, чем они опасны и сколько стоят услуги ботофабрик. Разобраться в этом нам помогли фактчекер Павел Банников и независимая исследовательница Дана Маликова.

Автор Таисия Королева

 

Кто такие боты?

Практика создания ботов берет свое начало из коммерческого сектора. Компании используют их для размещения фейковых положительных отзывов о продукции на веб-сайтах и маркетплейсах. Со временем этот подход переняли и политики. Они используют ботов для манипуляции общественным мнением, имитации массовой поддержки или, наоборот, осуждения. 

Активность ботов значительно возрастает перед или во время крупных событий: выборы, митинги, обращение президента или принятие спорных законов. В последнее время ботов также часто используют для атаки на независимые медиа и активистов. О подобных атаках за недавнее время заявляли «Курсив», Protenge и Асхат Ниязов. 

«Ботоферма позволяет функционировать большому количеству ботов, специально нанятых людей для распространения фейков. Но это не обычные пользователи, которые регистрируются сами, создавая фейковые аккаунты. Это именно целевое действие: набор ботов для ботофермы», — объяснила Дана Маликова, независимая исследовательница по цифровым правам человека.

 

 

Какие темы триггерят ботов?

Как правило, в каждой отдельной ботоферме есть собственный аналитический отдел, который изучает настроения граждан и их отношение к определенной теме по просьбе заказчика. И если результаты исследования не устраивают, тогда и начинает работать ботофабрика. 

«Например, после выборов 2019 года, они начали очернять организации, которые занимались независимым наблюдением во время выборов. С тех пор они просыпаются каждый электоральный период. Также было и с Январскими событиями в Казахстане. На данный момент я бы отметила, что большое количество ботоферм сконцентрированы на теме войны в Украине, чтобы деморализовать ВСУ, правительство страны, дестабилизировать народ, обелить агрессора и при этом обвинить во всем западный мир», — объяснила Дана. 

По мнению Павла Банникова, фактчекера и составителя учебников по медиаграмотности, определенной «методички» может и не быть: иногда комментарии от ботов появляются совсем в неожиданных местах.

«Например, внезапно тред на сто комментариев, прославляющих линию партии, может появиться под постом об эпиляции или рецептом торта, то есть триггер увидели, но тупо нагнали комментов, что может говорить о том, что заказчику важно количество, а не качество влияния. И это, пожалуй, даже хорошо, что значительная часть пропаганды в Казахстане сделана так бездарно, что заметна невооруженным глазом», — считает Павел.

 

 

Как казахстанские чиновники высказывались о ботах

Власти никогда не признавались, что используют ботов в своей работе. Более того, часто этим термином манипулируют и называют «ботами» живые аккаунты. Например, когда петиция за отставку акима Алматы Ерболата Досаева набрала 50 тысяч подписей, на встрече с населением Ерболат Аскарбекович обвинил во всем атаку ботов. 

«Ботофермы также хорошо работают. В петиции много людей без ИИН, фамилии. У нас много работы, которую мы выполняем. Люди приходят с вопросами и нерешенными проблемами сюда. Город — это живой механизм, ежедневно что-то происходит. Для меня в качестве акима важно и ваше мнение, но качество моей работы оценивает глава государства, который меня назначил на эту должность», – ответил тогда Досаев.

Акимат Акмолинской области, наоборот, собирался тратить бюджетные деньги на «отражение атаки троллей». За 10 миллионов тенге поставщик должен был отражать негативные комментарии в социальных сетях акимата, защищать репутацию и писать позитивные посты. Закупку пытались провести три раза, но после огласки она так и не состоялась.

 

 

Как устроен рынок ботоферм в Казахстане?

За казахстанскими ботами закрепились названия «нурботы» и «нурняшки» еще со времен президентства Назарбаева и партии «Нур Отан». Павел Банников изучал ботофермы «Нур Отана» в 2019 году. Тогда он выяснил, что все боты создаются по примерно похожему сценарию: фото берутся из других аккаунтов, как правило, российских или кыргызских пользователей; аккаунты комментируют исключительно посты одних и тех же групп.

Павел разделил ботов на две условные группы: стандартные, чья задача заключается в написании комментариев под определенными постами на установленную тему. И более продуманные, которые требуют серьезных затрат времени и ресурсов. Таких ботов сложнее определить, а значит, они еще опаснее. При этом развитие искусственного интеллекта сильно упрощает работу ботоферм, так как для имитации поведения реального человека теперь требуется гораздо меньше усилий и вложений.

«Технологии развиваются, и то, что несет нам благо, упрощает и работу дезинформаторов, например, большие лингвистические модели и чат-боты. Хорошо обученная машина может сгенерировать за час столько похожего на новости или вполне разумные “человеческие” комментарии бреда, сколько пять лет назад не могли выдумать и десять пропагандистов за месяц», — объяснил Павел.

Дана также считает, что у ботов есть несколько линий поведения: первые продвигают пропаганду и отвлекают внимание, а вторые, наоборот, занимаются улучшением имиджа. Если первые используются больше в политических целях, то вторые чаще всего работают для бизнеса. При этом в последнее время увеличилась активность ботов по продвижению имиджа политиков. Самая заметная касается деятельности Касым-Жомарта Токаева. Для таких ботов характерны повторяющиеся комментарии по типу: «Токаев знает пять языков», «Токаев — краш» и так далее. Но это не означает, что все подобные комментарии обязательно написаны ботами. 

Отдельное место в Казахстане занимают российские боты. Но, по мнению экспертов, в данном случае они скорее поддерживают крупные вбросы. То есть какое-то крупное пророссийское СМИ или медийная персона создают инфоповод, а боты уже поддерживают эту риторику. Из последних подобных кейсов — скандал с Тиной Канделаки или фейк об алматинском «центре НАТО», распространяемый российскими СМИ осенью прошлого года.

 

 

Сколько стоят услуги ботов?

Павел Банников считает, что политический заказ, как правило, обходится дороже, чем маркетинговый. При этом с развитием искусственного интеллекта меняется и рынок ботов:

«Годовой оборот успешно сидящей на госзаказе ТОО на пять-шесть ботоводов в 2018 году мог достигать 200 миллионов тенге. Не думаю, что обороты сильно изменились, разве что на процент инфляции. Но вот маржа их владельцев с внедрением ИИ, несомненно, повысилась, поскольку производство контента для ботов, как информационного, так и дезинформационного, стало дешевле», — оценил Павел. 

 

 

Искусственный интеллект — новая угроза? 

Количество фейков и дезинформации с широким распространением разных инструментов искусственного интеллекта действительно выросло в разы. Эксперты из NewsGuard, исследующие дезинформацию, зафиксировали рост количества новостных сайтов, созданных с помощью ИИ. В мае прошлого года таких сайтов было всего 49, а в декабре — уже 739. Один из подобных веб-сайтов распространил фейк о том, что психотерапевт Биньямина Нетаньяху, премьер-министра Израиля, покончил с собой и обвинил в этом самого президента. Этот фейк начал распространяться по всему миру и даже был показан в эфире Иранского телешоу. Фейки также участились на фоне предстоящих американских выборов: журналисты BBC обнаружили большое количество сгенерированных фотографий Дональда Трампа с темнокожими избирателями. Они утверждают, что таким образом Республиканская партия пытается переманить часть избирателей у Демократов. 

Казахстанцы также в течение этого года могли видеть множество фейковых фото и видео. Например, на одном из таких видео Касым-Жомарт Токаев призывал казахстанцев инвестировать в новую платформу, созданную Илоном Маском. На самом деле здесь использовалась технология deep-fake. Или же распространенная запись разговора комика Нурлана Сабурова с Тиной Канделаки, где она просит высказать мнение «в хорошем ключе для нее и для России», также сгенерирована искусственным интеллектом. 

К сожалению, технологии развиваются быстрее, чем инструменты, которые могут обезопасить людей от фейков. Поэтому учиться отличать дезинформацию и ботов нужно самостоятельно.

 

 

Чем отличаются комментарии ботов 

Некоторых ботов вычислить достаточно просто: они пишут однотипные комментарии, очень активны в социальных сетях и комментируют, как правило, публикации одних и тех же аккаунтов. 

«Базовый бот часто ведет себя подобно психически нездоровому человеку, зацикленному на одной теме: однотипные ссылки, комментарии, посты, возможно агрессивное или восторженное поведение. Число постов тоже может быть показателем, десять записей в час не каждый человек даже время найдет опубликовать», — говорит Павел Банников. 

Но, к сожалению, сейчас этого может быть недостаточно, и отличить бота бывает практически невозможно. Главный совет, который дают эксперты — это повышать свой уровень медиаграмотности. Для тех, кто хочет научиться фактчекингу, существуют бесплатные пособия и курсы, разработанные экспертами. 

«Помните важное правило: если новость вас задела, значит, кто-то хотел этого. Такое часто бывает, когда человек выбирает себе “сторону”, которой он верит безоговорочно, но это неправильно, проверять нужно все», — заключает Дана Маликова.

 

   

Обложка: cottonbro studio / Pexels