Журнал "Директор по безопасности" Июнь 2021 | Page 20

Предостерегать вместо удаления

Если удаление контента не является приоритетом при выборе способа борьбы с фейками в интернете , то как следует относиться к предостережениям ? Например , Facebook работает во многих странах совместно с провайдерами журналистских услуг , которые указывают на ложные сообщения , распространяемые в сети , и предоставляют собственные статьи по теме , корректирующие неверную информацию . Контент , идентифицированный таким способом как ложное сообщение , Facebook не удаляет , а алгоритмически обесценивает , указывая пользователю на невысокую его достоверность . Кроме того , пользователи Facebook получают в отличии от Twitter 2 вида предупреждения :

если вы хотите поделиться и , следовательно , распространить сообщение , поставленное под сомнением при проверке фактов , то появляется сообщение , которое указывает , что речь идет об информации , вызывающей сомнение ;

при просмотре сомнительного сообщения под ним появляются ссылки на корректирующие статьи партнеров , проверяющих факты , под заголовком « Больше информации по теме ».

Но большая проблема заключается в том , что пользователи воспринимают предупреждение как опеку и часто реагируют негативно . В психологической литературе этот феномен называется реактанция . Если люди чувствуют ограничение своего индивидуального пространства для действий снаружи , они реагируют на это с раздражением и демонстративно выполняют намеченное . В контексте убедительных сообщений средств массовой информации возникает так называемый эффект бумеранга : когда пользователи замечают , что их мнение , например , с помощью предупреждения формируют в определенном направлении , они видят в этом незаконную попытку влияния и еще больше доверяют своему первоначальному мнению .

В то же время стоит задаться вопросом : можно ли предупреждение , которое звучит лишь как « Есть сомнение в фактах », принимать к сведению как коррекцию ? На новостных сайтах в интернете широко распространены ссылки в конце статьи или по ходу текста . По содержанию эти другие статьи обычно содержат углубленную , но далеко не всегда противоречивую информацию по теме . Предупреждения , применяемые Facebook с конца 2017 года , соответствуют ссылкам на другие статьи и только при внимательном просмотре и чтении можно понять , что они содержат противоположную по смыслу информацию . Эти предупреждения могут быть настолько неброскими , что они во многих случаях не удостаиваются внимания .

Третья проблема эффективности предупреждений вытекает из так называемого « эффекта спящего » ( отсроченное усиление воздействия убеждающего сообщения ). При этом речь идет о сделанном в 1950-ые годы наблюдении , что после получения новостного контента люди часто помнят еще некоторое время о самом сообщении , но забывают из какого источника они получили информацию и как оценили этот источник в момент ее получения . Это значит : однажды прочитанное предупреждение скорее окажется забытым в отличии от содержимого ложного сообщения .

На основе представленных здесь аргументов можно сделать вывод , что удаление информации может привести к ряду проблематичных последствий , так как , с одной стороны происходит « вмешательство » в свободу слова и , с другой стороны , в популистском дискурсе оно используется в качестве доказательства заговора общественных элит . Конечно , сообщения , которые нарушают действующее законодательство , так как , содержат , например , клевету или разжигание межнациональной или расовой ненависти / розни , должны удаляться . Это средство должно все-тки использоваться бережно и ответственность за это не должна возлагаться на собственно оператора платформы . Здесь речь идет скорее об общественной задаче .

Также есть сомнения в отношении предупреждений . Если они формулируются жестко , то это приводит к сопротивлению . Если они сформулированы , мягко говоря , ненавязчиво , то их можно проигнорировать . Кроме того , спустя длительный временный период о них забывают . Вместе с тем от них нельзя полностью отказаться .

Другой отправкой точкой для затруднения распространения ложных сообщений является алгоритмическая селекция . Запрограммированный регламент принятия решения определяет , какое содержание и с какой вероятностью пользователи могут получить в соцсети . Таким способом все-таки возможно совсем без аннулирования и предупреждения существенно ограничить распространение информации , четко идентифицированной как недостоверная . Facebook , по его данным , с недавних пор усиленно реализует это . Как показало недавно проведенное исследование , доля ложных сообщений в Facebook с 2017 г . существенно снизилась , в то время как в Twitter она продолжала увеличиваться .

Эти тенденции четко указывают на то , насколько проблематично нахождение в частных руках нескольких крупных информационных платформ , которые подотчетны регулирующим органам только условно .