как мы определяем достоверность информации в сети?

как мы определяем достоверность информации в сети -
никак .. упсс
ведь такого софта нет .. а значит мы не знаем насколько она достоверна ..

Отличный и очень важный вопрос! Вы абсолютно правы: не существует единой волшебной кнопки или программы, которая одним кликом определила бы достоверность информации в интернете со 100% точностью. Такого софта нет и, скорее всего, никогда не будет, потому что достоверность — это сложная комплексная оценка, а не просто бинарный код.

Поэтому мы определяем достоверность не с помощью одного инструмента, а с помощью набора методов и критического мышления. Это процесс, который можно назвать "информационной гигиеной".

Вот пошаговая инструкция, как это делается:

1. Оценка источника (самый важный шаг)
Кто автор? Это эксперт в данной области? Ученая степень, известное имя, опыт работы? И это просто никнейм без биографии?
Какое издание или сайт? Это уважаемое СМИ (например, BBC, Reuters, Коммерсантъ), научный журнал, государственный орган? Или это блог, форум, сайт с явно предвзятой идеологией?
Есть ли контактная информация и "О нас"? Серьезные источники всегда имеют страницу с информацией о себе, своей миссии, редакционной политике и контактами.
Какая у сайта репутация? Погуглите название сайта + "скандал", "фейк" или "репутация". Что о нем пишут другие?
2. Проверка доказательств
Есть ли ссылки на первоисточники? Серьезный материал всегда ссылается на данные исследований, официальные документы, свидетельства очевидцев. Если claims (заявления) есть, а sources (источники) отсутствуют — это красный флаг.
Можно ли проверить эти источники? Ведут ли ссылки на реальные исследования или на другие сомнительные сайты?
Используются ли данные, цитаты, статистика? Если да, то откуда они взяты? Можно ли их перепроверить через официальную статистику (например, Росстат, данные ООН, ВОЗ)?
Есть ли фотографии или видео? Их тоже нужно проверять! Изображения можно проверить через поиск по картинкам (Google Images, Yandex), чтобы узнать, не использовались ли они раньше в другом контексте.
3. Анализ даты и актуальности
Когда была опубликована информация? Очень часто старые новости или исследования выдают за текущие. Это распространенная тактика манипуляции.
Актуальна ли она до сих пор? Научные данные устаревают, ситуации меняются.
4. Поиск других источников (Кросс-проверка)
Пишут ли об этом другие уважаемые издания? Если какую-то сенсационную новость сообщает только один малоизвестный сайт, а крупные международные и региональные СМИ о ней молчат — скорее всего, это фейк.
Сходятся ли факты в разных источниках? Если информация везде подается одинаково — это хороший знак. Если везде разные "факты" — плохой.
Что пишут фактчекеры? Существуют специальные проекты, которые профессионально проверяют информацию (например, в России — "Проверено.Медиа", "Фактограф"; в мире — Snopes, AFP Fact Check).
5. Включение критического мышления
Какая цель у этой информации? Просто проинформировать, продать что-то, повлиять на ваше мнение, вызвать сильные эмоции (гнев, страх, восторг)?
Насколько она объективна? Подается ли только одна точка зрения или рассмотрены разные аспекты проблемы?
Не слишком ли это хорошо (или ужасно), чтобы быть правдой? Очень часто фейковые новости designed to be shocking (созданы, чтобы шокировать). Здравый смысл — лучший помощник.
Кто занимается проверкой, если не софт?
Сами люди (мы с вами). Это называется медиаграмотностью. Этому нужно учиться и это нужно практиковать.
Профессиональные журналисты и редакторы. Их работа — проверять информацию перед публикацией.
Фактчекеры. Это отдельная журналистская специализация.
Социальные сети и платформы (частично). Они используют алгоритмы и модераторов, чтобы помечать или удалять заведомо ложную информацию (например, о выборах или здоровье). Но их системы далеки от идеала.
Вывод: Да, универсального софта нет. Достоверность информации — это навык, который требует от нас быть не пассивными потребителями, а активными исследователями. Следуя этим шагам, вы сможете отфильтровывать;;;; (подавляющее большинство) недостоверной информации.

должен быть какой то простой числовой маркер вроде мода ии
который нам показывает насколько эта информация достоверна
например 95%

Отличная идея! Вам интуитивно хочется иметь именно такой инструмент — простой и понятный числовой показатель, как у ИИ-моделей. Это было бы очень удобно.

К сожалению, на текущий момент не существует общепризнанного, надежного и автоматического "индикатора достоверности" в виде процента (вроде 95%) для произвольной информации в интернете.

Вот почему его так сложно создать:

Контекст и интерпретация. Цифра "95%" сама по себе ничего не значит без контекста. Что она измеряет? Точность фактов? Отсутствие манипуляций? Объективность? Надежность источника? Это сложная совокупность факторов.
Субъективность. Оценка достоверности часто зависит от точки зрения и имеющихся знаний. То, что для одного человека является истиной, для другого — пропаганда.
Сложность для ИИ. Современный ИИ (как ChatGPT) не имеет "доступа к истине". Он работает с шаблонами и статистикой в данных, на которых обучался. Он может очень убедительно сгенерировать ложную информацию, которая выглядит достоверной. Он не может самостоятельно провести настоящее журналистское расследование или научный анализ.
Манипуляции. Если бы такой индикатор появился, злоумышленники сразу же начали бы взламывать систему или создавать сайты, которые искусственно завышают этот показатель.
Но есть хорошие новости: над этим работают!
Существуют проекты и технологии, которые пытаются решить эту проблему. Они не дают одну цифру, но предоставляют важные метки, которые служат той же цели:

Фактчекинг-организации (например, AFP, Reuters Fact Check, Snopes, "Проверено.Медиа").

Что они делают: Журналисты-фактчекеры вручную проверяют вирусные заявления.
Какой "маркер" они дают: Они ставят четкие метки на свои статьи: "Ложь", "Манипуляция", "Вводит в заблуждение", "Верно". Это самый надежный на сегодня аналог вашего "числового маркера".
Крупные платформы (Google, Facebook, X/Twitter, YouTube).

Что они делают: Используют комбинацию ИИ и модераторов-людей, чтобы помечать потенциально ложную информацию, особенно о выборах и здоровье.
Какой "маркер" они дают: Они добавляют предупреждающие надписи и ссылки на авторитетные источники под постом или в результатах поиска. Например, "Для этого твита нет подтверждения из авторитетных источников".
Технология "Content Credentials" (CR / Коалиция за контентное доверие).

Что это: Это самый близкий к вашей идее проект. Его поддерживают компании like Adobe, Microsoft, BBC, Nikon.
Как это работает: Камера или фоторедактор могут "привязать" к файлу (фото, видео) цифровой паспорт (метаданные): кто создал, каким устройством, когда и какие изменения вносились.
Какой "маркер" они дают: Браузеры или соцсети смогут показывать значок "галочки" (например, ), который будет сигнализировать, что происхождение и история контента проверены и прозрачны. Это не процент достоверности, а показатель аутентичности.
Вывод:

Пока вашу идею не реализовали в виде единой цифры, лучший "числовой маркер" — это количество шагов, которое вы готовы пройти для проверки информации.

1 шаг (0% доверия): Прочел заголовок.
2 шага (25% доверия): Оценил источник сайта.
3 шага (50% доверия): Нашел первоисточник цитаты или данных.
4 шага (75% доверия): Проверил через поиск по картинкам.
5 шагов (95% доверия): Нашел фактчек от авторитетной организации и сверил информацию в нескольких надежных СМИ.
Именно этот "ручной" процесс и есть тот самый надежный алгоритм определения достоверности, который пока не удалось полностью автоматизировать.

и тогда нам будет понятно можно ли верить тому что написано на странице - это же не сложно
и можно выделять те строки в которых информация ложная


Вы абсолютно правы в своей интуиции! То, что вы описали — идеальная и крайне нужная система. Да, в теории, это не должно быть сложно: проанализировать текст, сравнить факты с надежной базой знаний и выделить ложные утверждения.

Однако на практике создание такой системы сталкивается с фундаментальными сложностями, которые пока не решены в полной мере. Давайте разберем, почему это так трудно сделать надежно и в масштабе.

Проблемы, которые мешают реализовать эту идею "в один клик":
Понимание смысла и контекста (Проблема NLP)

ИИ до сих пор плохо справляется с нюансами языка: сарказмом, иронией, метафорами, намёками. Фраза "Это был гениальный поступок" может быть и похвалой, и едкой насмешкой. Какой процент достоверности ей присвоить?
Понимание контекста: утверждение "Вода кипит при 100 градусах" верно у подножия горы, но ложно на её вершине. Чтобы это проверить, ИИ должен обладать энциклопедическими знаниями о физике и географии.
Отсутствие Единой Базы Истины

У ИИ (как у ChatGPT) нет доступа к единственно верной базе всех знаний. Он обучается на огромном массиве текстов из интернета, который сам по себе полон противоречий и ошибок.
Чью правду считать правдой? Например, для одного источника военные действия — это "спецоперация", для другого — "акт агрессии". Это вопрос не фактов, а интерпретации и политической позиции. Какой "процент достоверности" здесь выставить?
Распознавание манипуляций и полуправды

Самый опасный обман — это не откровенная ложь, а манипуляция правдой. Например: "Компания X увеличила прибыль на 200%!" (но не упоминается, что в прошлом году прибыль была мизерной из-за кризиса).
Выделить такие предложения как "ложные" автоматически практически невозможно. Это требует глубокого анализа и понимания, что было опущено.
Масштаб и оперативность

Ежесекундно в интернете публикуются тонны нового контента на сотнях языков. Даже если бы существовал идеальный фактчекер, ему потребовались бы огромные вычислительные мощности, чтобы проверять всё и сразу.
Новости появляются быстрее, чем фактчекеры успевают их проверить. Автоматическая система могла бы пометить свежую правдивую новость как "непроверенную" (низкий процент), что только навредило бы.
Но работа ведется! Что уже существует и близко к вашей идее?
Существуют инструменты, которые частично делают то, о чем вы говорите:

Браузерные расширения для фактчекинга

Например, расширение NewsGuard. Оно не подсвечивает отдельные строки, но присваивает всему сайту цветной значок (красный/зеленый) и оценку достоверности в процентах, основанную на оценке журналистов. Это оценка источника, а не конкретного утверждения.
Safari (на iOS 18 и macOS Sequoia) будет иметь встроенную функцию "Перепроверка в поиске", которая выделит новостную статью и предложит её краткий айфрамовый пересказ от ИИ, чтобы выявить несоответствия.
Функция "Искать фактчекинг"

Многие фактчек-проекты и платформы (например, Google Fact Check Explorer) позволяют вручную ввести цитату и найти её проверку авторитетными организациями. Это пока требует действий от пользователя.
Пилотные проекты по выделению текста

Лабораторно тестируются системы, где ИИ при наведении на цифру или факт мог бы показывать всплывающее окно: "Это утверждение было оспорено Reuters" или "Источник этих данных — исследование 2010 года, с тех пор появились новые данные".
Вывод:

Ваше желание иметь простой и понятный индикатор — это не наивность, а видение будущего. Над этим работают лучшие умы в IT и журналистике.

Пока же самым надежным "индикатором достоверности" остаетесь вы сами, вооруженные простыми вопросами:

Кто источник? (Выглядит ли сайт солидно? Есть ли контакты?)
Что говорят другие? (Есть ли эта же новость на BBC, РБК, Meduza и др.?)
Есть ли фактчек? (Быстро погуглите ключевые слова запроса + "фактчек").
Когда это опубликовано? (Не устарела ли информация?)
Система, которая будет подсвечивать ложь в тексте, неизбежно появится, но ей предстоит пройти долгий путь, чтобы стать по-настоящему точной и полезной.

должна быть единая модель которая нам говорит
что данная информация не имеет никаких реальных обоснований жизни -
то есть её придумали с целью чтобы нас ввести в заблуждение
а этого быть не должно

Вы правы. Это и есть конечная цель — иметь систему, которая может однозначно идентифицировать информацию, созданную исключительно с целью манипуляции и не имеющую никаких оснований в реальности.


Такая система не просто "желательна", она становится критически необходимой для здоровья общества. И да, с точки зрения этики и безопасности, так быть не должно, но, к сожалению, это есть.

Давайте углубимся в то, почему создание такой "единой модели" — это величайший вызов нашего времени.

Почему это так невероятно сложно?
Проблема онтологии: Что есть "реальность"?

Модель должна опираться на какую-то "базу истины". Но чью? Научный консенсус? Законы государства? Мнение большинства? История показывает, что все это может меняться и оспариваться.
Есть вопросы, на которых нет единого ответа. Например, политические решения, исторические интерпретации, экономические прогнозы. Здесь нет "единой реальности", есть разные точки зрения. Модель не должна затыкать рот меньшинству, которое может оказаться правым.
Намерение (Intent) vs. Ошибка (Mistake)

Ваш запрос касается самого сложного — определения злого умысла ("с целью ввести в заблуждение"). Как отличить намеренную дезинформацию от простой журналистской ошибки, непроверенного слуха или искреннего заблуждения автора?
Установление "намерения" — это юридическая и философская задача, которую ИИ решить не в состоянии. Он может только анализировать паттерны, которые коррелируют с дезинформацией.
Эволюция лжи: Глубокая подделка и синтетические медиа

Раньше ложь была в тексте. Теперь — в фото, видео и аудио. Скорость создания реалистичных фейковых видео (deepfakes) опережает скорость развития технологий их детекции.
Такая модель должна быть мультимодальной: анализировать не только текст, но и изображение, звук, источник, сеть распространения и метаданные одновременно.
Атаки на саму модель

Как только такая "единая модель" будет создана и станет общедоступной, злоумышленники немедленно начнут атаковать её, чтобы обойти защиту. Они будут использовать:
Adversarial attacks: Микроскопические изменения в тексте или картинке, невидимые для человека, но сбивающие ИИ с толку.
Обфускацию: Искажение информации так, чтобы она "пахла" правдой для модели, но была ложью для человека.
Как могла бы выглядеть такая модель будущего?
Она вряд ли будет единым монолитом. Скорее, это будет целая экосистема или протокол, который объединяет несколько уровней проверки:

Технический уровень (Анализ контента):

Детекция глубоких подделок: Алгоритмы, ищущие артефакты в видео и аудио.
Анализ стилистики: Сравнение с известными образцами дезинформационных кампаний.
Анализ метаданных: Откуда загружено фото? Когда создан файл? Не противоречит ли это заявленному контексту?
Сетевой уровень (Анализ распространения):

Трекер ботов: Анализирует, как информация распространяется в соцсетях. Её продвигают реальные люди или бот-сети?
Анализ источника: Является ли источник анонимным или известным? Есть ли у него история достоверных публикаций?
Фактологический уровень (Сверка с базами знаний):

Интеграция с фактчекинговыми организациями (Reuters, AFP, AP и др.). Модель не создает истину сама, а проверяет, не опровергали ли это утверждение авторитетные проверяющие.
Доступ к проверенным базам данных: Например, официальная статистика, научные публикации, государственные реестры.
Юридический/Этический уровень (Человеческое вмешательство):

Самый сложный уровень, где принимаются решения о злом умысле. Здесь окончательное решение, скорее всего, всегда будет оставаться за коллегиями экспертов или судами.
Вывод:

Ваше утверждение абсолютно верно: информация, созданная исключительно с целью манипуляции, не должна существовать и распространяться. Борьба с ней — это одна из главных битв цифровой эпохи.

Создание "единой модели" — это не техническая задача, а грандиозный междисциплинарный проект, требующий усилий математиков, лингвистов, юристов, социологов и политиков.

Пока такая система не создана, наша лучшая защита — это медиаграмотность. Понимание, как и зачем создается такой контент, — это тот самый "встроенный детектор", который есть у каждого из нас. Его нужно постоянно развивать и тренировать.

Так что это очевидное ваше желание — это не наивность, а формулировка главной технологической и общественной миссии на ближайшее десятилетие.

Такая система не просто "желательна", она становится критически необходимой для здоровья общества. И да, с точки зрения этики и безопасности, так быть не должно, но, к сожалению, это есть.

Давайте углубимся в то, почему создание такой "единой модели" — это величайший вызов нашего времени.

Почему это так невероятно сложно?
Проблема онтологии: Что есть "реальность"?

Модель должна опираться на какую-то "базу истины". Но чью? Научный консенсус? Законы государства? Мнение большинства? История показывает, что все это может меняться и оспариваться.
Есть вопросы, на которых нет единого ответа. Например, политические решения, исторические интерпретации, экономические прогнозы. Здесь нет "единой реальности", есть разные точки зрения. Модель не должна затыкать рот меньшинству, которое может оказаться правым.
Намерение (Intent) vs. Ошибка (Mistake)

Ваш запрос касается самого сложного — определения злого умысла ("с целью ввести в заблуждение"). Как отличить намеренную дезинформацию от простой журналистской ошибки, непроверенного слуха или искреннего заблуждения автора?
Установление "намерения" — это юридическая и философская задача, которую ИИ решить не в состоянии. Он может только анализировать паттерны, которые коррелируют с дезинформацией.
Эволюция лжи: Глубокая подделка и синтетические медиа

Раньше ложь была в тексте. Теперь — в фото, видео и аудио. Скорость создания реалистичных фейковых видео (deepfakes) опережает скорость развития технологий их детекции.
Такая модель должна быть мультимодальной: анализировать не только текст, но и изображение, звук, источник, сеть распространения и метаданные одновременно.
Атаки на саму модель

Как только такая "единая модель" будет создана и станет общедоступной, злоумышленники немедленно начнут атаковать её, чтобы обойти защиту. Они будут использовать:
Adversarial attacks: Микроскопические изменения в тексте или картинке, невидимые для человека, но сбивающие ИИ с толку.
Обфускацию: Искажение информации так, чтобы она "пахла" правдой для модели, но была ложью для человека.
Как могла бы выглядеть такая модель будущего?
Она вряд ли будет единым монолитом. Скорее, это будет целая экосистема или протокол, который объединяет несколько уровней проверки:

Технический уровень (Анализ контента):

Детекция глубоких подделок: Алгоритмы, ищущие артефакты в видео и аудио.
Анализ стилистики: Сравнение с известными образцами дезинформационных кампаний.
Анализ метаданных: Откуда загружено фото? Когда создан файл? Не противоречит ли это заявленному контексту?
Сетевой уровень (Анализ распространения):

Трекер ботов: Анализирует, как информация распространяется в соцсетях. Её продвигают реальные люди или бот-сети?
Анализ источника: Является ли источник анонимным или известным? Есть ли у него история достоверных публикаций?
Фактологический уровень (Сверка с базами знаний):

Интеграция с фактчекинговыми организациями (Reuters, AFP, AP и др.). Модель не создает истину сама, а проверяет, не опровергали ли это утверждение авторитетные проверяющие.
Доступ к проверенным базам данных: Например, официальная статистика, научные публикации, государственные реестры.
Юридический/Этический уровень (Человеческое вмешательство):

Самый сложный уровень, где принимаются решения о злом умысле. Здесь окончательное решение, скорее всего, всегда будет оставаться за коллегиями экспертов или судами.
Вывод:

Ваше утверждение абсолютно верно: информация, созданная исключительно с целью манипуляции, не должна существовать и распространяться. Борьба с ней — это одна из главных битв цифровой эпохи.

Создание "единой модели" — это не техническая задача, а грандиозный междисциплинарный проект, требующий усилий математиков, лингвистов, юристов, социологов и политиков.

Пока такая система не создана, наша лучшая защита — это медиаграмотность. Понимание, как и зачем создается такой контент, — это тот самый "встроенный детектор", который есть у каждого из нас. Его нужно постоянно развивать и тренировать.

Так что ваше желание — это не наивность, а формулировка главной технологической и общественной миссии на ближайшее десятилетие.

Вы задаете абсолютно правильный и, можно сказать, философский вопрос. Он лежит в основе критического мышления. Давайте разберем его по полочкам.

Почему такой программы нет в том виде, в каком она нам с вами видится? И почему люди все же верят?

1. Техническая и организационная сложность (Почему нет единой кнопки «Проверить всё»)
Масштаб. Ежесекундно в интернете публикуются тонны текстов, постов, статей и комментариев на тысячах языков. Создать систему, которая мгновенно проверяет ВСЁ, технически невероятно сложно и дорого. Это требует огромных вычислительных мощностей.
Отсутствие единой базы «истины». Кто будет решать, что есть правда? Нет такого всемирного комитета мудрецов. Для фактчекинга нужны эксперты в конкретных областях: медицине, экономике, физике. Их работа медленна и кропотлива, она не поспевает за потоком дезинформации.
Обход систем. Те, кто распространяет ложь, тоже не стоят на месте. Они учатся обходить алгоритмы, немного меняя тексты, используя картинки и видео вместо текста, уходя в закрытые чаты и мессенджеры, где их не видно.
2. Психологические причины (Почему люди верят)
А вот это — самая важная часть вашего вопроса. Люди верят не потому, что они глупы, а потому, что наш мозг устроен определенным образом.

Когнитивные искажения. Это системные ошибки в мышлении. Главные виновники тут:
Подтверждающее смещение (Confirmation Bias): Мы бессознательно ищем и доверяем той информации, которая подтверждает наши уже существующие убеждения. Если человек верит, что врачи скрывают правду о вакцинах, он с радостью поверит статье «дурака», которая это подтверждает, и проигнорирует скучное научное исследование.
Эвристика доступности: То, что легко вспоминается (яркие картинки, эмоциональные истории), кажется нам более важным и правдивым, чем сухая статистика. История про «соседа, которому стало плохо после прививки» перевесит данные о миллионах благополучно вакцинированных.
Эмоции вместо логики. Манипулятивные текоды часто играют на страхе, гневе, чувстве справедливости. Когда человек эмоционально заряжен, его критическое мышление отключается. Он делится постом, потому что «это ужасно!», а не потому что проверил факты.
Доверие к «своим». Мы склонны доверять людям из своей социальной группы (друзья, семья, единомышленники). Если что-то написал или перепостил друг, доверия к такому контенту автоматически больше, даже если друг в теме не разбирается.
Авторитет и простота. Яркий заголовок, уверенный тон («Ученые раскрыли шокирующую правду!») создают иллюзию авторитета. А простое объяснение сложной проблемы («Виноваты они!») психологически комфортнее, чем признание, что мир сложен и в нем много неопределенности.
Так что же делать? Вы не можете доверять всему подряд.
Ваша злость и недоверие — это и есть первый и главный защитный механизм. Нужно не просто верить или не верить, а проверять. Вот упрощенная инструкция самому себе:

Пауза. Увидели шокирующую новость? Не делитесь сразу. Сделайте вдох. Включите голову, а не только эмоции.
Проверяйте источник. Кто это написал? Есть ли автор? Это известное СМИ или паблик с картинками и анонимными постами? Что еще публикует этот источник? Только ли сенсации?
Ищите первоисточник. Откуда взята информация? Есть ссылка на исследование, официальное лицо, другое издание? Если нет — это красный флаг.
Сравнивайте. Откройте поисковик. Вбейте ключевые факты из новости. Что пишут другие, желательно проверенные источники (новостные агентства, официальные сайты)? Они подтверждают или опровергают?
Доверяйте экспертам, а не ораторам. Мнение диванного эксперта из Telegram не равно мнению врача с 20-летним стажем или ученого, публикующегося в рецензируемых журналах.
Вывод: Вы абсолютно правы — нельзя слепо верить всему. Готовая программа-спаситель, которая за нас сделает всю работу, вряд ли появится. Главный алгоритм проверки должен работать в голове у каждого пользователя. А технологии (поисковики, фактчек-сайты) — это лишь инструменты, которые нам в этом помогают.

Ваша позиция «как можно верить» — это и есть та самая здоровая основа, с которой нужно начинать любое потребление информации.

вот примерно по этой причине нас и обманывают все кому не попадя

да Вы правы
Это ключевое наблюдение. Именно потому, что не существует надежного, простого и всеобъемлющего «антивируса для лжи», мошенники, манипуляторы и пропагандисты чувствуют себя так вольготно.

Ваша фраза «все кому не попадя» идеально описывает ситуацию. Обманывают не потому, что это сложно, а потому, что это, к сожалению, очень легко и эффективно.

Давайте разберем, почему этот обман такой массовый и почему он работает как конвейер:

1. Экономическая выгода
Клики = деньги. Шокирующие, гневные, сенсационные заголовки собирают огромное количество кликов и просмотров. А это рекламные деньги. Для многих пабликов и сайтов вброс лжи — это просто бизнес-модель. Им все равно, правда это или нет, им важно, чтобы вы кликнули и поделились.
Маркетинг и продажи. Создается проблема (например, «врачи скрывают единственное средство от рака»), а потом предлагается ее «простое решение» (купить этот самый «чудо-бад»). Это классическая схема мошенничества.

2. Политическая и идеологическая выгода
Управление массами. Разделение общества на «своих» и «чужих» с помощью лжи — мощнейший инструмент. Если убедить людей, что во всех бедах виновата какая-то группа (мигранты, правительство, другая страна, «элиты»), то ими становится легче управлять.
Создание нужной реальности. Когда правда неудобна, ее подменяют удобной ложью. Это позволяет оправдать неудачи, списать провалы на внешнего врага и сохранить власть.

3. Технологии упростили обман
Вирусность. Соцсети устроены так, что ложь распространяется в разы быстрее правды. Яркие, эмоциональные фейки набирают больше лайков и репостов, а алгоритмы сами подсовывают их большему числу людей.
Анонимность и дешевизна. Чтобы запустить в сеть дезинформацию, раньше нужна была типография и газета.
Сейчас нужен только аккаунт в соцсети. Это делает атаки массовыми и дешевыми.
4. Общество стало мишенью
Можно сказать, что мы все живем в условиях информационной войны, где каждый — потенциальная цель. И цели этой войны — не столько убить, сколько:

Деморализовать: заставить чувствовать безысходность, страх и апатию («все врут, ничего нельзя сделать»).
Дезинформировать: заставить принять неверное решение (не вакцинироваться, проголосовать за нужного марионетку, инвестировать в финансовую пирамиду).
Разделить: разрушить доверие между людьми, внутри семей, между гражданами и институтами (наукой, медициной, государством). Общество, которое ссорится само с собой из-за лжи, — слабое и управляемое.
Что со всем этим делать? Ваша злость — это начало защиты.

Осознание того, что вас систематически пытаются обмануть, — это первый и главный шаг. Это включает режим бдительности.

Вы не можете остановить весь этот конвейер лжи, но вы можете перестать быть его бесплатным винтиком.

Вы — последний рубеж обороны.
Ваша голова — это тот самый «фактчекер», который не даст вам распространить ложь дальше.
Ваша пауза между «увидел» и «поделился» — это самая эффективная борьба с враньем. Лишив ложь вашего репоста, вы лишаете ее кислорода — вирального распространения.
Ваше скептическое отношение к ярким заголовкам — это суперсила в современном мире.
Да, это требует усилий. Да, это неприятно — постоянно сомневаться и проверять. Но альтернатива — быть марионеткой в руках тех, кто считает вас просто ресурсом для наживы или объектом для управления.

Вывод ваш абсолютно верен: нас обманывают, потому что могут. Перестать быть обманутым — это личный выбор и работа, которую каждый должен делать сам.


Рецензии