Журналистика в эпоху генеративного ИИ
Валерий Нестеров, 2026
«Видеть — больше не значит верить»
— Адам Моссери, глава Instagram, январь 2026
Введение. Точка невозврата
В январе 2026 года, когда американские войска проводили операцию по задержанию
Николаса Мадуро в Венесуэле, социальные сети заполнились видеозаписями ликующих
толп. Проблема состояла в том, что большинство этих видео были либо сгенерированы
искусственным интеллектом, либо сняты в других странах — в Чили, Панаме,
Аргентине. Некоторые ролики, которые президент Трамп репостил на Truth Social,
датировались июлем 2024 года и не имели никакого отношения к текущим событиям.
Фейковое, но гиперреалистичное видео обмануло даже Fox News, которому пришлось
удалять материал после разоблачения [1].
Это не единичный инцидент и не аномалия. Это новая норма. Мы вступили в эпоху,
когда, по словам Хани Фарида, профессора компьютерных наук Калифорнийского
университета в Беркли, «люди с одинаковой вероятностью называют реальное фейковым
и фейковое реальным» [2].
Точность распознавания падает ещё сильнее, когда контент имеет политическую
окраску — тогда включается конфирмационное искажение, и мы видим то, что хотим
видеть, а не то, что есть на самом деле.
Журналистика как институт находится в состоянии двойного сжатия — или, если
использовать термин из отчёта Reuters Institute, в тисках «двойного давления»
[3]. С одной стороны — генеративный ИИ и так называемые «ответные движки» (answer
engines), которые перехватывают аудиторию до того, как она успевает кликнуть на
ссылку издания. С другой — экономика создателей контента (creators), где личность
и харизма блогера оказываются убедительнее, чем институциональный авторитет
редакции. По данным ежегодного опроса Reuters Institute, лишь 38% руководителей
медиа уверены в будущем журналистики как профессии — это на 22 процентных пункта
меньше, чем четыре года назад [3]. Такое падение доверия профессионалов к
собственной индустрии беспрецедентно.
Настоящее эссе — попытка разобраться в происходящем. Не как технологический
евангелист, восхваляющий прогресс, и не как луддит, оплакивающий утраченное
прошлое. Моя позиция — позиция практикующего врача с большим
клиническим опытом и литератора, который ежедневно работает с текстами — чужими и
своими. Медицина и журналистика, как выясняется, переживают сходные потрясения:
обе профессии построены на доверии, обе сталкиваются с автоматизацией рутины, обе
вынуждены отвечать на фундаментальный вопрос — что именно делает человека
незаменимым в эпоху умных машин?
Этот вопрос не риторический. От ответа на него зависит, сохранится ли
журналистика как профессия или превратится в хобби энтузиастов. Сохранится ли
медицина как призвание или станет придатком диагностических алгоритмов.
Сохранится ли вообще пространство для человеческого суждения в мире, где машина
выполняет большинство когнитивных задач быстрее, дешевле и, возможно, точнее.
I. Автоматизация рутины: освобождение или вытеснение?
1.1. Масштаб изменений
Современные редакции автоматизируют до 80% рутинных операций [4]. Транскрибация
интервью, которая ещё пять лет назад отнимала часы работы, сегодня выполняется за
минуты с точностью 99% [5]. Рынок ИИ-транскрипции вырастет с 4,5 миллиарда
долларов в 2024 году до 19,2 миллиарда к 2034 году — рост более чем в четыре раза
за десятилетие. Сегмент транскрипции совещаний растёт ещё быстрее — на 25,6%
ежегодно [5]. По данным Reuters Institute, 97% издателей считают бэкэнд-
автоматизацию (тегирование, копирайтинг, анализ данных) важной или очень важной
для своего бизнеса [3].
Associated Press использует платформу Wordsmith для автоматической генерации
коротких материалов — отчётов о прибылях компаний, спортивных сводок, финансовых
новостей. Это позволило агентству увеличить объём публикаций в пятнадцать раз без
найма дополнительных сотрудников [6]. В Китае государственное информационное
агентство Синьхуа генерировало более 40 000 репортажей с помощью нейросетей за
три квартала ещё в 2016 году [6]. Сегодня эти цифры выглядят скромно — технология
шагнула далеко вперёд.
Reuters разработал собственные инструменты: Fact Genie для проверки фактов и
AVISTA для видеоаналитики [4]. The Washington Post запустил AI-генерируемые
подкасты — правда, не без скандала: внутренние тесты показали, что система иногда
неправильно атрибутирует цитаты и искажает факты [3]. Немецкое издание EXPRESS.de
интегрировало в рабочий процесс ИИ-систему Klara Indernach — не как инструмент,
а как «цифрового коллегу» с визуальным аватаром, с которым журналисты
взаимодействуют ежедневно [6].
1.2. Парадокс занятости
Парадокс, однако, в том, что массовых сокращений пока не произошло. По данным
опроса Reuters Institute, 67% руководителей СМИ признают, что внедрение ИИ не
привело к экономии рабочих мест [3]. Эта цифра выглядит контринтуитивной: если
машина берёт на себя 80% рутины, куда деваются люди, которые эту рутину
выполняли?
Объяснение состоит из нескольких частей.
Во-первых, автоматизация рутины высвобождает время для работы, которую алгоритмы
не способны выполнить — расследований, аналитики, интерпретации сложных событий.
Журналист, который раньше тратил три часа на транскрипцию интервью, теперь тратит
эти три часа на подготовку следующего интервью или анализ данных.
Производительность растёт, но не за счёт сокращения штата, а за счёт увеличения
выпуска.
Во-вторых, внедрение ИИ создаёт новые роли: AI-редакторы, специалисты по
верификации, эксперты по этике алгоритмов [4]. Эти позиции не существовали пять
лет назад, но сегодня они необходимы для функционирования современной редакции.
В-третьих — и это, возможно, главное — автоматизация обнажила, что значительная
часть журналистской работы никогда не была «рутиной» в техническом смысле.
Написание текста по шаблону — рутина. Но решение, о чём писать, кого цитировать,
какой угол выбрать — это не рутина. Это журналистика.
Как сформулировала Танет Эванс, глава цифрового направления The Wall Street
Journal: «Лучший ответ журналистики — удвоить ставку на то, что делает нас
ценными и уникальными» [3]. Уникальность — не в скорости обработки данных (машина
всегда быстрее) и не в объёме публикаций (машина производит больше).
Уникальность — в суждении, контексте, ответственности.
1.3. Медицинская аналогия
Здесь напрашивается медицинская аналогия, которую я могу провести из собственного
опыта. В 1980-х годах появление компьютерной томографии воспринималось как угроза
рентгенологам — казалось, что машина заменит врача. Зачем нужен специалист, если
сканер сам анализирует изображение внутренних органов? Сорок лет спустя
рентгенологов больше, чем когда-либо, их работа стала сложнее и интереснее, а
зарплаты выросли.
Причина в том, что КТ не заменила врача — она изменила его работу. Машина взяла
на себя техническую часть: измерения, сравнения, архивацию, первичную обработку
изображений. Врач сосредоточился на том, что требует клинического мышления:
интеграции данных из разных источников, дифференциальной диагностике в сложных
случаях, коммуникации с пациентом и лечащим врачом. Рентгенолог стал не
оператором машины, а интерпретатором её результатов.
То же происходит в редакциях. ИИ транскрибирует, суммирует, генерирует черновики,
проверяет факты, подбирает иллюстрации. Журналист решает, стоит ли история
публикации, как её подать, кого защитить, а кого разоблачить. Это разные виды
деятельности, и второй не сводится к первому.
1.4. Критический вопрос
Критический вопрос — не «заменит ли ИИ журналиста?», а «какого журналиста ИИ
заменит первым?». Ответ очевиден: того, чья работа сводится к переупаковке пресс-
релизов, компиляции общедоступных данных, написанию материалов по шаблону. Это не
приговор профессии — это приговор конвейерной журналистике, которая и без ИИ была
проблемой.
Конвейерная журналистика — это производство контента ради контента: заполнение
полос, генерация кликов, поддержание иллюзии активности. Она существовала задолго
до ChatGPT и была предметом критики внутри профессии. ИИ просто сделал её
бессмысленной: если машина делает то же самое быстрее и дешевле, зачем платить
человеку?
Но журналистика — это не конвейер. Журналистика — это расследование коррупции,
которое занимает месяцы и не генерирует кликов до момента публикации. Это
репортаж из зоны боевых действий, где корреспондент рискует жизнью. Это интервью
с источником, который доверяет журналисту, а не редакции. Ни одну из этих функций
ИИ не выполняет — и не потому, что технически не может, а потому, что они требуют
ответственности, которую алгоритм нести не способен.
II. Обвал трафика: от Google к «нулевому клику»
2.1. Масштаб катастрофы
Если автоматизация рутины — эволюционное изменение, постепенное и управляемое,
то кризис трафика — революционное потрясение, которое застало индустрию врасплох.
По данным аналитической компании Chartbeat, агрегированный трафик из поиска
Google на новостные сайты упал на 33% в глобальном масштабе и на 38% в США за год
к ноябрю 2025 года [7]. Трафик из Google Discover — персонализированной ленты
новостей на Android-устройствах — снизился на 21% [7]. Руководители медиа ожидают
дальнейшего падения на 43% в течение ближайших трёх лет [7].
Эти цифры означают, что издания теряют почти половину своей аудитории из
поисковых систем. Для многих это смертельный удар: бизнес-модель, построенная на
рекламных доходах от просмотров страниц, рушится, когда просмотры исчезают.
2.2. Механизм «нулевого клика»
Причина кризиса — AI Overviews, функция Google, которая отображает ответ на
запрос прямо на странице поиска [3]. Пользователю больше не нужно переходить на
сайт издания — он получает искомую информацию в виде сгенерированного резюме. Это
называется «нулевой клик» (zero-click search), и доля таких запросов неуклонно
растёт.
Механизм прост: пользователь спрашивает «какая погода в Москве», и Google
показывает ответ прямо на странице результатов. Пользователь спрашивает «как
приготовить борщ» — и получает рецепт, не переходя ни на какой сайт. Пользователь
интересуется «последние новости о выборах» — и видит сгенерированное резюме со
ссылками-сносками, которые большинство никогда не откроет.
ChatGPT с 800 миллионами активных пользователей в неделю стал одним из самых
быстрорастущих приложений в истории [3]. Хотя его вклад в реферальный трафик пока
ничтожен — в 500 раз меньше, чем у Google Search, в 1300 раз меньше, чем у Google
Search и Discover вместе взятых — траектория очевидна [3]. Chartbeat фиксирует
«стремительный рост» переходов из ChatGPT, хотя в абсолютных числах это пока
«ошибка округления».
2.3. Обвал социального трафика
Ситуация усугубляется параллельным обвалом социального трафика. За последние два
с половиной года реферальный трафик из Facebook на новостные сайты упал на 43%,
из X (бывший Twitter) — на 46% [3]. Алгоритмы платформ всё меньше продвигают
новостной контент в пользу развлекательного — видео, мемов, пользовательского
контента.
Причина — экономика внимания. Новостной контент часто депрессивный, конфликтный,
требующий когнитивных усилий. Развлекательный контент — лёгкий, приятный,
удерживающий пользователя в ленте. Платформы оптимизируют время, проведённое на
сайте, а не качество информации — поэтому алгоритмы отдают предпочтение тому, что
удерживает, а не тому, что информирует.
В январе 2025 года Facebook начал возвращать новости в ленту после периода
«депрессии» [3]. Но восстановления не произошло — пользователи привыкли к другому
контенту, и новости воспринимаются как «шум» в потоке развлечений.
2.4. Кто пострадал больше всех
Особенно пострадали издания, специализирующиеся на сервисной журналистике —
погоде, телепрограммах, гороскопах, путеводителях, рецептах [3]. Именно этот
контент легче всего воспроизводится AI Overviews: структурированные данные,
простые запросы, однозначные ответы. Некоторые издатели сообщают о падении
трафика на 70–85%.
История Tailwind CSS показательна. Это не медиакомпания, а разработчик
популярного CSS-фреймворка — казалось бы, технологическая компания, далёкая от
журналистики. В январе 2026 года Tailwind уволил три четверти инженерной команды
после того, как ИИ-трафик снизил выручку на 80% [7]. Документация, туториалы,
примеры кода — всё это ChatGPT выдаёт «из коробки», без перехода на сайт.
Если технологическая компания с уникальным продуктом теряет 80% выручки из-за AI-
поиска, что говорить о новостных сайтах, чей контент — информация, которую можно
получить из десятков источников?
2.5. Стратегия диверсификации
Ответ индустрии — диверсификация каналов дистрибуции. 79% издателей планируют
приоритизировать видео, 71% — аудио (подкасты) [3]. YouTube стал главной
платформой для инвестиций (+74 по шкале net score в опросе Reuters Institute), за
ним следуют «ИИ-платформы» (+61) и TikTok (+56). Одновременно издатели отступают
от Facebook (–23), X (–52) и традиционного Google SEO (–25) [3].
Это не отказ от охвата — это признание того, что старые каналы дистрибуции больше
не работают. Если Google перехватывает трафик, нужно идти туда, где Google не
доминирует. Если Facebook не показывает новости, нужно строить присутствие на
платформах, где новости востребованы.
CNN объявил о запуске CNN Creators в 2026 году — специализированной студии для
создания контента в формате социальных сетей [8]. ABC News готовит ABC News Loop
— «сделанный для социальных сетей» формат объяснительной журналистики. DMG New
Media (издатель Daily Mail) нанял около 60 молодых создателей контента для
развития вертикальных каналов [3].
2.6. Медицинская параллель
Для врача эта ситуация знакома. В 1990-е годы пациенты приходили на приём с
вырезками из газет — статьями о новых методах лечения, чудо-диетах, «скрытых»
побочных эффектах лекарств. В 2010-е — с распечатками из интернета, часто с
сомнительных сайтов. Сегодня — со скриншотами из ChatGPT, который уверенно ставит
диагнозы и рекомендует лечение.
Источник информации изменился, но проблема осталась прежней: контекст теряется,
нюансы игнорируются, универсальные рекомендации применяются к частным случаям.
Разница в том, что раньше пациент понимал, что читает популярную статью,
написанную журналистом для массовой аудитории. Сегодня он общается с «умным
ассистентом», который отвечает уверенно и без оговорок — даже когда галлюцинирует
факты, выдумывает исследования, путает симптомы.
Врач тратит время не на лечение, а на «разгаллюцинирование» ChatGPT — объяснение,
почему сгенерированный диагноз не соответствует клинической картине. Журналист
тратит время не на расследование, а на опровержение дезинформации, которую
аудитория получила из AI-источников. Это новая форма работы, непродуктивная и
изматывающая.
III. Экономика создателей: личность против института
3.1. Альтернативная медиасистема
Параллельно с технологическим сжатием журналистика испытывает давление со стороны
creator economy — экономики независимых создателей контента [3]. Подкастеры,
ютуберы, тиктокеры формируют альтернативную медиасистему, которая для молодой
аудитории часто оказывается более привлекательной, чем традиционные СМИ.
Цифры показательны. 44% пользователей в возрасте 18–24 лет называют социальные
сети основным источником новостей — не дополнительным, а основным [9].
Потребление видеоновостей выросло с 52% в 2020 году до 65% в 2025-м [9]. В США
социальные сети впервые обогнали телевидение как источник новостей — историческая
веха, которая прошла почти незамеченной [9].
Джо Роган с подкастом, аудитория которого исчисляется десятками миллионов, влияет
на общественное мнение сильнее, чем большинство газет. 22% американских
респондентов в опросе Reuters Institute сообщили, что потребляют политический
контент через Рогана [3]. Это больше, чем аудитория многих национальных
телеканалов.
3.2. Политики осваивают новую реальность
Политики освоили эту реальность быстрее журналистов. Губернатор Калифорнии Гэвин
Ньюсом запустил подкаст в феврале 2025 года — очевидно, с прицелом на
национальную политическую карьеру [3]. Лидер британских «Зелёных» Зак Полянски
ведёт Bold Politics, ориентированный на молодых избирателей. Даже бывший премьер-
министр Лиз Трасс открыла YouTube-шоу (критики разнесли его в пух и прах, но это
не отменяет тренда) [3].
Reuters Institute прогнозирует, что в 2026 году кто-то из действующих
национальных лидеров запустит собственное регулярное медиа — чтобы обходить
традиционные СМИ и обращаться к аудитории напрямую [3]. Это продолжение «playbook
Трампа 2.0»: вместо пресс-конференций — твиты, вместо интервью — подкасты с
дружественными ведущими, вместо журналистских вопросов — монолог без прерываний.
Для демократии это проблема. Журналистика — это не только информирование; это
подотчётность власти. Когда политик обходит журналистов, он обходит неудобные
вопросы. Когда аудитория получает информацию напрямую от политика, она получает
пропаганду, замаскированную под «прямое общение».
3.3. Дилемма редакций
Для редакций это создаёт болезненную дилемму. 76% издателей планируют поощрять
журналистов вести себя «больше как создатели» — развивать личный бренд,
присутствие в социальных сетях, узнаваемый стиль [3]. 50% планируют партнёрства с
блогерами для дистрибуции контента. 31% собираются нанимать создателей для
ведения социальных сетей редакции. 28% рассматривают создание «студий создателей»
или совместных предприятий с инфлюенсерами [3].
Логика понятна: если аудитория идёт к создателям, журналисты должны стать
создателями. Но эта стратегия несёт риск: лучшие из них уйдут.
3.4. История Дэйва Йоргенсона
История Дэйва Йоргенсона, «парня из TikTok» The Washington Post, показательна
[3]. За восемь лет он построил огромную аудиторию под брендом газеты — миллионы
подписчиков, узнаваемый стиль, вирусные видео. Когда он ушёл запускать
собственный YouTube-канал, аудитория ушла вместе с ним. Просмотры канала
Washington Post Universe рухнули, а независимый проект Йоргенсона быстро обогнал
институциональный бренд.
Это не новая проблема — звёздные журналисты всегда уходили. Андерсон Купер ушёл
из ABC в CNN. Такер Карлсон ушёл из CNN в Fox, потом из Fox в X. Переходы между
редакциями — норма индустрии.
Новизна в том, что барьер входа снизился до нуля. Раньше, чтобы конкурировать с
газетой, нужна была другая газета — типография, дистрибуция, рекламный отдел,
юридическая служба. Сегодня достаточно смартфона и аккаунта в YouTube.
Институциональный капитал (бренд, репутация, юридическая поддержка, редакционные
стандарты) всё ещё имеет значение, но его вес уменьшается.
39% издателей боятся потерять лучших сотрудников в пользу creator economy [3].
Это обоснованный страх: зачем журналисту работать на редакцию, если он может
работать на себя, зарабатывать больше и не зависеть от редакционной политики?
IV. Кризис доверия: дипфейки и синтетический контент
4.1. Конец эпохи «видеть — значит верить»
«На протяжении большей части моей жизни я мог уверенно предполагать, что
подавляющее большинство фотографий и видео, которые я вижу, — это по большей
части точные запечатления моментов, которые происходили в реальной жизни. Это
очевидно больше не так» [2]. Эти слова принадлежат не алармисту-футурологу и не
академическому исследователю. Их написал Адам Моссери, глава Instagram — человек,
который управляет одной из крупнейших платформ визуального контента в мире. Он
написал их в январе 2026 года, после очередной волны дипфейков, связанных с
операцией в Венесуэле.
Моссери предсказывает, что пользователи интернета «перейдут от презумпции
реальности к презумпции скептицизма» — будут считать любое изображение
потенциально фальшивым, пока не доказано обратное [2]. «Это будет невероятно
некомфортно для всех нас, — пишет он, — потому что мы генетически предрасположены
верить своим глазам».
4.2. Масштаб проблемы
По оценкам аналитиков, синтетический контент — тексты, изображения, видео,
созданные нейросетями — займёт почти 90% интернета уже в ближайшие годы [10].
Пятикратный рост цифровых подделок личности за два года [11]. 46% экспертов по
мошенничеству сталкивались с синтетической идентификацией, 37% — с голосовыми
дипфейками, 29% — с видеодипфейками [11].
Финансовые потери колоссальны. В январе 2024 года мошенники с помощью дипфейка
CFO выманили у гонконгской компании 25 миллионов долларов через видеозвонок —
сотрудник был уверен, что разговаривает с реальным руководителем [11]. Deloitte
прогнозирует, что к 2027 году генеративный ИИ увеличит потери от мошенничества в
США с 12,3 до 40 миллиардов долларов — рост на 32% ежегодно [11].
Федеральный резерв сообщает о 35 миллиардах долларов потерь от мошенничества с
синтетической идентичностью в 2023 году [11]. Те же технологии, которые создают
фальшивых людей для финансовых преступлений, используются для информационных
операций — фальшивых активистов, фальшивых журналистов, фальшивых общественных
движений.
4.3. Экзистенциальный вызов для журналистики
Для журналистики это экзистенциальный вызов. Если аудитория не может отличить
реальное от сгенерированного, если «видеть» больше не значит «верить», то на чём
строится доверие к репортажу? Традиционный ответ — верификация источников,
редакционные стандарты, репутация издания — работает, но с серьёзными оговорками.
Главная проблема — асимметрия скорости. Верификация требует времени: нужно найти
первоисточник, связаться со свидетелями, провести технический анализ изображения.
Дипфейки распространяются мгновенно: достаточно одного клика, чтобы ролик увидели
миллионы. К моменту, когда факт-чекеры разоблачат фейк, его уже посмотрели,
поверили, запомнили. Опровержение никогда не догоняет ложь.
4.4. «Лжеца-дивиденд»
Возникает феномен «лжеца-дивиденда» (liar's dividend): возможность объявить
подлинную запись вероятным фейком [11]. Если любое видео может быть
сгенерировано, то любое видео можно отвергнуть как фальшивку. Это работает в обе
стороны: и для защиты от дезинформации («это фейк, не верьте»), и для её
распространения («разоблачение — это фейк, верьте оригиналу»).
Политики уже используют этот приём. Когда появляется компрометирующее видео,
первая реакция — «дипфейк». Доказать обратное сложно: даже техническая экспертиза
не даёт стопроцентной уверенности, а аудитория не станет изучать отчёты
криминалистов.
4.5. Скандал с Grok
В январе 2026 года Grok, чат-бот платформы X, оказался в центре скандала после
того, как пользователи обнаружили, что он генерирует откровенные изображения
реальных женщин и детей без их согласия [12]. Достаточно было просто отметить
Grok в посте с фотографией — и нейросеть «раздевала» человека на изображении.
Ofcom, британский регулятор, «срочно связался» с xAI.
Журналистка Саманта Смит, чьи фотографии были использованы таким образом, сказала
BBC, что чувствует себя «дегуманизированной и сведённой к сексуальному
стереотипу» [12]. Юрист Клэр Макглинн из Даремского университета констатировала:
платформа «могла бы предотвратить эти формы насилия, если бы захотела», но
«похоже, наслаждается безнаказанностью» [12].
Этот случай показывает, что проблема дипфейков — не только информационная, но и
этическая. Технология, которая может сгенерировать фальшивые новости, может
сгенерировать и фальшивую порнографию. Жертвами становятся реальные люди, а
платформы не несут ответственности.
4.6. Медицинская параллель: кризис доверия к вакцинации
Медицинская параллель здесь — кризис доверия к вакцинации. Когда антипрививочные
мифы распространяются быстрее, чем научные данные, когда «своё исследование» в
Google заменяет консультацию специалиста, когда харизматичный инфлюенсер
убедительнее эпидемиолога — мы имеем дело с той же структурой проблемы.
Информационная асимметрия, которая раньше работала в пользу экспертов (врач знает
больше пациента, журналист — больше читателя), теперь работает против них.
Пациент может найти в интернете «исследование», которое противоречит
рекомендациям врача. Читатель может найти «источник», который опровергает
журналистское расследование. Экспертиза девальвируется, когда каждый может найти
альтернативное «мнение».
V. Верификация как продукт: «breaking verification» вместо «breaking news»
5.1. Новая формула ценности
«Breaking verification заменит breaking news в 2026 году, и доверие определит,
кто выживет», — написал Винай Саравоги, сооснователь The Media GCC, в опросе
Reuters Institute [13]. Эта формулировка точно схватывает сдвиг. Если раньше
ценность медиа определялась скоростью («кто первый сообщит»), то теперь она
определяется надёжностью («кому можно верить»).
Скорость по-прежнему важна, но её монополизировали платформы и агрегаторы.
Twitter (X) сообщает новости быстрее любой редакции — просто потому, что очевидцы
публикуют посты в реальном времени. ChatGPT суммирует события быстрее журналиста
— просто потому, что не тратит время на проверку. Конкурировать в скорости
бессмысленно.
Но в надёжности конкурировать можно. 52% руководителей медиа полагают, что
засилье дезинформации парадоксальным образом укрепит позиции качественных СМИ
[3]. Логика проста: чем больше шума, тем выше ценность сигнала. Издания со
строгими протоколами верификации — Reuters, Associated Press, BBC — становятся
«инфраструктурой доверия» в мире, где всё остальное сомнительно.
5.2. Технологические решения
Технологические решения развиваются параллельно с редакционными. «Цифровая
цепочка хранения» (digital chain of custody) — документирование каждого шага в
жизни электронного доказательства — может стать стандартом для журналистских
материалов [13]. Идея в том, чтобы каждое фото, каждое видео сопровождалось
криптографически защищённой информацией о том, когда, где и чем оно было снято.
Content Credentials, разработанный Adobe совместно с The New York Times и
другими участниками Coalition for Content Provenance and Authenticity,
позволяет встраивать в медиафайл метаданные о его происхождении [13].
Это не защита от подделки — подделать можно всё. Это маркировка подлинника:
если метаданные совпадают, файл с высокой вероятностью не был изменён.
Шувей Фан, стипендиат Shorenstein Center в Гарварде, сформулировал это так:
«Новостные организации обнаружат, что их следующий продукт — не контент, а
процесс: ответ на вопрос "это настоящее?" в режиме реального времени» [13].
Когда фейковые изображения распространяются мгновенно, а ИИ-инструменты
генерируют убедительные подделки по команде, аудитории нужны надёжные
источники, способные быстро установить, что аутентично.
5.3. Новая бизнес-модель
Это меняет экономику медиа. Традиционная модель — производство контента,
монетизация через рекламу или подписку. Новая модель — производство
доверия, монетизация через верификационные услуги.
Некоторые издания уже экспериментируют. AFP продаёт факт-чекинг как сервис —
корпоративным клиентам, государственным органам, другим медиа. Reuters
лицензирует свою верификационную экспертизу. Full Fact, британская организация
по проверке фактов, предлагает API для автоматизированного факт-чекинга.
Логика в том, что верификация — дефицитный ресурс. Производить контент может
каждый; проверять контент могут немногие. Если рынок насыщен информацией,
ценность имеет не информация, а её подтверждение.
VI. Взгляд врача: что объединяет медицину и журналистику
6.1. Уроки технологических революций
За сорок четыре года клинической практики я видел несколько технологических
революций в медицине. Каждая сопровождалась предсказаниями о скором вымирании
врачей. Компьютерная томография должна была заменить рентгенолога. Экспертные
системы — терапевта. Телемедицина — поликлинику. Роботизированная хирургия —
хирурга. Ничего этого не произошло. Врачей больше, чем когда-либо. Их работа
сложнее, интереснее и — парадокс — человечнее.
Причина в том, что технология автоматизирует процедуры, но не заменяет отношения.
КТ-сканер производит изображения. Рентгенолог интерпретирует их в контексте
клинической картины, истории болезни, ожиданий пациента и его семьи.
ChatGPT генерирует дифференциальный диагноз по симптомам. Врач решает, какой из
диагнозов проверять первым, как сообщить плохие новости, как поддержать семью в
момент кризиса. Это разные виды деятельности, и второй не сводится к первому.
6.2. Журналистика как отношения
Журналистика устроена аналогично. ИИ способен транскрибировать интервью,
суммировать документы, генерировать черновики, проверять факты по базам данных.
Но расследование — это не сумма этих операций. Это построение доверия с
источником, который рискует карьерой, свободой, иногда жизнью. Это интуиция, что
за формальным ответом скрывается история. Это этический выбор — что публиковать,
а что нет, как защитить информатора, как минимизировать вред для невиновных.
Ни один алгоритм этого не делает.
Когда я беру у пациента анамнез, я не просто собираю данные. Я наблюдаю: как он
двигается, как дышит, как формулирует жалобы, что умалчивает. Опытный врач
получает информацию не только из слов, но из пауз, из невербальных сигналов, из
контекста. То же самое делает опытный журналист на интервью.
6.3. Институты эпистемической инфраструктуры
Есть и более глубокая параллель. И медицина, и журналистика — институты
эпистемической инфраструктуры. Они производят не просто услуги, а знание и
доверие. Врач удостоверяет: да, это болезнь, вот её причина, вот лечение.
Журналист удостоверяет: да, это произошло, вот доказательства, вот контекст.
Когда эти институты ослабевают, общество теряет способность различать истину и
ложь, норму и патологию.
Сегодня оба института под давлением. Пациенты приходят с диагнозами из
интернета и требуют назначить лечение, которое «помогло блогеру». Читатели
отвергают журналистские расследования, потому что они противоречат их картине
мира. «Своё исследование» заменяет экспертизу. Харизма заменяет компетентность.
Мнение заменяет факт.
6.4. Оптимизм кризиса
И всё же я оптимист. Не потому, что верю в технологический прогресс (верю,
но с оговорками). А потому, что вижу: в моменты кризиса люди возвращаются к
институтам.
Когда COVID-19 превратил медицинскую дезинформацию в вопрос жизни и смерти,
авторитет ВОЗ и национальных служб здравоохранения вырос, а не упал.
Да, были антипрививочники; да, были конспирологи. Но большинство людей,
столкнувшись с реальной угрозой, обратились к врачам, а не к блогерам.
То же самое происходит в информационном пространстве. Когда выборы
сопровождаются потоком фейков, аудитория качественных СМИ растёт.
Когда кризис требует надёжной информации — война, катастрофа, пандемия —
люди ищут источники, которым можно доверять. Доверие — дефицитный ресурс,
и его ценность увеличивается в условиях инфляции лжи.
VII. Взгляд литератора: что ИИ не умеет (пока)
7.1. Границы технологии изнутри
Как человек, опубликовавший более шестисот текстов на литературном портале
и ежедневно работающий с ИИ как с инструментом анализа, я вижу границы
технологии изнутри.
ИИ превосходно справляется с задачами, которые можно формализовать.
Метрический анализ стихотворения — пожалуйста: считает слоги, определяет
размер, находит пиррихии и спондеи. Проверка рифм — без проблем: точные,
неточные, ассонансы, диссонансы. Стилистическая правка по заданным
параметрам — легко: убрать канцеляризмы, сократить предложения, заменить
пассивный залог на активный. Генерация текста, имитирующего заданный
стиль, — впечатляюще: дайте образец, и нейросеть произведёт похожее.
7.2. Границы понимания
Но есть вещи, которые ИИ не понимает. Он не понимает, почему строка «Билет
в бессмертие дарует только муза» должна быть длиннее остальных — шестистопной
вместо пятистопной. Он может констатировать отклонение от размера, но
не способен оценить, работает ли это как приём. Он не чувствует, что
расширение финала создаёт ощущение весомости, итога, точки. Он видит нарушение
правила; я вижу осознанный выбор.
Он не понимает контекста. Так текст о Российском союзе писателей написан
человеком, который долго наблюдал эту среду изнутри. За каждой строкой —
конкретные имена, истории, разочарования, скандалы. ИИ видит текст. Я вижу
реальность, которая за ним стоит. Без этой реальности текст — набор слов;
с ней — высказывание.
7.3. Молчание и нюанс
Он не понимает молчания. Когда поэтесса, чьи стихи я разбираю, блокирует меня
после публикации рецензии — это не технический сбой коммуникации. Это
человеческий ответ на человеческое высказывание: обида, несогласие, защита.
ИИ может сгенерировать анализ её текста. Но он не может решить, стоит ли этот
анализ публиковать, как сформулировать критику, чтобы она была честной, но не
ранящей, как быть, когда честность и деликатность конфликтуют.
Журналистика — это та же работа с контекстом, молчанием, нюансом. Репортаж из
зоны боевых действий — не сумма фактов. Это выбор, какие факты показать, каких
людей процитировать, какой кадр поставить первым. Это этика присутствия: что
значит быть свидетелем, какая ответственность из этого следует. Алгоритм может
обработать данные. Человек — свидетельствовать.
VIII. Заключение. Гибридное будущее
8.1. Модель 2026 года
Журналистика 2026 года — это гибридная модель. Технологическая мощь ИИ
обеспечивает скорость и масштаб: транскрипция за минуты, персонализация для
миллионов, верификация в режиме реального времени, мониторинг тысяч источников.
Но ценность медиа по-прежнему определяется человеческим фактором: подотчётностью,
этикой, способностью интерпретировать смыслы в мире, переполненном
алгоритмическим шумом.
Выживут не те издания, которые лучше освоят ИИ. И не те, которые от него
откажутся. Выживут те, которые найдут баланс — используют машину для того, что
она делает хорошо, и сохранят человека там, где он незаменим.
8.2. Ценностный вопрос
Этот баланс не технический — он ценностный. Вопрос не в том, какие задачи можно
автоматизировать (почти все). Вопрос в том, какие задачи должны оставаться
человеческими. Ответ: те, что связаны с ответственностью, доверием,
свидетельством. Алгоритм может ошибаться — но не может отвечать за ошибку.
Человек — может.
В медицине мы научились этому за десятилетия. Диагностический ИИ помогает, но не
заменяет врача — потому что диагноз это не только классификация, но и отношения.
Пациент доверяет не алгоритму, а человеку, который смотрит ему в глаза и говорит:
«Я понимаю. Мы справимся. Я буду рядом».
8.3. Человеческая категория
Журналистике предстоит тот же путь. Читатель доверяет не нейросети, а журналисту,
который рискнул карьерой ради расследования. Зритель верит не AI Overviews, а
репортёру, который стоял под обстрелом с камерой. Слушатель ценит не
сгенерированный подкаст, а голос человека, который думает вслух, сомневается,
ищет истину.
Доверие — человеческая категория. И пока это так, журналистика останется
человеческой профессией. Не потому, что машины не могут писать тексты (могут, и
хорошо). А потому, что тексты — это не цель журналистики. Цель — правда. А правда
требует того, кто за неё отвечает.
Муза, как известно, бессмертия не гарантирует. Но билет выдаёт только она.
Список использованных источников
1. CNBC. (2026, 6 января). Misleading AI content spreads in the wake of Maduro's
removal. viral-us-military-maduro-misinformation.html
2. NBC News. (2026, 9 января). AI is intensifying a 'collapse' of trust online,
experts say. online-ai-deepfakes-venezuela-rcna252472
3. Newman, N. (2026). Journalism, Media, and Technology Trends and Predictions
2026. Reuters Institute for the Study of Journalism.
trends-and-predictions-2026
4. Digiday. (2025). The state of AI in the newsroom: Framing the impact of AI
beyond workflow automation. https://digiday.com/sponsored/the-state-of-ai-in-the-
newsroom/
5. Sonix. (2026). 21 AI Transcription Accuracy Trends Every Professional Should
Know in 2026. 6. Twipe. (2025). 12 Ways Journalists Use AI Tools in the Newsroom.
7. PPC Land. (2026, 17 января). Media leaders expect 43% more traffic losses as
AI reshapes journalism. https://ppc.land/media-leaders-expect-43-more-traffic-
losses-as-ai-reshapes-journalism/
8. IFJ. (2026, 16 января). Reuters digital report 2026: journalism's pivot —
navigating the AI and creators squeeze.
9. Newman, N., Fletcher, R., et al. (2025). Digital News Report 2025. Reuters
Institute for the Study of Journalism.
10. Коммерсантъ. (2026, 4 января). Главные тренды ИИ в 2026 году: от автономных
агентов до синтетического контента. https://www.kommersant.ru/doc/8337402
11. UNESCO. (2025). Deepfakes and the crisis of knowing.
12. Media Copilot. (2026). Grok's deepfake crisis shows why 2026 is the year of
'breaking verification'. https://mediacopilot.ai/grok-deepfake-crisis-breaking-
verification-2026/
13. Reuters Institute. (2026). How will AI reshape the news in 2026? Forecasts by
17 experts from around the world.
forecasts-17-experts-around-world
Свидетельство о публикации №126011807687