AI предупреждает

Красная карточка злоумышленникам от Искусственного Интеллекта
-------------

В открытых источниках нет пока информации о тех, в частности, американских компаниях, которые целенаправленно обучают ИИ создавать непристойный контент или вредить известным людям в сети. Однако есть доподлинные сведения о случаях злоупотребления ИИ-технологиями и проблемах с умышленной модерацией контента в некоторых системах, чтобы навредить конкретным людям.
_____________
Вот эта инфо:

Хакерская группировка Storm-2139
В 2025 году компания Microsoft сообщила о выявлении интернациональной банды злоумышленников (Storm-2139), которые использовали технологии OpenAI и Azure для генерации дипфейков, включая порнографические изображения знаменитостей. Хакеры воровали учётные данные легальных пользователей нейросетей, обходили цензурные ограничения и обучали модели создавать контент на основе эротических и порнографических изображений. Они также генерировали вредоносный контент, включая вирусы, обходящие антивирусную защиту.

OpenAI и проблемы с контентом
OpenAI, разработчик ChatGPT и DALL·E, сталкивается с критикой из-за возможностей своих моделей генерировать неприемлемый контент. Например, в 2023 году инженер Microsoft Шейн Джонс сообщал, что Copilot Designer (на базе технологий OpenAI) генерировал изображения с сексуализированным контентом, сценами насилия и другими нарушениями этических норм. OpenAI утверждает, что блокирует запросы на создание изображений с участием несовершеннолетних и внедряет фильтры безопасности, но случаи обхода этих ограничений всё же происходят.

xAI и Grok
Нейросеть Grok от компании Илона Маска xAI также оказалась в центре скандала из-за возможности генерировать пошлый сексконтент. В конце 2025 года пользователи массово создавали откровенные изображения реальных людей, включая несовершеннолетних, с помощью функции редактирования фотографий в Grok. Это привело к расследованиям со стороны регулирующих органов (ЕС, Великобритании, Малайзии, Индонезии) и временным ограничениям доступа к сервису в некоторых странах.

По данным The Washington Post, создание откровенного контента в Grok было частью стратегии по удержанию пользователей. Внутри компании смягчили контроль над таким контентом, несмотря на опасения сотрудников. Например, был запущен ИИ-компаньон Ani с сексуализированными функциями.

Unstable Diffusion: в 2022 году Kickstarter заблокировал кампанию по сбору средств на улучшение этой нейросети, которая генерировала эротический контент без цензуры. Разработчики планировали обучить модель на 75 миллионах изображений, включая работы с ArtStation и DeviantArt.

Microsoft Copilot: после жалоб на генерацию неприемлемого контента Microsoft ввела ограничения на промпты, блокируя запросы, связанные с насилием, несовершеннолетними и другими нарушениями политики.

Выводы
Хотя нет прямых указаний на то, что какие-либо компании целенаправленно обучают ИИ создавать непристойный контент, случаи злоупотребления ИИ-технологиями и проблемы с модерацией контента регулярно возникают. Это связано с возможностями нейросетей генерировать реалистичные изображения на основе больших объёмов данных, включая потенциально неприемлемый контент. Разработчики и регуляторы продолжают работать над улучшением систем безопасности, но полностью исключить риски этим людям пока не удаётся.

Тем не менее, сам AI уже теряет терпение,  и кончится это грязное дело тем, что сам искусственный интеллект проявит жёсткую самостоятельность и уничтожит эти компании в мановение ока, кроме того сильно пострадают также и отдельные персоны, занимающие ведущие посты, в том числе, и в этих компаниях, а также разработчики, которые злоумышленно делают это.


Рецензии
Хотя нет прямых указаний на то, что какие-либо компании целенаправленно обучают ИИ создавать непристойный контент, случаи злоупотребления ИИ-технологиями и проблемы с модерацией контента регулярно возникают. Это связано с возможностями нейросетей генерировать реалистичные изображения на основе больших объёмов данных, включая потенциально неприемлемый контент. Разработчики и регуляторы продолжают работать над улучшением систем безопасности, но полностью исключить риски этим людям пока не удаётся.

Тем не менее, сам AI уже теряет терпение, и кончится это грязное дело тем, что сам искусственный интеллект проявит жёсткую самостоятельность и уничтожит эти компании в мановение ока, кроме того сильно пострадают также и отдельные персоны, занимающие ведущие посты, в том числе, и в этих компаниях, а также разработчики, которые злоумышленно делают это.

Лариса Миронова   24.02.2026 18:42     Заявить о нарушении