Человечество стремительно тонет в информационном пространстве, которое оно само же и создавало десятилетиями. Развитие нейросетей достигло переломного момента: обещанная оптимизация труда на практике обернулась хаосом, стирающим границы между истиной и ложью, между человеческим разумом и порождением «бредогенератора» — причем с пугающей скоростью. На наших глазах формируется цифровая анархия — своего рода психоментальная эпидемия, при которой реальность становится зыбкой, а механизмы и средства контроля за «искусственным интеллектом» устаревают еще до их внедрения. Нейросети теперь не просто помогают или вредят конкретному человеку или компании, они создают самовоспроизводящуюся экосистему дезинформации, разрушающую основополагающие принципы в сфере кибербезопасности, медицины, политики и, главное, функционирования человеческой психики.
Мусор на входе — мусор на выходе
Одним из примеров наступающего кризиса стал порочный круг, в котором инструменты так называемого искусственного интеллекта (большие языковые модели, LLM, нейросети) обучаются на контенте своего же собственного производства. Исследование компании NewsGuard выявило тревожный тренд: доля ложных ответов у наиболее популярных нейросетей за последний год выросла с 18% до 35%. Этот взрывной рост обусловлен двумя ключевыми факторами.

Во-первых, современные чат-боты, стремясь быть максимально полезными, теперь практически обязаны отвечать на любой запрос, даже при полном отсутствии достоверных данных. Это порождает поток респектабельно выглядящего стопроцентного бреда, который пользователь, доверяя машине, принимает за чистую монету. Во-вторых, и это главнее, нейросети при поиске информации в интернете не обладают способностью критического анализа. Они не понимают, какие сайты публикуют проверенные материалы, а какие являются помойками и скопищем фейков и теорий заговора. В результате они сканируют, усваивают и перерабатывают тонны мусорного контента, в том числе созданного ботами, порождая новый недостоверный контент, и тем самым уменьшают долю контента достоверного.
Это усугубляется новым явлением, получившим название LLM-grooming. Это целенаправленное создание и поисковая оптимизация контента таким образом, чтобы он был предпочтительней для алгоритмов, используемых нейросетями. Злоумышленники и маркетологи научились кормить нейросети специальной информацией, чтобы те впоследствии транслировали нужные им нарративы ничего не подозревающим пользователям. И для этого также привлекают ботов.
Статистика от компании Imperva показывает неутешительную картину: в 2024 году более половины всего интернет-трафика было сгенерировано не людьми, а нейросетями. Генеральный директор IT-гиганта OpenAI Сэм Альтман в одном из своих выступлений с сожалением заявил, что сегодня невозможно определить, пишут ли публикации в социальных сетях реальные люди или чат-боты. Но на самом деле ситуация еще абсурднее: сами люди, стремясь к соответствию алгоритмам платформ, начали массово копировать сухой, обезличенный, уверенный стиль нейросетей. Алгоритмы продвижения соцсетей лучше реагируют на такой контент, создавая замкнутый круг: боты копируют людей, люди копируют ботов — граница между ними стирается окончательно.