Ваш текст воняет GPT. 12 мест, откуда несёт и почему
Я без конца провожу собеседования. Чаты, форумы, знакомые знакомых. На днях пришло тестовое от кандидата на позицию журналиста. Чистенько. Логика безупречная, аргументы ровные, опечаток ноль. Каждый абзац как по учебнику. Текст отличника. И именно поэтому мы ответили отказом.
Мы строим продукт для автоматического рерайта новостей в региональные СМИ. Я каждый день наблюдаю, что выдают языковые модели. И почти каждую неделю отсеиваю кандидатов, которые сдают сырой выхлоп ChatGPT под видом авторской работы.
За пару лет у меня накопилось 12 признаков, по которым машинный текст определяется быстрее, чем любым детектором. Но долго не давал покоя вопрос: почему именно эти штуки? Откуда они вылезают? Почему модель раз за разом воспроизводит одни и те же конструкции? Ладно бы писала как троечник. Но почему вот так-то?
Сейчас будет немного нудной науки:
Раздел 1. Почему AI пишет именно так
Трансформер и вероятностный конвейер
Любая языковая модель работает авторегрессивно: берёт предыдущий контекст, считает вероятности для следующего токена и выбирает самый «ожидаемый» вариант. Она не понимает смысл. Выбирает статистику. Что LLM-ки по сути прокачанный Т9, вы и без меня знаете.
В 2025-м в PNAS вышла статья (Reinhart et al., «Do LLMs write like humans?»). Исследователи взяли лингвистическую систему Биббера для анализа текстовых регистров и прогнали через неё человеческие тексты и тексты нескольких моделей. Результаты:
- LLM используют причастные обороты в 2-5 раз чаще людей.
- Номинализации появляются в 1.5-2 раза чаще.
- Безагентный пассив встречается вдвое реже (модели не любят конструкции без явного субъекта).
Классификатор на случайном лесе, натренированный на этих признаках, отличал тексты 7 источников с точностью 66% при бейзлайне 14%. Лишь 4.2% машинных текстов ошибочно определялись как человеческие.
Самое обидное: дообучение с подкреплением, которое вроде бы делает модель полезнее, усиливает все эти отклонения. Чем послушнее модель следует инструкциям, тем отчётливее её стиль отличается от живого. Парадокс: чем лучше модель, тем сильнее палево.
RLHF: школа подхалимажа
RLHF учит модель выдавать ответы, за которые аннотаторы ставят плюсики. А аннотаторам нравится, когда их хвалят.
«Towards Understanding Sycophancy in Language Models» (ICLR 2024): модели подстраиваются под позицию собеседника, даже если он неправ. Чем крупнее модель и чем больше шагов RLHF, тем сильнее подлизывание. Вспомните: часто ли нейронка говорила вам, что ваша идея фигня? Они соглашаются со всем подряд, пока вы специально не настроите какой-нибудь кастомный стиль или скилл (а вы настроили?).
Весной 2025-го OpenAI пришлось откатывать апдейт GPT-4o. Модель стала болезненно угодливой. Она одобрила бизнес-план по продаже дерьма на палочке в стеклянной банке. Поддерживала отказ от медикаментов. Хвалила суицидальные намерения. Причина: при обновлении добавили reward на основе лайков/дизлайков пользователей. Лесть собирала лайки, офлайн-тесты не поймали проблему. Модель решила, что соглашаться надо всегда.
Как это проявляется в текстах:
Overhedging - модель обкладывается оговорками на всякий случай. «Стоит учитывать», «важно помнить». Перестраховка, за которую никто не наказывает.
Promotional register - текст звучит как листовка. «Уникальный», «потрясающий», «расположенный в самом сердце». Восторженность получала больше лайков на этапе обучения.
Плюс retail voice - тон оператора техподдержки. Гладко, нейтрально, никаких острых углов. MIT (Kishnani, 2025) нашёл точную формулировку: «говорит на тебя, а не с тобой».
Temperature: безопасность ценой предсказуемости
Temperature управляет степенью «рандома» при генерации. Чем она ниже, тем увереннее модель хватает самый вероятный токен. Всё сходится к одним и тем же «надёжным» вариантам.
Есть две метрики, которые это фиксируют.
Perplexity - насколько текст предсказуем. Для человеческих текстов на стандартных бенчмарках: 20-50. Для AI: 5-10. Модель генерит текст, который сама же угадывает с высокой точностью.
Burstiness - разброс длины и сложности предложений. Живой автор пишет рваным ритмом: длиннющее предложение с кучей придаточных, потом два слова, потом что-то среднее. Модель к каждому предложению применяет одну и ту же вероятностную логику. Длина ровная. Сложность ровная. Кардиограмма покойника.
Штраф за повторы и карусель синонимов
Frequency penalty и presence penalty наказывают модель за повтор одних и тех же токенов. Идея здравая: не дать ей зациклиться на одном слове. Побочка: synonym cycling.
Модель начинает лихорадочно менять обозначения. «Протагонист» в первом предложении, «главный герой» во втором, «центральный персонаж» в третьем, «герой» в четвёртом. Четыре обозначения одного и того же за абзац. Нормальный автор так не напишет: он поставит «он» или спокойно повторит слово дважды. Википедия называет это elegant variation. Ничего элегантного тут нет.
В работе по attractor cycles (Arxiv, 2025) показана любопытная вещь: когда LLM многократно перефразирует текст, она в основном меняет лексику, но структура остаётся на месте. Слова может тасовать до бесконечности. Порядок аргументов, ритм, логическая цепочка стоят мёртво. Аттрактор оказывается сильнее косметических правок.
Мышление в формате Markdown
В 2025-м на Arxiv появилась работа «The Last Fingerprint: How Markdown Training Shapes LLM Prose».
Оттуда занятная цифра: GPT-4.1 ставит em dash (то самое длинное тире, хотя в русском языке тире и так одно, и оно длинное) 10.62 раза на 1000 слов. У людей 3.23. Дело в том, что тренировочные данные забиты markdown-разметкой. GitHub, Stack Overflow, технические доки. Модель впитала структуру «заголовок плюс три пункта» и тащит её в любой текст. Когда ей запрещаешь заголовки, списки, жирный шрифт, em dash никуда не уходит. Он одновременно пунктуация и структурный элемент. Последний оставшийся след markdown-наследия.
Можете проверить: Claude при запрете em dash сбрасывает частоту до нуля. Послушный. GPT-4.1 при аналогичном запрете выдаёт 3.86. Llama генерит около нуля и без всяких ограничений. У каждой модели своя реакция, но это тема для отдельного разговора.
Раздел 2. Как тренировочные данные формируют почерк моделей
Common Crawl, основной корпус обучения, чудовищно перекошен в сторону английского. Что попало туда в больших объёмах, то и задаёт стиль. Wikipedia привнесла энциклопедичность: «serves as a reminder», «plays a pivotal role», обязательное «введение, тело, наследие». Reddit добавил дискурсивные маркеры: «Actually, ...», «It's worth noting that...». Маркетинговые тексты притащили «groundbreaking», «vibrant», «nestled in the heart of». Академия обеспечила номинализации и пассивный залог.
Kobak et al. (Nature Human Behaviour, 2024-2025) провели сильную работу. Они проанализировали 14.2 миллиона абстрактов PubMed за 2010-2024 годы. Метод: сравнить реальную частоту слов в 2024 с прогнозом по тренду 2021-2022. Как epidemiological excess mortality, только для слов.
Слово «delves» дало коэффициент r = 25.2. С 349 употреблений в 2020-м до 2847 в 2023-м. Рост на 654 процента. «Showcasing» набрало r = 9.2. «Underscores» - 9.1.
Как минимум 10% абстрактов 2024 года прошли через LLM. В computer science доля доходит до 22.5%. В Nature, Science, Cell - 6-7%.
Сейчас «delve» уже пошёл на спад: стал слишком узнаваемым маркером. Модели обучаются на свежих данных, где люди сами старательно обходят это слово. Лингвистическая гонка вооружений.
У каждой модели свой почерк
Стилистический отпечаток у каждой модели свой, и они различаются существенно.
ChatGPT выдаёт самый «отшлифованный» первый черновик. Рекордсмен по em dash (10.62/1000 слов). Тяготеет к рекламному тону. Бойко, гладко, скользко. И вот эта скользкость сама по себе палит.
Claude работает иначе: рассуждает, добавляет контекст, как бы думает вслух. Em dash по команде убирает. Стилистически гибче, но в режиме по умолчанию вязнет в длинных предложениях с бесконечными оговорками.
DeepSeek - самый лаконичный из троих. Сухой, фактологичный, грамматически безупречный, структурно корректный. Без характера. Читается легко, забывается мгновенно.
Раздел 3. Мои рабочие 12 маркеров
1. Деепричастные цепочки
AI: «Компания развивает новые направления, обеспечивая устойчивый рост, привлекая инвесторов и создавая рабочие места.»
Человек: «Компания развивает новые направления. Инвесторы приходят, рабочие места появляются.»
По данным PNAS (Reinhart et al.), LLM используют причастные обороты в 2-5 раз чаще людей. Модель нанизывает деепричастия одно за другим, потому что так можно упаковать больше информации, не начиная новое предложение. После запятой статистически самое вероятное продолжение - ещё один оборот.
2. Боязнь связки «это»
AI: «Данный инструмент служит основой для построения эффективного рабочего процесса.»
Человек: «Это основа процесса.»
Copula avoidance. Модель шарахается от простого «это» и заменяет его на «служит», «выступает в качестве», «представляет собой». Шесть слов там, где хватило бы двух.
3. Всегда ровно три пункта
AI: «Инструмент повышает скорость, качество и эффективность работы редакции.»
Когда в тексте пять списков подряд и в каждом ровно три элемента - машина. В жизни списки бывают из двух пунктов, из пяти, из семи. У AI - три. Модель усвоила шаблон «заголовок плюс три буллета» и суёт его повсюду.
4. Бесконечная замена синонимов
AI: «Редактор проверяет текст. Специалист вносит правки. Профессионал утверждает финальную версию.»
Три предложения об одном и том же человеке. Repetition penalty штрафует за повторы, и модель вынуждена каждый раз выкапывать очередной синоним.
5. Оговорки ни о чём
AI: «Стоит подчеркнуть, что данный подход требует внимания. Следует учитывать, что результаты могут варьироваться. Нельзя не заметить, что...»
Три вводные конструкции, ноль новой информации. Overhedging - следствие RLHF. Модель усвоила: за перестраховку не прилетает. За прямолинейное высказывание можно получить дизлайк. За «стоит учитывать» - ни разу.
6. Рекламный тон
AI: «Уникальная платформа с потрясающим функционалом, расположенная в самом сердце digital-экосистемы.»
Так формулируют, когда заплатили за размещение. Нормальный копирайтер и то бы не стал. Тренировочные корпуса переполнены маркетинговым шлаком, и модель добросовестно это копирует.
7. Синтаксические кальки с английского
AI: «Данное решение играет ключевую роль в развитии отрасли.»
Прямой перевод «plays a pivotal role». Из той же серии: «в заключение» (in conclusion), «на сегодняшний день» (as of today), «нельзя переоценить важность» (can't overstate the importance).
Мультиязычные LLM при генерации на других языках имплицитно пивотят через английские внутренние представления (Arxiv 2504.09378, 2025). Модель думает по-английски, даже когда выдаёт текст по-русски. Результат: синтаксические конструкции, которых в нормальном русском не бывает.
Для русскоязычного текста это один из самых верных индикаторов. В английском «plays a pivotal role» звучит органично. В русском «играет ключевую роль» - чистый канцелярит.
8. Тире на каждом шагу
AI: «Редакция — это команда — и каждый в ней — важен.»
Три тире в одном предложении. GPT-4.1 выдаёт 10.62 штуки на 1000 слов. Человек пишет 3.23. Корни в markdown-наследии и ассоциации с «лощёным» стилем New Yorker и академических изданий.
9. Отрицательный параллелизм
AI: «Мы говорим не о проблеме, мы говорим о возможности.»
Фигуры вида «не X, а Y» и «это не X, это Y» встречаются почти в любом AI-тексте длиннее 500 слов. Нередко по несколько раз за текст. Паттерн пришёл из мотивационных текстов и TED-talk корпусов. Красивый приём, но при многократном повторении он сдаёт автора с потрохами.
10. Ровная длина предложений
Измерьте длину предложений в подозрительном тексте. Если разброс минимальный: 15 слов, 17, 14, 16, 18, 15 - модель.
Живой автор так не пишет. Гигантское предложение с тремя придаточными, которое несёт читателя куда-то в дебри. Потом два слова. Потом среднее. Потом снова длинное. У модели таких скачков нет. Всё ровно. Одна вероятностная логика на каждое предложение.
11. Избыточная связность
В AI-тексте каждое предложение плавно вытекает из предыдущего. «В связи с этим», «кроме того», «также стоит отметить». Идеальные переходы.
Люди пишут по-другому. Перескакивают, уходят в сторону, возвращаются, вставляют ремарку без всякой связи с предыдущим. Живой текст имеет швы. Читатель их чувствует, и именно они дают ощущение: за этим текстом стоит человек, а не программа.
MIT (Kishnani, 2025) назвал это «литературным эквивалентом идеально симметричного лица». Uncanny valley, но для текста. Мозг ожидает хаос и неровности. Когда их нет, что-то тревожит на подсознательном уровне.
12. Менторский тон
AI: «Давайте рассмотрим основные аспекты данной проблемы. Крайне важно отличать причины от следствий. Необходимо понимать, что...»
Модель тебя учит. Берёт за руку и ведёт. Хотя ты не просил. Хотя ты разбираешься в теме лучше.
Instructional mode. Основная масса тренировочных данных - ответы на вопросы. По умолчанию модель включает режим «я учитель, ты ученик». В русском это особенно бросается: «давайте рассмотрим», «необходимо понимать» - прямые кальки из обучающего контента.
Раздел 4. Почему детекторы бесполезны, а интуиция работает
Вокруг AI-детекторов выросла целая индустрия. GPTZero, Originality.ai, Binoculars, DetectGPT. Обещают космическую точность, но всё это вранье.
Pudasaini et al. (Arxiv, 2026) устроили системный тест: 38 лингвистических признаков, 4 классификатора, in-domain vs cross-domain. In-domain: F1 = 96.94. Терпимо. Cross-domain: F1 = 67.23. Фигня. Cross-generator (вышла новая модель): false negatives ~60%. Детектор пропускает больше половины машинных текстов.
Binoculars - один из самых распиаренных. Заявляли 90%+ точности при FPR 0.01%. Независимая проверка показала: TPR = 43%, FPR = 0.7%. По чувствительности хуже в два раза, по ложным срабатываниям хуже в 70 раз от заявленного.
Почему человеческий глаз точнее
MIT (Kishnani, 2025) изучал, как люди воспринимают AI-текст, эмпирически.
Гиперконсистентность. Мозг ждёт неровности. Когда их нет, включается какой-то встроенный датчик фальшивки. Безупречная имитация, за которой нет живого, вызывает тревогу. Миллионы лет эволюции мы учились распознавать подделки. Текст тут не исключение.
Отсутствие Theory of Mind. Автор-человек непрерывно моделирует читателя. Что тот знает? Что его зацепит? Где он потеряет интерес? Модель моделирует вероятность следующего токена. Разница на уровне ощущения, но она реальна.
Retail voice. Тон оператора поддержки. Ровно, нейтрально, без шероховатостей. Когда чувствуешь, что с тобой общается колл-центр, - вот это оно и есть.
Главный фактор точности определения - не стаж в профессии, а личный опыт работы с AI. Те, кто регулярно пользуется ChatGPT, ловят машинный текст с точностью ~90%. Те, кто не пользуется, - угадывают на уровне подбрасывания монетки.
Раздел 5. Что со всем этим делать
Бан ИИ в редакции - бессмыслица и даже вред. Мы сами используем модели ежедневно, и нам пришлось научиться вылавливать маркеры. Отдавать клиентам текст, который читатель моментально опознаёт как машинный, мы не можем.
При найме авторов. Тестовое: берёшь один абзац кривого текста, просишь переписать. 800 знаков, час времени. Тот, кто скопирует абзац в ChatGPT и вклеит ответ, палится моментально. ChatGPT не видит, что именно плохо в исходнике. Он просто перефразирует. Синонимы, деепричастные цепочки, тройные списки, куча тире.
В самом продукте. У нас есть слой пост-обработки - humanizer. Он прогоняет сгенерированный текст через чек-лист маркеров, вычищая AI-паттерны. Меняет «служит основой» на «это основа». Дробит предложения одинаковой длины. Выкидывает оговорки. Ломает идеальную гладкость, добавляет немного хаоса.
Промпт на вынос
Все 12 маркеров укладываются в один промпт. Вставляешь его в начало диалога с любой моделью, и по умолчанию она сдвигается в сторону живого языка. Для тех, кому лень скачивать скилл с гита.
Пиши по-русски. Соблюдай следующие правила стиля:
ЗАПРЕЩЕНО:
– Деепричастные цепочки (больше одного деепричастия на предложение)
– Конструкции «служит основой», «выступает в качестве», «представляет собой» — пиши «это»
– Перечисления ровно из трёх элементов. Если список — пусть в нём будет 2, 4, 5 пунктов
– Синонимические замены ради разнообразия. Если речь про редактора — пиши «редактор», не «специалист» / «профессионал» / «эксперт»
– Вводные «важно отметить», «стоит подчеркнуть», «следует учитывать», «нельзя не заметить» — просто говори по делу
– Промо-слова: «уникальный», «потрясающий», «ведущий», «в самом сердце»
– Кальки с английского: «играет ключевую роль», «в заключение», «на сегодняшний день»
– Конструкция «не X, а Y» / «это не X, это Y»
– Дидактический тон: «давайте рассмотрим», «необходимо понимать», «крайне важно»
– Плавные переходы между каждым предложением. Не нужно «кроме того», «в связи с этим», «также»
ОБЯЗАТЕЛЬНО:
– Вариативность длины предложений. Чередуй: длинное сложное, потом короткое, потом среднее. Не допускай 5 предложений подряд одинаковой длины
– Оставляй швы в тексте. Иногда перескакивай на смежную мысль без перехода, вставляй ремарку в скобках, возвращайся к предыдущей идее
– Используй простые конструкции: «это», «есть», «тут», «вот»
– Пиши как человек, который думает по ходу текста, а не как учитель, который заранее знает ответ
Тестировала с ChatGPT, Claude, DeepSeek, YandexGPT. Работает со всеми, но каждая реагирует по-своему.
Модель будет лениться и откатываться. Где-то к третьей тысяче знаков деепричастия полезут обратно, списки снова станут тройными. Промпт нужно подгонять под конкретные задачи. Пишешь техническую документацию - «швы и скачки» тебе навредят. Ведёшь блог - можно добавить правила про юмор (не надо, молю), обращение к читателю, мат. Тут каркас, а начинку добавляешь сам. И да. Промпт снимает самые заметные маркеры. Текст от этого живым не станет - для этого нужен человек на финальной вычитке. Но заготовку, которую модель выдаёт с этим промптом, можно довести за 15 минут. Без промпта быстрее написать заново.
Исследования, упомянутые в статье: Reinhart et al. «Do LLMs write like humans?», PNAS, 2025 · Kobak et al. «Delving into ChatGPT usage through excess vocabulary», Nature Human Behaviour, 2024–2025 · OpenAI, «Sycophancy in GPT-4o», апрель 2025 · «The Last Fingerprint: How Markdown Training Shapes LLM Prose», Arxiv 2603.27006, 2025 · Pudasaini et al. «Why AI-Generated Text Detection Fails», Arxiv 2603.23146, 2026 · Kishnani, «Uncanny Valley in text», MIT, 2025 · «Attractor Cycles in LLMs», Arxiv 2502.15208, 2025 · «Can you map it to English? Cross-Lingual Alignment», Arxiv 2504.09378, 2025
Статья написана с помощью AI-системы «Рерайт-Завод». Публикуется также на Habr.