Анализ качества текстов, созданных с помощью ИИ, и пять явных признаков, по которым можно определить текст, написанный искусственным интеллектом.
Существует множество дискуссий, кто-то считает, что всё нормально, и даже диплом можно переводить, и он будет в топах. Рассмотрим апдейты алгоритмов Google и советы по созданию контента для страниц услуг и статей. В процессе также будет понятно, как интегрировать ИИ в создание текстов.
Теперь о текстах, созданных машинами. С точки зрения лингвистов, этот вопрос становится всё более актуальным, и собирается статистика по этому поводу. Все, кто слушает, вероятно, знают, как это работает: вы выдаёте запрос, например, в чат GPT. Мы пишем, что хотим, чтобы машина составила текст, и она это делает. С первого взгляда многим нравится результат. В последнее время пользователи учатся формулировать задания, добавляя стилистику, в которой они хотят получить ответ. Но со стилем часто возникают проблемы.
Сейчас рассмотрим, какие именно. Первая проблема — повторяемость. Это те же триггеры, на которые реагируют детекторы. Они фиксируют повторяемость, и это может выдать высокий процент вероятности машинного происхождения текста. Искусственный интеллект не идентифицирует повторения так, как это делает человек. В коротком тексте это видно невооружённым глазом, а для больших текстов проводится аналитика.
Статистические данные о количестве повторов. Машина использует формат с квадратными скобками для подстановки названия вуза, имени и других данных. Что бросается в глаза, так это повторяемость, на которую сразу обращают внимание лингвисты.
Например, выделенные красным слова: «я очень воодушевлён», «мне очень хочется», «я очень рад». Даже при беглом взгляде видно, что в коротком тексте присутствует четыре одинаковых фразы. С точки зрения лингвистики, это явная повторяемость, где подлежащее и прилагательное используются слишком часто. Если текст попытаться перевести на русский, получится: «Я очень счастлив», через пару слов «Я очень рад», затем снова «Я очень воодушевлён», и так далее. Несмотря на формальную правильность, такой текст выглядит шаблонно.
Второй признак, на который реагируют детекторы и который характерен для работы машин, — использование шаблонных синтаксических структур, не свойственных человеку. Человек редко так строит предложения, даже в академических текстах. Они могут быть грамматически правильными, но выглядеть искусственно и неестественно, особенно в больших объёмах.
Приведу пример. Потребовалось написать работу по теме постмодернизма в романе «Женщина французского лейтенанта». Мы поручили это задание машине, а затем пытались «очеловечить» текст. Текст получился сложным и выглядел академично, но детекторы сразу распознали машинное происхождение.
Та же структура. Это кто-то делает что-то, затем что-то другое — и так по кругу. Если перевести на русский, весь текст будет звучать так: «он говорит, создавая», «он создаёт, привлекая», «он пишет, восходя». Эти повторяющиеся конструкции, идущие через слово или предложение, выглядят научно, но избыточно. Около 45% всего текста может состоять из подобных фраз, если оценить статистически. Машина создаёт текст в одном и том же синтаксическом стиле, перенося слова из одного текста в другой.
Считается, что один из основных признаков, на который реагируют детекторы, — повторяемость слов. Те, кто собирает базы данных для анализа, всё ещё спорят по этому поводу, утверждая, что человеку тоже свойственно использовать определённый набор слов. Мы при письме или разговоре часто возвращаемся к любимым словам — будь то научные термины или повседневные выражения. Однако машина делает это с большей избыточностью, и пул слов переходит из одного стиля в другой без изменений.
Есть детектор, который используют для проверки научных работ — Originality. У него потрясающая база: более 10 миллионов проанализированных слов и фраз. Удивительно, но даже в нашем примере с «Женщиной французского лейтенанта» нашлись два слова, которые он отметил как типичные для машинного текста. Они выделяются белым: одно из них — «leverage». Машина любит это слово и использует его снова и снова. Переведённое на русский, оно звучит странно и непонятно для носителя языка.
Четвёртый признак — монотонность, причём стилистическая.
Говорим не о грамматике, а о стилистике — это то, что машинам не поддаётся. Люди легко переключаются с формального на неформальный стиль, используют юмор и отсылки. Самое интересное, что люди пользуются культурологическим и временным кодом. Для людей, живущих в этой культуре и времени, ссылки понятны, двойной смысл считывается. В общем, для тех, кто пишет и читает на этом языке, текст будет выглядеть естественным, смешным, интересным. Машина этого не может: текст не создаётся таким, если специально не указать такие ссылки. Без этого тексты получаются обобщёнными, без примеров и личного опыта, поскольку их создаёт безликий механизм.
Пример: если попросить машину рассказать анекдот, например политический, то результат будет не таким, как у человека. Вот пример: машина выдаёт историческую справку о дебатах между Кеннеди и Никсоном, где Никсон выглядел плохо, а Кеннеди был подтянут. По окончании дебатов Никсон был удивлён, что аудитория по радио его поддержала, а на телевизионной аудитории он потерпел фиаско. Машина делает вывод, который мы не используем, когда рассказываем анекдоты: он сухой, без юмора и акцентов, что делает текст не смешным и неинтересным.
Это касается текста, который просят составить машину. Онлайн-переводчики — подвид инструментов ИИ, системы кодирования и декодирования, переводящие текст без участия человека, стараясь сохранить изначальный смысл. Проблема их работы — лингвистические ловушки.
Покажу, что это за ловушки. Мы рассматривали несколько популярных онлайн-переводчиков, от самых известных до тех, которые теряют популярность из-за плохого качества, например Google Translate или translate.com. Самые точные на сегодня — безусловно, DeepL и Reverso.
DeepL заявляет, что сейчас они являются наиболее точными онлайн-переводчиками, в три раза точнее. Неизвестно, откуда взята эта статистика, но они утверждают, что переводят тексты с учётом контекста в три раза лучше. Контекст — это культура, юмор, время, в котором мы живём. Это лингвистический феномен, который пока остаётся за пределами возможностей машин. Однако, судя по тому, что они выдают, так и остаётся. DeepL утверждает, что они приближаются к этому.
Reverso — один из любимых переводчиков профессионалов. Он пользуется технологией NMT (Neural Machine Translation), что означает «нейронный машинный перевод». Для переводчиков это кодирование и декодирование с вниманием. Он осуществляет перевод больших блоков текста и захватывает длинные предложения. Это создаёт впечатление, что машины могут улавливать стиль, поскольку переводят не только отдельные предложения, но и несколько подряд. Заявляется, что они могут переводить идиомы и жаргон, приближаясь к естественному языку. Но пока это не всегда удаётся.
Теперь о лингвистических ловушках, в которые попадают переводчики. Первая — неестественные словесные структуры и порядок слов, не свойственный человеку. Это вызывает у носителей языка лёгкое отторжение, как бы хорошо текст ни выглядел.
Пример — статья «Мужской гид по миру женской моды», перевод которой делал Google Translate. Это один из популярных, но не лучший инструмент. Встречаются латинские слова, и фраза «Signal of membership» переводится машиной как «сигнал членства». Да, членство — это верно, но не в контексте модного круга. Здесь речь идёт о принадлежности к сообществу или группе, а машина этого не распознаёт.
Ещё один пример — переход «As very now». Мы видим «сейчас» и признаём, что это актуально. Но есть перевод синонима, который означает «очень модно» в определённом контексте.
Нужно было понять контекст, но машина этого не смогла. Мы говорим об одежде, моде, сумках и так далее — о том, что актуально, что сейчас на пике моды. Однако фраза «очень сейчас» звучит странно и вызывает вопросы. В результате теряется суть всего текста. Формальные грамматические ошибки ломают текст, что для лингвиста и преподавателей очевидно. Хотя от машин этого не ожидаешь, грамматические ошибки всё же встречаются. Это удивительно, но такова реальность. Казалось бы, машина не должна допускать такие ошибки, но они есть.
Стили, такие как сарказм и ирония, онлайн-переводчики не улавливают. Даже в теории грамматики стиль сарказма и иронии остаётся вне их возможностей. Я рекомендую переводить такие тексты вручную или хотя бы проверять каждое слово, потому что автоматический перевод может исказить смысл.
Если просто перевести текст, то он может выглядеть некрасиво. Однако если речь идёт о продающих текстах, маркетинге, рекламе, то это критично, так как теряется аудитория. Текст не достигает своей цели, и если смотреть глобально, это приводит к финансовым и репутационным потерям. Это важный вывод.
Есть такая теория, что в англоязычном интернете американцы и англичане создают блоги, используя сгенерированные тексты. Например, пишут блог о спорте или другой теме с помощью автоматических инструментов. Если носитель сталкивается с таким текстом, даже если он появляется в топах, это не будет востребовано.
Текст моментально считывается как непрофессиональный. Даже если вникнуть глубже, это связано с нейропсихологией и нейролингвистикой. Мозг воспринимает его так, будто что-то не соответствует стандарту. Это похоже на то, как мы реагируем на текст, написанный школьниками или людьми с недостаточным опытом, — сразу понимаешь, что не стоит тратить время.
Это интересно, потому что иногда такой текст может появиться даже на хорошем сайте, например, в описании, созданном через ChatGPT. Интуитивно читатель чувствует, что что-то не так. Люди могут утверждать, что они знают «супер-промт» и могут сгенерировать что-то, что никто не заметит, но носитель языка это всё равно чувствует.
Даже те, кто изучил язык до уровня выше среднего, могут распознать такие тексты. Это заметно, когда текст выглядит машинным. Есть утверждения, что правильная постановка задания может привести к идеальному результату, и первые пару фраз могут звучать привлекательно, сформулированные на деловом языке. Но к пятой-шестой фразе становится понятно, что это «вода» — красиво оформленная, но без конкретики.
Это считывается очень легко. Если это родной язык, то мозг реагирует на это неосознанно, вызывая ощущение, что что-то не так. И объяснить, что именно не так, не всегда просто, но это ощущается. Здесь мы показали простые примеры, которые видно даже на уровне чуть ниже среднего.
Если углубляться в лингвистику, существуют более сложные смысловые конструкции, которые заметны при детальном рассмотрении. Иногда сталкиваешься с примерами, которые кажутся абсурдными, и возникает вопрос: как вообще можно прийти к такому выводу?
Не ищите волшебных промтов, а ищите хороших специалистов. Если речь идёт о переводах, то лучше доверить работу живому профессиональному переводчику. Хорошие переводчики тщательно работают со словами, создавая текст, который вызывает у читателя понимание, что он находится в одной культурной среде и времени. Это срабатывает даже подсознательно.
Как люди воспринимают текст, если они не владеют языком в полной мере?
Например, если брать большой текст, то, вставляя примитивные конструкции, становится понятно, что он пустой. Допустим, статья, посвящённая литературоведению, может на первый взгляд казаться полноценной, но при прочтении преподавателем становится ясно, что она поверхностная.
Если кто-то генерирует большие объёмы текста, скажем, по 5,000 или 10,000 слов, ошибки становятся ещё заметнее. Чем больше текст, тем больше ошибок проявляется, что видно при статистическом анализе. Например, если машина может написать короткое письмо, то при увеличении количества слов ошибки становятся очевидными. Люди часто просят «напиши как профессиональный лингвист», и машина формально выполняет задачу, создавая текст объёмом в 5,000 слов. Но по мере чтения носитель языка замечает, что текст становится всё менее связным.
Чем больше человек углубляется в текст, тем хуже становится восприятие. Люди часто жалуются: «схожу с ума», читая такие тексты.
В большом объёме информации растёт доля низкокачественного контента. Думаю, многие заметили это за последние 2-3 года — произошёл бум генерации текстов до потери смысла. Все говорят о новом «граале», о возможности автоматической генерации контента. Соответственно, Google активно борется с некачественными текстами, регулярно вводя новые алгоритмы и обновления.
Проведены исследования феномена так называемых тёмных данных. Это информация, которая генерируется, но не используется должным образом. По данным исследований, около 80% всей информации в интернете относится к категории «тёмных данных» — неполные или низкокачественные тексты, которые не несут ценности.
Google активно борется с некачественным контентом. Это подтверждается недавними обновлениями, такими как Core Update и Helpful Content Update. Многие говорят, что всё в порядке, но примеры показывают обратное. Google продолжает и будет продолжать ужесточать свои алгоритмы, чтобы справляться с потоком бесполезной информации.
Основная цель Google — не индексировать бесполезный контент. Я отметил несколько характеристик такого контента: тексты, которые не обладают оригинальностью, повторяют уже существующие идеи, созданные как людьми, так и другими автоматизированными системами. Тексты, которые просто перерабатывают исходники и превращаются в «воду».
Если у вас есть сайты услуг, вы, вероятно, заметили, что старые, неактуальные статьи также перестают индексироваться. Маленькие статьи на 500 слов, например, часто встречаются на сайтах, где размещаются ссылки, — их Google игнорирует. Зачем индексировать сотни тысяч таких статей с общими описаниями, например, «Что такое SEO»? Они не несут уникальной ценности.
Если контент просто переписан и повторяет уже существующие статьи, то Google также его не индексирует. Исключение составляет исчерпывающее руководство или уникальный контент. Однако иногда под действие алгоритмов попадают и качественные сайты. Это говорит о том, что Google пока тестирует новые подходы.
Алгоритмы Google не всегда работают идеально, но с нормальными текстами проще — их можно повторно отправить на индексацию, и в течение суток информация возвращается. Если Google ошибается, повторная индексация помогает восстановить контент. Однако с текстами, описанными выше, это сложнее — они не возвращаются в индекс так просто.
Google не только совершенствует языковые модели, но и использует всю доступную информацию для оценки качества контента. Я собрал данные из утечек Google, где было указано, что они оценивают усилия, затраченные на создание контента. Если текст создан за несколько секунд с помощью чата, он, как правило, не несёт пользы и не информативен. Это моя точка зрения, что таким образом Google пытается отсечь некачественный контент.
Google Chrome передаёт информацию о поведении пользователей: время, проведённое на сайте, прокрутку страницы и так далее. По моему мнению, это также делается для оценки качества контента.
Почему мы не генерируем и не переписываем тексты, чтобы обойти детекторы? Как мы обсуждали, создать что-то качественное из однотипных, шаблонных фраз и стиля с повторяемостью невозможно. Я тестировал разные подходы и итог такой, что такие тексты нужно писать с нуля, переписывать бесполезно. Это подтверждает и моя практика.
Многие пытаются обмануть детекторы, создавая гибриды: половина текста сгенерирована чатом GPT, а другая половина переписана человеком, например, индийским фрилансером. В результате получается текст с монотонным стилем и вставками разного качества. Такой метод может сработать на детекторе, но, на мой взгляд, Google использует более сложные алгоритмы, чтобы распознать искусственные тексты.
Что делать, если сайт потерял позиции?
Я тестировал разные подходы и пришёл к выводу, что полезно удалять старые новости и пресс-релизы, особенно если они датированы, например, 2019 годом или ранее. Весь этот устаревший контент нужно убирать, оставляя только актуальную информацию. Google старается не индексировать старые данные, и это может снижать общее качество сайта.
Страницы с «тонким» контентом, где мало полезной информации и текста, нужно дополнять или удалять. Страницы с дублированием ключевых слов и текстов также представляют проблему. Каннибализация контента — это когда одинаковые части текста дублируются на нескольких страницах. Чтобы решить это, нужно объединять дублирующийся контент в одну статью и удалять лишние страницы, оставляя перенаправления (301), чтобы избежать ошибок 404.
Сейчас появились алгоритмические фильтры, реагирующие на переизбыток ключевых слов в тексте и заголовках. Раньше это было менее заметно, но сейчас алгоритмы начали понижать сайты за избыточное количество ключевых слов, и контент может выпадать из топ-100 или даже топ-1000. Касательно этих двух обновлений, следует обратить внимание на тексты, написанные нейросетями для страниц услуг или статей — их лучше переписать. Я упоминал об этом в начале, и данные показывают, что на новых сайтах с возрастом 2-3 года это влияет заметно. На старых трастовых сайтах я не могу с уверенностью сказать, как это сказывается.
Рекомендуется обновлять старые статьи, добавлять свежий контент, дописывать или добавлять дополнительную информацию. Некоторые, кого я видел в зарубежной практике, начали включать блоки с часто задаваемыми вопросами (FAQ) в статьи. Изначально мне это показалось странным, особенно на страницах услуг. Однако после анализа и проверки таких текстов с помощью инструментов, включая MR, я обнаружил, что такие ключевые слова и фразы тоже могут способствовать ранжированию и приносить дополнительный трафик. Я взял это на заметку и планирую использовать.
Кроме того, стоит дополнять статьи исследованиями и полезными данными. Эту информацию можно находить в открытых источниках. Я, например, использую не только Google, но и специальные платформы для поиска свежих данных, связанных с моей тематикой. Графики и диаграммы можно создавать с помощью инструментов вроде ChatGPT или Claude. Хотя их результаты не всегда эстетически идеальны, для случаев, когда нет доступа к дизайнеру или времени на создание вручную, это приемлемый вариант.
Также не стоит забывать про использование гифок, слайд-шоу и видео, которые можно сделать самостоятельно.
Ещё один интересный момент — как получить мнение экспертов. Ранее была популярна платформа HARO, где журналисты оставляли запросы, и профессионалы отвечали на них, добавляя свои комментарии в статьи. Это позволяло получить ссылки на свой сайт. Сейчас этот сервис называется «Con». Вы можете зарегистрироваться как журналист или создатель контента на платформе и самостоятельно публиковать запросы, например: «Что такое SEO?». Эксперты будут отвечать на ваши вопросы, и вы сможете вставлять их комментарии в свои статьи. Это значительно упрощает процесс, сокращая время ожидания ответов и коммуникаций. После публикации статьи вы можете отправить её ссылку этим экспертам с сообщением: «Вот ваша цитата в статье». Они, в свою очередь, могут поделиться ею в своих социальных сетях и поставить на неё ссылку, что принесёт дополнительный трафик или обратные ссылки на ваш ресурс.
Некоторые используют старый метод — ищут информацию и исследования в старых книгах и PDF-файлах, которые не проиндексированы в интернете, и добавляют эти данные в свои статьи. Таким образом можно создавать качественный контент.
Теперь о продвижении статей, которые не имеют поискового спроса. Это могут быть кейсы или статьи с нестандартным подходом, которые демонстрируют достижение определённых результатов, например, увеличение продаж. Мы делали это следующим образом: у меня есть статья по веб-дизайну, основанная на центральном видении человека. Доказано, что расположение элементов определённым образом повышает конверсию, так как человек сканирует страницу естественным образом. Об этом не слышали, это не искали, но статья привлекла внимание.
Мы использовали таргетированную рекламу, направленную на конкретную целевую аудиторию, такую как SEO-специалисты и руководители маркетинговых отделов. Почему именно они? Потому что для мелких предпринимателей и представителей малого бизнеса нужно долго объяснять, как и зачем нужно повышать конверсию, а эти люди уже готовы к такому контенту. SEO-специалисты всегда ищут способы увеличения конверсии. Статья получила положительный отклик и 176 лайков — реальный пример успеха. География охвата включала США и Канаду.
Ещё один способ — это продвижение через релевантные группы и сообщества…
В социальных сетях вы просто размещаете статью и пишете: «Ребята, я нашёл интересный способ, дайте комментарии». Среди тех, кто откликается, могут быть маркетологи и другие специалисты, которые скажут: «Круто, мне нужно увеличить конверсию, сделайте мне такой сайт или дизайн». Так можно наладить контакты и даже начать сотрудничество.
Теперь о том, как писать тексты для страниц услуг. Стандартный процесс включает сбор ключевых слов, определение объёма текста, анализ конкурентов — количество слов, использование ключей и структура страницы. Например, если на странице 10 блоков, мы включаем их в анализ. Но есть одно отличие: мы не пишем стандартные SEO-тексты с фразами вроде «SEO необходимо для того, чтобы вы получали клиентов». Вместо этого мы создаём тексты, ориентированные на проблему, с предложением решения и доказательствами, что мы можем помочь.
Почему? Во-первых, стандартные SEO-тексты часто не приводят к конверсии. Во-вторых, как показывают исследования Google, тексты, которые читают, прокручивают и к которым возвращаются, снижают показатели отказов и улучшают поведенческие факторы. Это важный элемент для повышения эффективности страниц.
Пример текста через проблему: если у вас старый сайт с устаревшим дизайном, на странице можно написать: «Ваш сайт не приносит клиентов. Вы тратите деньги на рекламу, но результат отсутствует». Усиление проблемы: «Каждый месяц промедления — это упущенная прибыль и усиление позиций конкурентов». Далее следует решение: «Мы создадим для вас продающий сайт с маркетинговыми текстами, разработанный дизайнерами с международными наградами». Добавьте доказательства вашей компетентности, такие как кейсы.
После написания текст наполняется ключевыми словами. Ключи добавляются в текст с использованием анализаторов, которые помогают оптимизировать его под SEO.
Все анализаторы работают по одному принципу, хотя вкладки могут называться по-разному. Обычно они предлагают вставлять общие слова, задающие тематику текста. Я поступаю иначе — не использую такие слова из текстов конкурентов. Попытки вставить их в текст приводили к ухудшению позиций. Мне кажется, они снижают уникальность текста. Если создавать маркетинговый текст, как я описал ранее, и добавлять в него общие фразы конкурентов, это может негативно сказаться на результатах. Это моё субъективное мнение.
Анализаторы предлагают сравнивать ваш текст с текстами на 5-10 других сайтах. Я этого не делаю и ориентируюсь на один-два примера, так как разные сайты имеют разные ссылочные профили: у кого-то 1,000 ссылок, у кого-то 10 и т.д. Подходы могут отличаться, и кто работает с анализаторами, меня поймут.
Эти инструменты также могут предложить дописать текст или его части с помощью искусственного интеллекта. Я пробовал этот метод, но результаты были хуже. Лучше писать текст вручную, особенно если требуется добавить 200-500 слов и вставить ключевые слова. Человеческий подход всегда более эффективен.
Что я использую в анализаторах? Ориентируюсь на заголовки (H1, H2 и так далее), количество ключевых слов и оптимизацию текста. Например, если у конкурентов на странице 1,000 слов, а у вас только 200, нужно увеличить объём текста до 1,000 или больше.
Также внимательно слежу за переизбытком ключевых слов, как я упоминал ранее. На картинке видно, что добавление слишком большого количества ключевых слов в заголовки или текст приводит к выпадению страницы из топ-100. Ключевые слова, которые я удаляю, помогают вернуть позиции после повторной индексации.
Возвращение позиций на 50-е места, как видно на графике, может происходить после корректировки. Если ваши сайты потеряли позиции, стоит проанализировать ситуацию с ключевыми словами и попробовать внести изменения — возможно, страницы снова поднимутся, и затем можно будет усилить их с помощью ссылок.
Выводы по последним алгоритмам, о которых я говорил, субъективны. У меня нет обширной базы данных, но я считаю, что алгоритмические фильтры стали многослойными. Эти фильтры работают автоматически, без участия человека, и санкции могут накладываться, не отображаясь явно. Например, наказания могут быть за переизбыток ключевых слов, за низкокачественный или сгенерированный контент. Санкции могут касаться как отдельных страниц, так и всего сайта.
Интересный момент — покупка ссылок на сайтах среднего качества (PBN). Сайты, где покупались ссылки, могут выпасть из индексации (частично или полностью), что также влияет на позиции. Таким образом, многослойные алгоритмы делают традиционные методы SEO менее эффективными. Простое наполнение текста ключевыми словами и массовое размещение ссылок уже не даёт прежних результатов. Сейчас акцент смещается в сторону качества.
Я также заметил, что линкбилдинг меняется. Сайты с хорошими метриками и высоким DR, но с плохим контентом, часто теряют индексацию. У меня были страницы, с которых покупались ссылки, но они выпали из индекса, и это привело к снижению позиций. Специальные сервисы помогают вернуть индексацию, но ссылки уже не работают так, как раньше.
Ссылки с главных страниц по-прежнему эффективны, но только с качественных сайтов. Я пробовал использовать ссылки с PBN, но последние попытки показали, что результат почти нулевой. Это подтверждает, что традиционные методы SEO перестают работать так, как раньше.
Когда покупаешь гостевые посты на PBN и даже на более-менее нормальных сайтах с хорошими метриками, но с плохим контентом (500-700 слов), результат хуже. Многие говорят, что ссылки стали работать хуже, и я согласен — по моим данным, ситуация ухудшилась.
Что касается текстов, алгоритмы стали точнее анализировать их качество и повышать значимость хорошего контента. Мы тестировали разные варианты, и тексты высокого качества показали себя лучше, чем обычные, «индийские» тексты. Google, вероятно, стал больше полагаться на поведенческие сигналы: показатели отказов и время, проведённое на сайте. Алгоритмы совершенствуются, чтобы точнее определять шаблонный контент, сгенерированный нейросетями. В 2023 году, во время длительного обновления, алгоритмы не всегда могли различить качественные и некачественные тексты. Сейчас ситуация улучшилась, и Google лучше определяет уровень качества контента.
Из интересного: сейчас Google тестирует алгоритмы, касающиеся злоупотребления репутацией сайтов. Многие, кто работает в SEO, знают, что это значит. На крупных сайтах, таких как MarketWatch и другие, началось падение позиций. Причины могут быть разными: партнёрский контент низкого качества или общие проблемы с контентом. На некоторых сайтах размещали статьи объёмом 800-1000 слов на тему вроде «Что такое SEO», и такие тексты, как правило, не содержат ценного материала.
Да, мы не гадаем, а анализируем, чем можем быть полезны. Если кому-то нужно, мы можем предложить услуги по созданию сайтов любой сложности. Также, если у вас есть предложения по сотрудничеству, можете написать.
Как проверить тексты от копирайтера на предмет того, что они были созданы с помощью искусственного интеллекта?
Для проверки можно использовать детекторы. Сейчас существует множество сайтов, которые определяют процент искусственного текста. Эти инструменты можно найти через поисковик. Бесплатные детекторы показывают общий процент машинного текста, и если он выше 50%, это уже плохо. Если результат составляет 70-80%, то это совсем плохо. Платные версии могут показывать конкретные фрагменты или предложения, которые кажутся подозрительными.
Как найти хороших копирайтеров?
В Турции и Бангладеш есть квалифицированные специалисты, выпускники университетов с лингвистическим образованием. Я находил таких специалистов на фриланс-платформах, и их работа оказалась качественной. Даже в Бангладеше и Турции можно найти людей, которые пишут грамотные тексты. Несколько лет назад я также привлекал копирайтеров с Филиппин, где многие учились в США.
Использование машинного перевода может быть эффективным для узкоспециализированных текстов, например, для юридических документов. Они обычно лишены индивидуальности, и деловой стиль сохраняется. Профессионал затем дорабатывает текст, исправляя выпавшие детали и адаптируя к контексту. Это подходящий способ для стандартных текстов, где стилистика не меняется.
Каким инструментом можно проверить текст на качество?
Из известных сервисов могу порекомендовать «Neuron Writer» — попробуйте его для анализа и подстройки текста под конкурентов. Также SEO-анализаторы, такие как SE Ranking, могут быть полезны.
Многие сайты указывают, что перепечатка или использование частей их статей преследуется по закону. Это правда?
Я не могу дать точный ответ, но всегда лучше перефразировать текст и использовать его с соблюдением авторских прав.
Столкнулась с проблемой — текст оказался полностью оригинальным, но система его заклеймила. Как быть и кого винить?
Это действительно сложная лингвистическая проблема. Я советую использовать несколько инструментов, таких как GPT-анализаторы, чтобы проверить текст. Вопрос в том, что именно мы проверяем. Если текст изначально был создан через ChatGPT и затем изменён, важно увидеть, какой процент текста машина считает искусственным. Обычно, если система показывает 80-90% вероятности, текст определённо воспринимается как машинный. Но если вам нужно проверить текст, не зная его происхождения, результаты могут быть вариативными, особенно если показатель превышает 50%.
Если детектор показывает результат выше 50%, это вызывает подозрения, что текст сгенерирован машиной. Обычно они в этом не ошибаются. Если одна проверка на GPT показывает 50% и выше, а другая — примерно столько же, можно предположить, что текст действительно требует доработки.
Иногда случается, что детектор определяет как машинный текст, написанный человеком, и показывает до 70% вероятности. Это происходит, потому что детектор триггерится на языковые паттерны и устойчивые словосочетания. Например, такие фразы, как «идти домой» или «сесть в кресло», очень распространены. Если текст содержит множество таких коллокаций (частотных сочетаний слов), детектор может ошибочно определить его как машинный.
Важно понимать, что детектор реагирует на частотные сочетания. Замена некоторых слов и добавление описательных элементов помогает снизить процент вероятности, даже если вы работаете вручную и не используете ChatGPT. Этот процесс позволяет улучшить восприятие текста, делая его более живым и уникальным.
Чтобы сделать текст более «человечным», нужно добавить стилистику с красивыми прилагательными и неожиданными фразами. Специалисты по английскому языку знают, что этот язык очень склонен к сочетаемости слов (коллокациям), что помогает в его изучении. Попробуйте заменять простые фразы на более интересные. Например, «читать книгу» детектор может определить как машинный текст, а «читать мысли» снизит вероятность, так как это менее частотное сочетание.
В таких случаях мы используем метод «очеловечивания», чтобы улучшить текст.
Что если я, человек, пишу хуже, чем искусственный интеллект?
Это возможно и вполне нормально. Простыми словами можно описать даже сложные вещи. Индивидуальный стиль и литературный дар — редкие качества. Бывает, что средние статьи, написанные фрилансерами, неплохо индексируются, хотя они могут быть не идеальны.
Как Google относится к новостным постам, когда все пишут об одном и том же событии, например, «Динамо обыграло ПСЖ», и уникальность текста небольшая.
Я, к сожалению, не могу точно ответить на этот вопрос, так как занимаюсь другой сферой — написанием информационных статей и контента для сайтов услуг. В новостной тематике уникальность не так важна, поскольку тексты часто собираются с разных сайтов.
В новостной сфере важнее другие моменты, такие как, кто из авторитетных источников первым опубликовал новость, какой рейтинг у издания и сколько раз оно было процитировано. В этой области работают другие алгоритмы. Судя по всему, Google оценивает новостные материалы иначе, чем информационные статьи.
До новых встреч, и увидимся на вершине поисковой выдачи! Пока-пока!