Веб-разработчик, ООО "Интаро Софт", РФ, г. Липецк
МЕТОДОЛОГИЯ ПРОТИВОДЕЙСТВИЯ МАНИПУЛЯЦИЯМ ПОИСКОВОЙ ОПТИМИЗАЦИИ ВЕБ-САЙТОВ
АННОТАЦИЯ
В статье рассматривается методология противодействия манипуляциям поисковой оптимизации (Black Hat SEO), включающая технические, организационно-правовые и управленческие меры. Систематизировано развитие «негативных» приёмов — от классических фарма ссылок и переспама ключевых слов до современных «промо-дефейсов» и обфускации «жаргонов». Исследован многоуровневый подход: усиление веб-доступности (semantic HTML, ARIA, контрастность), облачный мониторинг дефейсов (DMOS с Jargon Normalization Algorithm и Tag-aware Hierarchical Attention Network), а также внедрение внутренних комплаенс-политик и приведение «cookie-баннеров» и рекламных раскрытий в соответствие с законодательством. Сведения, отраженные в рамках статьи, будут интересны для других исследователей в области информационного поиска и машинного обучения, специализирующихся на формальных моделях ранжирования и анализе устойчивости алгоритмов к враждебным воздействиям, а также для специалистов по кибербезопасности, занимающихся разработкой инструментов автоматизированного выявления и нейтрализации «чёрных» SEO-тактик.
ABSTRACT
The article discusses the methodology of countering search engine optimization manipulation (Black Hat SEO), which includes technical, organizational, legal and managerial measures. The development of "negative" techniques is systematized — from classic pharmaceutical links and keyword spam to modern "promo-defaces" and obfuscation of "jargons". A multi-level approach has been explored: enhanced web accessibility (semantic HTML, ARIA, contrast), cloud-based monitoring of defenses (DMOS with Jargon Normalization Algorithm and Tag-aware Hierarchical Attention Network), as well as the implementation of internal compliance policies and bringing cookie banners and advertising disclosures in line with legislation. The information reflected in the article will be of interest to other researchers in the field of information retrieval and machine learning, specializing in formal ranking models and the analysis of the resilience of algorithms to hostile influences, as well as to cybersecurity experts involved in the development of tools for automated detection and neutralization of "black" SEO tactics.
Ключевые слова: веб-доступность, манипуляции SEO, Black Hat SEO, промо-дефейс, нормализация жаргона, DMOS, алгоритмический аудит.
Keywords: web accessibility, SEO manipulation, Black Hat SEO, promo deface, jargon normalization, DMOS, algorithmic audit.
Введение
Поисковые системы в интернете (такие как Google*, Яндекс) применяют сложные формулы ранжирования результатов поиска. Точная формула и даже перечень факторов, которые влияют на ранжирование, не разглашаются и постоянно изменяются. В связи с чем считается, что есть определенный поведенческий фактор для интернет-магазинов соотношение времени просмотра страниц и количества добавлений в корзину. Существуют крупные ботнеты, которые специализируются на SEO-скрутках сайтов на базе этого фактора. Принцип достаточно простой — делаются длительные просмотры страниц, в силу того, что простого скроллинга страницы не достаточно (1 - 10 минут на просмотр одной страницы). Такой ботнет очень эффективен: тут нет упора на количественных показателях не нужно массово посещать сайт. Однако злоупотребление подобными методами часто приводит к использованию более агрессивных и нечестных практик продвижения. Скрытый контент, фарминг, инъекции «дефейс-контента» и обфускация ключевых слов, наносят ущерб не только репутации ресурса, но и подрывают доверие пользователей и ухудшают качество сетевого информационного пространства [1; 2].
Цель статьи заключается в рассмотрении методологий противодействия манипуляциям поисковой оптимизации веб-сайтов, сочетающих автоматизированный мониторинг, машинно-обученные детекторы и управленческие меры.
Научная новизна работы заключается в том, что проанализирована возможность использования архитектуры облачного мониторинга, объединяющая «виртуальных агентов» для систематического сбора страниц и алгоритмический анализ HTML-тегов с использованием модели Tag-aware Hierarchical Attention. Также впервые обоснована методика комбинирования технического аудита и организационно-правового комплаенса для минимизации SEO-рисков.
Авторская гипотеза сводится к тому, что использование иерархической модели внимания с учётом значимости HTML-тегов и автоматическая нормализация ключевых слов обеспечат точность детекции SEO-манипуляций даже при изменчивости выдачи поисковых систем.
Методология статьи основана на анализе результатов других исследований в данной области.
Материалы и методы
Литературные источники, касающиеся методологии противодействия манипуляциям поисковой оптимизации веб-сайтов, возможно условно подразделить на несколько смысловых групп.
В области технического аудита и обнаружения «черного» SEO Yang R. et al. [3] представляют масштабируемый метод выявления дефейсов промо-ресурсов, основанный на выявлении аномалий в кампаниях black hat SEO с применением алгоритмов машинного обучения и распределённой обработки данных. Аналогичным образом Ulloa R., Makhortykh M., Urman A. [4] предлагают фреймворк аудита механизмов ранжирования, они систематически генерируют поисковые запросы, собирают временные ряды изменений позиций и строят диагностические отчёты для выявления целенаправленных манипуляций алгоритмами поисковых систем.
Практические рекомендации по SEO и повышению качества ресурса содержатся в работе Элиханова В. Г. и др. [5], где описаны оптимальные алгоритмы размещения ключевых слов, особенности формирования метаописаний и стратегии внутреннего и внешнего линкбилдинга с учётом обновлений алгоритмов Google*. Маркетинговый взгляд на сайт как на инструмент продвижения дополняет Шогенов А. M. [7], рассматривая в первую очередь вопросы юзабилити, структуры контента и поведенческих метрик пользователей, которые позволяют нейтрализовать попытки манипуляций за счёт повышения общей релевантности ресурса.
В группе исследований по веб-доступности Шогенов А. M. [1] детализирует рекомендации по улучшению контрастности, обеспечению навигации с клавиатуры и корректному использованию альтернативного текста для изображений. Игнаткова Я. А., Шутько Н. П. [6] определяют веб-доступность как неотъемлемый параметр качества сайта и предлагают чек-лист ключевых критериев оценки. Гаджиев М.Г. и соавторы [8] сравнивают эффективность инструментов автоматизированного тестирования доступности на примере крупных порталов, а Мухина Ю.Р. [9] фокусируется на семантической вёрстке и правилах HTML/CSS, обеспечивающих корректную работу ассистивных технологий. Эмпирический взгляд на проблему даёт Пудич А. С., Гриф М. Г., Бакаев М. А. [10], исследующие доступность сайтов.
Этические и социальные аспекты интернет-манипуляций рассматриваются в работе Дворянкина О. А. [2], где интернет-мошенничество трактуется и как результат новых технологий, и как проявление человеческой жадности. Singh V. K. et al. [11] анализируют гендерные стереотипы в образах профессионалов на цифровых платформах, демонстрируя, как манипуляции визуальным контентом влияют на релевантность выдачи и восприятие пользователей.
Однако несмотря на богатство подходов, в литературе прослеживается ряд противоречий, так, одни авторы рассматривают SEO прежде всего как техническую задачу аудита алгоритмов, другие — как следствие недостаточного качества контента и UX, решаемое через «белое» SEO и веб-доступность, а третьи сосредоточены на этических и социальных последствиях манипуляций. При этом недостаточно объединяющих исследований, связывающих технический аудит SEO-манипуляций с оценкой доступности и пользовательского опыта, а также практически не изучено влияние таких манипуляций на доверие и поведение разных категорий пользователей.
Результаты
В условиях усиливающейся конкуренции за внимание пользователей и ограниченных возможностей занять верхние позиции в результатах поисковых систем администраторы и оптимизаторы нередко прибегают к нелегальным методам SEO. Эти приёмы разделяются на две крупные группы, которые различаются по характеру вмешательства в содержимое и структуру веб-страниц.
К классическим Black-Hat-методам относятся приёмы, направленные на искусственное завышение «веса» страницы. Переспам ключевых слов (keyword stuffing) реализуется через множественное повторение целевых фраз в тексте, мета-тегах и скрытых элементах страницы, что снижает качество контента и приводит к санкциям со стороны поисковых систем [1]. Фарминг ссылок (link farming) предполагает размещение большого числа перекрёстных ссылок между контролируемыми ресурсами с целью наращивания внешней ссылочной массы, что также может вызвать штрафные меры при обнаружении. Клоакинг (cloaking) заключается в предоставлении роботу поисковой системы одной версии страницы и реальному пользователю — иной, что позволяет обманывать алгоритмы ранжирования и искажать субъективные оценки релевантности [3; 11]. Наконец, дублирование контента выражается в массовом копировании материалов с авторитетных источников на сайты-«спутники» низкого качества, что временно повышает позиции в выдаче, но неизбежно приводит к санкциям при выявлении повторяющихся фрагментов.
Современные скрытые вставки, или «промо-дефейсы», представляют собой более тонкие методы SEO-манипуляций, основанные на минимальных и незаметных изменениях в элементах страницы. Одним из таких приёмов является взлом легитимного ресурса и внедрение «обфусцированных» ссылок и текстовых фрагментов, замаскированных под невидимые или малозаметные участки кода, что позволяет обходить автоматические фильтры. Другой техникой служит обфускация жаргонов: замена названий продвигаемых товаров или услуг на гомофонные или гомоморфные варианты, которые поисковые алгоритмы не всегда распознают как нежелательный контент [2; 3]. Кроме того, динамическая подмена содержимого через JavaScript-скрипты позволяет скрывать промо-контент от не-JS-браузеров и инструментов аналитики, сохраняя при этом эффект повышения релевантности. Наконец, незначительная правка приоритетных тегов, таких как <title>, <meta> и атрибутов ссылок <a>, обеспечивает увеличение индексируемости продвигаемых ключевых слов, оставаясь практически незаметной для пользователей и автоматических проверок [7; 8].
Ниже приведена таблица 1, в рамках которой продемонстрированы основные манипулятивные приёмы.
Таблица 1.
Основные приёмы SEO-манипуляций и их механизм [1; 2; 3; 7; 8].
|
№ |
Метод SEO-манипуляции |
Описание |
Механизм реализации |
|
1 |
Переспам ключевых слов |
Многократное повторение ключевых фраз |
Избыточные вхождения в тексте, мета-теги, скрытые блоки |
|
2 |
Фарминг ссылок |
Сеть взаимоссылающихся сайтов для наращивания «массы» ссылок |
Создание «ферм» доменов, взаимные ссылки |
|
3 |
Клоакинг |
Двойная версия страницы для робота и пользователя |
Обслуживание разного HTML по User-Agent или IP |
|
4 |
Дублирование контента |
Копирование чужих текстов на «спутники» |
Массовый ввод скопированных страниц |
|
5 |
Промо-дефейс (stealthy defacement) |
Скрытое внедрение промо-контента в легитимные страницы |
Взлом CMS, редактирование приоритетных тегов |
|
6 |
Обфускация жаргонов |
Замена слов на гомофонные/гомоморфные аналоги |
Алгоритмическая замена символов и слов по фонетическому/граф-у |
|
7 |
JavaScript-камуфляж |
Динамическая загрузка/скрытие фрагментов через скрипты |
Ajax-подгрузка, изменение DOM после рендеринга браузером |
|
8 |
Внедрение в <title>, <meta> и <a> |
Изменение приоритетных для SEO элементов |
Прямое редактирование HTML шаблонов |
Для эффективного противодействия SEO-манипуляциям требуется сочетание превентивных мер на уровне кодовой базы сайтов и активного алгоритмического мониторинга. С одной стороны, планомерная вёрстка и семантическая организация контента повышают прозрачность кода и затрудняют внедрение скрытых вставок; с другой стороны, облачные системы с машинным обучением обеспечивают своевременное обнаружение «промо-дефейсов» и масштабируемый аудит.
Превентивные меры включают в себя следующие приёмы. Во-первых, все информационные изображения снабжаются описательным атрибутом alt, а декоративные получают пустой alt-тег, что позволяет скрин-ридерам игнорировать их без потери смысла интерфейса [6]. Во-вторых, для упрощения как навигации пользователя, так и автоматизированного анализа кода важно строгое соблюдение иерархии заголовков от <h1> до <h6> [5]. В-третьих, использование ARIA-атрибутов и корректно связанных элементов <label> обеспечивает явную привязку меток к полям ввода, что препятствует незаметному добавлению фишинговых полей [9]. В-четвёртых, поддержка событий onsubmit вместо имитации кликов JavaScript-обработчиками гарантирует, что формы можно отправить не только при помощи мыши, но и с клавиатуры, исключая скрытые кнопки [4; 6]. Наконец, проверка контрастности с помощью инструментов WCAG повышает читаемость текста и предотвращает внедрение замаскированных графических ссылок, а субтитры и транскрипты расширяют доступность аудио- и видеоматериалов [10].
Применение указанных приёмов не только улучшает опыт пользователей с ограниченными возможностями, но и делает структуру сайта более «жёсткой», что существенно усложняет малозаметные правки, характерные для «промо-дефейсов». Однако по мере эволюции SEO-тактик объём ручных проверок кода становится непродуктивным, поэтому для оперативного выявления дефейсов целесообразно использовать облачные системы, сочетающие сбор страниц и методы машинного обучения.
Одна из таких систем, DMOS (Defacement Monitoring System), реализует четыре ключевых этапа (рис.1.). На этапе сбора страниц выполняются поисковые dork-запросы для обнаружения подозрительных URL и обкатка их «виртуальными агентами», которые обходят сайты и сохраняют их HTML. На этапе предобработки происходит парсинг документа в пары «тег–содержимое», устранение дубликатов с помощью fuzzy-хеширования и нормализация сессий. Далее алгоритм Jargon Normalization Algorithm (JNA) выявляет нефлюентные предложения с обфусцированным жаргоном посредством униграммного языкового моделирования и восстанавливает оригинальные ключевые фразы по фонетическому (Pinyin) или графическому (Four-Corner System) сходству при низком уровне ложных срабатываний. На завершающем этапе Tag-aware ML-модели, такие как Tag-aware Hierarchical Attention Network (THAN), используют многоуровневое внимание: сначала на уровне слов, затем на уровне «тег–предложение», где каждому тегу присваивается эмбеддинг-вес. [2].
/Ekhlakov.files/1.png)
Рисунок 1. Архитектура системы DMOS (составлено автором на основе [2]).
Таким образом, объединение семантических приёмов вёрстки и адаптированных ML-алгоритмов обеспечивает многоуровневую защиту от SEO-манипуляций: жёсткая кодовая база препятствует малозаметным правкам, а автоматизированный аудит гарантирует своевременное обнаружение и классификацию попыток дефейса.
Далее в таблице 2 отражены основные компоненты DMOS.
Таблица 2.
Ключевые компоненты и источники архитектуры DMOS [2; 4; 6; 9].
|
Компонент |
Функция |
|
Dork-запросы |
Поиск потенциально дефейсных страниц |
|
Виртуальные агенты (WebBot) |
Синхронный сбор HTML через эмуляцию поиска |
|
Jargon Normalization Algorithm |
Восстановление обфусцированных ключевых слов |
|
Hierarchical Attention (THAN) |
Учёт значимости HTML-тегов и динамический attention-механизм |
|
Инфраструктура (AWS, Kafka) |
Масштабируемая и отказоустойчивая платформа для распределённых агентов |
Для непрерывного мониторинга сотен сайтов и миллионов страниц используются:
- Облачные виртуальные машины (AWS EC2) в разных регионах для устранения гео-ограничений.
- Очистка сессий между запуском агентов (cookies, кэш, локальное хранилище) для минимизации персонализации.
- Системы очередей (Kafka) для балансировки загрузки и асинхронной передачи HTML-документов на центральный сервер анализа.
- Мониторинг Health-checks и автоматические перезапуски агентов при падении.
Эффективная борьба с манипуляциями в поисковой оптимизации требует не только технических средств, но и чётко выстроенной организационно-правовой системы, включающей внутренние комплаенс-программы, законодательное регулирование и систематическое просвещение сотрудников.
В основе внутренних политик лежит кодекс этики SEO-специалиста, который формулирует однозначные запреты на использование «чёрных» приёмов (клоакинг, фарминг ссылок, скрытые вставки) и обязывает специалистов декларировать применяемые методы оптимизации. Регулярный аудит соответствия этим нормам позволяет поддерживать прозрачность процессов и своевременно выявлять отклонения от этических стандартов [5].
Периодические проверки веб-ресурсов включают сканирование HTML-кода на предмет аномалий — скрытых тегов <meta> и <title>, обфусцированных ссылок — с использованием чек-листов по WCAG и рекомендаций Google* Webmaster Guidelines. Такой подход обеспечивает контроль «здоровья» сайта и поддерживает доступность контента для пользователей и роботов поисковых систем [6].
Для оперативной реакции на инциденты создаётся специализированная команда быстрого реагирования, чья задача — расследовать подозрительные изменения, выполнять обратный ролл при необходимости и уведомлять поисковые системы об устранённых дефейсах. Внедрение стандартных процедур реагирования минимизирует время простоя и снижает риски репутационных потерь.
Просветительские и контрольные меры предполагают регулярное обучение сотрудников современным требованиям SEO и доступности, включая семинары по распознаванию «промо-дефейсов» и вредоносных вставок [9]. Взаимодействие с правоохранительными органами предусматривает обязательное уведомление Роскомнадзора или Европейского DPA при массовых случаях SEO-мошенничества и передачу доказательств (логи серверов, версии контента) для эффективного расследования. Ежегодная публикация отчётов о выявленных дефейсах и чёрных списков подозрительных доменов повышает уровень прозрачности и стимулирует соблюдение нормативов [3].
Разграничение ответственных ролей обеспечивает слаженную работу всего механизма: CIO/CTO утверждает политику веб-безопасности и обеспечивает ресурсы для аудита, SEO-менеджер контролирует соблюдение кодекса и координирует внутренние проверки, команда DevOps интегрирует автоматизированные инструменты мониторинга и отката, а юрист по ИТ-праву отслеживает изменения в законодательстве и актуализирует договоры с подрядчиками.
Обсуждение
Далее будет рассмотрен практический опыт автора. Так в ходе регулярного мониторинга статистики посещаемости крупного интернет-магазина была выявлена аномалия: доля зарубежных визитов, в то время как целевая аудитория представляла собой пользователей из России, достигала порядка 50 % от общего числа уникальных посетителей (60 тыс. «реальных» vs. 120 тыс. суммарных в сутки). Несмотря на отсутствие вредоносных действий (взломов, спама, подбора паролей), такие «чужие» сессии приводили к «прогреву» кеша и увеличению средней нагрузки на сервер, что сказывалось на производительности системы.
Через шесть месяцев этот вопрос вновь был поднят SEO-командой, подкреплённый данными об устойчивом снижении позиций сайта в органической выдаче. Современные алгоритмы ранжирования учитывают соотношение посещений и конверсий: при высоком трафике и низком уровне покупок — ресурс воспринимается как менее релевантный, что влекло за собой ухудшение позиций и потенциальную потерю органического трафика.
Первая попытка решения заключалась во внедрении стороннего сервиса DDoS Guard с единой базой «чёрных» IP. Ожидалось, что унаследованная от других клиентов информация позволит оперативно убирать нежелательных ботов. Однако практическая реализация показала, что подавляющее число подозрительных адресов создавали лишь несколько запросов в день — сценарий, далёкий от классической DDoS-атаки — и не вызывали подозрений у сервиса. Интеллектуальная блокировка увеличила общий объём заблокированного трафика лишь на несколько процентов и привела к ложным срабатываниям в отношении легитимных пользователей.
Понимая неэффективность «чёрно-белых» списков, команда перешла к разработке собственной системы поведенческого анализа. Выделялись потенциально подозрительные IP, первоначально — зарубежные, затем — расширенная выборка по результатам веб-визора Яндекс.Метрики. Были зафиксированы следующие бот-паттерны: продолжительность сессий в диапазоне 1,5–4 минут (против 10–30 сек у человека), автоматический скроллинг с равномерными интервалами в 1–2 сек независимо от объёма контента, а также некорректная инициализация JavaScript-слайдеров на странице. Для формализации отличий была введена балльная система: посетителю начислялись баллы за время на странице, количество скроллов и кликов; суммарный риск-балл ниже порога переводил визит в «серую» зону для дополнительной проверки.
Изучение Google* reCAPTCHA v3 выявило, что этот сервис способен без явного отображения капчи в фоновом режиме оценивать «уровень человекоподобия» по шкале от 0 до 1. Учитывая бесплатный лимит в 1 000 000 проверок в месяц (до 2025 года и 10 000 проверок в месяц, начиная с 2025 года) и суточный трафик в 120 000 просмотров, был выбран селективный подход: проверялись только мобильные устройства и только три типа страниц (главная, каталог, карточка товара). Отсрочка вызова оценки на 15–20 секунд после загрузки страницы позволила дополнительно отсеять посетителей с непродолжительным пребыванием, снизив число ежедневных проверок до ≤ 30 000.
В течение первой недели оценки лишь логировались без блокировок, что позволило собрать статистику распределения оценок. Затем были последовательно выполнены три волны действий. Во-первых, блокировка посетителей с оценкой reCAPTCHA < 0,3 и зарубежных IP, что сократило нежелательный трафик на ~20 %. Во-вторых, была осуществлена полная блокировка одной группы IP-адресов дата-центра (около 200 IP) по найденной конфигурации nginx, что добавило ещё ~10 % снижения. В-третьих, оставшиеся адреса с низкой оценкой были перенаправлены на самодельную кириллическую CAPTCHA, минимально затрагивающую легитимных пользователей благодаря сохранению «белого» списка прошедших проверку. В результате суммарная доля аномальных визитов снизилась более чем на 90 %, при этом влияние на обычных клиентов оказалось незначительным.
Несмотря на исчерпание бесплатного лимита Google* reCAPTCHA через половину месяца, усреднённые оценки, накопленные за три недели, позволили системе продолжать корректную классификацию ботов ещё до 3 недель без новых запросов. Дополнительно был настроен автоматический запуск проверок на первое число каждого месяца в 14:00 (по Московскому времени), что согласуется с внутренними временными рамками обновления лимитов reCAPTCHA.
Юридическим аспектом внедрения reCAPTCHA v3 стало требование отображать на странице ссылки на политику конфиденциальности и пользовательское соглашение Google*. Для соблюдения требований сервиса было решено скрыть визуальный блок reCAPTCHA в дизайне и дополнить пользовательское соглашение сайта уведомлением о проверке посетителей с соответствующей ссылкой.
Перспективы развития методики предусматривают усиление серверного мониторинга: отсутствие обновления оценки reCAPTCHA при повторных запросах может сигнализировать о попытке обхода проверок. Кроме того, возможна интеграция коммерческих CAPTCHA-решений (например, Яндекс) для повышения стойкости к адаптации ботов, а также внедрение методов машинного обучения для динамического пересмотра порогов и распознавания новых паттернов автоматических агентов. Таким образом, предлагаемая гибридная схема демонстрирует высокую эффективность и адаптивность, однако требует постоянного мониторинга и обновления в условиях эволюции методов SEO-манипуляций.
Заключение
Эффективное противодействие SEO-манипуляциям базируется на комплексном подходе, включающем технические, алгоритмические и организационно-правовые меры. Техническая составляющая направлена на укрепление семантической структуры веб-ресурса и предотвращение скрытых вставок за счёт внедрения современных методов валидации разметки и контроля целостности контента. При этом применяются механизмы динамического анализа HTML-структур, блокирующие попытки обфускации.
Алгоритмический мониторинг реализуется в системе DMOS, оснащённой многоуровневым механизмом внимания (attention) и средствами нормализации обфусцированного текста, что обеспечивает высокую точность распознавания нежелательных SEO-манипуляций. Такой подход позволяет выявлять как простые, так и хорошо скрытые дефейсы, адаптируясь к новым техникам скрытого продвижения.
Организационно-правовой блок включает разработку и внедрение комплаенс-программ, регулярное проведение внутренних и внешних аудитов, систему обучения сотрудников принципам «чистого» SEO, а также взаимодействие с отраслевыми регуляторами. Систематизация этих мероприятий создаёт устойчивую среду, в которой попытки нечестного продвижения становятся более прозрачными и легко контролируемыми.
Перспективы дальнейших исследований связаны с усилением защиты посредством разработки adversarial-robust моделей и применением машинного обучения на основе графовых представлений HTML-структур. Кроме того, анализ пользовательского поведения — включая тепловые карты и анализ логов реальных сессий — позволит точнее моделировать «живые» атаки и повышать адаптивность защитных систем. Важным направлением также является расширение нормативной базы и создание отраслевых стандартов по прозрачности SEO-практик, что усилит регулятивный контроль и повысит доверие к результатам ранжирования.
Таким образом, синергия технических инноваций, алгоритмического мониторинга и организационно-правовых мер создаёт надёжный барьер против SEO-манипуляций и обеспечивает справедливое ранжирование веб-ресурсов в поисковых системах.
Список литературы:
- Шогенов А. M. Веб-доступность: как улучшить доступность вашего сайта //Редакционный совет. – 2023. – С. 517 – 524.
- Дворянкин О. А. интернет-мошенничество — это новая интернет-технологии или жадность и алчность неистребимы...? //Национальная ассоциация ученых. – 2021. – №. 64-1. – С. 14-20.
- Yang R. et al. Scalable detection of promotional website defacements in black hat {SEO} campaigns //30th USENIX Security Symposium (USENIX Security 21). – 2021. – С. 3703-3720.
- Ulloa R., Makhortykh M., Urman A. Scaling up search engine audits: practical insights for algorithm auditing //Journal of information science. – 2024. – Т. 50. – №. 2. – С. 404-419.
- Элиханов В. Г. и др. Как улучшить рейтинг вашего сайта в GOOGLE*//Тенденции развития науки и образования. – 2020. – №. 68-1. – С. 127-130.
- Игнаткова Я. А., Шутько Н. П. Доступность веб-контента как неотъемлемый параметр качественного веб-сайта //Материалы VI Международной научно-практической конференции студентов, аспирантов, преподавателей. – 2022. – С. 162-165.
- Борисова А. А. Сайт компании как инструмент интернет-маркетинга. Юзабилити сайта //Вестник науки. – 2023. – Т. 5. – №. 6 (63). – С. 40-45.
- Гаджиев М. Г. и др. Инструменты для анализа уровня обеспечения доступности сайтов //Ответственный редактор. – 2022. – С. 25 – 32.
- Мухина Ю. Р. Правила вёрстки сайтов для обеспечения их доступности //Управление в современных системах. – 2021. – С. 327-332.
- Пудич А. С., Гриф М. Г., Бакаев М. А. Исследование доступности веб-сайтов вузов России для лиц с ограничениями по зрению //Вестник Российского университета дружбы народов. Серия: Информатизация образования. – 2022. – Т. 19. – №. 1. – С. 29-44.
- Singh V. K. et al. Female librarians and male computer programmers? Gender bias in occupational images on digital media platforms //Journal of the Association for Information Science and Technology. – 2020. – Т. 71. – №. 11. – С. 1281-1294.
*По требованию Роскомнадзора информируем, что иностранное лицо, владеющее информационными ресурсами Google является нарушителем законодательства Российской Федерации – прим. ред.