Розширте свої можливості CMS з нашим магазином плагінів

Cs-Cart, Drupal, Magento, OpenCart, PrestaShop, WordPress, ZenCart

SEO-оптимізація

Інтеграція CMS

Веброзробка

Оптимізація продуктивності

Коли SEO за замовчуванням у CMS вже не працює

Nadiia Sidenko

2026-04-17

Сучасна CMS може закривати для технічного SEO значно більше, ніж багатьом командам здається на старті. Канонічні теги, XML-карти сайту, robots-директиви, структуровані дані та навіть новіші машиночитні сигнали часто генеруються ще до того, як хтось відкриє технічний аудит. Це підняло базовий рівень SEO у вебі загалом. Але водночас з’явилося небезпечне припущення: якщо базові елементи вже є, значить і стратегія працює. На практиці це правда лише доти, доки сайт лишається простим. Щойно сайт обростає мовними версіями, шаблонами, фільтрами, плагінами, інтеграціями та нестандартною логікою контенту, SEO за замовчуванням дедалі частіше перестає відповідати тому, як бізнес реально працює. Саме тут технічне SEO стає вже не питанням «чи є базові сигнали», а питанням стратегії та керування логікою сайту.

Technical SEO cover with Meta robots, X-Robots-Tag, rel="canonical", and noindex

Як CMS задає базовий рівень технічного SEO


Для більшості сайтів технічне SEO вже не починається з порожнього аркуша. Воно починається з поведінки платформи. Екосистеми CMS формують те, як сайт віддає сигнали для обходу, метадані, канонічну логіку, структуровані дані та машиночитну структуру в масштабі. Саме тому технічне SEO на великих сайтах дедалі менше схоже на ручне налаштування і дедалі більше — на керування платформною логікою. Веб сьогодні не просто будується на CMS. Його дедалі сильніше стандартизують саме вони.


І це вже не дрібниця. Згідно з розділом Web Almanac про CMS, у 2025 році сайти на CMS становлять більш ніж половину всіх досліджених сайтів, а сам WordPress охоплює приблизно 64% CMS-сайтів. У цьому ж розділі є ще одна важлива думка, яку легко пропустити: CMS сьогодні впливають не лише на редагування контенту, а й на видимість у пошуку, зручність, продуктивність і те, як контент потрапляє у пошук і в системи ШІ. Тобто технічне SEO часто формується ще до того, як SEO-фахівець внесе першу ручну правку.


Це підняло базовий рівень SEO і змінило саме уявлення про те, що таке «базове технічне SEO» сьогодні. Багато сайтів уже запускаються з канонічними тегами, структурованими даними, адаптивними шаблонами та SEO-логікою, згенерованою плагінами. Як показує розділ Web Almanac про SEO, канонічні теги вже присутні приблизно на двох третинах сторінок, meta robots використовуються широко, а структуровані дані стали звичною частиною сучасних сайтів. Базове технічне SEO тепер не виняток, а частина дефолтної інфраструктури вебу.


І цей вплив уже виходить за межі класичного пошуку. Оскільки системи ШІ дедалі частіше витягують, узагальнюють і переосмислюють вебконтент, CMS також формують те, наскільки сайт є машиночитним за замовчуванням. Структуровані метадані, логіка заголовків, семантична розмітка і навіть новіші орієнтовані на ШІ файли на кшталт llms.txt можуть з’являтися через поведінку платформи чи налаштування плагінів ще до того, як команда ухвалить справді усвідомлене рішення, як саме її контент має інтерпретуватися поза межами звичайного SERP. На практиці базовий рівень сьогодні — це вже не тільки доступність для обходу чи можливість індексації. Це ще й питання того, чи віддається контент у формі, яку пошукові системи, інструменти ШІ та інші споживачі даних можуть стабільно інтерпретувати.


Що SEO за замовчуванням у CMS закриває, а що — ні


Базовий рівень, який дають CMS і плагіни, справді корисний. Платформа або SEO-плагін можуть автоматично створювати канонічні URL, генерувати sitemap, додавати robots-керування, виводити базові метадані та підтримувати відносну узгодженість типових шаблонів. Для невеликих або простих сайтів цього часто достатньо, щоб уникнути грубих технічних помилок.


Але наявність технічного елемента — ще не доказ того, що логіка правильна. Канонічний тег може бути присутній і при цьому вказувати не на ту сторінку. Robots-директива може бути технічно валідною, але суперечити реальній логіці обходу сайту. Структурована розмітка може бути на місці, але лишатися надто загальною, дубльованою або відірваною від реального бізнес-змісту сторінки.


Особливо добре це видно на прикладі структурованих даних. CMS може автоматично виводити структуровану розмітку на рівні шаблонів, але така шаблонна розмітка часто вирішує питання присутності, а не точності. У результаті можна отримати валідну розмітку, яка дублюється на різних типах сторінок, надто загальна, щоб додавати корисний зміст, або механічно тягнеться туди, де вже не описує сторінку коректно. Класичний приклад — коли структурована розмітка типу WebSite або Organization, доречна для головної, дублюється на внутрішніх сторінках, які насправді мали б описуватись як стаття, послуга, товар або категорія. Для сучасного пошуку та систем ШІ це вже не дрібна технічна деталь. Структуровані дані дедалі більше працюють як контекст, зрозумілий пошуковим системам і ШІ, а не як ще одна SEO-галочка.


Складність стає помітнішою, коли SEO-можливості CMS одночасно відкривають кілька рівнів керування, але не показують чітко межі між ними. Обхід, індексація та вигляд сторінки у пошуку пов’язані, але це не одне й те саме. Правило в robots.txt визначає, чи може бот узагалі дістатися URL. Meta robots і X-Robots-Tag визначають, чи може сторінка або файл потрапити в індекс і відображатися у пошуку. А директиви для сніпетів і прев’ю керують тим, як саме контент може бути показано, якщо сторінка вже стала видимою. Коли команда успадковує ці налаштування від платформи, дуже легко повірити, що «SEO вже налаштоване», навіть якщо логіка під цим шаром давно суперечить реальній архітектурі сайту.


Документація Google про канонікалізацію добре показує цю межу. Канонікалізація — це вибір репрезентативної URL-версії серед дубльованих або майже дубльованих сторінок, і Google трактує rel="canonical" як сильну підказку, а не як жорстке правило. Це важливо, бо дублікати часто виникають через звичайну поведінку сайту: сторінки з фільтрами, різні протоколи, регіональні версії, мобільні й десктопні варіанти, випадково відкриті технічні копії після розробки. Канонікал може бути на місці, але справжнє питання — чи відповідає ця логіка тому, як сайт реально створює й пов’язує контент.


Те саме стосується robots-керування. У документації Google про meta robots і X-Robots-Tag прямо розмежовано контроль обходу, індексації та відображення в пошуку. Ці рівні вирішують пов’язані, але різні задачі, тому один рівень може зламатися, навіть якщо інший виглядає коректно налаштованим. Обхід відповідає на питання, чи може бот дістатися сторінки. Індексація — чи має сторінка право потрапити в пошук. А відображення — скільки саме контенту може бути показано, прев’ювано або повторно використано. Наприклад, noindex на рівні сторінки працює лише тоді, коли бот може цю сторінку прочитати. У CMS ці налаштування часто знаходяться поруч у схожих інтерфейсах, але команді все одно доводиться керувати ними як окремими рішеннями. Саме тут багато хто переоцінює, що вже закрив SEO за замовчуванням: сигнал є, але логіка під ним лишається непроговореною.


  • відносно просту ієрархію сторінок;
  • типову поведінку архівів і категорій;
  • мінімальні відмінності між шаблонами;
  • небагато шарів плагінів, застосунків і зовнішньої логіки.

Як SEO-плагіни в CMS створюють сліпі зони


SEO-плагіни цінні тим, що стандартизують рутинну технічну роботу. Вони дають редакторам і маркетологам чистіший старт і зменшують потребу вручну керувати кожним сигналом на сторінці. Але ця стандартизація допомагає лише доти, доки сам сайт лишається відносно типовим. Саме тут і стає видно не тільки силу SEO-плагінів, а й межу їхньої корисності.


Щойно сайт ускладнюється, поведінка плагінів починає створювати сліпі зони. Дефолтне правило, розраховане на широку сумісність, може стерти важливі відмінності між типами сторінок. Зміна на рівні шаблону може вплинути одразу на сотні чи тисячі URL. Кілька плагінів, конструктор сторінок, перевизначення теми та інтеграції на рівні застосунків можуть одночасно втручатися в той самий технічний шар.


І це не абстракція. Розділ Web Almanac про SEO вказує, що дуже поширена явна присутність index, follow на сторінках, імовірно, пов’язана з Yoast SEO, який виводить ці значення за замовчуванням. І це важливо не тому, що Yoast просто популярний. Важливо те, що він уже давно перестав бути нішевим інструментом або просто зручним додатком. У такому масштабі він фактично працює як неофіційний стандартизатор технічних SEO-сигналів і допомагає визначати, як виглядає «нормальна» SEO-розмітка для величезної частини вебу.


Це добре показує ширшу закономірність: технічне SEO в масштабі часто формується дефолтами плагінів, а не покроковими стратегічними рішеннями для кожної сторінки. Плагіни не просто автоматизують вивід. Вони кодують припущення. У випадку Yoast це видно особливо чітко. Як показують специфікацію Yoast для canonical і специфікацію Yoast для meta robots, плагін задає логіку canonical для різних типів запитів, визначає базову поведінку robots-директив і формалізує, як саме мають розв’язуватись конфлікти. Тобто він не просто допомагає «робити SEO», а формалізує логіку того, якою має бути індексована, канонічна та видима в пошуку сторінка.


Саме тому дефолти плагінів можуть масово тиражувати SEO-припущення задовго до того, як команда взагалі перевірить, чи ці припущення досі відповідають бізнесу. І той самий патерн уже починає доходити до шару ШІ, де машиночитні файли й структуровані виходи можуть генеруватись розширеннями раніше, ніж команда встигає побудувати нормальне керування тим, що саме назовні віддається. У підсумку дефолтне SEO через плагіни часто створює хибне відчуття безпеки: здається, що покриття є, але реального контролю може вже не бути.


Через це щораз важче довіряти ситуації, коли на зростаючому сайті працює одразу кілька SEO-шарів. Один шар керує канонікалами, інший додає структуровані дані, конструктор змінює шаблони, ще кілька розширень втручаються в архіви чи внутрішній пошук — і в результаті команда бачить «технічно присутні» сигнали, які вже не складаються в єдину узгоджену SEO-систему.


Особливо прискіпливо тут треба дивитися на структуровані дані. Якщо структурована розмітка виводиться шаблонами, плагінами, модулями електронної комерції або конструкторами сторінок, команда легко доходить висновку, що «структурована розмітка у нас уже є», бо в коді присутній JSON-LD. Але сама присутність може приховувати дублювання, нерелевантні типи сутностей, успадковану розмітку головної на внутрішніх сторінках або розмітка, яка формально валідна, але вже не відповідає реальному призначенню сторінки. І в цей момент структуровані дані перестають працювати як корисний контекст і починають перетворюватися на шумний машиночитний шар.


Найбільша небезпека дефолтного SEO через плагіни — не в тому, що вихід відсутній. Частіше проблема в іншому: команда починає надто довіряти успадкованій логіці. Robots-тег може бути присутній, але індексуються не ті сторінки. Налаштування сніпетів можуть існувати, але не відповідати тому, як контент має виглядати в пошуку чи відповідях ШІ. Плагін може чисто стандартизувати вивід, навіть коли реальна логіка обходу й індексації сайту вже давно розійшлася з цими налаштуваннями.


Те, що виглядає як SEO-автоматизація, часто є SEO-нормалізацією: одні й ті самі припущення повторюються на мільйонах сторінок, незалежно від того, чи відповідають вони архітектурі сайту, моделі контенту й пошуковим пріоритетам конкретного бізнесу.


Такий самий патерн уже проявляється і в новіших AI-орієнтованих шарах. Дані Web Almanac показують, що llms.txt поки має низьке проникнення, але помітна частка таких файлів, імовірно, генерується CMS SEO-розширеннями, а не є наслідком чітко ухваленої видавцем стратегії. Тому llms.txt важливий тут не як модний тренд, а як доказ того, що екосистеми плагінів уже починають формувати машиночитні сигнали для систем ШІ так само, як раніше почали формувати canonical, robots і метадані за замовчуванням.


Де SEO за замовчуванням у CMS вже не спрацьовує


Справжні обмеження дефолтного SEO зазвичай не видно на простому сайті-візитці. Вони стають помітними тоді, коли бізнес починає працювати зі складністю, для якої платформні припущення вже занадто грубі.


Найчастіші точки напруги тут такі:


  • мультимовне зростання й регіональне таргетування;
  • каталоги з фільтрами та динамічними станами сторінок;
  • редизайни, міграції й перебудова шаблонів;
  • гібридні архітектури з кастомним рендерингом та інтеграціями.

Мультимовні сайти та SEO-сигнали різними мовами


Локалізація — один із найочевидніших прикладів. CMS може створювати перекладені шаблони, а плагін — відкривати налаштування hreflang, але мультимовне SEO дуже швидко стає не питанням налаштувань, а питанням логіки. Узгодженість URL, паритет метаданих, намір перекладених сторінок, регіональні перетини та fallback-поведінка мають працювати разом.


Саме тут команди часто й бачать, що SEO за замовчуванням — лише старт. Мовні версії можуть бути технічно опубліковані, але стратегічно неузгоджені. Перекладачі можуть адаптувати видимий текст, але залишати нерівні структурні сигнали між ринками. Хороший B2B-приклад — кластер сервісних сторінок: англомовна сторінка може таргетувати один комерційний намір, а перекладені версії — використовувати той самий шаблон, але поступово роз’їжджатися в заголовках, метаданих і внутрішньому лінкуванні, залишаючи пошуковим системам нерівномірний набір сигналів між мовами. Саме тому повноцінний підхід до мультимовного SEO стає потрібним не тому, що CMS «погана», а тому, що сайт уже переріс логіку шаблону.


Фасетна навігація, фільтри й динамічні сторінки


Ще одна сильна зона ризику — сторінки зі списками, фільтрами, внутрішнім пошуком, сортуванням і параметрами. Для сайтів електронної комерції, SaaS-каталогів, маркетплейсів і контентних порталів це нормальна частина досвіду користувача. Але саме тут часто народжуються майже дубльовані URL, неоднозначні canonical-цілі та надмірна кількість сторінок, які система обходить, хоча вони взагалі не мали б боротися за пошук.


У рекомендаціях Google про canonicalization сторінки із сортуванням і фільтрами прямо названі серед сценаріїв, що створюють дублікати й ускладнюють канонікалізацію. Саме в такому середовищі canonical може формально бути на місці, але не відображати бізнес-логіку того, які стани сторінки мають індексуватися, зливатися в один сигнал чи взагалі лишатися поза SERP. Наприклад, категорія товарів може генерувати десятки комбінацій URL, доступних для обходу за кольором, розміром, наявністю чи сортуванням, тоді як бізнес насправді хоче, щоб у пошуку конкурувала тільки базова категорія і кілька високонамірних фільтрів.


Міграція CMS, редизайн і нові шаблони


Сайт може перерости свої дефолти не лише через зростання, а й через зміни. Міграції, редизайни та перебудова шаблонів часто зберігають видимість SEO-безперервності, але непомітно ламають логіку під нею. Плагін на місці, метадані є, canonical продовжують виводитися, але URL-патерни, зв’язки між контентом, логіка пагінації або успадкування шаблонів уже змінилися. Дуже типова проблема тут виникає, коли компанія одночасно має блог, цільову сторінку кампанії та архівну сторінку на ту саму тему, а під час редизайну шаблони змінюють без перегляду того, який саме URL має лишатися основним. SEO-сигнали технічно віддаються, але головною для пошуку раптом починає виступати не та сторінка.


Саме тому контроль на рівні платформи настільки важливий. Сайт може виглядати технічно покритим, але при цьому тихо накопичувати нові неузгодженості після кожного редизайну.


Відокремлений фронтенд і гібридні рішення для SEO


В архітектурах із відокремленим фронтендом і гібридних рішеннях розрив між дефолтами та реальністю стає ще більшим. Щойно контент керується в одному шарі, а рендериться в іншому, технічне SEO вже неможливо відокремити від архітектури. Шляхи рендерингу, поведінка гідратації, маршрути, місце генерації структурованих даних і право власності на метадані — усе це стає частиною SEO-системи.


Тут змінюється ще одне практичне питання, яке багато команд недооцінюють: важливо вже не тільки чи існує сигнал, а й де і коли він з’являється. Канонічні теги, структуровані дані та інші машиночитні сигнали зазвичай надійніші, коли вони є в початковому HTML, а не додаються пізніше через рендеринг або логіку на боці браузера. Чим більше сайт залежить від сигналів, які з’являються лише після рендерингу, тим більше простору для невідповідностей, затримок в інтерпретації та нестабільної технічної поведінки між шаблонами й станами сторінок.


Тут же структурована розмітка остаточно перестає бути питанням «який плагін поставити» і стає питанням реалізації. Команді потрібно вирішити, де має жити розмітка, який шар її генерує, як вона змінюється між шаблонами та чи справді машиночитний контекст походить із реальних зв’язків у контенті, а не просто успадковується з умовно універсального компоненту.


У цей момент покладатися лише на дефолтні можливості CMS уже замало. Значення має те, як контент збирається, рендериться і віддається на рівні всього стеку. Саме тут кастомна веброзробка перестає бути окремою темою від технічного SEO.


Чому зі зростанням сайту межі CMS стають помітніші


Коли сайт росте, винятків стає більше. З’являються нові типи контенту. Шаблони стають менш однорідними. Редакційним командам потрібна більша гнучкість. Товари, категорії, база знань, мовні версії, блогові структури, фільтри, кампанійні сторінки та сторонні інтеграції відтягують сайт дедалі далі від акуратних припущень, на яких тримаються дефолти.


На цьому етапі технічне SEO зазвичай уже повинно враховувати:


  • маршрутизацію та логіку URL для різних станів сторінки;
  • генерацію метаданих між шаблонами й типами контенту;
  • узгодженість структурованих даних між розділами;
  • правила обходу та індексації, які відповідають реальним бізнес-пріоритетам.

Саме тут технічне SEO стає системною задачею. І саме тут межі SEO-можливостей CMS стають найбільш помітними, бо йдеться вже не про те, чи є на сторінці canonical або robots-директива. Йдеться про те, як працює маршрутизація, як шаблони успадковують правила, як генеруються метадані, як різні стани контенту відкриваються для пошукових систем і чи залишається ця поведінка внутрішньо узгодженою.


Саме тому все ще має значення і вибір платформи, і рівень контролю, який вона дає. Питання вже не в тому, яка CMS «краща для SEO». Питання в тому, скільки контролю бізнес зберігає тоді, коли архітектура сайту стає складнішою за ті припущення, на які розраховані дефолти плагінів. Саме про такий компроміс ідеться у розмові про гнучкість CMS, де зручність платформи та довгостроковий контроль далеко не завжди ведуть в один бік.


На практиці зростання змінює саме значення технічного SEO. Воно переходить із площини налаштувань у площину архітектури, з конфігурації — у керування логікою, а з разового сетапу — в безперервне прийняття рішень. Базовий SEO-шар вирішує питання присутності. Керування логікою вирішує питання відповідальності, винятків, перевірки й змін, коли сайт еволюціонує. Без цього шару багатьом зростаючим сайтам бракує не технічних елементів, а надійного способу утримувати ці елементи в синхроні з реальною поведінкою сайту з часом.


Що перевірити в SEO за замовчуванням у CMS


Правильна реакція тут не в тому, щоб відмовитися від дефолтів CMS. Правильна реакція — зрозуміти, де саме їх уже недостатньо.


Зручно мислити так: що саме платформа зазвичай закриває за замовчуванням, а де починається зона, де потрібна кастомна логіка.


Аспект Що дефолти CMS зазвичай закривають Де цього вже недостатньо Бізнес-ризик
Канонічна логіка Стандартні канонікали, що вказують на поточну сторінку, і типова поведінка архівів Фільтри, фасетні URL, змішана шаблонна логіка, регіональні варіанти Кластери дублів, розмиті сигнали, неправильний canonical
Контроль обходу Базову генерацію robots.txt і широкі правила доступу для ботів Змішані директиви для різних ботів, заблоковані шляхи, конфлікти в шаблонах Пошукові системи не можуть дістатися сторінок, де інші сигнали мали б спрацювати
Контроль індексації Типову поведінку meta robots для публічних і непублічних сторінок Архіви, сторінки фільтрів, внутрішній пошук, кастомні шаблони Індексуються не ті сторінки, а потрібні — пригнічуються
Вигляд у пошуку Стандартні налаштування сніпетів і прев’ю для HTML-сторінок Невідповідні правила сніпетів, AI-поверхні, не-HTML-ресурси Сторінки видимі, але подаються непослідовно або невигідно
Структуровані дані Базову структуровану розмітку для типових сторінок і шаблонів Кастомні моделі контенту, дубльована розмітка, успадкована розмітка головної, розбіжність із наміром сторінки Слабше машинне розуміння, втрата потенціалу розширених результатів, шумний машиночитний шар
Мультимовні сторінки Шаблонну підтримку мов і базові мовні та регіональні налаштування Узгодженість hreflang, паритет метаданих, намір по ринках Показується не та сторінка, падає регіональна релевантність, накопичується SEO-борг
Динамічні стани Частину логіки архівів і пагінації Сторінки з параметрами, фільтрами, внутрішнім пошуком, стани сторінок із логікою застосунку Зайвий crawl waste, дубльована індексація, фрагментована релевантність
Узгодженість шаблонів Спільні правила для стандартних макетів Змішані конструктори сторінок, стек із плагінів, рендеринг в архітектурі з відокремленим фронтендом, кастомні компоненти Сигнали стають непослідовними в різних розділах сайту

Саме тут команді варто зупинитися й чесно відповісти собі: сайт досі поводиться так, як передбачає платформа, чи вже ні? Якщо ні, то проблема вже не в «браку базового SEO». Проблема — у неузгодженій технічній логіці.


Саме тут технічний аналіз і консультації стають кориснішими за ще одну галочку в плагіні. Завдання вже не в тому, щоб додати новий шар автоматизації. Завдання — переконатися, що автоматизація, яка вже працює, досі відповідає тому, як бізнес реально публікує, структурує й масштабує свій контент.


Де дефолтів CMS уже недостатньо для технічного SEO


CMS і екосистеми плагінів зробили для сучасного вебу важливу річ: вони підняли базовий рівень технічного SEO. Вони спростили впровадження типових сигналів, зробили технічні сигнали більш послідовними для великої кількості сайтів і зменшили число проєктів, які провалюються просто тому, що в них відсутні базові технічні елементи.


Але щойно логіка плагінів масштабується до такого рівня, вона перестає бути просто зручністю й починає працювати як дефолтний стандарт. Це корисно для базової якості, але означає й інше: величезна кількість сайтів успадковує одні й ті самі SEO-припущення задовго після того, як їхня реальна архітектура перестала бути стандартною.


І це — справжній зсув, який варто усвідомити. Щойно сайт стає мультимовним, контентно насиченим, сильно інтегрованим або структурно складним, технічне SEO перестає бути питанням наявності сигналів і стає питанням того, чи ці сигнали досі підходять сайту. Питання вже не в тому, чи існує canonical, robots-директива або блок структурованих даних. Питання в тому, чи відповідають ці дефолти архітектурі сайту, моделі контенту та траєкторії росту.


Це ще важливіше в умовах, коли пошук дедалі сильніше переходить у видимість у пошуку та відповідях ШІ. Уже недостатньо просто віддати базові технічні сигнали для ботів. Сайт дедалі частіше має бути придатним до витягання, інтерпретації та структурно послідовним для систем, які узагальнюють і комбінують контент. І тут структуровані дані відіграють більшу роль, ніж багатьом здається, бо дедалі частіше працює не просто як розмітка для розширених результатів, а як машиночитний контекст.


Для бізнесів, які масштабуються на CMS, практичний висновок простий: базовий SEO-шар дає стартову точку. Але саме керування технічною логікою дозволяє цій стартовій точці пережити реальну складність, зміни платформи, оновлення плагінів, ріст мультимовності та повторне використання контенту в середовищах ШІ — до того, як тихий технічний борг стане вже видимою проблемою.

Потрібна додаткова порада?

Надаємо безкоштовні консультації. Зв'яжіться з нами, і ми з радістю допоможемо вам або запропонуємо рішення

Висновок

Дефолтні можливості CMS і SEO-плагіни справді підняли базовий рівень технічного SEO, але не прибрали потребу в технічному судженні. Вони спрощують запуск сайту, але не гарантують, що сайт зможе масштабуватися без логічного дрейфу. Для B2B-команд головне питання сьогодні вже не в тому, чи присутні базові сигнали. Головне — чи відповідають ці успадковані дефолти тому, як сайт реально структурований, рендериться і має конкурувати в пошуку. Якщо відповідь уже «ні», тоді SEO за замовчуванням перестає бути зручним скороченням і починає накопичувати тихий технічний борг.