В основу роботи будь-якого пошуковика покладений простий принцип: у рядку пошуку вводиться запит, система аналізує його та видає релевантні результати. Далі відібрані сайти ранжуються (сортуються) та відображаються списком за спаданням релевантності. Лідери, які посідають найвищі позиції, — топи пошукової видачі.
Більшість користувачів знаходять необхідну інформацію на першій сторінці видачі. Це пояснюється тим, що до топ 10 потрапляють ресурси з високим рейтингом довіри пошукової системи. Багато людей навіть не переходять на другу сторінку видачі, оскільки знайшли те, що шукали, на першій. Отже, що ближчим є сайт до топу, то більше відвідувачів на нього переходить.
SEO розшифровується як Search Engine Optimization, що в перекладі з англійської означає «пошукова оптимізація». Це заздалегідь опрацьований план дій, який поліпшує показники сайту та сприяє його просуванню в пошуковій видачі шляхом адаптації під вимоги пошукової системи.
Якщо потрібно збільшити органічний трафік, прискорити індексацію в пошуковій системі, підняти позиції сторінок при ранжуванні, без грамотного SEO не обійтися. Оптимізація сайту поділяється на два види: зовнішню та внутрішню.
Перший вид — це роботи, які проводяться з метою нарощування якісної маси посилань. Внутрішня (технічна) оптимізація сайту передбачає більший обсяг роботи. Вона виконується швидше для пошукових роботів, аніж для користувачів.
Крім зовнішніх робіт, SEO є необхідним для аналізу, виявлення та усунення технічних проблем ресурсу. Оптимізація дає змогу вивести майданчик на першу сторінку пошукової видачі, поліпшити ранжування, обігнати лідерів, підвищити відвідуваність та збільшити дохід від сайту.
Перед початком робіт обов’язково необхідно провести SEO аудит. Це комплексний аналіз усіх показників та параметрів ресурсу. Таких критеріїв досить багато, і перевірити потрібно кожен, щоб знати, які проблеми є на сайті. Для цього існують інструменти, що дозволяють оцінити всі основні та другорядні показники:
Також можна звернутися за допомогою до спеціальних сервісів, які пропонують проведення комплексного SEO аудиту для вебфахівців. Чудовим прикладом такого сервісу є SE Ranking — платформа з широким арсеналом інструментів та багатофункціональних модулів. SE Ranking має функцію здійснення технічного аудиту сайтів з детальним звітом та аналізом різноманітних параметрів після закінчення робіт.
Щоб провести аудит, необхідно зареєструватися на сервісі. SEO фахівцям, які використовують інструментарій платформи SE Ranking вперше, надається безоплатний пробний акаунт на 14 днів. Це означає, що після простої реєстрації ви отримуєте весь арсенал послуг без плати за тариф на два тижні.
Після реєстрації створіть новий проєкт із зазначенням домену та натисніть «Аудит сайту». Після завершення аудиту перейдіть до розділу «Отчёт об ошибках» та вивчіть знайдені технічні помилки.
Отриманий звіт буде поділений на кілька блоків, що відображаються ліворуч у стовпчик:
Переходячи на певний блок зі списку, натискаємо на проблему і отримуємо інформацію, як її вирішити.
Щоб закріпити результат, після проведення технічної оптимізації та усунення виявлених проблем варто провести SEO аудит повторно. Це дасть змогу з’ясувати, усунена та чи інша проблема або ні. Для зручності є колонка «Исправленное», в якій можна відстежити вирішені проблеми.
Технічні проблеми в оптимізації вирішувати необхідно грамотно та оперативно, постійно відстежуючи результат за допомогою аудитів. Розгляньмо найпоширеніші з них та розповімо, як їх виправити.
Щоб самостійно дізнатися про наявність документа robots.txt, необхідно знайти кореневу теку ресурсу. Найпростіше це зробити через адресний рядок: введіть домен вашого сайту та додайте назву документа (site.com/robots.txt).
Цей файл є важливим — він виконує роль інструкції (або провідника) для пошукових роботів. У ньому описується необхідність сканування того чи іншого вмісту сайту. Перш ніж розпочати обхід майданчика, пошукові роботи звертаються до файлу robots.txt, а вже потім сканують зазначені у ньому сторінки.
Не слід забувати про краулінговий бюджет — кількість сторінок сайту, яку може проіндексувати робот за певний проміжок часу. Цю квоту рекомендують економити. Для цього потрібно налаштувати файл robots, де вказуються обмеження на сканування групи сторінок, категорій чи тек. Якщо краулінгова інструкція прописана неправильно або її немає, можуть виникнути проблеми з індексацією сайту.
Якщо документ robots.txt відсутній, перейдіть до кореневого сховища сайту та створіть його там. Після цього уважно пропишіть інструкції сканування та індексації. Пошукових роботів багато, тому можна прописати вказівки для кожного окремо. Не забудьте вказати шлях до мапи сайту (sitemap).
Не менш важливим є документ — мапа сайту або sitemap. Це файл з усіма URL вашого ресурсу. Перелік посилань у мапі сайту прописується для обходу їх пошуковими роботами. Якщо такого документа немає, це не вплине на те, проіндексується те чи інше посилання чи ні. Проте sitemap може допомогти пошуковим роботам виявити URL, якщо він довго не потрапляє до індексу.
Якщо у вас великий ресурс із довгим переліком URL-адрес (близько 50 тисяч), документ sitemap може важити понад 50 МБ, а це є неприпустимим. У такому разі обробка адрес для пошукового робота ускладнюється. Крім того, у файлі можуть бути посилання, які закриті від індексу за допомогою метатегу noindex, що також є помилкою. Складаючи документ мапи сайту, потрібно прописувати лише пріоритетні для сканування та індексації адреси.
Насамперед розділіть sitemap на кілька різних файлів, якщо ліміт за кількістю адрес перевищено. Можна створити окремі мапи сайту на адреси сторінок, відео та картинки. Головне — після поділу вказати у файлі robots.txt шлях до кожного створеного XML sitemap.
SEO аудит може показати закриті від індексації адреси у файлі мапи сайту. Цю проблему також варто усунути: видалити ці URL-адреси з sitemap або прибрати метатеги, що забороняють індексацію.
Унікальні тексти на сайті — це потужна база для просування у топ видачі. Але якщо з певної причини ви скопіюєте тексти у конкурентів та розмістите їх на своєму майданчику, пошуковий робот погано поставиться до цього. Також він негативно оцінить дублі сторінок, текстів, відео та аудіоматеріалу. Створюйте унікальний контент та матимете щастя.
З проблемою дублів найчастіше стикаються великі ресурси. Наприклад, інтернет-магазини з багатьма схожими товарними позиціями. Описи таких товарів відрізняються мінімально та сприймаються роботом як дублювання контенту. Крім того, дублі сторінок потрапляють до індексу через неправильно налаштований редирект (дзеркала сайту) у доменному імені. Індексуватимуться однакові сторінки — www.site.com та site.com.
Проблема дублів вирішується через налаштування редиректів. Після цього необхідно провести повторний аудит, щоб знайти дублі сторінок, які залишилися, або переконатися, що їх не залишилося. Якщо вам потрібен схожий контент на сторінках, використовуйте канонічні посилання. За їх допомогою можна вказувати роботам, що конкретно має індексуватися. Для цього на неканонічній сторінці прописується тег rel=”canonical” для однієї URL-адреси.
Редирект — це налаштування переадресації з однієї URL-адреси на іншу. Необхідність у редиректах відчувається у випадках видалення сторінок та зміни їх адрес. Тобто сторінка видаляється, з неї налаштовують переадресацію, і користувач вже потрапляє на актуальну версію сторінки.
Цей метод перенесення дає неабияку перевагу, адже налаштування редиректу дозволяє зберегти авторитет старої сторінки у пошукової системи та передати його новій. У технічній оптимізації переадресація також є важливою. Завдяки редиректу нова сторінка стає одразу доступною для відвідувачів.
Редирект зручний тим, що користувач автоматично переходить на нову сторінку без затримок. Однак у разі налаштування переадресації можуть виникнути певні проблеми:
Перший етап виправлення помилок — SEO аудит, який покаже статуси сторінок (ланцюжки, зациклені сторінки, 3ХХ, 4ХХ, 5ХХ). Якщо перевірка покаже ланцюжки переадресацій, які складаються з 3 і більше адрес, потрібно скоротити їх до двох. Тоді робот бачитиме, що виконане коректне перенаправлення зі старої сторінки на актуальну.
Якщо було знайдено зациклені редиректи, їх варто відредагувати, прибравши биті посилання. Статус сторінок 4ХХ і 5ХХ означає, що їх варто видалити або зробити доступними.
Багато користувачів не чекатимуть, доки сторінка завантажить контент. Відвідувач швидше покине сторінку і перейде на інший сайт, аніж тривалий час чекатиме на її завантаження. Швидкість завантаження — це важливий критерій для пошукових систем, на який вони звертають увагу під час ранжування.
Щоб виявити тривале завантаження сторінки, зверніть увагу на такі моменти:
Зовсім необов’язково завантажувати на свій ресурс зображення в оригінальному форматі та розмірі. Користуйтеся спеціальними інструментами, які стискають зображення без втрати якості. Обирайте коректні розширення картинок та файлів, зменште розміри зображень. Стежте за тим, щоб вага HTML-сторінок не перевищувала 2 МБ.
Зробіть більш стислим текстовий контент. Це дозволить додатково збільшити швидкість завантаження сторінки. Використовуючи архівацію GZIP, можна оптимізувати обсяги сторінок. Всі ці заходи прискорять завантаження сторінок та поліпшать позиції сайту при ранжуванні.
Розглядаючи тему швидкості завантаження сторінок сайту, варто також згадати про вплив на цей параметр кодів JavaScript і CSS, які створюють зовнішній вигляд ресурсу. Завдяки каскадним таблицям CSS ми можемо створювати фон сайту, змінювати розмір шрифтів, розташування тексту, графічних елементів, керувати положенням та розміром зображень. JavaScript, своєю чергою, надає дизайну динамічності.
Без JavaScript та CSS неможливо створити сучасний сайт. Проте їх файли також мають обмеження за вагою: CSS файли не повинні важити понад 150 КВ, а скрипти — понад 2 МВ. В іншому разі сповільниться завантаження сторінок.
Все досить просто — необхідне налаштування кешування та стискання файлів CSS/JavaScript. Користуючись результатами SEO аудиту, ви можете дізнатися про кількість сторінок, на яких необхідно зменшити розмір коду.
Кешування знижує навантаження на сервер, оскільки браузер не завантажуватиме сторінку з нуля, а підвантажить копії даних з кешу. Мініфікація коду означає його очищення від сміття: коментарів, зайвих символів тощо. Завдяки цьому зменшується його вихідний розмір.
Один з актуальних методів прискорення завантаження сторінок – об’єднання файлів CSS/JS.
Більшість користувачів працюють на мобільних пристроях: планшетах, смартфонах. Тому необхідно налаштувати коректне відображення сторінок свого сайту на таких девайсах. Якщо сайт не адаптований під смартфони, користувачеві буде незручно використовувати його, і він піде до конкурентів.
Відсутність адаптивності не означає, що ваш сайт взагалі не відображатиметься у користувачів мобільних пристроїв. Просто їм потрібно буде постійно збільшувати кожен елемент, щоб ознайомитися з ним. Також сторінки можуть виходити за межі екрана пристрою, через що знадобиться прокручування.
Крім основного дизайну сайту варто розробити додатковий адаптивний під різні типи пристроїв. Це дозволить налаштувати коректне відображення, наприклад, на смартфонах. На невеликому екрані будуть зручно розташовані всі блоки, добре видно текст, межі не будуть порушені й т. ін.
На окрему увагу заслуговують метатеги viewport в HTML-коді. Вони мають обов’язково прописуватися без фіксації у параметрі device-width, щоб автоматично адаптувати під смартфон, планшет та ПК ширину сторінок сайту.
Тег img в HTML-коді відповідає за відображення картинок. Але разом із тегом необхідно прописувати альтернативний текст. Він включає опис (обов’язково з ключами) того, що зображено на картинці. Текст поміщається в атрибут alt і показується користувачеві, коли той наводить мишкою на зображення, за яким атрибут закріплений.
Пошуковикам набагато простіше визначати тематику картинок, якщо для них прописується альтернативний текст. Якщо alt є порожнім, можна втратити трафік, адже з розділу «Картинки» в Google мільйони користувачів переходять на сторінки сайтів, натискаючи на відповідне зображення.
Щоб розібратися з цим питанням, достатньо прописати alt до всіх зображень на сайті. Ручним способом робити це довго, тому можна скористатися різними SEO-плагінами. Інструменти дозволяють виводити спеціальне поле alt-тексту під час редагування сторінки на панелі адміністратора сайту.
Достатньо лише прописати в полі альтернативний текст та викласти пост із зображеннями, де автоматично пропишуться атрибути alt. Заповнюючи ці поля, не перестарайтеся з ключовими словами, щоб не спамити сторінку. Також не пишіть надто короткий текст — він має містити не менш ніж 5–6 слів. Бажано, щоб атрибут не складався лише з ключових фраз.
HTTPS — альтернативний варіант протоколу з’єднання HTTP. Він забезпечує більш надійне з’єднання і шифрування даних користувача. Браузери часто блокують перехід за URL-адресою з протоколом HTTP, виводячи на екран попередження про те, що це небезпечно.
Важливо, що при ранжуванні пошукова система погіршує рейтинг довіри до сайту, протокол з’єднання якого не налаштований на HTTPS. Отже, позиції ресурсу у видачі знизяться.
Щоб в адресному рядку біля доменного імені стояла позначка протоколу HTTPS, необхідно купити сертифікат і використовувати безпечне з’єднання. Головне — не забувати його подовжувати, в іншому разі сторінки перестануть відображатися.
Проведення SEO аудиту після переходу на HTTPS-протокол дозволить упевнитись, що все працює нормально. Додаткова перевірка дозволить виявити URL-адресу на HTTP. Необхідно буде налаштувати протокол на кожній такій сторінці, щоб вона коректно відображалася у пошуковій видачі.
Щоб вміст сторінки було видно при переході на її URL-адресу, браузер попередньо запитує інформацію у сервера. Якщо після запиту у відповіді вказується, що URL-адреса доступна, сторінка відображається без помилок. Якщо сервер повідомляє, що адреса недоступна, на сторінці видається відповідна помилка 4ХХ та 5ХХ.
Такі помилки призводять до небажаних наслідків:
Проведіть SEO аудит і з’ясуйте, чому виникають такі помилки. Щоб розв’язати питання, необхідно видалити проблемні URL-адреси з індексу (це можна зробити ручним способом самостійно) або відновити доступ до них.
Технічна оптимізація є важливою для підвищення позицій сайту в пошуковій видачі, а також для зручності відвідувачів ресурсу. Щоб оптимізувати роботу сайту, спочатку варто провести SEO аудит. За його допомогою ви зможете виявити проблеми та дізнатися про методи їх вирішення. Також не забувайте запускати перевірку, щоб відстежити правильність виконуваних робіт.
З основних проблем у технічній оптимізації варто виокремити:
Щоб зберегти та покращити позиції платформи при ранжуванні, займіться технічною оптимізацією сайту. Не залишайте поза увагою навіть дрібні проблеми, усувайте їх вчасно. Лише так можна потрапити до топу!