Історія розвитку алгоритмів Google

  1. Алгоритми ІПС Google
  2. Історія розвитку алгоритмів Google по роках і алгоритмам
  3. 21 століття
  4. 2001 рік
  5. 2003 рік
  6. 2005 рік
  7. 2007 рік
  8. 2009 рік
  9. Друге десятиліття 21 століття
  10. Колібрі
  11. Пінгвін і Панда
  12. 2015 рік
  13. 2016-2017

Алгоритми ІПС Google

Алгоритми Google, основа роботи пошукової системи Google. Створена Ларрі Пейджем і Сергієм Бріном оновлюючи свої алгоритми і сьогодні здатна знайти документи на двох сотнях мовах і провести обробку даних базових форматів (Microsoft Word, PDF, Excel і т.д.). Давайте в цій статті згадаємо головні етапи розвитку алгоритмів Google, створених для ранжирування веб-сторінок в пошуковій видачі Google.

Історія розвитку алгоритмів Google по роках і алгоритмам

1998 год. В цей рік був заснований пошуковик Google. У той же час був створений Page Rank (PR), алгоритм роботи якого грунтувався на передачу посилальної маси і мав два основних параметри:

  • чим більше кількість посилань, що ведуть на ту чи іншу сторінку, тим вище рівень Page Rank і місце, займане в пошуковій видачі;
  • чим вище рівень Page Rank посилаються веб-сторінок, тим більше маса, що передається посиланнями.

Офіційним творцем PR є Ларі Пейдж, а власником патенту на винахід - університет Стенфорда.

Багато хто вважає, що Page Rank перекладається як «ранг сторінки», але насправді це словосполучення перекладається як «ранг Пейджа», творець винаходу дав йому своє ім'я. Надалі багато пошуковики перейняли ідею Page Rank в якості основи, розробивши власні аналоги інструменту.

21 століття

2000 рік

Компанія Google представляє широкому загалу нову розробку - алгоритм під назвою Hilltop, який дозволяє найбільш точно розрахувати рівень PR. Даний алгоритм читає географію і ступінь новизни того чи іншого документа. Після цього Google починає сповіщати веб-майстрів про те, щоб вони не залишали посилання на підозрілих веб-сайтах і «Лінк-смітниках».

2001 рік

У цей рік компанія Google реєструє патент на алгоритм Hilltop. На цьому ж етапі пошукова система ділить результати пошуку для некомерційних та комерційних запитів.

2003 рік

15.11.13 запускається новий алгоритм Florida, який прибирає з видачі або знижує місце сторінок, зміст яких перенасичене ключовими фразами і словами. У цей день фахівці в області SEO зрозуміли, що новий алгоритм пошуковика знижує рейтинг сторінок з наступних причин:

  • не рідкість або низько унікальний контент;
  • високий вміст ключових слів в заголовках і текстах;
  • посилання неприродного вигляду (покупні).

2005 рік

Фахівці Google вперше пробують персоналізувати пошукову видачу, задавши за основу попередні запити того чи іншого користувача.

2006 рiк. Компанія запускає вдосконалений алгоритм, який базується на алгоритмі під назвою Orion - дітище студента з Ізраїлю. Пошукова система тепер може знаходити збігаються з тематики запиту веб-сторінки, що не містять ключових слів. З цього моменту Google починає «уточнювати» запити користувача, пропонуючи варіанти, які найчастіше шукають з даним словом. Наприклад, якщо користувач набирає в пошуковому рядку слово «коло», система пропонує йому такі варіанти запиту, як «коло пісні», «коло для купання новонароджених» і т.д.

2007 рік

Цього року історія розвитку алгоритмів Google ознаменована запуском нового алгоритму Austin. Новинка здатна враховувати рівень трастовості того чи іншого веб-ресурсу і знижувати в пошуковій видачі ресурси з меншим показником трастовості. Таким чином, веб-сайти, які не встигли набрати траст.

2009 рік

Розробники Google впроваджують в роботу пошукової системи новий алгоритм Caffeine. Минулі алгоритми Google стали не відповідати, зрослим виробничим потужностям, завдяки чому пошуковик починає набагато частіше проводити індексування сайтів, в результаті чого в багато разів прискорюється формування сторінки з результатами пошукової видачі. Caffeine не сильно вплинув на формулу расчітиванія релевантності, проте стали помітні такі зміни:

Постійна індексація всього простору всесвітньої павутини дозволила пошуковій видачі Google стати набагато динамічніше і змінюватися протягом дня.

  • На перший план вийшли зміст і частота оновлення веб-сайту;
  • Оптимізація, проведена всередині сайту (зручність користування, грамотна перелінковка) помітно підвищує довіру пошукової системи до того чи іншого ресурсу;
  • З'являються певні санкції за публікацію і розсилання спама;
  • З'являються певні санкції за наявність технічних неполадок. Наприклад, довге завантаження веб-сайту або «битий» формат посилань можуть знизити ресурс в пошуковій видачі;
  • Google починає приділяти більше уваги ресурсів і посиланнях таких сайтів, як Googlenews, Twitter, Googleblog.
історія розвитку алгоритмів Google

Друге десятиліття 21 століття

2011 рік

Фахівці поповнюють алгоритми Google своїм «сміттярем». Це запуск алгоритму під назвою Panda - перший серйозний чистильник видачі. Новий алгоритм «чистить» пошукову видачу від «поганих» сатов - сателітів, дорвеев, сайтів, зміст яких представляє собою лише рекламу і посилання, а також сайтів з низькою унікальністю контенту.

Творці вдосконаленого алгоритму Метт Катс і Аміт Сінгал відзначають, що їх нове дітище враховує наступні моменти:

  • Процентний показник унікальності змісту певної сторінки і на ресурсі в цілому;
  • Рівень шаблонності змісту, тобто схожість текстів, написаних під різні ключові слова;
  • Наявність стилістичних, граматичних і орфографічних помилок;
  • Релевантність представленої на ресурсі реклами до тематики розміщених текстів
  • Відповідність змісту тегів і метатегов веб-сторінки до її контенту;
  • Ступінь насиченості розміщених текстів ключовими словами;
  • Рівень якості вихідних і вхідних посилань;
  • Дії інтернет-користувача (тривалість відвідування сайту, кількість переглянутих веб-сторінок, кількість відмов і повернень на ресурс).

Сьогодні можна з упевненістю зазначити, що практично всі сучасні пошукові системи враховують дані фактори, особливо - поведінкові. Чим цікавіше контент сайту для інтернет-користувача, тим більше він проведе часу на даному ресурсі, і тим вище даний веб-сайт ранжируватиметься на сторінці пошукової видачі.

Колібрі

2013 рік. У жовтні алгоритми Google поповнилися новітніми алгоритмом «Колібрі» - Hummingbird. Нововведення даного алгоритму полягає в тому, що він здатний розуміти навіть прихований сенс запитів. Наприклад, якщо ви введете «купити що-небудь біля будинку» Hummingbird по мет, що маються на увазі оффлайн-магазини. А з інтернет-магазинів він вибере лише ті, на сайтах яких максимально докладно описана інформація про умови доставки та їх переваги. Крім цього, алгоритм Hummingbird віддає перевагу довгим, докладні запити. Але при цьому по тих запитах, за якими Google не зможе «пофантазувати», видача не змінилася.

І ще один важливий момент - неунікальне, нізкоунікальное і сгенерированное зміст тепер не працює.

На завершення всього варто відзначити, що російський Google - один з найбільш зручних варіантів роботи пошукової системи. У Росії Google не використовує більшу частину своїх «каральних» санкцій, завдяки чому просування сайтів для даної системи в Росії набагато простіше, ніж для інших пошукових систем.

Пінгвін і Панда

4.10. 2013 вийшов алгоритм Пінгвін 2.1

Як і раніше пошуковик Google звертає увагу на підозрілі сайти і анкор-листи. Це оновлення алгоритму відбилося на ранні потрапляли під санкції алгоритму сайти. Торкнулося 1% запитів.

19.05. 2014 рік вийшло оновлення Панда 4.0

Історія розвитку алгоритмів Google на знала такого серйозного оновлення пошукового алгоритму. Торкнулося 7.5% пошукових запитів.

24.08. 2014 рік, алгоритм Голуб

Алгоритм звернув увагу на геозалежні запити. Тепер, при отриманні геозалежні запиту пошуковик Google дає найбільш інформативні, локальні результати пошуку для користувача.

23.09. 2014. Оновлення алгоритму Панда 4.1

Це оновлення грунтувалося на узагальненні всіх скарг і коментарів від користувачів за алгоритмом Panda 4.

17.10. 2014. Алгоритм Пінгвін 3.0

Даний апдейт пошукача Google знову дав зрозуміти, що пошуковик негативно ставиться до веб-спаму. Багато сайтів просіло у видачі.

Останній алгоритм пошукача Google, алгоритм відслідковує МАКТ сторінки, лютий 2014 рік. Смислі, в тому, щоб реклама не займала верхні позиції сайту.

Жовтень 2014. Google в черговий раз заявляє про боротьбу з крадіжками контенту оновлюючи алгоритм Pirate 2.0, який бореться з порушенням авторських прав.

2015 рік

mobile-friendly

З 21.04.15 року Google починає мотивувати мобільний контент і запускає new алгоритм Mobilegeddon (//webmasters.googleblog.com/2015/04/rolling-out-mobile-friendly-update.html). Тепер в мобільній видачу пріоритет у сайтів мають адаптовану версію сайту. Назва Mobilegeddon, взято із західних ЗМІ. У нас його назвали: mobile-friendly і я знаю чому. З'явився інструмент перевірки мобільної версії сайту: https://search.google.com/test/mobile-friendly.

За останні два роки, повідомлень про вихід принципово нових алгоритмів, типу Панда або mobile-friendly, не було. Була галас з патчем алгоритму, під назвою Френд, який чи то карав, чи то не карав сайти з контентом «не для людей».

Були повідомлення від Google, що більш швидкі сайти будуть мати переваги при ранжируванні.

2016-2017

Історія розвитку алгоритмів Google: мобільна ера.

Сам Google в 2016 році попереджав, а 2017 році заявляв, про необхідність переходу на протокол HTTPS і що стане позначати сайти, що збирають дані і продовжують працювати на незахищеному протоколі HTTP, що і зробив. Причому для всіх сайтів, а не тільки збирають дані і оплату.

тривають розмови про AMP версії з мотивацією їх створення. Створено інструмент перевірок: https://search.google.com/test/amp.

Однак, реальних принципових, офіційно заявлених алгоритмів Google, які зачіпають всю видачу, не було. Але всі ми розуміємо. що історія розвитку алгоритмів Google не закінчена, хоча таке відчуття, що видача на «великих машинах» Google скоро не буде цікавити.

© www.wordpress-abc.ru

Інші статті розділу SEO


Статті пов'язані з теми: