Продвижение сайтов в GoGetLinks. Скрипты и плагины для отбора площадок в GGL

Опубликовано: 24.08.2018

видео Продвижение сайтов в GoGetLinks. Скрипты и плагины для отбора площадок в GGL

Как покупать ссылки в GoGetLinks net?

В данной статье я расскажу о том, как эффективно продвигать сайт вечными ссылками в системе GoGetLinks. Основное внимание будет уделено отбору качественных площадок, а также решению возможных проблем при работе с системой.



Полученных знаний будет достаточно для самостоятельного продвижения сайтов вечными ссылками и отказа от услуг оптимизаторов (в плане ссылочного). Если вас интересуют арендные ссылки, то рекомендую ознакомиться со статьей по продвижению в Sape .

После прочтения статьи вы научитесь делать следующее:


Биржа ссылок для продвижения сайта Гогетлинкс

Создавать кампании для продвижения сайтов в GGL, находить качественные площадки и отправлять заявки на покупку ссылок. За несколько часов анализировать все площадки биржи GoGetLinks и быстро формировать качественные черный и белый списки сайтов для эффективной работы в системе и покупки только качественных ссылок.

Для полноценной работы нам понадобятся всего лишь 2 инструмента:


Покупаем вечные ссылки для сайта. Внешняя SEO оптимизация!

Браузер Mozilla Firefox (или любой другой с возможностью удобного запуска скриптов из консоли). Плагин XTool Checker для съема данных по площадкам, таких как посещаемость, Alexa Rank, количество входящих/исходящих ссылок и т.д.

Как вы уже поняли, работа будет производиться в полуавтоматическом режиме. Сначала при помощи плагина мы получим нужные для анализа площадок параметры, после чего из консоли вручную запустим скрипты для отбора сайтов.

Кому-то это может показаться не слишком удобным. С другой стороны, любой желающий сможет использовать данный метод и заточить его под себя, не прибегая к сторонней помощи.

Итак, первым делом научимся создавать кампанию для продвижения. Если вы уже умеете это делать – пропустите данный пункт.

Для начала работы переходим на главную страницу GoGetLinks и регистрируемся в системе.

После регистрации и активации аккаунта авторизируемся, переходим во вкладку «Оптимизатору» — «Мои кампании» и жмем «Создать новую».

Дальнейший процесс создания кампании аналогичный описанному в статье по работе с GetGoodLinks . Все же здесь есть некоторые отличия, поэтому коротко рассмотрим каждый шаг.

Название кампании – произвольно. Типы обзоров – обычно это контекстные ссылки и заметки. При необходимости можно оставить «Ссылки-картинки». Текст ссылки, ключевые слова и URL – можно оставить пустыми, так как зачастую для продвижения используется несколько значений (чем больше, тем лучше), поэтому мы будем использовать загрузку данных из файла. Склонение ссылок – лично я разрешаю вебмастерам склонять тексты ссылок для придания им большей естественности. К тому же у многих ленивых вебмастеров попросту не хватает фантазии на то, чтобы вписать анкоры в исходном виде, что влечет за собой отправки на доработку и лишнюю трату времени.

Для загрузки нескольких анкоров и адресов, жмем на ссылку «Хочу добавить больше анкоров» или «Хочу добавить больше URL».

В открывшемся окне либо вручную заполняем поля таблицы, либо загружаем данных из txt файла.

При загрузке из файла используйте следующий синтаксис:

Адрес продвигаемой страницы;анкор;ключевые слова;сколько раз использовать анкор в рамках кампании

При этом файл обязательно должен быть сохранен в кодировке ANSI. В противном случае могут возникать ошибки.

Пример содержимого файла для импорта:

http://dmitriydenisov.com/;продвижение;продвижение, раскрутка, оптимизация сайта;1 http://dmitriydenisov.com/;раскрутка;продвижение, раскрутка, оптимизация сайта;1 http://dmitriydenisov.com/;оптимизация;продвижение, раскрутка, оптимизация сайта;1

После загрузки данных не забываем указать действие на случай, если все тексты ссылок исчерпаны, а также способ раздачи анкоров. После этого жмем на кнопку «Готово».

В результате этого во вкладке с основной информацией начнут отображаться загруженные анкоры.

После загрузки анкоров можем переходить к настройке других параметров кампании.

Тематика – я выбираю все, так как из-за жесткой фильтрации практически не остается доступных площадок. Игнорировать сайты, участвующие в автобиржах – отметьте чекбокс, если вы не хотите покупать ссылки с сайтов, участвующих в Sape или других системах с возможностью автоматической продажи ссылок.

Количество внешних ссылок на странице – произвольно. Обычно, чем меньше, тем лучше. Внутренних ссылок – произвольно. На мой взгляд, оптимальное значение – до 100 ссылок на странице. Уровень вложенности – до третьего. Не вижу смысла покупать ссылки со страниц находящихся дальше третьего уровня вложенности. Характер страниц – отмечаем оба чекбокса, но в идеале лучше покупать ссылки только с новых страниц. Описание и комментарии к заданию – произвольно. Вы можете самостоятельно составить требования к размещению ссылок или же использовать мои: 1. Ссылка должна быть в новой статье. 2. Минимальный объем статьи - 2000 знаков. 3. Текст статьи должен быть уникальным и содержать хотя бы одно изображение. 4. Ссылку желательно размещать как можно выше на странице (в первой половине статьи). 5. Ссылка должна быть вписана в текст максимально естественно. 6. Ссылка должна быть окружена тематическим текстом. Чтобы не возникало вопросов по поводу окружающего текста, перед публикацией обязательно ознакомьтесь с содержимым страницы.

Цены – произвольно. Лично я использую средние цены по системе с целью экономии времени.

После внесения всех данных сохраняем результат и можем переходить к отбору площадок для покупки ссылок.

Базовый анализ площадок в GoGetLinks

На текущий момент в системе GoGetLinks зарегистрировано порядка 13 тысяч сайтов. Большая часть из них является непригодной для работы по причине отсутствия трафика, заспамленности, необоснованно завышенным ценам и т.д. Таким образом, покупка ссылок с таких площадок является не только невыгодным вложением, но и может оказать неблагоприятное влияние на продвигаемый проект.

С целью отсева некачественных площадок и упрощения процесса покупки ссылок в GoGetLinks, я предлагаю всю ту же проверенную схему анализа и отбора доноров, которую использую при работе с Sape. Единственное отличие – немного измененный код скриптов.

Для съема данных мы, как и прежде, будем использовать плагин для браузера Xtool checker . Подробнее о его настройке и использовании можно почитать в данной статье .

Итак, первым делом нам нужно исключить из поиска сайты без трафика. Практика показывает, что после начала продажи ссылок большая часть проектов перестает развиваться. Зачастую это связано с тем, что они изначально ориентированы на продажу ссылок, поэтому такие проекты следует сразу добавлять в черный список.

Для этого, первым делом, авторизируемся в системе GetGoodLinks и запускаем поиск площадок с нужными нам параметрами (Меню – Поиск площадок).

Изначально система позволяет выводить до 50 результатов на странице. Это ограничение можно обойти, изменив исходный код страницы. Для этого устанавливаем плагин для браузера FireBug и выполняем действия, как показано на изображении.

Жмем кнопку «Инспектировать объект». Жмем на список, отвечающий за количество элементов на странице. Изменяем значение любого элемента в списке, кроме уже выбранного. Выбираем из списка элемент с измененным значением.

После выбора нового значения страница перезагрузится и на ней выведется столько элементов, сколько вы указали в исходном коде страницы. Рекомендую выводить не более 2-4 тыс. на одной странице, так как могут возникать проблемы с браузером, такие как зависание и перезагрузка программы из-за критических ошибок при съеме данных плагином.

Далее запускаем редактор JavaSctipt в браузере. Для этого используем комбинацию клавиш Shift + Ctrl + K (в FireFox) и жмем на кнопку, как это показано на изображении ниже.

В открывшееся окно копируем следующий код:

var urls = new Array; var i = 0; var repT = ' тыс.'; var repM = ' млн.'; var regexT = new RegExp(repT, 'g'); var regexM = new RegExp(repM, 'g'); $('#div_search_table #table_content #body_table_content tr td.col-1').each(function() { var Trf = $(this).find('input[name*=xToolCheckTrfButton]').attr('value'); if (Trf.length>0) { Trf = parseInt(Trf); if (isNaN(Trf)) { Trf = 0.1; } } else { Trf = 0.1; } var AR = $(this).find('input[name*=xToolCheckARButton]').attr('value'); if (AR.length>0) { AR = AR.replace(regexT, '000').replace(regexM, '000000'); AR = parseInt(AR); if (isNaN(AR)) { AR = 25000000; } } else { AR = 25000000; } if (AR > 1000000 || Trf < 1000 ) { var url = $(this).find('a.link-compaing-url').attr('href'); urls[i] = '<span title="Alexa Rank: ' + AR + ' Trf: ' + Trf + '" href="' + url + '">' + url + '</span>'; $(this).parent().remove(); i++; } }); $(window.open().document.body).html(urls.join('</br>'));

Для выполнения кода используем комбинацию клавиш Ctrl + R или кнопку из меню программы.

Вышеприведенный код выберет все сайты, у которых показатели посещаемости по LiveInternet за последние сутки меньше 1000 человек или AlexaRank больше 1 млн. При этом для большего удобства они будут удалены со страницы, а их адреса вынесены списком в отдельную вкладку из которой вы можете их скопировать и вручную добавить в черный список.

Сомнительные сайты без статистики я тоже исключаю. Практика показывает, что большая часть из них непригодна для работы. К тому же при покупке вечных ссылок хочется быть максимально уверенным в результате.

Базовый анализ позволит вам отсеять большую часть непригодных для работы сайтов без каких-либо финансовых затрат. После базового отсева площадок можно будет переходить к следующему этапу – глубокому анализу.

Глубокий анализ площадок в GoGetLinks

При глубоком анализе кроме посещаемости и Alexa Rank мы также будем использовать такие параметры, как количество входящих и исходящих ссылок. Съем этих данных является платным, поэтому рекомендую заказать порядка 1000 запросов в сервисе XTool . На текущий момент они обойдутся вам всего в 150 рублей.

Если вы правильно произвели базовую фильтрацию, то 1000 запросов будет вполне достаточно для глубокого анализа всех оставшихся сайтов в системе Gogetlinks, так как основная масса площадок будет уже исключена из поиска.

Для начала работы переходим на страницу поиска площадок и снимаем при помощи плагина XTool такие показатели, как посещаемость, Alexa Rank и траст домена (кнопка XTD).

Далее открываем редактор JavaSctipt, копируем в него нижеприведенный код и запускаем его.

var urls = new Array; var i = 0; var repT = ' тыс.'; var repM = ' млн.'; var regexT = new RegExp(repT, 'g'); var regexM = new RegExp(repM, 'g'); $('#div_search_table #table_content #body_table_content tr td.col-1').each(function() { var Trf = $(this).find('input[name*=xToolCheckTrfButton]').attr('value'); if (Trf.length>0) { Trf = parseInt(Trf); if (isNaN(Trf)) { Trf = 0.1; } } else { Trf = 0.1; } var AR = $(this).find('input[name*=xToolCheckARButton]').attr('value'); if (AR.length>0) { AR = AR.replace(regexT, '000').replace(regexM, '000000'); AR = parseInt(AR); if (isNaN(AR)) { AR = 25000000; } } else { AR = 25000000; } var XTDInput = $(this).find('input[name*=xToolCheckXTButtonD]'); if (XTDInput.length>0) { var XTD = XTDInput.attr('value'); if (XTD.length>0) { XTD = parseFloat(XTD); if (isNaN(XTD)) { XTD = 0; } } else { XTD = 0; } if (XTD != 0) { var XTDAlt = XTDInput.attr('alt'); var obj = JSON.parse(XTDAlt); var lin = obj.lin; if ( lin === null ) { lin = 1; } else { if (lin.length>0) { lin = parseInt(lin); if (isNaN(lin)) { lin = 0; } } else { lin = 0; } } var lout = obj.lout; if ( lout === null ) { lout = 1000000; } else { if (lout.length>0) { lout = parseInt(lout); if (isNaN(lout)) { lout = 0; } } else { lout = 0; } } var spam = obj.spam; if ( spam === null ) { spam = 0; } else { if (spam.length>0) { spam = parseFloat(spam); if (isNaN(spam)) { spam = 0; } } else { spam = 0; } } var nepot = obj.nepot; if ( nepot === null ) { nepot = 0; } else { if (nepot.length>0) { nepot = parseInt(nepot); if (isNaN(nepot)) { nepot = 0; } } else { nepot = 0; } } if (XTD < 4 || AR > 1000000 || lout/lin > 1 || Trf < 1000 ) { var url = $(this).find('a.link-compaing-url').attr('href'); urls[i] = '<span title="XTD: ' + XTD + ' Alexa Rank: ' + AR + ' Домены out/in: ' + (lout/lin).toFixed(2) + ' Trf: ' + Trf + ' Вероятность непота: ' + nepot + ' Заспамленность: ' + spam + '" href="' + url + '">' + url + '</span>'; $(this).parent().remove(); i++; } } else { var url = $(this).find('a.link-compaing-url').attr('href'); urls[i] = '<span style="color: red; font-weight: bold;" title="XTD: NO Trf: ' + Trf + ' Alexa Rank: ' + AR + '" href="' + url + '">' + url + '</span>'; $(this).parent().remove(); i++; } } }); $(window.open().document.body).html(urls.join('</br>'));

Вышеприведенный код отберет и исключит все сайты, у которых:

Посещаемость меньше 1000 человек за последние сутки. Alexa Rank больше 1 млн. Исходящих ссылок больше чем входящих. Траст домена по мнению Xtool меньше 4 (XTD < 4).

После отработки скрипта проверяем результат и заносим адреса сайтов в черный список. Оставшиеся сайты, которых будет не так уж много, можно проверить вручную, отправляя площадки в черный или белый список при помощи соответствующих кнопок на сайте.

После тщательной ручной проверки площадок, можно смело приступать к покупке ссылок. Процесс покупки ничем не отличается от описанного в статье по работе с GetGoodLinks .

На этом данная статья подошла к концу. Желаю удачи и успехов в продвижении сайтов вечными ссылками.

Обнаружили ошибку? Выделите ее и нажмите Ctrl+Enter

IRC (Internet Relay Chat)
rss