RegOne.ru - автоматическая и ручная регистрация сайта в каталогах, рейтингах, поисковых системах, публикация тематических статей и обзоров Суббота, 23 сентября 2017 года
RegOne.ru - Сервис регистрации сайтов в каталогах, рейтингах, поисковых системах, публикации тематических рекламных статей и обзоров 30/04/2013
Профилактические работы
В среду 1 мая 2013 года с 9:00 до 23:00 будут проводится плановые профилактические работы. Подробнее...
14/12/2012
Профилактические работы
В субботу 15 марта 2012 года с 9:00 до 23:00 будут проводится плановые профилактические работы. Подробнее...
Проект закрыт.
Проект продается. Цена договорная. При заинтересованности, пишите на webmaster_raman@mail.ru
Регистрация | Заказ | Добавить каталог | Вакансии | Контакты | Статьи |

Тарифы RegOne.ru:

Базовый / 50 руб/сайт
Самостоятельная регистрация сайта в каталогах, рейтингах, поисковых системах, публикация статей в тематических сборниках.
Подробнее...

Премиум / 700 руб/сайт
Регистрацию сайта в каталогах, рейтингах, поисковых системах, публикацию статей в тематических сборниках выполнит опытный специалист RegOne.ru.
Подробнее...

Премиум Люкс / 1000 руб/сайт
Специалист RegOne.ru подготовит альтернативные описания сайта, тематические статьи и выполнит регистрацию сайта в каталогах, рейтингах, поисковых системах и опубликует статьи в тематических сборниках.
Подробнее...

Демонстрационный / бесплатный
Специальные аккаунты, которые позволяют ознакомиться со всеми возможностями системы RegOne.ru на примере трех предопределенных сайтов.
Подробнее...

Сервисы:
  - тИЦ, PR, WR, WRT сайта
  - PR группы страниц сайта

Карта сайта

Информация о владельце WM идентификатора: WMID#262791348023

Информация о владельце WM идентификатора: WMID#262791348023

Регистрация в каталогах / Статьи / Поисковые системы / Как оптимизировать ваш сайт как для Google, так и для Inktomi

Опубликована: 05/08/2007
Раздел: Поисковые системы

Как оптимизировать ваш сайт как для Google, так и для Inktomi

Окружение поисковых машин продолжает быстро эволюционировать, легко превышая способность потребителей и практикующих SEO быстро адаптироваться к новому ландшафту. C возвышением Inktomi на уровень важности, который до последних пор в одиночестве занимал Google, оптимизаторам стало необходимо переосмыслить некоторые стратегии, тактики и, возможно, даже этику приемов. Полагая, что данная дискуссия будет разворачиваться в течении ближайших месяцев, каким же образом «этическая SEO фирма» работает, оптимизируя web-сайты, не скатываясь назад к старомодной тактике спама ведущих страниц или порталов?

Недавно, один из оптимизаторов, не связанный с StepForth, сказал мне, что он начинает ре-оптимизировать свои сайты для подготовки к тому, что как он думает, является стандартами Inktomi, и что он считает необходимым в соревновании за высокий трафик. В этом не будет необходимостью, если вы внимательны и следуете всем «лучшим практическим рекомендациям», выработанным с годами.

Ответ на нашу загадку менее чем очевиден. Но он заключен в типичных чертах поведения двух поисковых инструментов. При наличии определенного сходства между двумя машинами, наиболее выраженном в поведении их поисковиков, существует также существенные различия в способах поведения машин по отношению к web-сайтам. Большей частью Google и Inktomi придают значение радикально разным элементам в структуре документа при ранжировании сайта. Для Google сильная и релевантная ссылочная популярность все еще остается наиболее важным фактором получения хорошего расположения. Для Inktomi заголовки, мета-теги и текст – самые важные факторы получения хорошего ранжирования. Обе машины принимают в расчет количество и расположение ключевых слов, количество входящих ссылок на сайт и якорного текста, используемого в ссылках (хотя Google придает гораздо больше веса якорному тексту, чем Inktomi). На этом вроде бы сходство заканчивается и наступает место, где тактика SEO требует пересмотра. Поскольку Inktomi принимается, как главный «провайдер» списка Yahoo, то как Google, так и Inktomi поведут относительно одинаковые уровни поискового трафика. Обе будут одинаково важны, с оговоркой, что Inktomi поддерживает двух из больших трех, в то время как Google будет только поддерживать сам себя.

Первое, что важно, продумать: как работает каждый паук?

Заход паука Inktomi не означает полной индексации. Прохождение вашего сайта Inktomi"s bot "Slurp" весьма важно. Как и "Google-bot", "Slurp" будет следовать за каждой ссылкой, на которую наткнется, прочитывая и записывая всю информацию. Главная разница между Google и Inktomi, это то, что когда Google-spider проходит новый сайт, существует хороший шанс индексации внутренних страниц, не платя за каждую отдельную страницу. Похоже, мы можем сказать, что это простое недорогое правило неприменимо к Inktomi.

Нам все же следует определить, позволит ли Inktomi всем страницам внутри сайта быть проиндексированными, не оплачивая за появление этих в индексной базе поисковой системе. Помните, что Inktomi - служба платного включения, которая выставляет счет web-мастерам в виде вступительного платежа, основанного на количестве страниц сайта, которые бы вы хотели проиндексировать. Из собранной нами информации, Slurp будет следовать каждой ссылке на сайте и, если дорога будет "гладкой" - пройдет каждую страницу сайта, но страницы внутри этого сайта, за которые платили при подписке, будут посещаться гораздо более часто и будут появляться в индексе за месяцы до неоплаченных страниц.

Мы отметили это, исследуя, как много страниц Inktomi вносит в список от более свежих клиентов, против количества, вносимого от старых. Мы видим, что чем старше сайт, тем больше страниц появляется в базе данных Inktomi и на SERPах, использующих базу данных Inktomi. (Это, предполагая, что вы заплатили за включение только первой страницы). Исходя из расценок Inktomi, сайт среднего размера из 50 страниц мог обойтись до $1289 в год с тем, что каждая страница добавлялась к базе данных платного включения. Так что вероятнее далее не полагать, что web-мастера мелкого бизнеса станут платить так много.

Google собирается вас достать

Google-bot похож на Borg в Star Trek. Если какой-либо сайт имеет ссылку, указывающую на ваш сайт, и находится в индексной базе Google, то Google-bot найдет вас и ассимилирует всю вашу информацию. Как наиболее хорошо известный и плодовитый паук в сети, Google-bot и его двоюродный брат Fresh-bot посещают сайты исключительно часто. Это означает, что большинство сайтов с эффективными ссылками попадут в базу данных Google без нужды ручной регистрации. Поскольку Google в настоящий момент не имеет модели платного включения, каждая страница какого-либо сайта может быть появиться где-нибудь на SERP-ах, производимых Google. Предоставив способ найти каждую страницу на сайте (эффективные внутренние ссылки), дизайнеры сайтов смогут наблюдать свои страницы, появляющимися в базе данных Google в пределах двух месяцев после публикации.

Сейчас мы служим двум хозяевам: Google и Inktomi

Хорошо, как же оптимизировать сайты для обеих, не рискуя перекрыть одно размещение другим. Основной ответ – дать каждому, что он хочет. Почти в течении года, большинство в SEO индустрии фокусировалось на ссылочных стратегиях, для того, чтобы задобрить Google"s PageRank. Такая сильная устремленность на ссылках возможно, была одной из причин перестройки Google своего алгоритма в ноябре. Релевантные входящие ссылки все еще исключительно важны но более не могут считаться решающей стратегией для наших клиентов. Возвращаясь к основам оптимизации сайта и помня уроки, полученные в отношении того, что за последних 12 месяцев давало первые 10 мест, оптимизаторы и web-мастера должны проводить много времени за обдумыванием заголовков, тегов и текста наряду со ссылочной стратегией (как внутренней, так и внешней). Расположение ключевых слов и их частота снова возвращаются на свет и должны быть изучаемы SEO и клиентами, как новая основа эффективной оптимизации сайта.

В то время, как добавление карты сайта всегда считалось лучшей практикой SEO - сейчас оно должно стать неотъемлемой практикой. То же самое касается уникальности заголовков и тегов на каждой странице сайта. Другое важное дело, которое теперь должны будут учесть SEO-герои, - это работать исключительно с сайтами, имеющими уникальное, оригинальное содержимое. Я могу поклясться, что не пройдет и 12 месяцев, как Inktomi введет правило против дублирования содержания, как способ контролировать как SEO, так и индустрию аффилиатного маркетинга. Сайты с удвоенным содержимым являются либо зеркалами, порталами, либо производными от них. Ничто из вышеперечисленного не должно прельщать трудолюбивого оптимизатора. При исключительных обстоятельствах, когда требуется дублированное содержимое, гораздо более часто, чем не дублированное, оно является тратой времени и, скорее всего, затруднит кампанию SEO, чем пойдет ей на пользу.

Последний совет

Последний совет этой статьи: не бойтесь возлагать более высокие затраты на клиентов. Поскольку ваш клиент хочет результат быстро. Когда действительно анализируешь затраты платного включения, они не отличаются ужасным образом от других затрат по рекламе. С одним крупным исключением. Большинство платной рекламы базируется регионально (или неоправданно дорого для малого бизнеса). Реклама в поисковых системах отображается интернационально, и это стоит того.

Автор: WEBLOG
Источник: http://weblog.in.ua/

Другие статьи темы "Поисковые системы":

  • Яндекс 2007: Но пасаран? / 09/10/2007
    Итак, компания Яндекс вышла на проторенную тропу войны и закрыла поисковым оптимизаторам доступ к операторам расширенного поиска link и anchor. Чтобы понять, насколько это существенно, попробуем для начала рассмотреть некоторые общие положения.
  • Поисковая система Rambler / 17/08/2007
    Поисковая система Рамблер начала свое существование с 1996 года. На сегодняшний день она является одной из самых популярных в РуНете, уступая лишь Яндексу (по популярности). По оценкам SpyLog на Рамблер приходится 20-25% от всех поисковых запросов РуНета.
  • Поисковая система Апорт! / 17/08/2007
    Апорт — полнотекстовая поисковая система. Это означает, что она индексирует все слова, которые бы увидел на экране человек, просматривая конкретную страницу вашего сервера. В результате любое слово из текста ваших документов может служить критерием последующего поиска.
  • Поисковая система TELA / 17/08/2007
    Поисковая система TELA, созданная петербургским Интернет-провайдером DUX, ориентирована на поиск русскоязычных страниц в WWW, а также англоязычных страниц на российских серверах.
  • Поисковая система Novo Search / 17/08/2007
    Этот сайт интересен как пример поисковой машины, выполняющий поиск на WWWсерверах конкретного города России.
  • Что должен знать о Яндексе каждый. Часть 2 / 05/08/2007
    Стремясь удерживать лидирующие позиции лучшего поисковика по русскоязычному Интернету, Яндекс постоянно совершенствует алгоритм расчета релевантности страниц, заимствуя передовые идеи у машин с мировым именем. Последние изменения, внедренные Яндексом, оказались наиболее кардинальными.
  • Что должен знать о Яндексе каждый. Часть 1 / 05/08/2007
    Название самой популярной поисковой системы по русскоязычному Интернету, т.е. Яндекса, означает "Языковой index", а также имеет несколько других схожих трактовок, общий смысл которых выражается слоганом "Найдется все". Прогрессирующая конкуренция среди поисковых машин заставляет более предвзято относиться к подобным обещаниям, т.к. мало найти все, надо уметь найти самой главное. Однако поисковая система Яндекс довольно успешно с этим справляется, чем и оправдывает право называться сегодня самым посещаемым ресурсом Рунета.
  • Невидимый вИЦ / 02/08/2007
    Взвешенный индекс цитирования Яндекса, он же вИЦ, – параметр, все реже встречающийся в мыслях оптимизаторов Рунета, в беседах за кружечкой пива, в форумных темах и записях блогов. Параметр, само определение которого обросло мифами и небылицами. Многие просто не верят в его существование, а фраза «Да я еще вИЦ в тулбаре видел!» помогает определить оптимизаторский стаж говорящего – не менее 5 лет…
  • Поисковая система Webcrawler / 30/07/2007
    Webcrawler - старейшина среди полнотекстовых поисковых систем. Webcrawler осуществляет поиск не только в WWW, он является интерфейсом к поиску Gopher и поиску по FTP. Интерфейс у Webcrawler очень простой и понятный.
  • Поисковая система Northern Light / 30/07/2007
    Northern Light - один из крупнейших поисковых серверов Internet, известный за его поисковую технологию "Custom Search Folders", которая динамически организовывает найденные документы в тематические группы.
Copyright © 2006-2017 RegOne.ru - SEO-сервис автоматической и ручной регистрации сайта в каталогах, рейтингах, поисковых системах, сборниках статей / Коммерческая (тестовая) версия v. 2.0. Дизайн версия 1.0
При использовании материалов сайта RegOne.ru размещение гиперссылки на www.regone.ru и указание источника RegOne.ru обязательно.
Copyright © 2006-2017 Software and design by Raman
Rambler's Top100
Реклама: