Shkondin.ru

Ван-ту, ван-ту: чек да майкрофон.

В последнее время я слегка опаздываю за новостями Яндекса. И, хотя, на первый взгляд они кажутся эпохальными (два объявления об изменениях в алгоритме, кастрирование языка запросов), после некоторых раздумий выясняется, что это далеко не так. Вот небольшой мыслестрептиз по поводу безвременной кончины операторов link и anchor:

После этого мысли моей голове расплодились в катастрофических объёмах, а посему из гуманных соображений я решил не грузить вас потоком сознания 😀

P.S: если у вас есть интерес к упомянутому выше скрипту — дайте знать в комментах на сколько он вам интересен.

На апдейт алгоритма Яндекса

Я, конечно, слегка нарушаю собственные же правила, делая выводы не дождавшись одного-другого апдейта по новому алгоритму, но, тем не менее, придам гласности ма-а-аленькое наблюдение: все изменения алгоритма Яндекса очень хорошо укладываются в теорию TrustRank‘а.

Судите сами:

Как обычно, disclaimer: автор не делал свои выводы на основании анализа только двух запросов, однако вполне отдаёт себе отчёт в том, что всё вышеизложенное может являтся не более чем совпадением

А вы что думаете о новом алго?

Конец эры GoogleBombing’а?

Матвей отрапортовал об вводе в строй алгоритма, который призван бороться с GoogleBombing’ом. Я, как и каждый оптимизатор, разумеется задался мыслью, а как бы я устроил данный фильтр? Мне в голову пришли такие варианты:

  1. ручная фильтрация
  2. понижение релевантности страниц, не содержащей искомой фразы
  3. понижение релевантности страниц, на которые ведёт большое количество маловариативных ссылок
  4. комбинация 2 и 3

Немного поясню пункт 3. Если на страницу идут ссылки исключительно с текстом windows rulez, то это плохо, потому как в натуральных условиях на страницу почти наверняка будут вести также ссылки windows rulez forever, а также windows suxx и windows must die, ну и конечно же просто windows.

Фанатики Гугля скажут, что ручной фильтр и Гугль несовместимы. Возможно. Но по крайней мере биография Буша по запросу miserable failure похоже что зафильтрована именно руками. Если сделать поиск точной фразы по сайту Белого Дома, то мы обнаружим, что 14 из 17 страниц скрыты в «похожих». Ага. Особенно похожа на три англоязычные страницы биография Буша на испанском! Так что алгоритм алгоритмом, но почему бы и не подстраховаться? 🙂

Микротест качества поиска

Запрос  учёный года. По умолчанию подразумевается 2006-й год. Правильный ответ — Перельман. Его даёт только Гугль.

Реальный PageRank

Отстал тут маленько от жизни. Оказывается, Гугль показывает в своих Webmaster Tools историю страниц с самым большим PageRank. Как и следовало ожидать, самая пиаристая страница на моём сайте http://www.developing.ru/seobar/ , а вовсе и не морда с тулбарной 4-кой. Жаль, что показывает только одну страницу и без численного значения.

via

Webalta умерла не родившись?

Что-то вспомнилось, что был такой поисковик Webalta, о котором шумели многие сетевые СМИ в конце лета. Захотелось посмотреть, как обстоят дела у него с популярностью. Открыл статистику LI.ru и увидел такую картину:

listats.gif
Оказывается, WebAlta не очень оторвалась от неизвестного мне [мета?] поисковика Поиск.ру. И никакого прогресса не наблюдается: количество переходов колеблется в районе 10К в день.Любопытно, что график для Апорта очень сильно отличается от трёх других поисковиков: на фоне постоянного оттока посетителей (которые оттекают явно не к этим трём поисковикам) наблюдаются переодические всплески. Складывается впечатление, что за жизнь умирающего Апорта борются активнее, чем за жизнь недавно родившейся ВебАльты.

По-моему, с каждым днём становится всё очевиднее, что это такой же мёртворождённый проект, как, например,  turtle.ru. Кстати, его создатель Дмитрий Крюков ищет работу.

Автоматизированный отлов дорвеев

Гугль кооперируется с Википедией на предмет отлова спаммерских ссылок.
Идея логична. Вики спамят в промышленных масштабах и доры можно отстреливать на подлёте. Собственно логично и объявление о кооперации — оно само по себе уменьшит объёмы спама в Вики.

А мне вот что подумалось. Формочка в Яндексе (или кнопочка в баре для FF от Яндекса) «пожаловаться на спам» не очень полезна. Определение спама для поисковика весьма и весьма субъективно. Лично мне пользоваться этой формочкой некомфортно по моральным соображениям 🙂 Я если и стучу на доры, то сразу на кучу однотипных, отправляя Александру Садовскому ссылку на запрос в Яндексе. На большой коллекции можно и алгоритм подкорректировать. Но! Я точно знаю, где я не буду ощущать никаких душевных терзаний определяя спам это или нет. В собственном блоге и форуме. В движке WordPress’а при модерации комментариев есть опция — пометить как спам. Нужно всего лишь дописать функцию, которая будет заодно сливать в Яндекс (Гугль, Рамблер) эти спаммерские сообщения. Или складывать их в одном месте, доступном в том числе и поисковикам. Подобный мод можно сделать и для других блогов и форумов на популярных движках. Работы не много, а информации для анализа будет море. Я даже с удовольствием размещу на форуме и блоге кнопочку: весь спам автоматом перенаправляется в поисковики.

Конечно, спамеры попытаются зафлудить такой механизм ложными жалобами, т.е. будут спамить в блоги и форумы нормальные сайты. Так что примитивный алгоритм «раз спамит, то в бан» не подойдёт. Но, нормальные сайты тем от доров и отличаются, что они друг на друга не похожи. Так что таким макаром можно будет вычистить как минимум типовые доры. Да и плюс одно дело спамить собственные ресурсы, зная, что расходы на спам окупятся, и совсем другое — спамить забесплатно чужие ресурсы. Так что поток «ложного» спама будет существенно меньше спама натурального.

Ну и в продолжение темы. Кроме отлова доров с помощью чужих ресурсов можно их отлавливать и на своих собственных. Более чем уверен, что комментарии, которые удаляют блоггеры на BlogSpot.com (Blogger.com) подвергаются Гуглем тщательному анализу. Если добавить немножко конспирологии, то Яндекс запросто мог создать с десяток каталогов и вычислять автосабмитеров по факту попадания во все эти каталоги…

Уточняющие запросы (refinements) в Гугле

Возможно, это уже и не новость, но оказывается по некоторым однословным запросом Гугль выдаёт список уточняющих запросов. Например, если ввести название города.

brisbane.gif

При переходе по ссылке Гугль добавляет к запросу квантор more, так, например, запрос brisbane преобразуется в brisbane more:shopping или brisbane more:sightseeing (хотя ссылка называется attractions).

Как обычно, буду благодарен за примеры других типов запросов с refinements.