FAQ: SEO
|
Что такое нэтикет?
Нэтикет (от англ. netiquette "net+etiquette" - сетевой этикет) - совокупность моральных принципов, отвечающих за чистоту, честность и порядок в Интернете. Конечно же, подразумевается запрет на любой вид спама, на непотизм в любом его проявлении, на оскорбительное отношение к чему-либо и на нарушение любых правил и норм. К сожалению, найти полный свод правил поведения в Интернете Вы скорее всего не сможете, но можете для начала попробовать руководствоваться золотым правилом нравственности Конфуция под моей редакцией: "Не делай сайтам того, чего бы не пожелал, чтобы сделали твоему сайту".
Что такое логи?
Логи (от англ. log - регистрация, запись) - это информация, которая записывается в виде некого подобия регистрационного журнала по шаблону "дата - событие". Логи служат "чёрным ящиком" в случае каких-либо неполадок и очень помогают в их остлеживании и устранении. Бывают самые различные виды логов: логи посещений, логи доступов к файлам, логи ошибок и т.д. Для экономии места на Вашем хостинге я рекомендую периодически удалять устаревшие логи, если это не происходит автоматически.
Что такое Рунет (Байнет, Уанет)?
Это сокращённые названия доменных географических сегментов сети Интернет.
Рунет (RuNet - название происходит от доменной зоны .ru, принадлежащей Российской Федерации) - понятие неоднозначное. Вариантами использования могут быть: сайты, домены которых принадлежат к доменной зоне .ru (наиболее частое и корректное использование данного термина), все пользователи Интернета с Российской Федерации или весь русскоговорящий сегмент сети Интернет.
Байнет (ByNet - доменная зона .by, принадлежащая Белоруссии) - ситуация аналогичная.
Уанет (UaNet - доменная зона .ua, принадлежащая Украине. Также можно встретить вариации такие, как Юанет, Юэйнет) - схожая ситуация с терминологией.
Что понимается под сортировкой по релевантности при поиске всех страниц сайта командой url="www.site.ru*"? Правда ли, что страницы сортируются по вИЦ?
Страницы сортируются не по убыванию ВИЦ, а по другим критериям.
Возможно ли реализовать эффективный учет тематичности сайтов как фактора ранжирования при относительно небольших вычислительных затратах? И если ответ «да», (а я думаю, что да), то есть ли это в каких
По понятным причинам мы стараемся не комментировать факторы, влияющие на ранжирование. Конечно учёт темы в ранжировании — это вопрос соотношения полноты, точности и производительности. Для небольшого числа запросов, сайтов, страниц можно достичь высокой точности классификации и хорошей производительности. Для всех запросов это сделать намного сложнее, учитывая, что более половины из них в течение месяца не повторяются.
Где и сколько хранится кеш поиска?
Каждый запрос попадает на «свой» кеширующий метапоиск. В случае проблем на этой машине запрос уходит на другой метапоиск. Кеш очищается в моменты обновления базы, а также выборочно чистится в случае заполнения диска.
Считает ли Яндекс разумным сделать пессимизацию за внешние факторы, как это сделал Google (пресловутый Google Bowling)?
Мы смотрим на все факторы, в т.ч. и на внешние. При этом пессимизация никогда не производится исключительно на основании внешних факторов.
Собирается ли Яндекс вводить гео-таргетинг выдачи? Для пользователей из СПб, давать бонус сайтам с регионом СПб или хостящимся в Питере? Для других городов аналогично.
Сейчас мы работаем над локализацией для крупных географических регионов, дойдем ли до уровня городов и в какие сроки — зависит от прироста качества, которое получим, и успешности решения проблем.
Ссылки всегда будут править балом? Есть ли альтернатива в плане определения релевантности? Намерен ли Яндекс в дальнейшем развивать значимость внутренних факторов, например, контента, по отношению к в
Мы используем все доступные нам способы повысить качество поиска. Конечно же ссылки не единственный и далеко не исчерпывающий источник полезной информации.
Будет ли когда-либо отменен знаменитый «найден по ссылке»?
Многие документы не могут быть найдены иначе, чем по ссылке. Иногда это связано с техническими причинами, иногда с отсутствием лексики в тексте страниц. Все современные поисковые системы умеют находить документы по ссылкам, отличаются же они только тем, что некоторые, такие как Яндекс, честно предупреждают пользователя «перед вами текст ссылки», другие же этого не делают. С нашей точки зрения в замалчивании есть некоторое «введение в заблуждение», которого мы стремимся избегать
Не секрет, что сейчас очень остро стоит проблема дублирования контента (причем, не только в рунете). Фактически, делать свой информационный (НЕ маркетинговый-продающий) контент для сети становится пра
Проблема важная и поиск Яндекса при обнаружении дубликатов пытается определить оригинал документа. Существующие алгоритмы, конечно, несовершенны и мы работаем над их улучшением. Что касается юридического регулирования, поисковые системы пока не могут идентифицировать авторство текста. В случае удаления из сети «тыренного» контента (например, в результате действий правообладателя), Яндекс также удалит его из базы по мере обхода роботом. Этот процесс можно ускорить, воспользовавшись формой webmaster.yandex.ru/delurl.xml
Существует ли число (в процентах) которое определяет качество выдачи? Скажем если в выдаче 10% дорвеев — то она качественная, больше — уже нет.
Если в выдаче 10% дорвеев, она безусловно некачественная. Конечно, любое пороговое число — условность, облегчающая понимание. Наши внутренние метрики самые обычные, например, доля релевантных ответов в первой десятке, доля низкокачественных сайтов (дорвеи, спам) в десятке и т.д. Мы анализируем не только показатели, но и их динамику.
Как Яндекс относится к огромному количеству сайтов-спутников, созданных только для продвижения клиентских сайтов? Будет ли присваиваться меньший или мизерный вес ссылкам с сайтов, принадлежащих одному
Это к вопросу о плодящихся как грибы в сети сайтах-спутниках (сателлитах), которые зачастую имеют одного владельца и «висят» на одном IP. Или может быть будут какие-то другие методы борьбы?
К сайтам и страницам, созданным исключительно для роботов, а не для пользователей, мы относимся отрицательно. У нас давно работает алгоритм, определяющий группы аффилированных сайтов. В работе находится ещё один алгоритм, который позволит выявить многие новые виды сайтов-спутников. Его предварительные результаты нас радуют.
Планирует ли Яндекс и дальше полагаться на Платонов или всё же планируется улучшить алгоритмы поиска настолько, чтобы не пришлось полагаться на ручные баны (пример разумного подхода к банам — Google).
Поиск Яндекса никогда не зависел от ручных запретов за спам. Ручная обработка используется только для оперативного реагирования на жалобы по поводу сайтов, пропущенных нашими модулями «анти-спама». Число обрабатываемых жалоб совершенно незначительно по сравнению с количеством автоматических детектирований спама (меньше на порядок-два), при этом доля ручного потока всё время падает. В перспективе мы хотим перейти к полному отказу от ручных запретов, и к работе в режиме, когда пропущенный нами спам отправляется на вход обучаемому автомату. Что касается Платона, он — сотрудник службы поддержки, и, хоть и эрудит, но не занимается поиском спама.
|
|