Новый стандарт для директивы Allow файла robots.txt - «Интернет»
Larian ответила на вопросы игроков о Divinity и генеративном ИИ в разработке — новые подробности амбициозной RPG от создателей Baldur’s Gate 3 - «Новости сети»
Larian ответила на вопросы игроков о Divinity и генеративном ИИ в разработке — новые подробности амбициозной RPG от создателей Baldur’s Gate 3 - «Новости сети»
«Думал, быстрее умру, чем дождусь её»: спустя семь лет после «Мора» в Steam вышла Pathologic 3 - «Новости сети»
«Думал, быстрее умру, чем дождусь её»: спустя семь лет после «Мора» в Steam вышла Pathologic 3 - «Новости сети»
«Sea of Thieves, но в пустыне»: трейлер эвакуационного шутера Sand: Raiders of Sophie понравился игрокам - «Новости сети»
«Sea of Thieves, но в пустыне»: трейлер эвакуационного шутера Sand: Raiders of Sophie понравился игрокам - «Новости сети»
Учёные нашли способ превращения испорченного молока в материал для 3D-печати - «Новости сети»
Учёные нашли способ превращения испорченного молока в материал для 3D-печати - «Новости сети»
Adata и MSI показали «первые в мире» 4-ранговые модули памяти DDR5 CUDIMM на 128 Гбайт - «Новости сети»
Adata и MSI показали «первые в мире» 4-ранговые модули памяти DDR5 CUDIMM на 128 Гбайт - «Новости сети»
Спустя восемь лет после Wolfenstein 2: The New Colossus студия MachineGames взялась за Wolfenstein 3 — разработку подтвердил ещё один источник - «Новости сети»
Спустя восемь лет после Wolfenstein 2: The New Colossus студия MachineGames взялась за Wolfenstein 3 — разработку подтвердил ещё один источник - «Новости сети»
Micron на следующей неделе заложит фундамент крупнейшего комплекса по производству памяти в США - «Новости сети»
Micron на следующей неделе заложит фундамент крупнейшего комплекса по производству памяти в США - «Новости сети»
Власти потребовали от китайских компаний отменить заказы на американские ускорители Nvidia H200 - «Новости сети»
Власти потребовали от китайских компаний отменить заказы на американские ускорители Nvidia H200 - «Новости сети»
Sony анонсировала лимитированную коллекцию ярких RGB-чехлов для PlayStation 5 - «Новости сети»
Sony анонсировала лимитированную коллекцию ярких RGB-чехлов для PlayStation 5 - «Новости сети»
Блоки питания MSI получили звуковую защиту от плавления разъёма 12V-2×6 - «Новости сети»
Блоки питания MSI получили звуковую защиту от плавления разъёма 12V-2×6 - «Новости сети»
Новости мира Интернет » Новости » Новости мира Интернет » Новый стандарт для директивы Allow файла robots.txt - «Интернет»

Яндекс.Поиск сообщил о новых правилах обработки директивы Allow текстового файла robots.txt, которая разрешает доступ поискового робота к некоторым частям или сайту целиком.

Отныне для корректной обработки директивы Allow ее необходимо прописывать с учетом следующего порядка: если для данной страницы сайта подходит несколько директив, то поисковый робот выберет первую в порядке появления в выбранном User-agent блоке.

Уже через несколько недель Яндекс внедрит изменения в обработке поисковым роботом директивы allow и откажется от учета порядка. С этого момента директивы станут сортироваться по длине префикса URL’а (от меньшего к большему) и применяться последовательно. Подобное изменение позволит соответствовать международным принципам применения директивы. Благодаря этому, как у российских, так и у иностранных веб - мастеров не будет возникать каких-либо трудностей при составлении файла robots.txt для различных поисковых систем.

Всем веб-мастерам, на чьих сайтах в файлах robots.txt присутствуют директивы allow и disallow, крайне рекомендуется проверить их на соответствие новым стандартам.

Примечательно, что независимые эксперты уже сейчас говорят о том, что на сегодняшний день имеет место существенный разрыв между тем, каким хотят видеть файл robots.txt разработчики Яндекса, и тем, каким его создают веб-мастера. Эксперты считают, что последовательность команд — это то, о чём большинство веб-мастеров и владельцев сайтов задумываются в последнюю очередь.

Согласно результатам независимых исследований сам файл robots.txt присутствует только чуть более чем на половине сайтов в Рунете. Формирование директив Disallow и user-agent вызывает у веб-мастеров и владельцев сайтов существенные сложности. Вполне возможно, что Яндексу стоило бы добавить в панель инструментов для веб-мастеров специальное уведомление о том, что количество страниц в индексе поисковой системы значительно снизилось из-за запрета индексации в файле robots.txt.

Цитирование статьи, картинки - фото скриншот - Rambler News Service.
Иллюстрация к статье - Яндекс. Картинки.
Есть вопросы. Напишите нам.
Общие правила  поведения на сайте.

Яндекс.Поиск сообщил о новых правилах обработки директивы Allow текстового файла robots.txt, которая разрешает доступ поискового робота к некоторым частям или сайту целиком. Отныне для корректной обработки директивы Allow ее необходимо прописывать с учетом следующего порядка: если для данной страницы сайта подходит несколько директив, то поисковый робот выберет первую в порядке появления в выбранном User-agent блоке. Уже через несколько недель Яндекс внедрит изменения в обработке поисковым роботом директивы allow и откажется от учета порядка. С этого момента директивы станут сортироваться по длине префикса URL’а (от меньшего к большему) и применяться последовательно. Подобное изменение позволит соответствовать международным принципам применения директивы. Благодаря этому, как у российских, так и у иностранных веб - мастеров не будет возникать каких-либо трудностей при составлении файла robots.txt для различных поисковых систем. Всем веб-мастерам, на чьих сайтах в файлах robots.txt присутствуют директивы allow и disallow, крайне рекомендуется проверить их на соответствие новым стандартам. Примечательно, что независимые эксперты уже сейчас говорят о том, что на сегодняшний день имеет место существенный разрыв между тем, каким хотят видеть файл robots.txt разработчики Яндекса, и тем, каким его создают веб-мастера. Эксперты считают, что последовательность команд — это то, о чём большинство веб-мастеров и владельцев сайтов задумываются в последнюю очередь. Согласно результатам независимых исследований сам файл robots.txt присутствует только чуть более чем на половине сайтов в Рунете. Формирование директив Disallow и user-agent вызывает у веб-мастеров и владельцев сайтов существенные сложности. Вполне возможно, что Яндексу стоило бы добавить в панель инструментов для веб-мастеров специальное уведомление о том, что количество страниц в индексе поисковой системы значительно снизилось из-за запрета индексации в файле robots.txt.

Смотрите также

А что там на главной? )))



Комментарии )))