Уже совсем немного осталось до того времени, когда поисковые роботы смогут мыслить как люди. А до того времени пока это не случилось их алгоритм продолжают совершенствовать и делать все необходимое чтобы продвигать его в этом направлении. Среди прочих достоинств прогресса поисковых роботов от компании Google, возможность обрабатывать полноценно страницы, созданные с использованием Javascript.
О новых возможностях Google bot сообщил на своем блоге разработчик Алекс Панкратов. Алекс рассказал, как именно происходит обработка Javascript. Как он рассказывает, робот Google теперь умеет имитировать клики пользователя по сайту и смотреть какие из действующих элементов используются для перехода на другие страницы.
Ранее давал ответ на подобный вопрос Мэтт Катс. Он рассказывал, как обрабатывается роботом Ajax. Среди всего им сказанного стоит отметить тот факт, что по словам Мэтта Google bot научился не только сканировать Javascript в поисках URLов, а и запускать некоторые из них.
По его словам данная возможность особо важна для сайтов, у которых эта технология активно используется. К примеру, при создании навигации между разделами и другими структурными элементами. Также Мэтт посоветовал не закрывать Javascript в файле robots.txt, предоставив роботу возможность просмотреть эти страницы.
P.S. Еще одной важной новостью для многих веб мастеров стал запуск нового алгоритма от Google под названием Google Penguin, который уже сумел наделать немало шума. Автор блога интересно рассказывает как не попасться в «сети» этого фильтра.