**简述:** 这篇文章是在[必应站长手册](https://www.bing.com/webmasters/help/webmaster-guidelines-30fba23a)中引用的,对针对爬虫返回单独处理的页面的行为做出了官方的肯定。我认为是为前后端分离的网站进行SEO提供了可靠的方法。 **原文链接:**[https://blogs.bing.com/webmaster/october-2018/bingbot-Series-JavaScript,-Dynamic-Rendering,-and-Cloaking-Oh-My](https://blogs.bing.com/webmaster/october-2018/bingbot-Series-JavaScript,-Dynamic-Rendering,-and-Cloaking-Oh-My) **译文:** 上周,我们发布了第二篇博客,[必应机器人系列:优化爬取频率](https://blogs.bing.com/webmaster/october-2018/bingbot-Series-Optimizing-Crawl-Frequency) 今天是万圣夜,像往常一样,我们的爬虫(也成为“蜘蛛”)正在网上漫步。浏览万维网,跟踪链接,以求高效地为我们的必应用户发现、索引和刷新最优质的网络内容。 ![必应机器人 必应爬虫](https://blogs.bing.com/BingBlogs/media/WebmasterBlog/bingbot-crawl-halloween.png) 有时,必应机器人会遇到依赖JavaScript渲染内容的网站。其中的一些网站链接了太多需要从网络服务器上下载的JavaScript文件。在这种设定下,必应机器人需要发出多个请求,而不是每个页面只用一个HTTP请求。更有甚者,简直是蜘蛛陷阱,渲染一个页面需要一大堆HTTP请求!这不合理啊,你说是吧? 正如我们上周在SMX East分享的内容所说,[必应机器人通常有能力渲染JavaScript](https://www.slideshare.net/SearchMarketingExpo/understanding-crawling-and-indexing-by-frederic-dubut)。然而,必应机器人并不一定支持你所钟爱的现代浏览器中支持的所有JavaScript框架的最新版本。和其他搜索引擎爬虫一样,必应机器人很难在控制HTTP请求数量的同时大规模地处理所有网站的所有页面上的JavaScript。 因此,为了增加必应对你的网站的爬取和索引的可预测性,我们建议严重依赖JavaScript的网站采用动态渲染作为一个不错的替代方案。动态渲染就是检测HTTP请求的User Agent信息,据此分辨出访问者是普通用户还是搜索引擎爬虫,并为他们分别渲染内容。对于上述站点,我们鼓励检测我们的[必应机器人的User Agent](https://www.bing.com/webmaster/help/which-crawlers-does-bing-use-8c184ec0),在服务端预渲染并输出静态的HTML,**以帮助我们优化HTTP请求数量并且确保我们能够在每次访问你的网站时,获取到最好、最完整的版本的网页内容。** # 使用动态渲染是否会被认为是一种伪装? 当讨论到专门为搜索引擎爬虫渲染内容时,我们不可避免地会产生一个疑问,这样算不算伪装?对于SEO社区来说,没有什么比因为伪装而收到惩罚更可怕的了,即使是在万圣夜!不必担心,只要你真诚而努力地给所有的访问者提供相同的内容,只是给爬虫的内容在服务端渲染而给真实用户的在客户端渲染,那么这就是没问题的,不会被视为伪装。 所以,如果你的网站依赖了大量的JavaScript,并且你希望能够提升必应对你网站的爬取和索引,那么考虑一下动态渲染吧,只要你将其视为技术而不是骗术,你一定会受益匪浅! 万圣夜快乐! Fabrice Canel and Frédéric Dubut Program Managers 微软-必应