站长百科

什么是robots文件?

robots文件是网站与搜索引擎爬虫沟通的重要渠道,目的就是告诉搜索引擎本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。 robots是网站跟爬虫间的协议,用简单直接的txt格式文本...
阅读全文
站长百科

蜘蛛池是什么?有什么用?

蜘蛛池是什么?简单理解就是吸引搜索引擎蜘蛛的工具,通过做大量泛站让搜索引擎收录,作为一个属于自己的外链资源,加速网站的收录。 蜘蛛池有用吗? 当一个蜘蛛从某一个域名进入蜘蛛池后,把URL放入到这些泛站...
阅读全文