发新话题
打印

如何使网页被搜索引擎机器人搜索到?另,如何又使网页不被搜索引擎机器人搜索到?

用登录奇兵  V4.03   网站就可找到你了啦.  

将您的网站在一个小时内同时自动登录到国内外知名的1300多个搜索引擎上。可以无限次登录。具备发送情况统计报告,登录失败引擎单独重新登录,采用多线程,登录速度快。最大限度提升你的网站浏览量。  

http://www.skycn.com/soft/635.html  


禁止搜索引擎收录的方法  

http://bar.baidu.com/robots/  

 搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。  

  您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。  

robots.txt文件应该放在网站根目录下。举例来说,当robots访问一个网站(比如http://www.abc.com)时,首先会检查该网站中是否存在http://www.abc.com/robots.txt这个文件,如果机器人找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。  

根据上面所述,要想禁止所有搜索引擎访问网站的任何部分  
中要在robots.txt里面加入:  

User-agent:  *   
Disallow:  /

TOP

发新话题