一般网站建设的目的就是让搜索引擎网站收录,扩大推广面,但假如你的网站涉及个人隐私或者机密性非公开的网页而需要禁止搜索引擎网站收录抓取的话,那样禁止网站部分网页不被网站收录的办法有什么?
1) noindex 标签
借助“noindex”禁止搜索引擎抓取页面,在不期望被网站收录的网页中用以下指令:
meta name="robots" content="noindex"
借助这个办法可以有效的解决不想要被网站收录页面。也是比较推荐的方法,可以解决大部分的问题,操作容易,就是需要单页面设定,假如页面数目多会有实行困难,需要后台开发单页面代码插入功能。
2) robots.txt 协议
robots.txt 文件坐落于网站根目录,可以向搜索引擎爬虫表明你不期望被网站收录的网站内容路径。在大部分的状况下都可以解决不想被网站收录的问题,不过 robots.txt 本身还是有一些限制的,譬如它不是强制的指令,因此不是每一个搜索引擎都会完全遵守 robots.txt 内的协议。
3) 服务器设定解决
直接在服务器上把目录或文件设定成密码存取,比如用Apache网页服务器时,可以编辑 .htaccess 文件使目录受密码保护。这样一来就能保证搜索引擎不会抓取,这是最根本且绝对有效的方法,不过如此设定也代表了用户没办法查询网页,或许会不符合网站建设的目的,因此这个办法一般只合适应用在敏锐的资料上。
以上就是《禁止网站部分网页不被网站收录的办法有什么?》的全部内容,仅供站长朋友们互动交流学习,网站排名优化是一个需要坚持的过程,期望大伙一块一同进步。