全球主机交流论坛

标题: 如何屏蔽网站让搜索引擎不要搜到以及防止网站被降权 [打印本页]

作者: 蝶舞飞    时间: 2015-9-6 11:14
标题: 如何屏蔽网站让搜索引擎不要搜到以及防止网站被降权


很多站长选择多ip站群服务器 做网站优化 是为了搜素引擎  有利于百度的收录。


做SEO最简单来讲就是希望网站有收录排名,但是也遇到有些网站的特殊需求性,不想网站内容被百度收录,这样的情况下有没有办法屏蔽百度收录呢,我们的答案是有的, 首先给大家介绍这个文件:robots.txt 何为robots.txt,所谓robots.txt是网站对搜索引擎的一种指引和告示,告诉搜索引擎我的哪些东西需要被收录公开,哪些东西不能收录,是我的私有,基本所有的搜索引擎都会尊重这个告示,那么,这个告示既然这么神奇,它里面到底写的什么呢? robots.txt里面核心文件:User-agent:和Disallow: 什么是User-agent:百度百科是这么解释的 User Agent中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统及版本、CPU 类型、浏览器及版本、浏览器渲染引擎、浏览器语言、浏览器插件等。其实User-agent 其实是HTTP请求协议中的一个属性。这个属性在协议中十分重要,因为User-agent是表明终端程序身份的属性。是给了搜索引擎一个答案,文件里面的文字规定了搜索引擎是否可以搜索我的网站, User-agent:怎么写:下面我就给大家做个解释 User-agent: Googlebot Disallow: User-agent: baiduspider Disallow: 以前有人问,这些字母是什么意思,向baiduspider是指百度蜘蛛程序的名称, User-agent: baiduspider Disallow: 这行代码意思是不容许被百度搜索,如果你有个人隐私等不想让百度搜索,可以写入这行代码,想淘宝就不容许让百度搜索的,所以我们做SEO 的人要注意了,可千万不能写这个代码呀,否则意味着你拒绝了百度蜘蛛了,还怎么做优化呢,那请问如何写才是容许百度蜘蛛进入搜索呢 写 这样子 User-agent: * 这个意味着不光是百度蜘蛛,所有的蜘蛛都容许搜索, 如果你向禁止部分页面不被搜索,可以这样写 Disallow: /member 这样就禁止了member 目前不被搜索了   
如何防止网站降权
1、作为网站的优化者,我们在优化网站之前,必须要确定网站的架构和关键词,
一旦确定就不要轻易的去修改。网站的架构我们邀布局合理。要从客 户的角度去看,
合理舒适的架构才会有更多的人愿意在本网站上停留。其次,关于网站的关键词,
网站关键词的选用一定要符合本网站的产品或者服务的要求。我们 可以从百度指数
信息上查看我们选择网站关键词的热度。
2、关于网站的内容,网站的内容我们要做好原创工作,每天的更新要有规律,
坚决杜绝泛滥无节制的为原创和抄袭现象。网站的内容我们最好选择原 创,
每天都要坚持写一些东西,最和与网站的主题和关系词相符合,这样客户浏
览我们的网站就能学到他们想要的东西了。内容的长短可以不限,但是主题
最好和网 站的服务内容相配。
3、其实作为网站的优化者,我们不要那么刻意的去做网站优化,有的时侯,
就是这个样子,越是我们刻意想得到的东西,却越是不容易得到,反而是 我
们在不经意的时刻,它会自己送上门来。
美国多ip站群 独立服务器 大带宽 大流量 视频服务器 更有cn2的电信直连 支持测试 免费安装系统 更多请咨询QQ:858361387







欢迎光临 全球主机交流论坛 (http://bbs.cuwww.com/) Powered by Discuz! X3.2