首页 >> 搜索优化 >> SEO技术 >> 谈谈网站优化中的隐性优化操作(后篇)

谈谈网站优化中的隐性优化操作(后篇)

dyioo 2015-11-05 0
浏览次数1278

前文中,我讲到了三点新站在优化中的隐性优化操作,后来有很多新人问我:反正都是优化,为什么要把隐性优化从诸多新站优化操作中脱离。我在这里回答大家:隐性优化很特别,因为百度或谷歌早就声明了:一个网站呈现给搜索引擎的页面和呈现给一般网民的页面如果不一样,那么就视为黑帽优化。所以我们在进行隐性优化的过程中,要注意尺度,过分优化则不好,过少优化则无效。好了,下面接上回文章开始讲。上回的文章里,我讲到了添加网站栏目描述、301定向、JS代码三个隐性优化,下面我接着了另外几个隐性优化操作。

ext-20120602171926-238162847

NoFollow:给一些你不想让百度跟踪的链接加上NoFollow属性是很必要的,但应注意的是,不要在不该加的地方加NoFollow属性,比如有一个页面,没什么作用,按说应该给它加NoFollow属性,但是这个页面里有很多内页的链接,这时,你就不应该加NoFollow,因为搜索引擎可以顺着它访问你的内页,这样有更大的几率收录你的文章。
网站提交:向搜索引擎提交自己的网站,一般网民是不知道的,虽然百度和谷歌都声明只提交首页就OK了,但老站长们都不明白,百度在收录内页方面远不如谷歌反应快,爬取能力强,所以我个人认为,除了提交自己的首页外,更重要的是提交自己网站的网站地图页面,我的理由是:你做了不一定有效果,但你不做的话,就一定没效果!此外,还应向站长投诉专区投诉自己网站不被收录,这样的话,也可以加快搜索引擎访问你的网站,收录你的网站。
robots.txt:很多站长都认为,就算你希望搜索引擎访问你的网站,也应有robots.txt文件,我认为大可不必,因为从搜索引擎的角度来说,robots.txt最大的作用就是定义本站内容哪些可以公开,哪些不可以公开,如没有这个文件,搜索引擎就按互联网惯例爬取网站内容,即然是这样,你还搞这个文件干什么。有人说这个更好的向搜索引擎定义网站结构与爬取规则,但搜索引擎已经声明了“按互联网惯例爬取网站内容”,那么你的“优化”再好,还能大过“互联网惯例”吗?所以上面这种说法我一直不认同,不想让搜索引擎访问,你就加robots.txt,想让搜索引擎访问,你就不加robots.txt,就这么简单,不用在这事上纠结个半天。
讲完收工,我是小宇,很抱歉拖了这么长时间才写后篇,因为最近的确事情很多,不过总算是写出来了,感谢大家的支持,本文由博主小宇原创,版权所有,请尊重原作者,转载请注明出处!

全部评论:0