- 网站代码、URL和链接结构分析2011 11月23
-
我们做SEO的都知道一个网站的收录好坏,有的时候和网站的代码,URL,链接结构都是有很大的关系,一个简洁漂亮的网站肯定能够给搜索引擎好的印象,简洁静态化的URL更能获取搜索引擎的抓取,链接结构的合理性能够提高用户体验。下面笔者为大家具体的介绍一下这三个方面对于我们SEO优化的要求。
1、网站代码分析
对于网站代码的语言,搜索引擎其实没有什么特殊的要求,所以我们无论是利用PHP,还是ASP,都不会影响搜索引擎的收录,但是如果用来做网站的代码更加简洁,那么这个网站就非常好了,当然也要求我们能够把网站做的美观,多注重用户体验度。我之前遇到过一个网站做的是非常棒的,一个小的企业站,里面基本上企业站需要的功能都实现了,但是其主页的代码只有一屏的,美观度也比较好,这个网站的排名非常的好,一直是第一。所以我对于网站代码的最直接的理解就是简洁,很多的时候我们说到优化代码说的就是消除冗余的代码,这不仅能消除页面的负担,达到降噪,也可以取到优化的效果。
- http状态码中英文详解2011 10月12
-
做网站的站长避免不了要接触各种http状态码,为了让大家对各种http状态代码更加了解,本文就各种http状态代码进行详解,希望对大家有帮助。
1xx(临时响应)
用于表示临时响应并需要请求者执行操作才能继续的状态代码。
- 如何让搜索引擎喜欢上你的网站?2011 9月22
-
如何让搜索引擎喜欢上你的网站?
一:逐步丰富网站内容
- 详解Robots.txt的各个数值2011 9月5
-
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。您可以在您的网站中创建一个纯文本文件robots.txt,在文件中声明该网站中不想被robot访问的部分或者指定搜索引擎蜘蛛只收录特定的部分。这里提醒一下,请注意:当你网站不希望搜索引擎全部收录时才用到robots.txt文件(比如你网站后台页面)如果你希望搜索引擎全部收录你的网站,请建立一个空的robots.txt文件。
1.首先告诉大家robots.txt文件要放在你网站的根目录里面。当你修改了你的robots.txt一般会在48小时内生效(对于搜索引擎来说)。
- 浅谈robots.txt与sitemap的运用2011 8月29
-
当一个搜索引擎蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
然而很多人都知道有robots这回事,却不知道应该如何下手,今天我说下如何来写robots.txt 首先你要想一下那些网站目录是不想被搜索蜘蛛给抓取的,哪些是需要被抓取的,这个很重要,如果乱写robots有可能会把屏蔽网站给搜索引擎收录的。
robots.txt文件一定要写在网站的根目录上面,例如:
- 如何提升网站的权重?2011 8月29
-
有很多SEO新手对于SEO的理解就是提升网站的排名,更片面的还表现在认为SEO就是做首页排名。其实这是存在很大误区的,做SEO的目的是为了提升整个网站的权重。只有提升了整个网站的权重,才能让网站首页、栏目页以及内页的排名更好,从而最大化的获取相关性流量。因此对网站进行SEO优化遇到的最重要的难题就是如何全面的提升网站权重,下面我就来详细的谈一下这个问题。
1、选择一个好的域名
这里选择的域名并没有从建立品牌的角度来讲,而是指我们在选择域名的时候,首先要查看域名以前是否被注册过,或者之前是否有被K过的记录。如果没有被K过,那么就可以检查域名的历史情况,一般而言,越老的域名在搜索引擎中积累的权重越高。选择这样的域名注册,给我们带来的直接好处就是网站收录很快。当然搜索引擎还是要对我们网站进行重新考核的。
- 如果网站被封了或被惩罚怎么办?2011 8月16
-
有人这样问网站被封是不是换新的域名就解决了。对这个问题我的建议是,先搞清楚网站是被封还是被惩罚,如果真的被封,原因是什么?如果被封是因为作弊,改一个新的域名一般来说解决不了什么问题。
另一个经常会碰到的问题是,网站被惩罚排名下降应该怎么办?
首先应该确定你的网站是完全被封,还是只是排名下降。直接搜索一下域名或URL用site:指令查一下用网页上某一句独特的话(比如版权声明之类的在其他站点肯定不会出现的句子)搜索一下如果你确认你的网站所有网页都已经从搜索引擎数据库里消失,那么有可能是服务器死机,也有可能robots.txt文件有问题,或者被检测出严重作弊行为。