对于中小型网站来说,网站的技术结构对谷歌的SEO影响并不明显,但是对大型网站影响却非常大。

在做SEO的时候我们需要考虑技术结构是如何影响用户参与和关键词排名的。技术性SEO可以看作是SEO的基础,而其它一切都以此为基础。如果技术不扎实,你的内容就会崩溃。


为了获得索引,你需要搜索引擎蜘蛛抓取你的网站。搜索引擎蜘蛛只能访问站点地图上提供的链接,并可以从你的主页上访问。我们只专注于确保我们的站点是可爬取的,爬虫预算是被优化过的。爬虫预算是一个搜索引擎蜘蛛每秒向你的网站发送请求的数量,爬虫需求决定了搜索引擎蜘蛛爬虫到你的网站的频率(这取决于它的流行程度)。


尽管大部分网站管理员都不担心爬虫预算,但是对于大型网站来说,这是个大问题。爬行器预算允许网站管理员优先选择爬行器以及首先索引的页面,以防爬行器通过每条路径进行解析。


最优推荐是使用CMS或尖叫青蛙创建站点地图,并通过谷歌搜索控制台和必应站点管理工具手工提交。把不需要爬行或索引的所有页面放到robots.txt文件中,然后从disallow文件中阻止它们。清空重定向链并设置动态URL的参数。


另一个不能被忽视的地方是:安全。


在你的网站上,拥有一个HTTPS安全的网站对确保交易的安全性是非常重要的。谷歌的软排名也是如此。


最优建议:联系服务器厂商,解决与SSL认证和实施相关的任何问题。


用尖叫蛙爬到网站上来识别混合内容的错误。在robots.txt文件中,独立于任何用户代理命令的站点地图。使用https URL重写.htaccess文件,以将所有网站通信重定向到指定的域。


简单的URL会让你网站被抓取的时候出错更少。


另外,不要将断开或重定向的页面内容链接到它。这样做不但会影响速度,还会影响指数和预算。随着时间的推移,或者由于站点迁移,状态代码问题会自然地出现。一般需要一个具有200代码状态的干净URL结构。


最优建议:搜索一下你的网站,找到4xx和5xx的状态码。使用301重定向将被破坏的页面发送给更多相关页面。使用一个可用URL实现一个定制的404页面来将通信重定向到相关页面。若要获取影响该URL的5xx错误,请联系Web主机提供商。



(本文内容根据网络资料整理,出于传递更多信息之目的,不代表连连国际赞同其观点和立场)