使用面包屑导航
首先我们要给网页的页面添加上面包屑导航,为什么要这样做?这样做的目的是增强网站内部链接的关系。
搜索以前蜘蛛抓取一个页面后,发现其他链接的话,它会继续爬行,如果我们的页面是单独的,那么蜘蛛就停止爬行,容易造成我们网站的各个页面关联性不友好,从而影响网站的权重。
列表底部增加分页功能
为什么不做无限滚动的列表?因为无限滚动的列表对SEO不友好,所以尽量设置固定网页高度的列表或者在一定数量的列表下面增加分页功能。
文章底部增加上一页和下一页功能
这样做的好处是让搜索引擎更好理解上一个或下一个与当前页面的关系。
注意给a标签的rel增加next参数和prev参数
是在每个页面增加随机帖子板块
增加这个板块的好处是,降低网页内容的重复率,如果两个页面相似度太高,搜索引擎也许会收录其中一个,也许两个都不收录。
什么原因会造成这种现象?网页内容较少的时候!我举一个例子,网站顶部和底部都是一样的,但是内容都是两三行字,那么这种网站的内页相似度是非常高。
给相关的超链接进行rel属性设置
rel属性是什么呢?它的作用是告诉搜索引擎蜘蛛,不要将这个链接的地址的权重统计到当前网站中。例如我们常见的关于我们页面等各种无需重要的页面跳转进行设置。因为用户是不会通过百度搜索关于我们这个关键词找到我们网站的。从而节省网站权重分配给其他页面。
注意给a标签的rel增加nofollow参数。
确保每一个页面都有H1标签
H1标签是重中之重,告诉搜索引擎爬虫,当前页面的主要核心是谁。如果一个页面不是文章是不是就没必要设置H1了?并不是!如果我们不是一个文章,可以将H1标签嵌套在logo标签之外。
防止TDK锁死
什么是防止TDK锁死,由于现在流行动态页面,所以很多页面的标题、关键词、描述都是使用同一个模板,造成所有页面的这三个部分都是一样的。这对搜索引擎来说极其不好。因为搜索引擎最先抓取的就是这个部分,容易让搜索引擎判断整个网站都是重复页面。
我分享一个我自己的解决办法,就是自动获取文章正文内容部分的前100个字符做为描述。
告诉搜索引擎网页的语言
这串命令可以加快搜索引擎对网页的了解,分辨当前网页是哪种类型的。
告诉搜索引擎当前网页的特殊性
有点类似命名空间的东西,主要是用于相似度高的文章页面,告诉搜索引擎,虽然网页大部分内容相同但是这两个页面实际上是不同的东西。
告诉搜索引擎网页兼容的性质
告诉搜索引擎优先什么功能来展示页面
移动端禁止用户缩放页面
城市站点优化
其中4个参数前两个部分很容易理解,省份和城市,后面的坐标,这个坐标怎么得到呢?可以通过百度地图得到。
现在我来讲解一下这个命令的作用,如果我们想做全国城市站点,不仅仅网页标题设置当地城市的名字,我们也需要设置个命令标签,告诉搜索引擎我这个页面希望推荐到当前坐标下。
最后补充一点,参数坐标可以省略的,只填写前面的城市名。
网页标题的写法
网页标题的标点符号
搜索引擎改写网页标题
标题大量堆积关键词
sitemap文件优化
网站增加sitemap.xml和sitemap.html文件。其中sitemap.html在网站的底部增加个网站地图超链接。Xml用于提交搜索引擎平台。
Sitemap文件优化注意权重划分,其中priority参数是告诉搜索引擎当前网页的权重。
尽量不使用动态url地址
如上面的图中带有?的动态页面,如果可以,尽量不用这种路径,翻页没办法除外,其他页面能不使用尽量不使用。
网站关键词的选择
通过百度指数网站,查询我们要查找的关键词,指数选择100以上的词,1000以上的指数词可以定义为热门关键词。针对新站而言,一开始选择长尾关键词比较好,因为一开始很难在热门关键词抢过对手,只能先慢慢从冷门或者长尾关键词进行包围,提升网站到一定程度后再增加热门关键词。
网站结构
网站结构尽量使用三层结构,URL越短越好,如url:www.twoir.com/a/c/b/c/d/g/d/1.html这种url结构对SEO就不是很友好,太长了,尽量使用url:www.twoir.com/a.html。
长尾关键词的获取
如果我们不知道如何选择长尾关键词可以分成最基本的三种。
第一点是使用搜索栏获取近期长尾关键词。
第二点是获取搜索结果页面底部的相关搜索。
我们通过分析就能知道近期用户喜欢搜索什么类型的长尾关键词了。
第三点使用百度指数
我们可以很直观的了解这个关键词的搜索量,从而判断是否为热门关键词还是冷门关键词,越是热门关键词优化难度也越大。
属性搜索引擎的算法
每年搜索引擎都会推出新的算法,我们需要在第一时间了解这些算法的功能的作用,从而提早整改网站,防止被K站。
如绿萝算法是用于针对友情链接买卖的、冰桶算法是针对移动端展示不友好的、以此类推还有很多,在第一时间了解算法并进行优化 调整网站的内容。
主动提交sitemap文件
到搜索引擎的站长后台,主动提交可以让搜索引擎蜘蛛在第一时间抓取页面,而sitemap会让搜索引擎蜘蛛根据兴趣爱好或者设置的规则进行抓取,抓取时间比较慢。
Robots文件
Robots文件主要用于设置网站的sitemap文件和告诉搜索引擎蜘蛛那些页面禁止抓取,如之前我们说的关于我们页面,在超链接设置了a标签的nofollow属性后,依旧会被蜘蛛抓取,这也不奇怪,它的作用仅仅用于告诉搜索引擎这个超链接是不信任的,但是搜索引擎还是会爬取,那么这时候,我们就将这个url地址存储到robots文件中,虽然蜘蛛也有几率会继续抓取,但是robots已经告诉蜘蛛不抓取了,理论上不会收录这个页面。
不要重复提交url给搜索引擎
正常情况下,提交过的url地址,搜索引擎都是会抓取到的,但是在搜索引擎找不到,是因为不收录,可以怀疑几点原因,内容质量低下,新站考核期、网站被K、百度收录了但是短期内还是不信任网站,过一段时间后就会收录并放出来。
为什么不要重复提交URL,因为重复提交URL意义不大,搜索引擎的蜘蛛基本都是抓住了,但是不收录,反复提交反而会让搜索引擎蜘蛛判断网站质量差,整天提交重复的内容,从而影响新提交的URL地址,严重的情况会导致取消网站的主动提交权限。
网页相似度查询
使用爱站网的页面相似度查询工具可以进行查询,如果页面相似度高,考虑对页面进行内容调整,或者删除多余重复的代码结构。顶部底部导航无法避免可以考虑从其他地方入手,另外也可以增加随机板块和更多的文字内容,相似度保持在60以下最好。
网站关键词排名搜索工具
我们使用爱站网SEO客户端工具。通过输入域名和关键词后,点击查找即可,每个关键词会搜索百度最大页数86页。我们可以点击右侧的排名进行跳转到相应的网页。
这其中的好处不言而喻,不用手动翻页查找,减少人工苦力活。
一键SEO检查工具
无论是爱站网SEO工具还是站长工具,这两个软件的桌面客户端都有这个功能。我们可以通过这个东西快速进行第一层结构扫描。
快速百度主动提交URL
如果我们使用百度搜索平台的手动提交URL,效率低下不说,并且每提交20次就要输入一次验证码。这里我们使用爱站网SEO工具的主动提交功能。
核心点就是填写域名和token,这个可以在百度搜索平台的API提交中得到url地址,通过分析地址即可得到域名和token。如果实在不会,可以尝试左侧登录百度账号,我没使用过所以没点击。前提是这个百度号的站长平台绑定过该域名,才能得到域名和token。
网站日志分析
网站日志的作用可以让SEO人员分析蜘蛛动向以及情况。如蜘蛛访问过什么页面,抓取的次数等等。网站日记实际上也就是一个记录蜘蛛的资料,但是根据自己的经验和专研,也许能发现到许多有用的东西,从而快速解决网站故障或者优化网站方向。
如图所示,我们发现出现404页面的地方,现在是用户状态,如果是蜘蛛状态页面出现,我们就需要考虑怎么调整,不能让蜘蛛每次都抓取404页面,一旦网站出现很多404页面,会容易被搜索引擎判断站点质量差的,从而降权或者减少收录。
厦门市 · 工业集中区建材园85栋211号(i乐德工作室)
电话:131-5927-6767
邮箱:365182575@qq.com
静态网页(英文:Static Webpage)又称为静态页面,是标准的HTML文件,是实际存在的,无需经过服务器的编译,直接加载到用户浏览器上就可显示的HTML文件,常见的静态网页文件扩展名有.htm或.html。
随着人们生活水平的提高,高节奏的生活让人们没时间和精力去做家务,那么家政公司走入人们的视线,日常保洁、家电清洗、钟点工、住家保姆等等这些都是家政服务的内容,当服务项目越多时,用户的选择性就会越多,覆盖的用户人群就会越广,就需要线上家政APP来营销和推广。
网站建成后,我们经常听到一些客户谈论维护问题。很多人对网站的日常内容更新和维护以及网站的操作不是很熟悉,也就是说,他们不知道网站上线后该怎么做。
合理的给网站内部中添加锚文本链接,不仅有利于百度蜘蛛对网站内容页面的抓取和收录,让网站获得一个良好的排名,同时也能让用户获得更好的浏览体验,从而让用户对网站产生信任感,这样才能让网站获得更多稳定的流量。
如今没有在线业务就不可能生存。因此作为品牌数字营销策略的一部分,每个设计元素都应达到其目的。 每个元素?从可用性到视觉效果?对于整体客户体验至关重要。