SEO每天一贴 http://www.02096461.com Zac的SEO博客,坚持13年,优化成为生活。唯一排名始终坚挺在百度、谷歌首页的网站。需要SEO服务、顾问和培训的公司欢迎找我。 Mon, 29 Jul 2019 09:06:55 +0000 en-US hourly 1 https://wordpress.org/?v=5.2.2 移动端网站SEO优化该怎样做? http://www.02096461.com/mobile-seo/mobile-seo-3-ways/ http://www.02096461.com/mobile-seo/mobile-seo-3-ways/#comments Sat, 27 Jul 2019 18:24:32 +0000 http://www.02096461.com/?p=5523 过去几个月在问答社区回答了一些关于移动端网站优化问题,发现很多移动SEO的问题涉及到用哪种架构做移动站。不少SEO貌似对独立移动站,也就是单独的m.domain站有不小的执念,认为独立移动站才是效果最好的。

问答后台看到另一?#27426;?#32773;“一条爱做梦的咸鱼?#20445;?#20063;是问“新网站做移动SEO,使用m站还是响应式??#20445;?/p>

您好,我在某个回答中看到了你的回答,有一些疑惑,您建议:“新网站,或者刚刚要做移动SEO的,最好就直接采取响应式了。?#20445;?#20026;什么直接采取响应式呢,我自己的感觉是目前移动搜索排靠前的都是m站较多

翻看了一下以前写的关于移动SEO的帖子,才发现移动端SEO到底应该选哪种方式优化还没有仔细写过。今天的帖子就深入探讨一下怎样选择移动优化的三种方式。

移动优化的三种方式

移动网站大体上有三种方式可以选择:

响应式设计(responsive design):

PC站和移动站的URL是完全一样的(?#36824;?#29992;什么设备访问都一样),返回给浏览器的HTML代码也是一样的,不同宽度的屏幕排版不同是通过CSS控制的。以前也经常称为自适应设计,就是因为排版是根据屏幕宽度自动适应的。

动态服务(dynamic serving):

PC站和移动站的URL是完全一样的,这点和响应式设计相同,但动态服务方式返回给浏览器的HTML代码(以及CSS)是不一样的,PC设备得到的HTML代码是PC版,移动设备得到的HTML代码是专门做了移动优化的移动版本。

独立移动站(separate m. site) :

移动站的URL和PC站是不一样的,通常用单独的子域名,比如PC站是www.02096461.com,移动站是m.seozac.com,?#27604;?#31227;动站的HTML代码(以及CSS)与PC站也是不一样的,是专门做了移动优化的。换句话说,这种方式下,移动站就是个独立的网站。

这三种方式各有各的特点。

响应式设计

既然URL一样,所有设备得到的 HTML代码也一样,好处显而易见:简单明了,搜索引擎不会被弄糊涂。搜索引擎抓取、索引一套页面就行了,提高索引效率,尤其对大网站,抓取份额浪费在多个URL上,就意味着降低深层页面被抓取的机会。自适应设计只有一个URL,链接、权重计算都集中在一个URL上,不会出问题。

用户也不会被弄糊涂,收藏书签、分享页面也不会因为URL的不同而出问题。

站长方面开发维护一套代码就可以了,后端开发成本相对低一些。建设的外链也集中在一个URL上。不需要判断设备、浏览器类型,也不需要转向,也就不会出错。

?#27604;?#20063;有坏处。比如,移动设备由于屏幕大小的关系,经常要隐藏一些内容和功能,但还是需要下载完整的HTML代码,经常还包括?#35745;?#25152;以会浪费带宽。手机网速慢的话,多下载文件就意味着速度变慢。而且,同一套代码要在所有设备显示正常,还要尽快开始渲染,前端设计需要比?#32454;?#30340;水平。

响应式设计的页面必须设置viewport,告诉浏览器按照屏幕宽度自动调整页面排版:

<meta name=”viewport” content=”width=device-width, initial-scale=1.0″>

虽然有缺点,但随着移动网速、手机性能的提高,响应式的缺点逐渐显得没那么致命,而它的简捷性就更显优势了。所以,响应式设计是今后的方向,是大势所趋。这也就是为什么我建议新网站,或者刚刚要做移动SEO的网站,肯定直接就做响应式了,不?#27599;?#34385;其它选项。(除非贵公司不差钱,可以考虑动态服务。)

独立移动站

和响应式设计相比,独立移动站显然开发成本要提高,要开发维护两套代码。随着国内人力成本提高,需要重复做的?#34385;?#20250;越来越不划算。

独立移动站的更大潜在麻烦是URL的不同可能造成混乱和各种出错。比如,既然移动和PC版本URL不同,搜索引擎就需要建立对应关系,必须判断PC页面对应的移动版本URL是什么,移动页面对应的PC版本URL是什么。网站需要在页面添加代码帮助搜索引擎判断:

PC页面需要加下面代码?#35813;?#31227;动版本位置:

<link rel=”alternate” media=”only screen and (max-width: 640px)”?href=”https://m.seozac.com/”>

对应的移动页面需要加下面代码?#35813;鱌C版本位置:

<link rel=”canonical” href=”http://www.02096461.com/”>

在搜索引擎两个版本都抓取了、并且正确判断的情况下,PC和移动版本就建立了一一对应关系。但是,如果站长把标签加错了怎么办?搜索引擎只抓取了一个版本怎么办?搜索引擎没有?#26082;方?#26512;<link ref>标签怎么办?

而且,要建立一一对应关系,需要PC版本和移动版本主体内容是一样的。很多时候m.移动版本页面内容精减或修改过多,搜索引擎认为内容不相符怎么办?#21487;?#33267;有的时候独立移动站只建了部分页面,很多PC页面没有对应移动页面又怎么办?

网站有两个版本,用户在添加书签、分享链接时,不可避免地会有一部?#31181;?#21521;PC页面URL,一部?#31181;?#21521;移动URL,链接权重将分散。

通常,为了用户体验和帮助搜索引擎判断对应关系,网站需要做符合规则的转向:

  • PC用户由于?#25345;?#21407;因访问了移动URL的话,需要被自动301转向到PC版本URL
  • 移动用户由于?#25345;?#21407;因访问了PC页面URL的话,需要被自动301转向到移动URL

301转向一般是服务器端做的,首先就需要根据浏览器用户代理匹配特征字符串判断用户设备和浏览器类型,上网设备和浏览器五花八门,程序100%检测正确不是件容易的事。判断出错,用户可能就只能看到一个排版错误的页面,甚至某些功能都无法使用。搜索引擎蜘蛛也可能被判断错,导致不能建立两个版本的对应关系。

大公司需要用子域名做多语言网站SEO的话,加上m.独立移动站,就会使管理子域名更加复杂,因为网站又要增加:

  • sg.seozac.com
  • m.sg.seozac.com
  • cn.seozac.com
  • m.cn.seozac.com

等?#21462;?#22810;语言hreflang标签和独立移动站的<link ref>标签排列组合起来,哪个对应哪个不能弄错了。如果再加上Google AMP百度MIP页面版本,所有版本之间的对应关系和标签写法,可能会把人绕晕倒。

动态服务

动态服务和独立移动站一样,首先在服务器端判断设备和浏览器类型,然后在同样的URL上、根据浏览器屏幕宽度返回不同的HTML和CSS代码。

所以动态服务方法相当于把响应式设计和独立移动站的优点结合起来了,即有URL统一的简洁明了,又有独立移动站的代码优化,SEO效果是最好的。?#27604;唬?#20195;价是前后端成本都要提高。

对不差钱的公司来说,动态内容是最佳选择,比如amazon现在就是用动态服务做移动优化的,URL统一简单,不会出错,两个版本的代码还可以?#30452;?#20248;化,据说,亚马逊移动版本节省了40%的文件下载量,对手机用户来说,页面打开速度的提升是至关重要的 。

是否使用动态服务要看公司情况。对大部分网站来说,页面内容、排版、功能没那么复杂,响应式设计已经满足需要,用高成本实现动态服务,节省的下载量没那么明显,比如SEO每天一贴这种博客,还有大量内容型网站,页面连个?#35745;?#37117;没有,除了留言也没有别的?#25442;ィ?#37027;是一点下载都节省不了,动态服务就没意义了。

搜索引擎蜘蛛访问动态服务的页面时,从HTML代码是无法自动知道不同浏览器得到的代码将会是不同的。比如PC蜘蛛访问时,得到的是PC版代码,但蜘蛛并不必然知道移动蜘蛛来访问的话会得到不同的代码,所以服务器端需要通过Vary HTTP头信息告诉搜索引擎蜘蛛,PC蜘蛛和移动蜘蛛得到的代码是不一样的,两个蜘蛛都要来访问一下。比如amazon.com页面的服务器头信息:

< Content-Type: text/html

< Content-Length: 6400

< Connection: keep-alive

< Server: Server

< Date: Sat, 27 Jul 2019 16:42:45 GMT

< Vary: Content-Type,Host,Cookie,Accept-Encoding,X-Amzn-CDN-Cache,X-Amzn-AX-Treatment,User-Agent

< Edge-Control: no-store

< x-amz-rid: KH589YRZC8QEW3QEWGKD

< X-Cache: Error from cloudfront

< Via: 1.1 1b52a5dd431f9e3c81753e61dfdf467a.cloudfront.net (CloudFront)

< X-Amz-Cf-Pop: SFO9

< X-Amz-Cf-Id: 0qtVw99a2_AustEZ-dxC_cs9hfVzyll-DmHnmWFDtBSWKtinpxhB2Q==

其中Vary那行就是通知浏览器/蜘蛛,根据后面列的情况不同,HTML代码是不同的,Vary: User-Agent指的就是根据浏览器用户代理的不同,HTML代码是不同的。

对独立移动站的执念来自何处

很多公司和站长对独立移动站情有独钟,认为m.移动站SEO效果是最好的,做新网站还要做独立m.站。这个执念可能来自两方面。

一是以前百度更建议独立移动站,我在2015年厦门百度之夜的帖子中?#24471;?#36807;这一点。但现在4年过去了,百度现在的正式官方态度我没有看到,但两年前百度搜索主任架构师谭待明确跟我说过,百度也认为响应式设计是未来趋势,百度也推荐转向响应式设计。我的观察是,百度现在对响应式设计的支持没有问题。

Google一直以来就是推荐响应式设计的。

?#27604;唬?#36825;里说的推荐,并不是说响应式比独立移动站的SEO效果更好,而只是表明,百度和Google对三种方法是一视同仁的,排名上并不偏向哪一个,SEO效果是一样的。既然效果一样,?#27604;?#25512;荐那个简单便宜的了。

第二个原因,就如开头读者说的,目前在百度移动搜索排名靠前的m站较多。这是个?#26082;?#30340;观察,确实百度移动搜索结果中排名好的m站很多,在不少行业,m.站排在前面的占大部分。?#36824;?#36825;并不必然?#24471;鱩.独立移动站有SEO优势,我觉得这更多是采样偏差造成的。

举个例子,数据表明,车祸发生大部分是?#34892;?#21496;机造成的,?#36824;?#36825;是否?#24471;?#30007;司机开车有劣势呢?#38752;?#24597;不能这么认为,因为必须考虑路上司机的?#20449;?#27604;例,很可能开车的80%是男的,造成了70%的车祸,所以70%车祸是男司机造成,不能?#24471;?#30007;司机开车水平比女司机差。

移动搜索排名也是同样?#35272;懟?#29616;在排名靠前的m.站居多,很可能这些站绝大部分是老站(所以?#25490;?#21517;能力高嘛),而几乎所有老站当初开始做移动SEO时都是从m站入手的,不到万不得已,这些使用m站的老站不会去改为响应式设计,因为改动太大了,冒险,又没有明显好处(如前所说,三种方式SEO效果一样的),没有动力改。

所以,老站、大站排名好,而老站、大站又以m站为主,所以我们就看见m站排名好了。但这不?#24471;?#19968;个新站就要学着做m站啊。

]]>
http://www.02096461.com/mobile-seo/mobile-seo-3-ways/feed/ 43
Google新PR:以链接距离为基础的页面级别 http://www.02096461.com/google/google-new-pr/ http://www.02096461.com/google/google-new-pr/#comments Thu, 18 Jul 2019 17:07:51 +0000 http://www.02096461.com/?p=5599 Google PR是Google诞生以来最具知名度的概念,以至于很多人认为Google PR的意义更多在于公关炒作,而不是排名算法。2016年4月,Google取消了工具条输出PR值的显示,站长们再也看不到最新的PR值了,也有很多SEO认为Google完全取消了PageRank算法。现在的Google排名算法中还有PageRank吗?#24656;?#35828;纷纭。

Google从2006年就不再使用PageRank了

前天,一位自称的前 Google软件工程师在Hacker News的一个讨论Google替代品的帖子中透露,Google早在2006年就不再使用Google PR了:

The comments here that PageRank is Google’s secret sauce also aren’t really true – Google hasn’t used PageRank since 2006. The ones about the search & clickthrough data being important are closer…

翻译过来的意思是:

评论里说PageRank是Google秘方的说法并不正确 — 从2006年Google就不再用 PageRank了。关于搜索和点击?#36866;?#25454;很重要的说法还比较靠谱……

说得很明确,Google算法早就不再使用PageRank了。

另外,点击率也是Google算法重要排名因素之一,但到目前为止,真实有效的Google点击器或Google快排这种东西还没有诞生,而百度对百度快排貌似已经放弃治疗了…这个是另一个话题,暂且不提。

这是真的吗?

为?#25628;?#35777;这位前Google员工身份,SEO?#19988;?#32463;做了人肉分析,结论是大概率是真的。这位员工名字是Jonathan Tang,Twitter账号在此,2009年至2014年在Google工作,他的Hacker News账号是2007年注册的,不大可能用这么老的账号来胡扯或造谣。

而且,这些年Google与SEO行业的官方沟通人JohnMu在Twitter上评论此?#29575;?#24182;没有否认,只是说:

SEO们应该知道,20年来Google工程师不可能没有对搜索做出修改。

所以,虽然没有官方?#29616;ぃ?#20294;应该是真的。其实,Matt Cutts等人很早以前也表示过,Google算法肯定还是考虑链接的,而且链接依然是最重要的排名因素,PageRank以及Google排名的基本原理没有变化,但不可能这么多年原样?#27426;?#22320;用PageRank的原始版本,肯定是修改过的了。

JohnMu去年也直接评论过PageRank的使用情况,表示现在的Google算法不可能还是一比一地原样用PageRank的最初公式。

那么2006年以后工具条显示的PR是什么鬼?

前面提到,Google是从2016年取消工具条显示PR的,如果2006年就不再用PR了,那么2006年到2016年工具条上显示的PageRank是什么东西?

而且Google的另一位发言人Gary Illyes在2017年还发推明确说:“你们不知道吗,Google在18年后依然在排名算法中使用PageRank(还有几百个其它信号)。”

所以到底是在用还是不用了?

Jonathan Tang后续又解释了一下:

他们2006年用另一个算法取代了PR,那个算法给出的结果大致和PR相似,但计算速度快得多。工具条显示的宣称是PR的数值就是这个替代算法的结果。这个替代算法的名字都和PageRank相似,所以Google这么宣称,在技术上也不能说是错的。

所以,从2006年开始,Google算法中使用的、工具条所显示的,都不是原始PageRank计算公式的结果,而是一个结果类似、名称类似、计算速度快得多的算法。

我们?#20204;页?#20043;为Google新PageRank吧。

那么这个Google新PR的计算原理是什么?Jonathan Tang没说,连真实名称也没说,大家只能猜测了。

疑似Google新PageRank专利

Jonathan Tang的帖子后面,专门研究Google专利的大神Bill Slawski发了个回复:

Google的新版本PageRank专利2006年通过。巧合?

Bill Slawski去年发帖详细介绍过这个新版本PageRank专利,这两天又仔细读了一下专利原文Bill Slawski的帖子,这里介绍一下大意。

专利名称是Producing a ranking for pages using distances in a web-link graph – 基于链接距离的页面级别计算。

简单说,新PageRank不再计算导入链接的总数,而是计算这个页面与种子页面之间的距离,距离越近,页面质量越高,页面级别、新PageRank越高。这个思路和Yahoo!的TrustRank是极为相近的,基本假设都是:好网站不会链接向坏网站,但会链接向其它好网站。

种子页面、链接长度、链接距离

这个专利涉及几个概念。种子页面(Seed Pages)、链接长度(Link Length)、链接距离(Link Distance)。

种子页面(Seed Pages)

如上面的简单网络链接图所示,Google选出一部分页面作为种子页面,如图中上半部分的页面106、108、110,下半部分的都是种子页面集之外的、需要计算新PR值的。

关于种子页面的几个要点:

  • 种子页面显然是高质量的页面,专利里举的例子是Google目录(其实就是已经死了的开放目录)和纽约时报。
  • 种子页面需要与其它非种子页面有很好的连通性,有比较多的导出链接指向其它高质量页面。
  • 种子页面需要稳定可靠,有多样性,大范围覆盖各类主题。

链接长度(Link Length)

种子和非种子之间有的离得近,有的离得远。如种子页面106通过链接132直接连向非种子页面112,非种子页面118则没有种子页面直接连向它,要通过两层链接。

链接距离并不是简单地数链接层数。每个链接Google会计算一个链接长度,链接长度取决于链接本身的特征和链接所在页面的特征,比如页面上有多少链接,链接的位置,链接文字所用字体等?#21462;?/p>

所以,同样是一个链接,链接长度是不一样的:

  • 页面导出链接越多,链接长度越长。这和原始PageRank思路是一样的,导出链接越多,每个链接分到的权重越少。
  • 链接所在位置越重要,比如正文中,正?#30446;?#21069;部分,链接长度越短。
  • 链?#29992;?#25991;字字号越大,或者在H1中,可能链接长度越短。

我记得Matt Cutts很久以前在谈到PageRank可能的修正时提到过,正文中的链接和页脚的链接被用户点击到的概率显然差距很大,所以不同位置的链接获得的PR和权重应该是不一样的。这种说法很符合这个专利的意思。

链接距离(Link Distance)

链接距离就是页面与种子页面集?#29616;?#38388;的最短链接长度之和。种子页面和非种子页面之间通常不止一条链接通路,如示意图中,页面118可以通过链接132、136从种子页面106到达,也可以通过链接134、142、140到达,还可以通过链接134、140到达,还可以通过其它链接从其它种子页面到达,所有这些从种子集到页面的链接通路中,链接长度之和最短的那个?#27426;?#20041;为链接距离。

如果一个页面无法?#23588;?#20309;种子页面出发访问到,也就是种子页面集合到这个页面完全没有链接通路,那么链接距离是无限大。

然后Google算法根据链接距离计算出一个页面的排名能力分数,也就是新PR值,最后的排名算法中,这个新PR?#24213;?#20026;排名因素之一。也就是说,链接距离越短,离种子越近,Google认为页面越重要,排名能力越高。

链接距离的计算不需要迭代,所以比原版PageRank的计算要快得多,而在代表页面重要性上,我相信Google做过对比,?#26082;?#24615;差?#27426;啵?#25152;以就用来代替原来的PR了。

简化链接网络图(Reduced Link-Graph)

专利最后面提到了另一个概念:简化链接网络图(Reduced Link-Graph),?#36824;?#27809;有再?#24471;?#36825;个概念有什么用,用一个段落说了简化链接网络图这个概念后专利就结束了。?#36824;?#31616;化链接网络图有可能和链接质量判断、Penguin算法更新?#35748;?#20851;。

在前面示意图中,所有页面之间的所有链接组成一个完整的链接网络图,其中只由最短链接距离通路组成的链接被称为简化链接网络图,也就是用来计算新PR值的那些链接。显然,简化链接网络图是完整链接网络的一个子集,?#36824;?#27599;个页面的链接距离都已经保留在简化链接网络图中了,去掉的那些链接对页面链接距离和新PR值没有影响。在简化链接网络图中,每个页面获得的链接权重来源都是可以回溯到最近的种子页面的。

如果一个页面从种子集合完全没有链接通路可以到达,也就是前面说的链接距离为无限大,这个页面将被排除在简化链接网络图之外。如果一个页面得到的链接都来自简化链接网络之外,虽然链接总数可能很大,但其链接距离依然是无限大。

换句话说,在简化链接网络之外的链接是被忽略掉的,无论有多少链接。联想到Penguin 4.0算法更新,其中一个特征就是,垃圾链接是被忽略掉的,不被计入链接的流动中,这和基于链接距离的页面级别非常相似。

]]>
http://www.02096461.com/google/google-new-pr/feed/ 26
外贸SEO应该怎样做?(策略篇) http://www.02096461.com/en-seo/seo-for-international-trading/ http://www.02096461.com/en-seo/seo-for-international-trading/#comments Wed, 22 May 2019 11:57:41 +0000 http://www.02096461.com/?p=5408 这几年做外贸SEO的越来越多,背后原因很复杂,不去探讨了。今天就自己SEO服务客户情况所见,聊一点外贸网站SEO该怎么做的感想。

我所遇到的英文外贸网站,大部分是卖产品的,产品各种各样,从单一软件或产品小网站,到规模不等的2B企业,到巨型2C电商平台。卖服务的?#27426;啵比?#20063;有,甚至有非常有创意、有价值的服务,?#36824;?#24635;体上来说还是占很少数。中国是制造大国,论产品能力,在世界上少有对手。但服务类,需要的是另一种技能,国内企?#24213;?#21521;世界可能还需要一?#38382;?#38388;。所以,这里说的外贸SEO?#26376;?#20135;品的网站为主。

外贸SEO的策略考虑

今天先说策略方面的考虑,以后有机会再聊技术方面的细节。

对英文产品类、交?#20180;?#25628;索结果页面真正关注的SEO应该都会看到一个明显规律,排名在前面的页面绝大部分是两类:

  • 垂直领域专?#20498;何?#32593;站。比如,买假发大概率会看到wigs.com页面,买婚礼装的大概率会看到davidsbridal.com、herworld.com之类的,买女童裙的大概率会看到next、zara等网站。
  • 电商巨头网站。包括Amazon、ebay、阿里,也包括传统线下巨头如macys、walmart、bestbuy、target等?#21462;?/li>

其中,有些行业的垂直领域专业网站竞争者比较多,比如服装行业。

一般来说,大部分产品搜索,垂直专业网站排名?#30452;?#30005;商巨头要好。总体搜索流量,那肯定是亚马逊最高,但那更多是因为亚马逊品类齐全、规模巨大,总体排名都不错。具体到某一个行业的产品,大部分情况下排名在前面的会是垂直专业网站,然后才是亚马?#36820;?#32508;?#31995;?#21830;跟在后面。

所以,要想在外贸领域获得SEO流量,要么做成专业垂直网站,要么在电商巨头没有完全覆盖到的查询词缝隙中获得排名。

SEO技术上的问题可以后面再考虑,首先要思考的是策略问题,要做成这两类网站,那么网站应该是什么样的?或者要解决的最大问题是什么?

排名好的垂直专业网站是什么样的?

一张?#35745;?#32988;过千言万语,看一下优秀的垂直领域专业网站产品分类页面是什么样的:

垂直专业网站的SEO

尤其是注意看第一屏的样子:

垂直专业网站第一屏

而国内网站风格是有很显著中国特色的,国内外贸公司做出的外贸网站也大部分沿袭了这一风格:

看着眼熟吧?倒不必纠结这是哪个网站,因为大部分国内做的外?#36710;?#21830;网站分类页面都是这个样子的:

  • 左侧给出进一步过滤的?#24049;劍?#36890;常下面还有?#35748;?#20135;品
  • 产品列表最上面是一堆品牌、价格、排序、显示方式等的选择
  • 除了产品名称,产品列表本身尽量列出可能吸引用户的卖点:现价、原价、免运?#36873;ating等
  • 姑且不论产品?#35745;?#30340;质量

上图已经算简洁的了,有时候列表上方的选择可能更多:

国内电商网站分类页面

产品列表本身包含的信息也经常更多:

国内电商网站产品列表

然后再回头看一遍国外垂直专业网站的产品列表页面:

垂直专业网站第一屏

感受到差别了吗?简单说,优化得当的分类页面不是按照产品列表页面来做的,是按照着陆页面的要求做的,看着就像?#21448;?#30340;一页,简洁、美观、重点突出:

  • 大幅高质量题图,或视频
  • 字体、颜色都经过设计的tagline
  • 产品分类?#24471;鰨?#27880;意不是放在页面最下面,是在最上面
  • 有限的排序选择
  • 简洁的产品列表,除了?#35745;?#24456;多网站只列出产品名称和价格,连评星都没有

结论,产品?#27426;?#30340;网站,要做成垂直专业网站,首先不是考虑SEO细节,而是想想网站该长成什么样子。

综?#31995;?#21830;又该首先解决什么问题?

前面提到过的,除了做成垂直专业网站,另一条出路是在综?#31995;?#21830;巨头没覆盖到的缝隙中生存。

说是缝隙,貌似很狭窄,其实也没那么?#36873;?#34429;然Amazon、ebay体量那么大,什么产品都有,再加上阿里系和walmart等的竞争,但依然存在很多查询词,新站是有机会在这些巨头中抢下个排名的。原因还是那个长尾理论,而且在互联网世界,长尾真的是太长了,用户会搜索的词五花八门,总有一些查询词是巨头网站占不完前两页的,Google只好暂时拿一些质量不怎么样的页面凑数,这就是机会,而且这个数量并不小。

这种情况下要解决的主要问题是什么?是你得有足够的产品页面被收录。长尾词的查询量经常小到没办法做关键词研究,所以几乎无法预计哪些产品能钻出巨头网站的缝隙,那就要靠有足够的量,再加上一点?#20284;?#24635;有一定百?#30452;?#30340;页面或获得排名。

那么除了公司真的有这么多产品,SEO方面要解决的就是收录:

  • 要有精心设计的?#24049;?#32467;构、内部链接结构,使尽量多的产品页面获得抓取途径和最基本的收?#26082;?#37325;
  • 在复杂的?#24049;较低持校?#36824;要尽?#32771;?#23569;分类、过滤条件页面造成的复制内容
  • 产?#35775;?#36848;内容质量怎么解决?#38752;?#20379;应商提供的产品?#24471;鰨?#37027;网上恐怕是有很多同样内容的页面了。这时候,UGC、用户评论、数据挖掘、高质量的信息聚合能力、甚至AI的使用,很可能会是核心竞争力了。
]]>
http://www.02096461.com/en-seo/seo-for-international-trading/feed/ 52
怎样利用XSS漏洞在其它网站注入链接? http://www.02096461.com/blackhat/xss-attack-google/ http://www.02096461.com/blackhat/xss-attack-google/#comments Sun, 05 May 2019 12:19:35 +0000 http://www.02096461.com/?p=5322 前两天英国的SEO老手Tom Anthony曝出一个 Google蜘蛛存在的漏洞,可能被黑帽SEO利用XSS漏洞在别人网站注入链接,而且这些链接确定会被Google蜘蛛抓取。这个漏洞如果被大规模利用,显然是会影响权重流动和搜索排名的。

Tom去年11月就把这个漏洞汇报给Google了,?#36824;?#21040;目前为止Google并没有解决这个漏洞的意思,他们的说法是“Google的现有保护机制应该能预防这种滥用,?#36824;?#30456;关团队正在检查验证”。另外Google在回复Tom时提到了有些“内部沟通上的困?#36873;保?#20844;司大了是不是都会有这种问题?

既然Google过了5个月都没有采取措施,Tom决定把漏洞公布出来,站长们好检查自己网站是否有XSS漏洞,提取采取预?#26469;?#26045;,以防自己网站被注入链接。Google同意Tom公布相关信息,看来还是挺自信的。

什么是XSS攻击

XSS攻击是Cross Site Scripting的缩写,跨站脚本攻击的意思。按说Cross Site Scripting的缩写应该是CSS,但就和页面样式表那个CSS重复了,所以跨站脚本攻击这个改成了XSS。

XSS是一种代码注入攻击。大部分网站都会有某些功能脚本是可以?#25105;?#20462;改URL的,比如搜索功能,UGC用户贡献内容网站的提?#36824;?#33021;,用脚本实现的转向等?#21462;?#27604;如搜索概念,URL经常就是domain.com/search.php?keyword,或者domain.com/?s=keyword之类的(SEO每天一贴的搜索功能就是这个URL格式),其中的keyword是可以替换成?#25105;?#23383;符的。

那么keyword部?#30452;?#26367;换成脚本会发生什么?比如domain.com/?s=<script>alert(‘XSS’)</script>。有这种漏洞的网站就是在URL中注入恶意脚本时,没有进行安全过滤,而浏览器也没有?#30452;?#20986;是恶意脚本,所以执行了恶意脚本。

XSS可以被用来获取用户敏感信息,可以用来冒充用户向网站发出请求等等,还可以执行脚本,在生成的HTML代码中插入内容,这就是黑帽SEO可以利用来注入链接的漏?#30784;?/p>

怎样利用XSS漏洞在别人网站注入链接

修改URL中的?#38382;?#26367;换为脚本,浏览器执行脚本,在HTML中插入内容,所以也可以插入链接。?#27604;?#22914;果只是访问用户的浏览器上显示链接,搜索引擎不抓取这个URL的话,黑帽SEO也就不感兴趣了。问题就是 Google蜘蛛可以抓取被注入脚本的URL,也可以执行JS,所以也就可以看到被注入的链接。

防止XSS攻击,一是服务器端的程序要做安全过滤,最基本的是HTML转义,把<script>alert(‘XSS’)</script>当作被搜索的字符串,而不是要执行的脚本。二是浏览器端的XSS识别,现在的很多浏览器(如Chrome)看到URL中有可疑字符如script之类的,会直接拒绝打开页面。

如果Google蜘蛛和Google自己的Chrome浏览器一样能够识别XSS攻击,带有注入脚本的URL根本不抓取,就没有?#34385;?#20102;。但根据Google官方文件?#24471;鰨?#21040;目前为止,Google蜘蛛使用的是比较老的Chrome 41版本,而Chrome 41是没有XSS识别功能的。所以,有XSS程序漏洞的网站,有可能被Google蜘蛛抓取到被注入链接的URL。

Tom做了实验。某新银行(Revolut)网站有XSS漏洞(天哪,银行网站有XSS漏?#30784;2还?#29616;在已经补上了),Tom在Revolut域名上构造了个带有注入脚本的URL,浏览器执行后会在页面顶部放?#32454;?#38142;接。Google蜘蛛会怎样处理这种URL呢?Tom用Google的页面移动友好性测试工具验证了一下,因为这个工具会按照 Google蜘蛛的方式渲染页面。结果是这样:

XSS攻击注入链接

显然,Google能够抓取URL,执行注入的脚本,生成的页面顶部是有那个被注入的链接的。这可是来自银行域名的一个外部链接。

为了进一步验证,Tom把实验URL提交给Google,结果?#24471;鰨珿oogle索引了这个URL,快照显示,通过JS脚本注入的链接也正常出现在页面上:

Google索引了被XSS注入的链接

Tom还发现,通过XSS注入,也可以添加、修改HTML中的标签,比如canonical标签,这个也是挺危险啊。?#36824;?#36825;个和本帖XSS注入链接关系不大,就不细说了。

XSS攻击注入的链接有效果吗?

仅仅能索引不一定?#24471;?#38382;题,如果如某些垃圾链接一样被Google忽略,没有链接的效果,那也不能利用来操控外部链接。为?#25628;?#35777;这种URL上的链接是否有链?#26377;?#26524;,Tom进一步做了实验。

Tom在Revolut域名的URL上注入一个链接,指向自己实验网站上以前不存在、刚刚创建的一个页面,提交Revolut的URL,?#27426;?#20037;,Google就抓取了Tom自己实验网站上的新页面,而且索引了这个页面,出现在搜索结果中:

这?#24471;鰨?#34987;注入的链接,至少是能起到吸引蜘蛛抓取的作用的。对权重流动和排名有没有普通链接一样的作用呢?Tom顾虑到可能会对正常搜索结果的影响而没有进一步试验了。

这里不得不说,国外很多SEO是很有情怀的。我在想,如果是国内SEO们发?#32456;?#20010;等级的漏洞,会报告给搜索引擎补?#19979;?#27934;吗?#30475;?#27010;会把这个漏洞为己所用,运用到死吧。

对搜索结果的潜在影响有多大?

如果这种方式注入的链接有正常链接的效果,对权重、排名有效,那么只要被黑帽SEO使用,对操控权重、排名显然有很大帮助,对搜索结果有多大潜在影响呢?

https://www.openbugbounty.org/ 网站上列出了12万5千多有XSS漏洞的网站,其中包括260个.gov政府网站,971个.edu域名网站,包括了前500个链接最多网站中的195个,想象一下潜在的影响会有多大。

?#27604;唬珿oogle很自信,他们的防御机制应?#27599;?#20197;鉴别出这种黑帽方法,我猜想Google内部调查?#24471;鰨?#36825;种方法到目前为止没有被利用。?#36824;?#36825;是 Tom发布信息之前,现在呢?我估计有很多人已经在疯狂实验这个方法的有效性了。我这篇帖子发出来,国内肯定?#19981;?#26377;SEO去尝试。那么,大规模滥用这种注入方法的情况下,Google的预防机制还会有效吗?

另一方面,几乎可以肯定, Tom的帖子发出来,会迫使Google必须要积极采取措施,补上这个漏洞,不能让XSS攻击注入链接真的成为有效的SEO作弊方法。想尝试的,尽快吧,很快就会没用的。

5月8号更新:Google在7号的Google I/O开发大会上宣布,Google蜘蛛将使用最新版的Chrome引擎,目前版本是74,以后都会保持使用最新版本。看来Google早就做了准备,所以这么有?#21028;摹?/p> ]]> http://www.02096461.com/blackhat/xss-attack-google/feed/ 40 以人工智能为基础的搜索算法是什么样的? http://www.02096461.com/topic/ai-based-algorithm/ http://www.02096461.com/topic/ai-based-algorithm/#comments Sat, 27 Apr 2019 18:31:31 +0000 http://www.02096461.com/?p=5060 三年前,Googled的AlphaGo横空出世时,我写了《AlphaGo、深度学习及SEO》这篇帖子,在那之后,我一直非常关注人工智能与搜索算法的进展。

人工智能与搜索算法

我不知道搜索算法什么时候会大规模以AI为基础,也不知道目前AI技术在搜索算法中应用到了什么程度。由于目前人工智能技术的不可解释性,搜索引擎以AI作为算法基础会是非常谨慎的,不然很不容易debug。

?#36824;?#31639;法中的一些模块应用AI是肯定的,以前介绍过百度的DNN模型和Google的RankBrain算法,都是AI在搜索算法中的应用。

那么完全以人工智能为基础的搜索算法是什么样的?工作原理和流程是什么?简单说一下我的理解。

人工智能的优势与搜索

目前实现人工智能的主流方法是机器学习中的深度学习?#31181;В?#22312;这篇帖子里就不加?#32454;?#21306;分了。

简单说,人工智能是给予?#20302;?#22823;量训练数据,人工智能自己从中寻找模式和规律。给予AI?#20302;?#30340;数据是打了标签的,或者说是告诉了AI?#20302;?#32467;果。比如,在围棋中,AI?#20302;?#26377;了大量历史棋局数据(后来的Alpha连历史棋局都不需要了,自我对局的数据就行了),以及这些棋局的输赢结果,这个结果就是标签。然后AI?#20302;?#33258;我学习棋局盘面与结果(输赢)之间的关系。

在搜索中,AI?#20302;?#26377;了页面的大量数据,也就是搜索引擎本身的索引库,还需要标签,也就是要知道哪些页面是高质量的?#31354;?#23545;一个查询词,哪些搜索结果是用户满意的?然后AI算法自己学习页面特征(也就是排名因素)和排名之间的关系。

传统的搜索算法是搜索工程师人工选择排名因素,人工给予排名因素一定的权重,根据给定公式,计算出排名。这种方法的弊端是,当数据?#30475;?#20102;,排名因素多了的时候,调整排名因素的权重是件很困难的事。最初的权重很可能就是根据常识,再加上?#21738;源?#20855;有很大的主观随意性。当有几百个因素,这些因素?#21482;?#30456;影响时,调整这些因素的权重就变成混乱、无法预见结果的事了。

而从海量数据中找模式正是AI的擅长。AI可以快速寻找可能的排名因素,调整排名因素权重,自动迭代计算,拟合出排名因素和用户满意的搜索结果之间的计算公式。

通过训练数据训练出来的计算公式就是AI搜索算法,可以应用于用户更多的搜索了。

谁来打标签?

既然训练AI搜索算法时需要打了标签的数据,那么这些标签数据是从哪来的?这就是搜索引擎质量评估员的作用了。

前不久Google质量评估指南帖子里详细介绍了质量评估员的工作。这些真实用户(他们不是Google员工),在学习质量评估指南后,Google在评?#32769;低持?#32473;评估员真实网站、真实查询?#36866;?#25454;,评估员进行相关评估,最主要的就是:

  • 给页面质?#30475;?#20998;
  • 给特定查询词的搜索结果打分

Google的质量评估员很早就存在了,应该不是为了开发AI算法?#24515;?#30340;,而是用来评?#26469;?#32479;算法质量的。但他们的评估数据刚?#27599;?#20197;被人工智能?#20302;?#26377;效使用。

这样,AI?#20302;?#23601;知道,针对某个查询词,用户满意的搜索结果是哪些页面,是按什么顺序排名的。

现在,AI?#20302;?#26377;了海量页面特征数据,也知道什么样的搜索结果是真实用户满意的,下一步就是训练?#20302;常?#23547;找页面特征和搜索排名之间的关系。

训练人工智能搜索算法

搜索引擎可以把打了标签的搜索结果数据分成两组。一组训练用,一组验证用。

AI算法检查训练组搜索结果中的页面有哪些特征,这些特征又应该给予什么样的权重,根据什么样的计算公式,才能计算出用户满意的(打过标签的)搜索结果。

与传统算法不同的是,需要哪些特征(排名因素),这些特征给予多少权重,不是工程师决定的,是AI?#20302;?#33258;己寻找和评估的。这些因素也许是工程师想得到、早就在用的,比如:

  • 页面的关键词密度
  • 页面内容长度
  • 页面上有没有广告
  • 页面有多少外部链接
  • 页面有多少内部链接
  • 页面有多少以查询词为锚文字的链接
  • 页面所在域名有多少外链
  • 页面打开速度多快
  • 等等等等,可能有几百上千个

也许是工程师压根儿没想过的,也许有些是表面上看起来毫无关系、毫无?#35272;?#30340;,比如:

  • 页面正文用的几号字
  • 文章作者名字是三个字
  • 页面第一次被抓取是星期几
  • 页面外链数是单数偶数

以?#29616;?#26159;举例,为了?#24471;鰨珹I寻找的不是因果关系,而是相关关系。只要AI看到排名好的页面有哪些特征就够了,至于把这些特征与排名联系起来是不是看着有?#35272;恚?#24182;不是AI关心的,也是不必要关心的。

?#27604;唬?#26377;些因素可能是?#22909;?#30340;,比如域名长度,很可能与高排名是负相关的。

AI?#20302;?#34987;训练的过程就是找到这些排名因素(无论人类看着是否有?#35272;恚?#32473;予这些因素一定权重,拟合出一个计算公式,刚好能排出用户满意的那个搜索结果。这个拟合过程应该是迭代的,一个权重数值、一个公式不行,自动调整,再次计算,直到比较完美拟合出评估员打过标签的搜索结果。这个训练过程也许要几天,也许几个星期,要看数据量。

AI搜索算法验证

被训练过的AI搜索算法就可以应用于其它没在训练数据里的查询词了。

首先用前面提到的验证组数据验证一下,如果新训练出来的算法给出的搜索结果与验证组数据(同样是评估员打过标签的)吻合,?#24471;?#31639;法不错,可以上线了。如果AI算法给出的搜索结果与验证组搜索结果里的页面不同,或者页面基本相同但排序差别很大,可能就要重新训练AI?#20302;?#20102;。

?#27604;唬?#35201;做到所有查询词,AI算法给出的搜索结果与评估员打过最满意标签的搜索结果完全一样,是不大可能的。估计只要排在前面,比如前20名的页面顺序差异在一定的容错范围内就可以了。排在越前面,需要?#38477;?#30340;容错率,比如排在第一第二的页面?#27426;裕?#27604;排在第三?#25345;?#21518;的页面?#27426;匝现?#22810;了。

验证过的算法就可以上线,接受真实用户的检验了。这里很可能牵扯到一个SEO们普遍认为与排名有关、但搜索引擎一直否认的排名因素:用户体验数据是否是排名因素?

很多SEO排名因素统计表明,页面点击率、跳出率、用户停留时间、访问深度与排名有很高的相关性,但Google一直明确否认这些数据是排名因素。?#27604;唬?#23545;百度来说,点击率显然是排名因素。

原因很可能就是,搜索引擎需要用这些用户体验数据验证搜索算法质量,如果用户普遍点击?#24335;?#20302;、跳出率提高,?#24471;?#26032;上线的算法有问题,需要调整。虽然搜索引擎没有直接使用用户数据来排名,但算法的目标就是提高用户数据,使得这两者之间高度相关。

新的AI算法上线后,搜索引擎监控的用户数据?#24471;?#29992;户满意,算法就成功了,等待下一轮的优化。

以上纯属猜测。

]]>
http://www.02096461.com/topic/ai-based-algorithm/feed/ 23
Tag标签页面如何优化? http://www.02096461.com/seo-tips/how-to-optimize-tag-page/ http://www.02096461.com/seo-tips/how-to-optimize-tag-page/#comments Thu, 18 Apr 2019 17:37:34 +0000 http://www.02096461.com/?p=5229 读者“会飞的雨”问:tag标签页面如何优化?

Tag页面很常用,用得好的话SEO效果不错,但很多网站的tag页面使用并不恰当,甚至可能会有负效果,所以这是个很好的问题。?#36824;?#36825;个问题一两句话很难说清,而且在SEO每天一贴没有讨论过这个话题,所以单独写个帖子聊一下tag标签页面怎样SEO。

什么是tag页面?

tag页面,或者标签页面,是组织网站内容的一种分类方式。站长根据每篇文章的内容给文章打个标签,既然是根据内容打的,通常标签也就是与文章内容最相关的关键?#30465;?#27604;如这篇帖子是讨论标签页面如何优化的,可以打上“标签页面”、“优化”之类的标签。如果文章是谈996的,可能会打上“996”、“马云”之类的tag。

然后网站为每个标签建立一个标签页面,把包含这个标签的所有文章列在标签页面上。所以,tag页面可以理解为一个按关键词分类的内容聚合页面。

最常见的tag页面就体现在博客上。WordPress等博客CMS会把tag链接以tag cloud(标签云)的?#38382;较?#31034;在侧栏中,tag的尺寸代表了这个tag里内容的多少:

SEO每天一贴没有启用tag功能,所以看不到标签云。没有启用的原因看完这个帖子就清楚了。

Tag页面与分类页面的区别

分类页面(Category Page),也可以称为栏目页面,产品列表页等等,总之,就是网站主?#24049;?#37324;面那些页面。

Tag页面和分类页面都是组织内容的分类方式,各有特点和用?#23613;?/p>

分类页面一般是有从属关系的,比如本帖子是在SEO技术这个分类之下。稍大点的网站分类从属关系就更明显,分类本身就有从属,比如一双?#26032;?#28216;鞋可能是在这个分类结构下:

鞋帽 – 鞋 – ?#34892;?– 休?#24515;行?– ?#26032;?#28216;鞋

上面的各个分类本身也是有从属关系的,是会体现在URL的目录结构中的。这种从属关系都是?#26032;?#36753;的,在目录结构、面包屑?#24049;降?#30340;协助下,用户可以清晰判断当前页面在网站的什么位置。

而tag页面没有这种从属关系,各个tag页面是并列关系,其URL也没有层级目录,通常所有tag页面的URL都是 /tag/标签名称/ 而?#36873;?/p>

分类页面一般是固定的,没有改版时不会增加或减少。Tag页面可以随时增加,尤其是有突发事件、话题时,分类?#20302;持?#26377;“程序员”或者“互联网”甚至“马云”都是可能的,但不大可能有“996”这个分类。而标签就可以有“996”。

Tag页面的SEO特点

由于Tag页面就是针对关键词的内容聚合页面,所以tag页面与关键词的相关度通常是很高的,也所以tag页面排名经常是不错的。

而且tag的使用更灵活。如前面提到的,有热点话题时,关键词经常是新创的,如果有多篇跟进文章,用标签聚合在一起是最合适的。

一般来说,标签应该是编辑人工打的。有的网站?#19981;?#20174;文章中自动提取关键词,或者利用词库,生成tag页面,所以tag页面也经常被用来自动生成大量页面,意?#20960;?#30422;更多关键?#30465;?#36825;个方法要十分慎重使用。

Tag页面使用时要注意什么?

虽然tag页面相关度高,但用不好也容易有?#22909;?#20316;用。

比如前面提到的自动生成大量页面,这必须是在内容数量足够、而且生成页面相关性够高的情况下。一个只有几千个产品的网站,如果生成几千个tag页面,组合来组合去也都是那些产品,恐怕会造成大量低?#30465;?#37325;复的页面。一个“黑连衣裙”tag页面如果?#24615;?#24456;多白色衣服,用户体验恐怕也是个问题。

即使有足够内容保证,相关度也够高(比如标签是编辑人工打的),也要避免一个很多网站在犯的错误:tag页面不应该与现有分类页面重复。比如一个新闻网站,把所有和财经有个的新闻打上?#23433;?#32463;”这个标签是毫无意义的,?#23433;?#32463;”这个tag页面与?#23433;?#32463;”栏目内容必然高度相似,对搜索引擎来说是重复内容,对网站来说,到底优化哪个页面将失去焦点。

Tag关键词应该是分类名称没有的、又有一定关注度的词,比如“中美贸易战?#20445;?#32780;不是?#23433;?#32463;”。很多时候,这种不会出现在分类?#24049;较低持?#30340;词,是有不小的查询量的,除了前面提到的突发新闻,还有保持稳定的人名、公司名,都不大会出现在分类名称中,但名人、大公司名字,搜索量是很大的。

Tag与分类名称重复,也可以理解为标签打得太宽?#28023;?#35201;避免。另一方面,标签也不能打得太细,比如我见过把文章标题打成标签的,结果是一个tag页面上就一篇文章,这页面质量也太低了。最好一个Tag页面?#29616;?#23569;有5篇10篇相关文章,才生成这个Tag页面。

最后,我没有启用Tag功能是因为,我没办法想出那么多与分类名称不同、又有一定关注度的关键?#30465;?/p> ]]> http://www.02096461.com/seo-tips/how-to-optimize-tag-page/feed/ 50 未来SEO也许不用再操心爬?#23567;?#25235;取问题? http://www.02096461.com/msn/bing-reduce-crawling/ http://www.02096461.com/msn/bing-reduce-crawling/#comments Thu, 11 Apr 2019 16:46:25 +0000 http://www.02096461.com/?p=5029 SEO每天一贴很少写关于必应Bing或雅虎Yahoo!的事,原因显而易见:他们那可怜的市场份额真不大值得写。

微软虽然一直对搜索不离不弃,?#24230;?#37325;金和时间,但到目前为止,Bing在搜索市场从来都是个陪衬。Yahoo!就更甭提了,在收购了除Google、Bing以外的所有搜索引擎之后,Yahoo!?#35895;?#33258;废武功,把自己多年积累、收购的所有搜索技术彻底放弃了,雅虎网站的搜索功能转为使用Bing的技术 – – 不禁让人心里?#27490;荊?#30830;定不是Google卧底干的吗?一个最重要的对手就这么没了?

?#36824;鼴ing对SEO们一直都是挺友好的,而且Bing工程师们给SEO行业不少很有建设性的意见。比如,关于外链建设,我觉得最精彩的一句话就是某位必应工程师说的,大意是,最好的外链是那些你根本不知道其存在的外链。

必应大幅提高URL提交限额

一月底Bing站长博客发了一篇帖子,表示Bing站长工具URL提?#36824;?#20855;做了升级,大幅提高站长可以提交的URL数目上限,从原来的每天只能提交10个,每个月最多50个,增长1000倍,现在每天可以提交10,000个,没有月上限。唯一的限制是,网站需要在Bing站长工具注册验证180天以上:

Bing提高URL提交上限

帖子?#39038;?#20102;很有意思的一?#20301;埃?#22914;果以后搜索引擎按这个方向发展的话,SEO们未来可能不用再操心页面爬?#23567;?#25235;取的问题了:

We believe that enabling this change will trigger a fundamental shift in the way that search engines, such as Bing, retreive and are notified of new and updated content across the web. Instead of Bing monitoring often RSS and similar feeds or frequently crawling websites to check for new pages, discover content changes and/or new outbound links, websites will notify the Bing directly about relevant URLs changing on their website. This means that eventually search engines can reduce crawling frequency of sites to detect changes and refresh the indexed content. 

翻译过来大意是:

我们相信这个变化会引发搜索引擎发现及抓取新内容(包括新建或更新的内容)方式的根本性变革。站长将可以直接通知Bing网站上有了URL变化,而不需要Bing通过监控RSS或频繁爬行来发现新页面。这?#23548;?#19978;意味着搜索引擎在发现、更新索引内容时,可以降低对网站的爬行频率。

内容索引不再依靠爬行?

一直以来,我觉得SEO有三大?#35757;悖?#20869;容、内部链接结构、外链建设。其中,网站内部链接结构就是要解决搜索引擎有效爬?#23567;?#25235;取的难题,既要抓得全,抓?#27599;歟?#21448;要避免抓取不必要的内容,还得合理分配权重。越是大站,这个问题越难完美解决。做过大站的SEO一定都深有体会,?#36824;?#24590;样调整网站结构,都无法做到页面100%被索引。

必应的这篇帖子在告诉SEO们,以后很可能不用担心抓取的问题了,有了新页面,或者旧页面有了更新,直接提交URL就行了(通过站长工具或API),不必依靠Bing蜘蛛爬行抓取,?#23548;?#19978;,Bing蜘蛛会大大减少爬行,却不耽误索引新内容。

后续SearchEngineLand对Bing搜索工程师的访谈证实,减少爬行,确实是Bing的目标。他们希望未来几年内,Bing不再依靠爬行来发现新内容。Bing认为,对网站爬行的方法低效、费资源,不如站长直接提交内容。Bing表示,提交URL是页面抓取的“很强”的信号,要想内容被快速索引,就赶紧用提?#36824;?#20855;吧。

确实,大型网站,页面被抓取一遍,可能需要几个星期,甚至更长时间,那么网站上有新页面,或老页面内容有更新,要被抓取,也可能会有几个星期的延迟。提交URL是个更快的方法。

其实百度早就在做类似的事,在百度资源平台提交内容是快速抓取新页面的很好方法,小时级收?#26082;?#23454;可以在几小时内收录,有时几?#31181;?#23601;收录。?#36824;?#30334;度资源平台提交好像不支持老的但有更新的页面。

对SEO行业的潜在影响

如果Google以后也跟进采取这个方法,可能会对SEO行业产生不小的影响。搜索引擎发现、抓取、索引新内容的方式变得更加简单直接,SEO们调整网站结构的必要性和难度将大大降低。

?#36824;?#20063;有潜在问题。比如,黑帽SEO们显然不会放过这个机会。以前垃圾内容靠爬行被抓取越来越困难,因为从一个页面到另一个页面的爬行就是个鉴别、过滤的过程。大量主动提交垃圾页面成为可能后,搜索引擎该怎么处理?

再比如,搜索引擎减少爬行,倒是节省资源了,但老的、不更新的页面被重新抓取的?#38382;?#23558;大大减少,这会不会导致链接关系计算的不?#26082;貳?#19981;及时?顺便提一句,不知道为什么总是有人说链接对排名已经不重要了,其实依然很重要。

SEO的基本方法过去十多年没有大变化,但SEO依然是个?#27426;?#21464;化的行业。

]]>
http://www.02096461.com/msn/bing-reduce-crawling/feed/ 29
搜索引擎自己怎么做SEO? http://www.02096461.com/topic/how-se-do-seo/ http://www.02096461.com/topic/how-se-do-seo/#comments Tue, 26 Mar 2019 17:18:57 +0000 http://www.02096461.com/?p=4691 和其他网站一样,搜索引擎本身也需要做SEO。以前本博客上就替朋友发过雅虎、微软招聘SEO人员的帖子。

Google也是一样。前几天Google工程师在Think with Google博客上发了一篇帖子,讲述谷歌自己怎样做SEO。虽然是Google自己做网站SEO的经验,对百度也一样适用。

Google自己拥有7000多个网站,由全世界数百个产品和营销团队运营。对这些网站来说,seo也是他们流量来源的核心。虽然近年来搜索流量比例在下降中,但目前还是大约占网站总流量的一半左右,还是第一大来?#30784;?/p>

搜索算法对所有网站一视同仁

Google搜索算法对自己的网站和其它网站是?#38477;?#23545;待的,没有特殊照顾。运营团队也必须遵守Google发布的网站质量规范。

与外界想象可能不同的是,Google内部员工不一定就了解Google搜索算法,这几百个运营网站的团队和普通SEO一样,对算法的了解很可能并不比我们多多少。Google自己的网站以前多次被自己的算法所?#22836;#?#29978;至要解除?#22836;?#20063;需要和其它站长一样,在Google Search Console里提交审核申请。

Google与SEO社区沟通的官方代表也不一定完全了解搜索算法。就在前几天,近年代替Matt Cutts出席世界各地SEO行业大会的Gary Illyes,刚刚发现Google不再使用rel=prev/next标签了,而过去几年谷歌在线帮助文档、对外沟通和回答问题时都一再推荐使用这个标签。搜索算法负责抓取的团队几年前就放弃使用这个标签,其它团队的人并不知道。Gary Illyes大概是很偶然地发现了这个事,所以撤下了相关的帮助文档。有SEO注意到文?#24403;怀罚?#21478;一位Google官方SEO联系人JohnMu在Twitter回答问题时提到,Google根本不用rel=prev/next标签了。

这个话题这几天在SEO行业掀起不小的波动。Gary Illyes和JohnMu他们对算法已经算是非常熟悉了,不然没办法回答SEO们的问题。即?#39038;?#20204;也不一定了解很多算法细节。

所以,Google运营网站的团队和普通SEO们大致是站在相同的起跑线上。

小处着手

很多有效果的优化并不一定是多高大上的,而是?#26377;?#22788;着手,看似基础、细节的地方,常常有明显的优化效果。

比如,Google My Business(我的商家)营销团队在自己的网站?#29616;?#34892;了很基础的技术优化,如加上正确的canonical标签,提示搜索引擎哪个URL是规范化的、应该被返回的版本,结果搜索流量上涨了两倍:

图中四个时间节点:

  • 新版Google My Business上线
  • 添加canonical标签
  • 上传带有hreflang标签的sitemap.xml文件
  • 修改meta标签(标题标签、?#24471;?#26631;签之类)

这几个确实都是基础优化。

?#24403;?#21464;化

随着内容的丰富、用户行为的变化等,搜索算法和搜索概念也一直变化。比如,现在移动查询量已经超过PC搜索,Google算法也必须适应这个新?#38382;疲?#20135;生相应的变化,比如Google AMP的提出和发展。

虽然有的时候各种变化、新技术令?#25628;?#33457;?#26376;遙?#20294;Google内部负责网站的团队得到的经验是,越积极?#24403;?#21464;化,?#27426;?#23581;试,SEO效果就越好。

比如,Think with Google团队去年集中精力解决Google Search Console中显示的各种错误,增加结构化数据,添加AMP页面。在解决了一些AMP页面错误信息后,页面展示增长了200%:

图中黄色时间点就是修正AMP错误的时间,之后展现量直线上升。

整合,而不是分散

很多公司和站长都肯定有这种体会,公司出于各种目的,比如为了针对不同客户群、不同地区,或者不同产品线,经常用差?#27426;?#30340;内容建出多个网站。这一点我是深有?#20889;ィ?#25105;的客户中极少只有一个网站的,经常是一大堆网站,内容雷同,我在诊断客户网站时经常发现怎么这些网站这么像呢?然后客户告诉我,都是他们的网站……

Google也是如此,多年累计下来,Google内?#32771;?#26597;发现,自己有大量近乎重复内容的网站。重复内容不仅让用户?#35813;?#31946;,也让搜索引擎算法?#35813;?#31946;。集中力量建一个高质?#23458;?#31449;,而不是建多个小网站,才是得到搜索流量的最好方法。

比如,在内?#32771;?#26597;后,他?#21069;袵oogle Retail有关的6个营销网站清理、整合内容为一个,结果是自然搜索流量增长了64%。

我想,整合不仅是多个网站整合为一个,也存在于网站内部。在《SEO实战密码?#36820;?#19968;版中,我也有过网站越大越好的观点,但第三版中我已经做个修正,现在的观点是网站越强越好,而不是越大越好。同一个话题,最好是在一篇文章中写清、写透,而不是分成几个小文章,哪个都不深入。

]]>
http://www.02096461.com/topic/how-se-do-seo/feed/ 28
Google 2019年3月核心算法更新 http://www.02096461.com/gg/march-2019-update/ http://www.02096461.com/gg/march-2019-update/#comments Fri, 15 Mar 2019 17:16:57 +0000 http://www.02096461.com/?p=5046 本来不想谈Google的这次2019年3月核心算法更新,因为昨天在 Google算法更新大全帖子里已经加上了这次更新的内容。但读者ailly问了这个问题:

哈罗 Zac 您好!3.12这次的Google算法对于网站有什么影响呢。还是持续去年8月份的更新,更多的应该专注于构建优质内容上面吗?我们公司做软件的,主要市场是国外,对于这次更新,面向西语、英语等?#35775;?#22269;家网站排名有很大影响、但是对于面向日本的网站并没有收什么影响。这个是?#24471;?#25105;们日本方面的网站没有触及这次更新的点吗?还是说日本这边的更新和?#35775;?#19981;是同步进行的呢?

看来还是有SEO关注Google SEO方面的新闻的,所以写个帖子聊一下。

?#27604;唬?#21478;一个发帖子的原因是,发现已经4个多月没更新博客了……

谷歌2019年3月核心算法更新

2019年3月12号开始,SEO相关论坛就有人发现Google排名大幅度变化,应该是有比较大的算法更新。

虽然现在Google很少确认算法更新了,但这次还真在Twitter发文确认了:

Google的说法是,和去年8月的Medic更新一样,这?#25105;?#26159;所谓核心算法更新,3月12号上线。全球同时上线。(所以回答读者ailly的问题,不是因为没有同步上线,可能是日语网站做得比较好?建议看看日语网站有什么特殊的地方。)

Google也再次强调,这种核心算法更新,SEO是没有办法采取针对性措施的,被影响的网站也不一定有什么要修改的,Google的原话是“no fix?#20445;?#27809;法修正,只能关注高质量内容,提高网站整体质量。和以前对核心算法更新的建议没有任何差别。

Google没有明说,但有人得到的消息是,这次Google 2019年3月的核心算法更新,是近年最大的更新之一。

为什么取名为2019年3月核心更新

Danny Sullivan发推把这次更新命名为:March 2019 Core Update(2019年3月核心更新)。为什么取个这么没特色的名字呢?

在Google给这次更新命名之前,webmasterworld的Brett Tabke,在长达15年后又一次为Google算法更新命名了,把这次更新称为:佛罗里达2更新。

Google早期的算法更新都是webmasterworld命名的,是效仿台风命名方法,按字母排序,男名女名间隔,这其间的历史渊源详见Google算法更新大全帖子。其中webmasterworld命名的最有名的一次更新就是2003年11月的佛罗里达更新(Florida Update),因为webmasterworld当时马上要在佛罗里达开 PubCon大会。

而这次核心算法更新的时间,是Brett Tabke他们刚好在佛罗里达刚开完PubCon大会,所以Brett Tabke一时?#20284;穡?#38271;达15年后又给Google更新命了个名。

但佛罗里达2更新与2003年的佛罗里达更新,除了名字成个系列,别的就没有任何关系了。Google官方为了怕站长们混淆,以为这两次更新有什么技术上的关系,所以出来?#24471;鰨?#36824;是?#23567;?019年3月核心更新“吧,更新类型和时间都清楚了,多好。

哪些网站受到了影响?

索性我自己的和客户的英文网站,到目前为止,都没有被影响。?#36824;?#36825;种核心算法更新通常需要1个多星期才能上线完成,现在还不能高兴得太?#32429;?#22240;此,我个人对这次更新还没有感受,也无从分析。

从网上看到的帖子,各种说法都有,几乎看不出规律。有说是链接相关的,有说还是针对医药行业的,有说是美容行业的,有说是E-A-T相关的,有说是去年8月Medic核心算法更新回调的,总之,五花八门,没什么特殊帮助。

?#36824;?#20174;论?#22330;witter等地方的动静看,这个2019年3月核心算法更新影响是比较大的,但?#23548;视?#21709;没有达到像Google所说的是过去几年最大的一次。

3月17号更新:

SEO行业的初步结论是回调。据Brett Tabke说,他在这次更新上线之前就得到了消息,他的观察是,很多被上次核心算法更新影响的网站这?#20301;?#22797;了,很像是以前核心算法更新的回调。

另外,一家流?#32771;?#27979;公司Sistrix分析部分英国网站的结论是,这次更新得益、排名流量提升的网站中,75%是去年受?#22909;?#24433;响,排名流量下降的网站。这?#38382;芨好?#24433;响的网站中,70%是以前就受?#22909;?#24433;响的。所以,受影响的基本是同一群网站,有的以前被误判,这次回升,有的是进一步下降。

]]>
http://www.02096461.com/gg/march-2019-update/feed/ 21
PBN是什么?还可以用来建设外链吗? http://www.02096461.com/blackhat/pbn-link-building/ http://www.02096461.com/blackhat/pbn-link-building/#comments Mon, 12 Nov 2018 18:51:42 +0000 http://www.02096461.com/?p=4130 SEO问答功能还真是个不错的方法, 增加了互动,大大提高内容更新速度,同时又不用费太多时间去想话题、写帖子。

读者的反应比我预想的要热烈,我本以为每天有一个问题就差?#27426;?#20102;,?#19968;?#31572;一下,已经达到每天更新的目标。?#23548;?#19978;我是每天审核、回答三个问题,现在后台还积压着几十个问题,而?#20197;交?#36234;多,貌似回答的速度赶不?#21688;?#38382;的速度了。但由于时间有限和保证页面质量的原因,我想还是最多每天回答3个问题,提交了问题的读者还请耐心等一下,估计以后提交的问题会少下来的。

另一个好处是,有的问题挺有代表性,以前的博客帖子也没写过,刚好作为新帖子的主题。今天就回答一下关于PBN的问题。

读者zhuo问:

Zac大佬您好,想问问现在还值不值得自己使用WordPress来搭建PBN。
因为看了些英文的介绍,还有一些?#24471;?#39118;险的文章和实战的例子。
PBN现在似乎还是一个不错的手段。
人工智能的时代下,PBN还是一个好的选择吗?或者需要有很多注意的地方从而不值得使用?

PBN是什么?

PBN是英文Private Blog Network的缩写,中文意思大致是“秘密博客网?#32429;保?#20063;就是用WordPress之类的开源博客?#20302;炒?#24314;多个网站,形成一个网络,而且号称是秘密的,或者说是搜索引擎检测不出来的网络,然后用这个网络给目标网站建立外链。

PBN秘密博客网络

这听起来不就是站群吗?是的,就是一种特殊?#38382;?#30340;站群。区别于其它站?#28023;琍BN有几个特点:

  • 都是用博客?#20302;炒?#24314;的,做成博客的?#38382;劍?#25152;以名字有blog这个?#30465;?/li>
  • 必须保持秘密状态,也就是搜索引擎不能检测出网络里这些网站的关系,所以名字第一个词是private。
  • 网络里每个博客都有基本的权重。

使用博客CMS没什么可说的。但后两个特点不是很简单就能达到的。

普通的站群要使每个网站达到一定的权重,经常是要互相交叉链接起来的,比如曾经挺火的链轮的概念。和黑帽初学者想象很不同的现实是,链轮是很容易被检测出来的,然后整个网络无效,甚至有害。但PBN既然是private的,就不能留下网络内网站有关联的蛛丝马迹,所以PBN内的所有网站是不能互相链接的,任何两个网站之间都不能链接。这样,所有网站都是看似无关的,给出的链接就变成了自然外链。

PBN网络是怎样做到秘密的?

从链接上检测不到相互之间的联系还?#23545;恫还唬?#35201;做到秘密,还得在这些方面切断联系:

  • 使用不同域名注册商
  • 使用不同域名所有人信息
  • 使用不同主机服务商
  • 域名注册日期随机分散
  • 使用不同流量分析账号
  • 使用不同Google Search Console账号
  • 使用不同电脑和ISP登录GA和GSC账号
  • 网络内行业主题适当分散
  • 各个网站内容不同
  • 网站使用不同模版

要做到不留下任何痕迹,是个不容易的事。

即使做到了秘密,?#25191;?#26469;另一个现实的问题:既然不能互相链接起来,怎样使每个域名有一定的权重?总不能给每个域名人工建设外链去吧?这违反了黑帽SEO的初衷:有给网络里每个网站建设外链的功夫,还要PBN干嘛?直接给目标网站建设外链不就完了?答案是:购买域名,包括快到期的,已经过期的等?#21462;?/p>

PBN的效果和风险

PBN的效果肯定是有的,同时肯定是被搜索引擎认定为作弊的。隐藏得好的网络,在被检测出来之前,这些网站就是一个个正常、有权重的独立网站,给目标网站缓慢加上链接,还是显得挺自然的。到目前为止,外链还是搜索排名的最重要因素之一,别听网上某些人说的外链无用论,?#19968;?#30097;那是为了误导别人不去做外链,好让他自己的网站上去。外链依然重要,PBN效果就不错 — 在被发?#31181;?#21069;。

问题在于你用的PBN什么时候会被发现。这就是一个定时炸弹,可能几十年不爆炸,也可能下一秒爆炸。从前面列举的要切断联系的地方可以想象,要完全做到,是个需要非常非常细心的工作,一不小?#27169;?#21069;功尽弃,而且经常是一锅端。

另外,搜索引擎不一定只限于算法检测,完全可以人工挖掘,比如派个卧底到卖PBN链接的网站,假冒客户,买几个链接,一挖一大串,这可是防不胜防、简单有效。前几年Google经常发布官方消息,今天挖出?#22836;?#20102;俄国某PBN网络,明天挖出波兰某PBN网络…

所以,PBN效果不错,风险自负。

到底用不用PBN来建设外链?

那到底该不该用PBN建设外链呢?

原则上,我不提倡任何黑帽、作弊SEO方法。在风险自负的前提下,分几种情况做些建议。

如果是给自己网站做SEO,就不建议自建PBN了。可以算一下建个PBN的成本。要称为PBN,网站数量至少数百,不计时间、人员、管理成本,仅域名注册、服务器,每年费用都得数千美元以上。有这每年数千美元预算,?#36824;?#26159;用在原创内容吸引链接,还是直接买链接,效果都不会差,而且永久、安全。

如果是为了卖PBN链接,可以考虑,甚至是个不错的生意,未来数年还是会有客户的。优点是一旦建成PBN,分摊下来的成本大大降低,收入可持续,直到被发现。缺点也很明显,时刻得准备着被检测出来,失去所有客户。所以靠PBN做客户生意,需要很多技巧,隐藏自己,降低风险。这个以后有机会再说。

如果是给自己网站做SEO,从第三方那里买PBN链接,个人网站可行,即使PBN被?#22836;?#20102;也不至于有什么大问题,在被?#22836;?#20043;前很可能就赚回来了。为分散风险,建议多做几个网站,多用不同PBN服务。如果是公司网站,尤其是有一定品牌知名度、因此不能换域名的网站,要非常非常慎重。

]]>
http://www.02096461.com/blackhat/pbn-link-building/feed/ 54
香港马会2码平码二中二
<acronym id="82w2a"></acronym>
<sup id="82w2a"><center id="82w2a"></center></sup><tr id="82w2a"><code id="82w2a"></code></tr>
<sup id="82w2a"><small id="82w2a"></small></sup>
<acronym id="82w2a"></acronym>
<sup id="82w2a"><center id="82w2a"></center></sup><tr id="82w2a"><code id="82w2a"></code></tr>
<sup id="82w2a"><small id="82w2a"></small></sup>
北京少儿冰球培训班 大乐透总是中不了奖 四川亿元大奖捐款 福彩黑龙江36选7开奖结果查询结果 重庆快乐10分定位计划软件手机版 澳洲幸运8开奖破解 中国体育彩票36选7 个旧麻将七星一般高 360快三倍投计算器 秒速飞艇官方 守门员倒挂扑出点球 加拿大有快乐8吗 好旺角娱乐平台 七乐彩开奖号结果 360彩票网站可靠吗