全国销售热线
400-050-4004
搜索引擎优化算法SEO的个人认识

  大家好, 我是 ,呵呵,第一次在在这里来写东西,感觉不太好意思啊,我是SEO初学者,在网上看过几篇文章,也看过两本书,对SEO来说,没有什么很深的体会,只是单纯就我所知道的某一点来写写,大虾们别笑啊!

  我现在要讲的是:网页查重算法,也就是搜索引擎是怎么检查两个网页的相似性的?这应该是大家应该比较关心的问题吧,因为这有助于让你的伪原创更像一个原创

  首先我跟大家讲有名的IMATCH算法。

  我们在比较两件事物的相似性时,往往都会拿能均衡的反应这事物本质的东西来比较,就像比赛时,要去除一个最高分和最低分,然后再变算总分一样~~

  IMATCH算法基于的依据是,在文挡中,特别高频的词和特别低频的词无法反应这一个文挡的真实内容,所以在比较之前,先将文挡中高频词和低频词去掉

  我们来看一个例子:

  这里有两段网页文字:

  1.中国足球队在米卢的率领下首次获得世界杯决赛阶段的比赛资格,新浪体育播报 。

  2.米卢率领中国足球队员首次杀入世界杯决赛阶段,搜狐体育播报。

  文档中去掉高频:中国,在,的,获得,比赛,资格,新浪,体育,播报去掉低频:米卢则剩下中频词有:足球队,率领,首次,世界杯,决赛,阶段文档中去掉高频:中国,搜狐,体育,播报去掉低频:米卢,杀入则剩下中频词有:率领,足球队,首次,世界杯,决赛 ,阶段看到了吧?剩下的,两者是一模一样 这就是相似性的存在呵呵,其实这个例子很早就有过的。。

  综上所述:搜索引擎要检测相似性,主要就是要分词和词频的比较!!不知道大家是否都清楚了?呵呵,下次再讲一个经典算法:Shingle算法。

  就到这里吧。祝大家的伪原创越来越好! SEO学习还任重道远啊!一起努力



[返回上一级]

版权所有 2006-2018 帝国网络 营销热线:400-050-4004       售后:0755-86200006