源码论坛公告:本站是一个交流学习建站资源的社区论坛,旨在交流学习源码脚本等资源技术,欢迎大家投稿发言! 【点击此处将锦尚放在桌面

源码论坛,商业源码下载,尽在锦尚中国商业源码论坛

 找回密码
 会员注册

QQ登录

只需一步,快速开始

查看: 564|回复: 0
打印 上一主题 下一主题

[交流] 浅谈搜索引擎如何判定内容重复性

[复制链接]

19

主题

22

帖子

902

金币

初级会员

Rank: 1

积分
1819
QQ
跳转到指定楼层
1#
发表于 2013-12-18 15:29:41 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
一、搜索引擎为何要积极处理重复内容?

1、节省爬取、索引、分析内容的空间和时间

用一句简单的话来讲就是,搜索引擎的资源是有限的,而用户的需求却是无限的。大量重复内容消耗着搜索引擎的宝贵资源,因此从成本的角度考虑必须对重复内容进行处理。

2、有助于避免重复内容的反复收集

从已经识别和收集到的内容中汇总出最符合用户查询意图的信息,这既能提高效率,也能避免重复内容的反复收集。

3、重复的频率可以作为优秀内容的评判标准

既然搜索引擎能够识别重复内容当然也就可以更有效的识别哪些内容是原创的、优质的,重复的频率越低,文章内容的原创优质度就越高。

4、改善用户体验

其实这也是搜索引擎最为看重的一点,只有处理好重复内容,把更多有用的信息呈递到用户面前,用户才能买账。

二、搜索引擎眼中重复内容都有哪些表现形式?

1、格式和内容都相似。这种情况在电商网站上比较常见,盗图现象比比皆是。

2、仅格式相似。

3、仅内容相似。

4、格式与内容各有部分相似。这种情况通常比较常见,尤其是企业类型网站。

三、搜索引擎如何判断重复内容?

1、通用的基本判断原理就是逐个对比每个页面的数字指纹。这种方法虽然能够找出部分重复内容,但缺点在于需要消耗大量的资源,操作速度慢、效率低。

2、基于全局特征的I-Match

这种算法的原理是,将文本出现的所有词先排序再打分,目的在于删除文本中无关的关键词,保留重要关键词。这样的方式去重效果效果高、效果明显。比如我们在伪原创时可能会把文章词语、段落互换,这种方式根本欺骗不了I-Match算法,它依然会判定重复。

3、基于停用词的Spotsig

文档中如过使用大量停用词,如语气助词、副词、介词、连词,这些对有效信息会造成**效果,搜索引擎在去重处理时都会对这些停用词进行删除,然后再进行文档匹配。因此,我们在做优化时不妨减少停用词的使用频率,增加页面关键词密度,更有利于搜索引擎抓取。

4、基于多重Hash的Simhash

这种算法涉及到几何原理,讲解起来比较费劲,简单说来就是,相似的文本具有相似的hash值,如果两个文本的simhash越接近,也就是汉明距离越小,文本就越相似。因此海量文本中查重的任务转换为如何在海量simhash中快速确定是否存在汉明距离小的指纹。我们只需要知道通过这种算法,搜索引擎能够在极短的时间内对大规模的网页进行近似查重。目前来看,这种算法在识别效果和查重效率上相得益彰。
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 分享分享
您需要登录后才可以回帖 登录 | 会员注册

本版积分规则

锦尚中国源码论坛

聚合标签|锦尚中国,为中国网站设计添动力 ( 鲁ICP备09033200号 ) |网站地图

GMT+8, 2025-2-8 09:13 , Processed in 0.127857 second(s), 26 queries .

带宽由 锦尚数据 提供 专业的数据中心

© 锦尚中国源码论坛 52jscn Inc. 非法入侵必将受到法律制裁 法律顾问:IT法律网 & 褚福省律师 锦尚爱心 版权申诉 版权与免责声明