细话搜索引擎--网络时代的一把双刃剑 (归档)

风清扬斈 14年前 (2005-10-13) My Articles 6564 0

细话搜索引擎--网络时代的一把双刃剑

搜索引擎在互联网上发展史中只能用一个"快"字来概括,10年前几乎没有人知道它的存在,而十年后它却无处不在,其发展速度就是一个神话。常用的搜索引擎有Google、Baidu、Alltheweb、Openfind、天网等几大搜索引擎,在众多搜索引擎的发展历程中,百度无疑是非常出色的,虽然只有短短两三年的时间,但却在搜索引擎中确立了自己的重要地位。
搜索引擎的原理其实很简单,它就是搜索预先整理好的网页索引数据库(通常这个数据库有几亿张网页),从而机械地匹配网页上的文字,达到搜索的目的。如果用户在引擎中键入文字(关键字),那么在数据库中的相关网页或文件就会被搜索出来,然后经过某些算法进行排序,最后的结果将按照与搜索关键词的相关度高低,依次排列。
百度创始人李彦宏最先把超链分析技术引入搜索引擎,这种技术除了分析索引网页本身的文字,还分析索引所有指向该网页的链接的URL、AnchorText、甚至链接周围的文字。所以,有时候,即使某个网页A中并没有某个词比如"baidu搜索引擎",但如果有别的网页B用链接"baidu搜索引擎"指向这个网页A,那么有人搜索"baidu搜索引擎"时也能找到网页A。而且,如果有越多网页用名为"baidu搜索引擎"的链接指向这个网页A,或者给出这个链接的源网页越出色,那么网页A在用户搜索"baidu搜索引擎"时也会被认为更相关,排序结果也会越靠前。
我们如果需要寻找某个网站或者网页,那么你可以在搜索引擎中键入这个你认为是关键的字,如果结果很多,可以继续用更多的关键字来搜索,很快你就会得到想要的结果。同样的方法,我们要搜索一个文件或图片,直接键入这个文件的名字,很快就会有满意的结果。如果你有要被搜到的网页,除了直接登陆到搜索引擎的数据库外,仅仅只需要在别人的网页上存在一个链接地址,或在网页中加入"<meta name="GENERATOR" content="Microsoft FrontPage 3.0">"一段类似的代码就可以被搜索到。
由于采用了超链分析技术,所以只要你的网页和其他网页之间建立了链接就有七成可能被Spider系统程序抓取到。也就是说只要你的网页存在于互联网,几乎没有不被搜索到的可能,由于这种搜索几乎是不是人为的,因此不论好坏,都会一概被抓取,就连因此而建立了超链接的文件、图片、数据库地址也不会幸免于难。因此我们在搜索网页和文件时往往会搜到许多死链接和无关的垃圾网页,与此同时那些不需要被搜到的数据库地址和脚本漏洞也都会暴露在光天化日之下。这种搜索引擎先天不足的技术缺陷同样也给许多人带来了很大的便,当然采用网址过滤确实可以封杀许多网站和网页,但是由于网页更新速度原远比搜索数据库更新要快,所以过滤技术只是权宜之计罢了。
那么如何才能保证互联网上的一个网页或文件不被搜索引擎搜索到呢?根据搜索原理只要搜索数据库索引中不存在与此有关的关键字,就可以拒绝搜索,一般只要没有超链接地址指向该网页或者该文件没有被访问的权限就可以做到这一点,相信有心之人都是有办法的。但是对于某些非法站点我们却无能为力,毕竟网络是自由的。
搜索引擎真的是一把双刃剑,他给众多网民带来了极大的方便,但是我们也应该看到搜索引擎作为互联网发展中的一员同样需要健全和发展,完美是不存在的,但是可以更好。

"

相关推荐

  • 网友评论

    • (*)

    最新评论