Jim Hedger在日志中写道,雅虎每天接受2 7.6 亿的page view。并炫耀称,有15.7 亿注册用户。他还在这篇日志中,详细地介绍了Yahoo!bot--slurp的发现链接,记录信息,抓取,排序的特点和策略,他认为针对Slurp 做好优化要注意:
URL要有描述
用主题词丰富了标题在站点的各页
站点的各页都要放置主题词丰富的描述和主题词在keywords description/meta tags
用途robots.txt协议文件来规范Slurp ,使他在您的购物车或登陆才能看到的页面之外
在第一段放置一个主题词丰富的文本的拷贝
用途HREF 链接引导Slurp 访问站点的各页
增加sitemap 页,并确保INDEX页有一个链接指向sitemap
确保地图页信息详情列举了网站的全部页面,并给出了指向这些页面的链接
写则发布新闻,并把它发送到尽可能多的blogs 、新闻专线和新闻稿发布站点
从那些主旨跟你的网站类似的网站获得强的,相关性好的外链
经常的更新您的站点
安享和评估你的设置原文网址:http://www.searchenginejournal.com/index.php?p=1095
他的优化策略是很规范而且有益,无论是在Google还是yahoo,以及百度等,相信这样的规范能给你带来的是有益的流量,而不会是被识别成spam。国内有不少网友作搜索引擎优化作得适得其反,本来认认真真地做,会很好的被收录,但是因为看到一些自以为颇有经验的SEOers的指点,结果被Google/百度等当作spam。做好优化就要遵循Jim提供我们这些常识,去做对用户/读者有用的网站或网页。