下吧资源网_专注精品网站源码下载的网站_免费商业源码分享

用代码完美实现wordpress蜘蛛爬行记录生成,远离插件,热爱速度!

很多人在用WordPress蜘蛛爬行记录生成这个功能,出于对网站优化的研究,清楚的了解蜘蛛爬行规律也是很重要的,我们就可以知道蜘蛛的爬行规律,根据这个规律我们再来写文章,这样符合了蜘蛛的胃口是很利于优化的。。。但是小编一直提倡着远离插件,热爱速度的口号,所以今天就教大家用代码完美实现WordPress蜘蛛爬行记录生成功能!
 

教程开始

WordPress主题文件目录下找到functiоn文件,用代码编辑软件打开,在<?php ?>内的任意位置增加下面一段代码即可完成WordPress蜘蛛爬行记录生成的功能!

functiоn get_naps_bot(){ $useragent = strtolower($_SERVER[\'HTTP_USER_AGENT\']); if (strpos($useragent, \'googlebot\') !== false){ return \'Gооglebot\'; } if (strpos($useragent, \'msnbot\') !== false){ return \'MSNbot\'; } if (strpos($useragent, \'slurp\') !== false){ return \'Yahoobot\'; } if (strpos($useragent, \'baiduspider\') !== false){ return \'Baiduspider\'; } if (strpos($useragent, \'sohu-search\') !== false){ return \'Sohubot\'; } if (strpos($useragent, \'lycos\') !== false){ return \'Lycos\'; } if (strpos($useragent, \'robozilla\') !== false){ return \'Robozilla\'; } return false; } functiоn nowtime(){ date_default_timezone_set(\'Asia/Shanghai\'); $date=date(\"Y-m-d.G:i:s\"); return $date; } $searchbot = get_naps_bot(); if ($searchbot) { $tlc_thispage = addslashes($_SERVER[\'HTTP_USER_AGENT\']); $url=$_SERVER[\'HTTP_REFERER\']; $file=\"robotslogs.txt\"; $time=nowtime(); $data=fopen($file,\"a\"); $PR=\"$_SERVER[REQUEST_URI]\"; fwrite($data,\"Time:$time robot:$searchbot URL:$tlc_thispage\\n page:$PR\\r\\n\"); fclose($data); }

注意事项

使用上面这段代码后,好在网站的根目录创建个robotslogs.txt的文件,并且linux主机设置权限为777,然后过段时间,访问http://网址/robotslogs.txt 即可看到蜘蛛爬行记录了!

一些说使用后出错的朋友,请研究下functiоn文件内,插入的位置!

本文链接:https://www.xiaba.cc/html/2116.html

版权声明:站内所有文章皆来自网络转载,只供模板演示使用,并无任何其它意义!

发表评论 共有 0 条评论)

联系客服
网站客服 业务合作 Q交流群
123456789
公众号
公众号
公众号
返回顶部