【注:代码若被编辑器转义或编码,大家可点击代码框左上角的纯文本查看】
0×02 背景
当时想到写个这个脚本是前段时间看到一个文章写的“黑吃黑”的文章,发现shell后门网站的数据库直接暴漏在js里了,然后也去瞅了瞅就下载到了一个Webshell后门网站收到的shell的数据库,大概有8万条shell的链接和密码
这之中肯定有好多好多已经已经被管理员处理了,然后我就像用python把这些链接可以访问的筛选出来。但是当时脚本一直报错,就一直留着没写,最近就看了看网上的资料,写了下,目前是可以跑了,但是python的多线程确实是有限制。有点儿跑不开的感觉…
0×03脚本
进群:548377875 即可获取数十套PDF哦!
首先需要安装一个python在windows上的一个扩展Python for Windows Extensions,这个扩展通过pip和easy_install都不能安装,应该不是一个常见的扩展。去这儿下载这个扩展:
https://sourceforge.net/projects/pywin32/files/
图上标注的问题一定要注意,文件一定要和python的版本和python的位数要匹配否则会报错的。安装好之后就可以写代码了。
1. # -*- utf-8 -*-
2. import win32com.client
3. import requests
4. from threading import *
5.
6. connection_lock = None
7.
8. # 定义检测链接的线程函数
9. def connect(url,file,password):
10. print url
11. print 'make a GET request'
12. try:
13. r = requests.get(url, timeout=5)
14. except:
15. print "url is abnormal."
16. connection_lock.release()
17. else:
18. if r.status_code == 200:
19. str = url+ '----' + password + ''
20. print str
21. file.writelines(str)
22. connection_lock.release()
23.
24. def main():
25.
26. global connection_lock
27. maxConnections = 30
28. file = open("url.txt",'a')
29. connection_lock = BoundedSemaphore(value = maxConnections)
30.
31. # 打开数据库进行链接,maUrl是打开表
32. conn = win32com.client.Dispatch(r'ADODB.Connection')
33. DSN = ';PROVIDER=Microsoft.Jet.OLEDB.4.0;DATA SOURCE=data.mdb'
34. conn.Open(DSN)
35. print 'connecting'
36. rs = win32com.client.Dispatch(r'ADODB.Recordset')
37. rs_name = 'maUrl'
38.
39. #
40. rs.Open('['+rs_name+']', conn, 1, 3)
41.
42. #遍历数据库中的行并进行多线程链接
43. while True:
44. url = rs.Fields.Item(1).Value
45. if url == None:
46. break
47. password = rs.Fields.Item(2).Value
48. url="http://"+url
49. connection_lock.acquire()
50.
51. #start the thread
52. t = Thread(target = connect, args=(url, file, password))
53. t.start()
54. rs.MoveNext()
55. file.close()
56.
57. if __name__ == "__main__"
58. main()
代码中说两个部分:
1. rs.Open()这儿第一个参数就是表名,第二个是打开数据库的句柄,后面两个参数照着写就行,具体是指代表adOpenKeyset 和adLockOptimistadLockOptimistic。有点儿蒙逼,但是看资料都是用的1,3.
2. 就是connection_lock = BoundedSemaphore(value = maxConnections)这儿就是创建一个线程池(在下自学的python可能有些术语不标准),启动线程的时候要去acquire一下,线程结束要release一下,就好像拿东西一样,用完了放回来,别人才能用。哈哈…
脚本跑完基本上筛选掉了95%的链接,这部分不是被做了跳转就是不能访问。剩下的5%基本上是可以访问的,但是能够访问不一定说明马还在,所以还要通过通过脚本访问链接再进一步排除一些,链接可以访问,但是页面做了更改的,或者是被防火墙拦截的页面,还有就是访问到域名服务商的页面,都要排除掉。
下面是进一步筛选的代码:
1. # -*- coding: utf-8 -*-
2. import urllib2
3. import re
4.
5. #检测标题中是否出现列表中一些敏感词汇
6. def check(key, title):
7. title = str(title)
8. print title
9. for t in key:
10. if t in title:
11. return False
12. return True
13.
14. if __name__ == '__main__':
15.
16. #有一下词汇的基本上就是被搞过的,或者设防了,或者没了
17. key = ["防火墙","阻断","不存在", "更名", "到期", "404", "502", "未找到", "删除", "访问","六合", "娱乐", "棋牌" ,"赌","出售","av","做爱","拒绝","综合","直播","色"]
18.
19. #准备txt存储结果
20. newfile = open('newurl.txt', 'w')
21.
22. #打开经过第一次筛选的文件
23. file = open("url.txt", 'r')
24.
25. #逐个去验证链接只进行了title检测,想不到还有啥其他的特征--,包括一些异常处理
26. for line in file:
27. print '-----------------------------------'
28. url = line.split('----', 1)[0]
29. print " checking:"+url
30. try:
31. response = urllib2.urlopen(url, timeout=10)
32. except Exception as e:
33. print "[-] Open Url Error."
34. else:
35. if response.geturl() == url:
36. try:
37. html = response.read()
38. except Exception as e:
39. print '[-] Open html error'
40. else:
41. title = re.search(r'<title>(.*)</title>', html, flags=re.I)
42. if title == None:
43. print '[+]' + '需手工检测:' + line
44. newfile.write(line)
45. else:
46. flag = check(key, title.group(1))
47. if flag:
48. print "[+] Find one."
49. newfile.write(line)
50. else:
51. print "[-] Url has been reseted."
52.
53. file.close()
54. newfile.close()
这个是单线程,多线程和多进程都测试了,效果还不如这个单线程好那。脚本跑完基本上可以筛选出大部分可用的马,但是还有一部分需要手工检测。不过经过这两轮的检测,测试了时间比较靠近的三万条shell最后剩下400多条了,可以说面积已经很小了,这东西好好整整,练习提权了,内网穿透不是好环境吗?哈哈…
0×03写在后面
之前有个freebuf的文章分析当年shell后门,单看文章吧感受不到啥感觉,直到你看到这几万条甚至十几万条的shell时候才有震撼。黑产的力量真的是可怕。
脚本语言可能会在日后的渗透中帮助我们很多,所以别把之前学东西给落下了。有些东西落下了不好捡起来,知识和人都是这样。
网友评论