美文网首页网络爬虫Python 爬虫专栏程序员
写一只"独立"的python爬虫-浅谈用爬虫

写一只"独立"的python爬虫-浅谈用爬虫

作者: 0han | 来源:发表于2016-08-28 15:50 被阅读880次

【作者:0han 未经授权请不要转载

8/29更新:

由于发现昨天的代码所爬的网站资源太少,而且没有翻页,所以换了一个网站,kuaidaili,并且使用loop in loop 实现逐页逐行爬取,并且前面的代码有个小错误,proxy={}这个字典应该放置在循环之外,否则文件只会储存爬取的最后一个结果,修改后的代码如下:

更新

#disp只是方便在运行时实时看爬取的进展

这个loop in loop 抽象理解为当n=0时打开第n+1也就是第1页,然后在第一页逐行抽取表格中的第j+1栏的信息,cuz j begins 0. for j in range(10) 是因为那个网站每页代理ip有10栏。

===================================

okay 这篇文章所述内容是为了我另一篇文章《ins水军来袭...》写的,ip代理是爬虫中很重要的一个部分所以分开来写。因为我发现那个脚本在批量注册ins账号时,注册两三个后就开始失败了,所以我意识到有可能是ins对ip频繁post请求一类的有所注意和采取措施。所以有必要给ins爬虫准备代理ip。网上有很多给python爬虫装备代理ip的教程,但他们大多都避开了代理ip来源的问题,你当然可以自己准备一个一堆ip地址和port的list供爬虫装备。但是我选择再写一个爬虫脚本自动从一些代理ip网站上爬代理ip列表。

环境:python3 + 谷歌浏览器

使用的库: requests+beautifulsoup4+pickle(序列化)

Talk is cheap, 上代码:

主要代码

首先是一个循环,用函数的方式(go(i)). get请求用requests库,用bs4的css选择器进行筛选(我花时间最长的地方)。目标网站是cn-proxy.com,一个提供代理ip的网址。

爬取之前不要忘了加header。先创建一个空字典proxy={},是为了讲爬好的ip:port装进去方便ins爬虫使用。下面这幅图是使用谷歌浏览器的开发者工具分析网页元素:

图片中所选择的地方是随机找了一栏

可以发现ip地址的标签位于tr > td下,port的位置也位于tr > td 下。通过右键这个位置,copy-selector, 在粘贴到sublime里看是这个样子:

开发者工具结果

可以发现这个地址虽然都是tr > td, 但是靠括号()里的数字不同来区分不同的元素。根据几次报错,bs4里要表示这种“隐藏的分类”使用“nth-of-type(数字)”而不能直接写成 td: nth-child(数字) 所以关于css选择器,最后的代码如下:

css选择器 select想要的元素,也就是选择出ip和端口

中间我用了str(n+1),结合上面的代码你会发现n为if循环中的第n次。n+1是因为第一个n的值是0,不是1,tr标签中括号的最小值是(1),所以用n+1,这样第一次开始就是tr:nth-of-type(1).

在主要代码的最后会发现我加了一个openfile()函数,那主要是为了测试pickle这个库,在go()函数的最后我不仅将爬到的每一次结果都保存到了txt文件里,同时利用pickle库dump到了一个后缀名为pickle的文件中,这是为了在ins爬虫里方便直接提取代理数据。关于pickle的用法请谷歌pickle库

openfile()函数主要就是测试是否能正常提取pickle文件中刚刚爬到的数据,所以我把循环设置成了一次来做实验,结果如下图所示:

运行结果

成功了,如何利用代理数据还请移步《ins水军来袭》那篇文章

相关文章

网友评论

  • 00d7279812b5:学习了,如果对于有数据采集需求但不想花大力气学习的人可以尝试我所在的团队搭的一个爬虫框架,直接输入样本网址就可以快速采集已有的各个列表下的网站内容,欢迎使用和提建议。http://www.gooseeker.com/res/datadiy.html
  • 爱要趁早:试着写了个类似功能的 可以告诉我为什么抓不到吗?网址 http://www.xicidaili.com/nn,soup.select('#ip_list > tbody > tr:nth-of-type(2) > td:nthnth-of-type(3)')
    爱要趁早:@0han 感谢回复。我发现了真正的原因,去掉tbody就可以了。多出来的nth是手误。
    0han:@爱要趁早 td后面多写了一个nth
  • vansnowpea:感谢文章,建议把代码 通过markdown的代码显示功能来提交,而非截图模式,另如果可以请考虑提供完整的源代码,谢谢。
    vansnowpea:简书的编辑模式 有个“2个窗口”图标,自动支持markdown格式。如果本地编辑,可下载markdownpad 网址:http://markdownpad.com/ 截图发代码已经过时啦。可以留个qq一起研究下,ins我也有点小兴趣。
    0han:@vansnowpea 👌我不怎么熟悉Markdown 等会找时间学一下 这个ins项目很难搞了 我发现ins在向我的每个机器人要求手机验证 我删了cookie才回得到我自己的号 以后学习中的一些脚本考虑用github链接的形式分享代码吧

本文标题:写一只"独立"的python爬虫-浅谈用爬虫

本文链接:https://www.haomeiwen.com/subject/khotettx.html