爬虫DAY-1

作者: luyunyyyyy | 来源:发表于2016-07-29 20:14 被阅读0次

  爬虫的坑是很久之前就想入的,一直都懒于动手。回家待了几天终于磨蹭出了点东西,写写博客巩固一下。

  首先,我的理解,爬虫是一个能自动获取想要获得的信息的程序,在这个过程中需要解决各种各样的困难和问题。常见的是用户登陆,验证码。这是最基础,也是这次尝试的内容。

  由此,有一个浅网和暗网的问题。这个就日后再说了。

  现在开始思考爬虫的功能。我的目的是能自动登陆neu教务处的页面获取学生信息。这个过程需要输入学号密码和验证码。验证码是google了一个tesseract-ocr库来用的,下载了一张验证码尝试了一下发现可以使用就写了一个函数调用这个库。封装起来ocr的部分了。查到的攻略是在系统里安装,然后用python os模块的popen函数,直接对终端输入。将结果存在文件中。

import os

def image_to_string(img, cleanup=True, plus=''):

# cleanup为True则识别完成后删除生成的文本文件

# plus参数为给tesseract的附加高级参数

  os.popen('tesseract ' + img + ' ' + img + ' ' + plus)  # 生成同名txt文件

text = file(img + '.txt').read().strip()

if cleanup:

os.remove(img + '.txt')

return text

解决了验证码的问题,就要来看登陆的过程了。经过在chrome中追踪了登陆过程中的Get和Post请求后,找到了Post登陆表单的Url,和最终Get到网页信息的Url。这时候就要用到cookie了。我理解的cookie是为了解决登陆之后,服务器识别当前用户是否已经登陆用的。网上查了python中 urllib2和urllib下关于HTTP的一些函数之后,找到了解决办法。

handler = urllib2.HTTPCookieProcessor(cookie)

opener = urllib2.build_opener(handler)

# 将cookies绑定到一个opener  cookie由cookielib自动管理

然后再根据抓的HTTP请求信息把header和post数据补全

postData = {

'WebUserNO':username,

'applicant':'',

'Password':password,

'Agnomen':SecretCode,

'submit7':'%B5%C7%C2%BC',

}

# 根据抓包信息 构造表单

headers = {

'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',

'Accept-Language': 'zh-CN,zh;q=0.8',

'Connection': 'keep-alive',

'Content-Type': 'application/x-www-form-urlencoded',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537$

}

# 根据抓包信息 构造headers

这样就可以把程序自动的请求伪装成像浏览器一样的样子了,有些网站会有防止自动爬取内容的功能,根据请求头来识别。

还要注意编码的问题,国外网站大多是utf-8的编码格式,国内有些旧网站是gbk 或者gb2312,需要解码。

data = urllib.urlencode(postData)

# 生成post数据 ?key1=value1&key2=value2的形式

request = urllib2.Request(PostUrl, data, headers)

# 构造request请求

try:

response = opener.open(request)

#result = response.read().decode('GBK')

result = opener.open(GetUrl).read().decode('GBK')

# 由于该网页是gb2312的编码,所以需要解码

print result

return result

# 打印登录后的页面

except urllib2.HTTPError, e:

print e.code

return null

# 利用之前存有cookie的opener登录页面

DAY-1就先这样了,有很多问题目前。代码还没完善。需要重构,改成scrapy架构。文本格式也不好,下次换一个编辑器。思路整理也不好,需要再锻炼。毕竟是第一次写这么长的博客。

贴一下源代码,在我的github上。也是刚刚开始用github,日后学明白了可以再写一篇博客。

luyunyyyyy的github 欢迎互星

注:tesseract-ocr可以识别数字英文,也可以下载中文字库识别汉字。据说可以通过训练,提高准确率。贴一下github网址,可以下载来试试

相关文章

  • 爬虫DAY-1

    爬虫的坑是很久之前就想入的,一直都懒于动手。回家待了几天终于磨蹭出了点东西,写写博客巩固一下。 首先,我的理解...

  • python爬虫day-1(urllib库)

    学习笔记,方便查阅,仅供参考,欢迎指点 基本库的使用 自己学习,直接上手写代码,没有提前看理论,想着遇到瓶颈了,再...

  • 头部效应——站位比努力更重要

    微习惯500字Day-1网站优化 Day-1一条B2B信息Day-1 1. 我尝试着找出申龙斌的比特币数量么有成功...

  • 尽管我们的手中空无一物

    字/一朵 Day-1 打卡

  • User Experience

    Workshop Schedules(DAY-1) UX definition and scope Trendin...

  • Day1---Dr.leng

    #Day-1作业---Markdown作业 ## 标题 ### 三级标题 ## 加粗和斜体 ### *加粗* ##...

  • 尼泊尔之旅-加德满都

    DAY-1 加德满都 初到尼泊尔的首都,加德满都机场。这里的机场与国内的相比,真是...

  • python学习目录

    一、python基础 Day-1 - MarkDown语法 Day-2 - python基础语法 1.认识pyth...

  • Day-1

    文/陈柳彤 早早的三个人买了机票 2018.6.11 三个人六点多在全家集合,由于一整晚没睡的原因已经吃好了早饭,...

  • Day-1

    实习第一天,忐忑,揣摩,小心翼翼,坐立不安无一遗漏的诠释了我的心路历程。身无长技,单凭一股无知傻气劲头,让姐姐暂时...

网友评论

    本文标题:爬虫DAY-1

    本文链接:https://www.haomeiwen.com/subject/wlbzjttx.html