先开始说一段废话吧。。。
我是从3月中旬开始接触Python。当时我想学习如何去做出比较专业的数据分析图,然后我家人说R语言和Python都可以做出图来。但他建议学Python。我在网上找学习的资料,偶尔之间看到python可以实现爬虫功能。正如彭老师的简书中写到的“学习Python,比较好快速找到应用的场景”。看到爬虫取得各个网页大数据后做的数据分析,这也是我学习的兴趣所在。学习过程饶了不少弯路,以下是我自己的一些教训吧。
python语言学习经验:
1、基础知识要扎实,先要学习一些python的基本操作
参考一本《简明 Python 教程》的文章,因为学过C语言,有些编程的基本常识,所以着重看了些:
1)数据结构(列表,元组,字典)
2)控制流(if,for,try...except)
3)函数(变量,参数,实参,形参,参数的传递)
4)类
这些在爬虫中反复应用到,一定要学习扎实,不要一开始就去找别人做的爬虫案例。先把基础知识点过一遍,至少知道python的语言结构是怎么样的。会打python代码
2、了解爬虫的原理。学习哪些关键知识点
我的经验是先了解html的网页代码,再搞清楚爬虫的过程,然后一个一个知识点去查资料,去练习。可以在终端先从几行小代码开始练习。最后在做一个小爬虫,然后慢慢变大爬虫,哈哈。。。。(我之前就是没有搞清楚怎么入手学爬虫,饶了一圈回到原点)
爬虫的抓取过程:
先获得网页地址----〉解析网页代码----〉抓取和提取网页内容---〉存储数据 是不是很简单。。。。
小爬虫变大爬虫:
单页爬虫----〉多页爬虫----〉“迭代”爬虫(就是有爬取链接页面底下的页面)----〉异步加载爬虫---〉scrapy爬虫(目前正在攻克中。。。)
爬虫的小知识点主要在于抓取和提取网页内容:
1)BeatifulSoup
说到这个“美丽汤“,我真是又爱又恨。我第一次在终端用的时候就不能运行。大受打击。原因是引入这个类的时候没有区分大小
错误:
from bs4 import beautifulsoup
正确:
from bs4 import BeautifulSoup
#bs4是一个python的库,BeautifulSoup是这个库里的一个类
知识点1:
soup.find_all('tag.name', class_='class_ value')
soup.find_all('tag.name',attrs ={'class':'class_ value'})
举例:
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story"><a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
soup = BeautifulSoup(html_doc)
print soup.find_all('title') #提取'title'标签的所有列表
print soup.find_all('p',class_='title') #提取含‘p'标签的且'class'属性是'title'的所有列表
print soup.find_all('a') #提取'a'标签的所有列表
print soup.find_all(id="link2") #提取id的'属性是"link2"的所有列表
返回值为:
[<title>The Dormouse's story</title>]
[<p class="title"><b>The Dormouse's story</b></p>]
[<a class="sister" href="http://example.com/elsie" id="link1">Elsie</a>, <a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>, <a class="sister" href="http://example.com/tillie" id="link3">Tillie</a>]
[<a class="sister" href="http://example.com/lacie" id="link2">Lacie</a>]
知识点2:
soup.select(tag.name1 tag.name2 tag.name3) #提取tag.name1标签下的tag.name2标签下的tag.name3的列表
soup.select('#****')
soup.select('.****')
soup.select('tag.name #***')
举例:
soup.select('#sponsor') #通过id查找,搜索 id 为 sponsor 的标签列表
#可以在chrome网页抓包中点击你要抓的那个tag,看到整个tag的层次(见图“抓包tag“)
soup.select('.ebox') .这个点表示查询class="ebox"的,所有标签内容
soup.select('div #index_nav') 表示寻找div标签中id为index_nav的标签内容。
为了方便查找自己抓取的内容,以上可以把空格改为' 〉':
举例:
soup.select("div > #index_nav")
抓包tag
- Xpath知识点
·在网页源代码中右键,Copy XPath
·// 定位根节点
·/ 往下层寻找
·提取文本内容:/text()
·提取属性内容: /@xxxx
·以相同的字符开头 starts-with(@属性名称, 属性字符相同部分)
·标签套标签 string(.)
3)正则表达式
目前我还不是很会,所以不做描述
开始爬啦--爬取“简书7日热门“
我在这里就不做具体讲解,可以看一下其他童鞋在爬虫作业专题做的作业,就我犯得一些错误和大家分享一下吧
#-*-coding:'utf-8'-*-
import requests
from lxml import etree
import csv
import re
import json
import sys
reload(sys)
sys.setdefaultencoding('utf8')
base_url='http://www.jianshu.com/'
def information(url):
html=requests.get(url).content
selector=etree.HTML(html)
datas=selector.xpath('//ul[@class="note-list"]/li')
infos=[]
for data in datas:
detail_url=data.xpath('a/@href')
if detail_url:
detail_url1=detail_url[0]
detail_url1='http://www.jianshu.com'+detail_url1
info=information2(detail_url1)
infos.append(info)
return infos
def information2(url):
info=[]
html=requests.get(url).content
selector=etree.HTML(html)
user=selector.xpath('//span[@class="name"]/a/text()')[0]
title=selector.xpath('//div[@class="article"]/h1[@class="title"]/text()')[0]
#read_qty = selector.xpath('//div[@class="meta"]/span[2]/text()')[0]
#read_qty=re.findall('"views_count":(.*?),', html, re.S)[0]
view_qty=re.findall('"views_count":(.*?),', html, re.S)[0]
comment_qty=re.findall('"comments_count":(.*?),', html, re.S)[0]
like_qty=re.findall('"likes_count":(.*?),', html, re.S)[0]
id=re.findall('"id":(.*?),', html, re.S)[0]
reward_url='http://www.jianshu.com/notes/%s/rewards?count=20' %id
html_reward=requests.get(reward_url).text
reward_detail=json.loads(html_reward)
reward_qty=reward_detail['rewards_count']
html_collection_url='http://www.jianshu.com/notes/%s/included_collections?page=1' %id
collection=collections(html_collection_url,id)
info.append(user)
info.append(title)
info.append(view_qty)
info.append(comment_qty)
info.append(like_qty)
info.append(reward_qty)
info.append(collection)
return info
def collections(url,id):
html=requests.get(url).content
collection_detail=json.loads(html)
pages=collection_detail['total_pages']
collection_urls=['http://www.jianshu.com/notes/{}/included_collections?page={}'.format(id,str(i)) for i in range(1,pages+1)]
datas = []
for url in collection_urls:
html_collection=requests.get(url).content
collection_detail=json.loads(html_collection)
for one in collection_detail['collections']:
datas.append(one['title'])
data=','.join(datas)
return(data)
if __name__=='__main__':
urls=["http://www.jianshu.com/trending/weekly?&page={}".format(i) for i in range(1,27)]
csvfile=file('sevenday.csv','wb')
writer=csv.writer(csvfile)
#infos=[]
for url in urls:
resources=information(url)
#infos.append(resoure)
for resource in resources:
writer.writerow(resource)
csvfile.close()
每一个小程序都是在不断的调试不断的查资料中进行的。
错误1:(印象也是最深刻的)
对xpath的抓数据理解不够透彻,我想要抓取的是首页的每个标题的链接,看一下网页代码:
分析:每一个href都存放在a标签下,a标签又存放在div.content下,思路:把所有li都提取到。然后for循环爬取li下的a下的href信息。(具体可以看图片底部的标签name)。我们可以按照以下来做:
datas=selector.xpath('//ul[@class="note-list"]/li')
for data in datas:
detail_url=data.xpath('a/@href')
我当时写成了:
datas=selector.xpath('//div[@class="list-container"]/ul[@class="note-list"]')
for data in datas:
detail_url=data.xpath('li/a/@href')
经过测试len[datas]结果是0,原因是其实提取了ul下满足class="note-list"的标签。并没有爬取到li这一层
错误2:提取分页链接的url时候,发现程序一直出现报错。
教训:需要学会调试,从大的范围开始调试,在一点缩小范围,找出问题所在
print 所有的 detail_url时候发现,有的url为空,故需要做一个判断是否为空。
for data in datas:
detail_url=data.xpath('a/@href')
if detail_url:
detail_url1=detail_url[0]
总结
谢谢程老师彭老师的指导帮助!
还有就是多看!多想!多问!最重要的是多做!!!
网友评论