用理工科思维看待这个世界
初学者,尽力实现最小化学习系统
**主题:重构专栏:014 + Scrapy 实战 + sqlalchemy **
0:目标说明
-
Scrapy 基础教程
你要的最佳实战 -
刘未鹏博客
点我啊 -
目标:获取刘未鹏博客全站博文
- 文章标题:
Title
- 文章发布时间:
Time
- 文章全文:
Content
- 文章的链接:
Url
- 文章标题:
-
思路:
分析首页和翻页的组成抓取全部的文章链接在获取的全部链接的基础上解析需要的标题,发布时间,全文和链接
之前的逻辑是starts_url 包括全部的1,2,3,4页,在这个的基础上进行提取各个网页的文章的所需字段。
scrapy 可以编写Rule 规则抓取需要的url
1:目标分解
编写的规则:
start_urls = ["http://mindhacks.cn/"]
rules = (Rule(SgmlLinkExtractor(allow=(r'http://mindhacks.cn/page/\d+/',))),
Rule(SgmlLinkExtractor(allow=(r'http://mindhacks.cn/\d{4,}/\d{2,}/\d{2,}/.*?-.*?-.*?-.*?/')), callback='parse_detail', follow = True)
)
# 前一个Rule获取的是1,2,3,4页的网页组成: 如:http://mindhacks.cn/page/2/
# 后一个Rule获取的1,2,3,4网页下符合要求的文章的链接, 再在获取的文章链接的基础上进行解析 如:http://mindhacks.cn/2009/07/06/why-you-should-do-it-yourself/
解析文本函数:
def parse_detail(self, response):
Item = LiuweipengItem()
selector = Selector(response)
title = selector.xpath('//div[@id="content"]/div/h1[@class="entry-title"]/a/text()').extract()
time = selector.xpath('//div[@id="content"]/div/div[@class="entry-info"]/abbr/text()').extract()
content = selector.xpath('//div[@id="content"]/div/div[@class="entry-content clearfix"]/p/text()').extract()
url = selector.xpath('//div[@id="content"]/div/h1[@class="entry-title"]/a/@href').extract()
for title, time, content, url in zip(title, time, content, url):
Item["Title"] = title
Item["Time"] = time
Item["Content"] = content
Item["Url"] = url
yield Item
# 返回的Item 是需要抓取字段
2:ORM
参见:专栏:012
数据表声明
from sqlalchemy import Column, String, Integer
from sqlalchemy.ext.declarative import declarative_base
Base = declarative_base()
class Article(Base):
__tablename__ = "article"
id = Column(Integer, primary_key=True)
Title = Column(String)
Time = Column(String)
Content = Column(String)
Url = Column(String)
3:储存
再次说明scrapy 文件目录结构和作用:
- items.py : 抓取的目标,定义数据结构
- pipelines.py : 处理数据
- settings.py : 设置文件,常量等设置
- spiders/: 爬虫代码
所以储存操作:pipelines.py
需要在本地先创建数据库表:
CREATE TABLE `article` (
`id` INT(11) NOT NULL AUTO_INCREMENT,
`Title` VARCHAR(255) COLLATE utf8_bin NOT NULL,
`Content` VARCHAR(255) COLLATE utf8_bin NOT NULL,
`Time` VARCHAR(255) COLLATE utf8_bin NOT NULL,
`Url` VARCHAR(255) COLLATE utf8_bin NOT NULL,
PRIMARY KEY (`id`)
) ENGINE=INNODB AUTO_INCREMENT=39 DEFAULT CHARSET=utf8 COLLATE=utf8_bin
def open_spider(self, spider):
engine = create_engine("mysql://root:123456@localhost:3306/test?charset=utf8", echo = True)
DBSession = sessionmaker(bind=engine)
self.session = DBSession()
pass
def process_item(self, item, spider):
one = Article(Title=item["Title"],
Time=item["Time"],
Content=item["Content"],
Url=item["Url"])
self.session.add(one)
pass
def close_spider(self, spider):
self.session.commit()
self.session.close()
pass
效果显示:
1463234534713.png- Tips
IDE下启动scrapy 爬虫:
新建任意一个文件:比如:main.py
# 文件中添加如下代码
from scrapy.cmdline import execute
execute("scrapy crawl name".split())
运行这个文件,就可以启动爬虫,其中name , 是spiders文件下编写爬虫所对应的那个name
完整代码: 点不点都是代码
4:总结和说明
Scrapy 爬虫框架还存在许多的未知...
任何实用性的东西都解决不了你所面临的实际问题,但为什么还有看?为了经验,为了通过阅读抓取别人的经验,虽然还需批判思维看待
网友评论