目录
前言
常言道,代码就在那里,不管你下载还是不下载,不离不弃。不过我单纯是闲的无聊不知道爬什么。
定位仓库名标签
要想爬仓库,首先要有仓库的名字。
首先,我们来到Facebook的github主页,然后打开开发者工具。如果你常用的浏览器没有这个功能,可以尝试一下chrome。
点击右侧箭头指向的那个按钮,然后浏览器会进入一个标签选择模式,接下来选择代表仓库名的那个标签,就是左边箭头指向的那个超链接
<a>text</a>
左键点击要选择的标签后,右侧对应的html代码会高亮。找到了要爬的内容,接下来就可以为所欲为了。
确定仓库名的css路径
右键点击高亮的html代码,复制 selector。
由于我想要使用css的方式,所以需要这个内容,具体原理我并不清楚,先用着,以后再深究。
复制到的selector是这样一串东西,大概就是一个
标签.标签的css
格式的路径
#org-repositories > div.col-8.d-inline-block > div > li:nth-child(1) > div.d-inline-block.mb-1 > h3 > a
我从后面截取尽量短而且有代表性的一段,这样能保证识别出来的标签是我想要的,不多不少。
div.d-inline-block.mb-1 > h3 > a
有了这个东西我们就可以过滤response,来拿到我们想要的信息了
解析response
首先,发起网络请求,去获取前端渲染出来的网页文件
import scrapy
class GitHubSpider(scrapy.Spider):
name = 'githubspider'
def parse(self, response):
然后,用我们上一步得到的css路径,在parse中解析response。
import scrapy
class GitHubSpider(scrapy.Spider):
name = 'githubspider'
def parse(self, response):
for text in response.selector.css('div.d-inline-block.mb-1 > h3 > a ::text').extract():
print text
很好,我们已经得到了仓库的名字,虽然只有第一页的。但是对于第一个实践项目已经足够了。
执行下载
有了仓库名,剩下的就是把字符串拼接起来然后执行下载,so easy!
import scrapy
import re
import os
global domain, pathList, urls
domain = 'github.com'
pathList = ['google', 'facebook']
urls = []
for path in pathList:
urls += ['http://'+domain+'/'+path+'/']
class GitHubSpider(scrapy.Spider):
name = 'githubspider'
start_urls = urls
def parse(self, response):
print '----------------------------------\n'+response.url+'\n----------------------------------'
for text in response.selector.css('div.d-inline-block.mb-1 > h3 > a ::text').extract():
projectName = re.sub(' ', '', re.sub('\n', '', text))
url = ''
for path in pathList:
if path in response.url :
url = 'git@'+domain+':'+path+'/'+projectName+'.git'
print '-*-*-*-*-*-*-*-*-*-*-*-*-*-*-*-\n'+url
# os.system('git clone '+url)
print '-*-*-*-*-*-*-*-*-*-*-*-*-*-*-*-'
网友评论