代码
目的
爬虫过程中,遭遇站点反爬虫策略,需要定期切换IP。所以我构建一个有效的IP池,用于之后的爬虫工作
做法
依赖
实现
爬取网页,获取数据
def getProxy(protocal, link, page=1):
try:
url = f'https://www.xicidaili.com/{link}/{page}'
res = requests.get(url, headers={'User-Agent': UA['PC']})
if (res and res.status_code == 200):
html = pq(res.text)('#ip_list tr')
for i in range(html.length):
host = pq(tds[1]).text()
port = pq(tds[2]).text()
如上所示的代码(截取了部分),我们解析西刺免费代理IP网
,获取目标IP 和 端口
检测IP,端口的有效性
西刺免费代理IP网
提供的很多IP不具备有效性,所以需要做出过滤才可入库
def checkProxy(proxylink):
try:
ret = requests.get(
'https://www.baidu.com',
proxies={'https': proxylink},
timeout=5,
)
if (ret and ret.status_code == 200):
print(proxylink)
return True
except Exception as e:
pass
我们使用上面的方法,代理请求百度地址,检测代理的有效性
将有效的IP入库,已在数据库中但是无效的IP,移除
# 连接数据库
def connect():
try:
db = pymysql.connect(
MYSQL['host'],
MYSQL['username'],
MYSQL['password'],
MYSQL['dbname'],
)
cursor = db.cursor()
return {'db': db, 'cursor': cursor}
except Exception as e:
print('connect error:', e)
*****
mysql = connect()
# 检查DB 是否已存在某代理地址
mysql['cursor'].execute(
f'select count(*) from proxy where host = "{host}" and port = "{port}"',
)
# 如果代理有效,且不存在DB中,代理入库
mysql['cursor'].execute(
f'insert into proxy(host,port,protocal) values("{host}","{port}","{protocal}")'
)
mysql['db'].commit()
# 如果代理无效,但是又存在于DB中,删除代理
mysql['cursor'].execute(
f'delete from proxy where host = "{host}" and port = "{port}"'
)
mysql['db'].commit()
# 关闭连接
mysql['db'].close()
因为需要对每个代理检测有效性,所有的检测IP有效性、IP入库都基于多线程实现。每个线程独享一个MYSQL连接。
上面阐述的比较碎片,具体的实现可以看源码,代码包含SQL结构。
网友评论