Scrapy下载图片的时候,默认如果两个Url相同的话,就不会再下载第2个了。
使用下面的方法可以让Scrapy开启重复下载。
-
找到
Scrapy
源码里的media.py
这个文件 -
搜索
MediaPipeline
,找到这个类 -
注释掉这个类里的这些代码就可以了
# Return cached result if request was already seen
# if fp in info.downloaded:
# return defer_result(info.downloaded[fp]).addCallbacks(cb, eb)
# Check if request is downloading right now to avoid doing it twice
# if fp in info.downloading:
# return wad
网友评论