美文网首页python热爱者Python新世界
Python爬虫入门教程,突破煎蛋网反爬措施,妹子图批量抓取!

Python爬虫入门教程,突破煎蛋网反爬措施,妹子图批量抓取!

作者: 48e0a32026ae | 来源:发表于2018-12-27 14:42 被阅读0次

    今天写一个爬虫爱好者特别喜欢的网站煎蛋网 ,这个网站其实还是有点意思的,网站很多人写了N多的教程了,各种方式的都有,当然网站本身在爬虫爱好者的不断进攻下,也在不断的完善,反爬措施也很多,今天我用 selenium 在揍他一波。

    整体看上去,煎蛋网的妹子图质量还是可以的,不是很多,但是还蛮有味道的,这可能也是爬虫er,一批一批的奔赴上去的原因。

    1. 网站分析

    这个网站如果用 selenium 爬取,其实也没什么要分析的,模拟访问就行,导入必备的模块。

    from selenium import webdriver

    from selenium.webdriver.common.by import By

    from selenium.webdriver.support.ui import WebDriverWait

    from selenium.webdriver.support import expected_conditions as EC

    from lxml import etree

    import requests

    import time

    复制代码

    我使用的是 PhantomJS 去加载浏览器,关于这个 PhantomJS ,去互联网搜索一下吧,资料大把,会看的很爽的,总之呢,它可以模拟一个真实的浏览器做任何事情,得到你想要的数据。

    browser = webdriver.PhantomJS()

    browser.set_window_size(1366, 768) # 这个地方需要设置一下浏览器的尺寸

    wait = WebDriverWait(browser,10)

    browser.get("http://jandan.net/ooxx")

    复制代码

    2. 分析数据

    程序获取到数据之后就可以对数据进行处理了,编写一个 get_content 函数,用来处理网页源码。

    def get_content():

    try:

    wait.until(

    EC.presence_of_element_located((By.XPATH,'//*[@id="comments"]/ol'))

    )

    #

    print("正在爬取{}".format(browser.current_url))

    page_source = browser.page_source # 获取网页源码

    html = etree.HTML(page_source) # 解析源码

    imgs = html.xpath("//li[contains(@id,'comment')]//img/@src") # 匹配图片

    download(imgs)

    except Exception as e:

    print("错误")

    print(e)

    finally:

    browser.close()

    复制代码

    图片获取到之后,在上面的代码中,注意有一个地方调用了一个 download 函数,这个函数就是用来下载图片的

    def download(imgs):

    path = "./xxoo/{}" # 路径我写死了

    for img in imgs:

    try:

    res = requests.get(img)

    content = res.content

    except Exception as e:

    print(e)

    continue

    file_name = img.split("/")[-1] # 获取文件名

    with open(path.format(file_name),"wb") as f:

    f.write(content)

    print(file_name,"成功下载文件")

    time.sleep(0.3)

    # 循环下载完毕,进行翻页操作 previous-comment-page

    next = wait.until(

    EC.presence_of_element_located((By.XPATH, '//*[@id="comments"]//a[@class="previous-comment-page"]'))

    )

    next.click()

    return get_content() # 继续调用上面的网页源码分析流程

    复制代码

    OK,运行一下。

    相关文章

      网友评论

        本文标题:Python爬虫入门教程,突破煎蛋网反爬措施,妹子图批量抓取!

        本文链接:https://www.haomeiwen.com/subject/bibrlqtx.html