美文网首页
Python如何爬取网页内容,下载文件

Python如何爬取网页内容,下载文件

作者: 凌烟阁主5221 | 来源:发表于2019-11-25 14:32 被阅读0次

    最近接到一个根据关键字爬取相关网站的资源并下载,demo是爬取高考网的相关资源

    这里我采用了两种思路:

    策略1:首先想到的是通过selenium来模拟实际操作,下载操作可以模拟点击操作

    def download(url):

        url = 'http://tiku.gaokao.com/search/type0/' + '关键字输入'

        driver = webdriver.Chrome(executable_path="G:/Download/AutoCrowerByKeyWords/data/drive/chromedriver.exe")

        driver.maximize_window()

        driver.set_page_load_timeout(5)

        ss = driver.get(url)

        # print(driver.page_source)  # 打印网页源代码

        time.sleep(1)

        label_list = driver.find_elements_by_link_text("下载")

        for itemin label_list:

            item.click()

    这里需要注意的是,可能会出现要求报错,显示driver不匹配的问题,可以自己下载一个,然后指定路径,即可解决

    这种方法有个问题是,下载的文件会存在一个默认指定的路径,而且我没有找到如何修改这个路径的方法,有知道的可以私信我,谢谢

    而且模拟打开网页,会比较慢,有的时候可能会有别的问题,所以我又采用了下面的方法

    策略2:

    1 直接用requests,当然也可以用urllib urllib2 urllib3,优先还是推荐用requests

    import requests

    from bs4import BeautifulSoup

    url = base_url + search_key

    response = requests.get(url)

    web_page = response.content

    soup = BeautifulSoup(web_page, 'html.parser')# 使用python默认的解析器

    curr_titles = []

    curr_middle_websites = []

    curr_introduction_contents = []

    titles = soup.find_all('a', class_="c-l2")# download_url = soup.find_all('a')

    for titlein titles:

    curr_titles.append(title.get_text())

    curr_middle_websites.append(title.get('href'))

    introduction_contents = soup.find_all('p', class_="c-b6 ti2")

    for idcin introduction_contents:

    curr_introduction_contents.append(idc.get_text())

    通过直接获取html页面内容,并解析实际的内容即可

    对于下载的部分,一种是采用requests.get()浏览下载地址,然后将返回的内容写进文件即可,这里注意,如果下载的是doc文件,那你直接将地址保存为doc后缀的文件即可,我尝试过可以正常保存打开,这种方法可以指定保存路径,但是你无法获取下载文件的类型,需要手动设置,如果下载的是doc,保存为docx,那么文件可以保存,但是无法打开,其他的没有试过

    2 推荐采用wget的方式

    def download_with_requests(url, file_name):

    ss = requests.get(url)

    with open(save_path, 'wb')as f:

        f.write(ss.content)

    wget可以返回文件名及文件格式后缀,我发现中文文件名会有乱码,所以需要自己手动重置,或者修改编码格式,

    def download_with_wget(file_name, url, key):

    # filename = wget.download(url, out=save_path) # 可以直接指定输出路径,但是不确定文件后缀类型

        filename = wget.download(url)# 中文文件名会出现乱码,但是可以知道文件类型[tiku.gaokao.com]é«�ä¿ç»�ä¹ .doc

        suffix_type ='.' + filename.split('.')[-1]

    print(suffix_type)

    file_name += suffix_type

    save_path = os.path.join(save_dir, file_name)

    以上如果需要查看源代码,可以访问我的项目,欢迎star https://github.com/ares5221/Python-Crawler-Projects/tree/master/AutoCrowerByKeyWords

    3,urllib requests方式

    import urllib.request

    url ='https://files.cnblogs.com/files/alex-bn-lee/ESRI_01.zip'

    # 需要自定义文件名称

    urllib.request.urlretrieve(url, "demo.zip")

    4 通过打开浏览器自动下载,需要控制键盘和鼠标,这个我没试过

    import pynput, webbrowser, time

    from pynput.mouse import Button

    from pynput.keyboard import Key

    mouse =pynput.mouse.Controller()

    keyboard =pynput.keyboard.Controller()

    url ='https://files.cnblogs.com/files/alex-bn-lee/ESRI_01.zip'

    # 打开网页

    webbrowser.open(url)

    # 反应时间

    time.sleep(2)

    keyboard.press(Key.enter)

    keyboard.release(Key.enter)

    time.sleep(1)

    mouse.click(Button.left)

    # 通过 Ctrl+w 快捷键删除当前页面

    with keyboard.pressed(Key.ctrl):

        keyboard.press('w')

        keyboard.release('w')

    相关文章

      网友评论

          本文标题:Python如何爬取网页内容,下载文件

          本文链接:https://www.haomeiwen.com/subject/agodwctx.html