美文网首页
爬虫学习1-豆瓣爬虫

爬虫学习1-豆瓣爬虫

作者: 君子有三畏 | 来源:发表于2019-03-18 10:30 被阅读0次

目的:

1.根据用户输入,列出豆瓣高分TOP(用户自定义)的电影,链接,及热评若干

方案:

使用PhantomJS+Selenium+Firefox实现

实现过程:

1.get到首页后,根据选择,点击种类,然后根据输入需求,进行排序
2.抓取每个电影及超链接,进入超链接后,抓取当前电影的热评及长评
3.当用户所要求TOP数据大于第一页的20个时候,点击加载更多,再出现20个电影,重复2操作

以豆瓣发哦分,然后按评分排序的点击过程(其余操作一致,先种类后排序选择,再爬)

image

实现代码:

# -*- coding: utf-8 -*-
#Author:哈士奇说喵
#爬豆瓣高分电影及hot影评

from selenium import webdriver
import selenium.webdriver.support.ui as ui
import time


print "---------------system loading...please wait...---------------"
SUMRESOURCES = 0 #全局变量
driver_detail = webdriver.PhantomJS(executable_path="phantomjs.exe")
#driver_item=webdriver.PhantomJS(executable_path="phantomjs.exe")
driver_item=webdriver.Firefox()
url="https://movie.douban.com/"
#等待页面加载方法
wait = ui.WebDriverWait(driver_item,15)
wait1 = ui.WebDriverWait(driver_detail,15)


#获取URL和文章标题

def getURL_Title():
    global SUMRESOURCES

##############################################################################
#需要键入想要获取的信息,比如种类,排序方式,想看多少内容
##############################################################################

    print "please select:"
    kind=input("1-Hot\n2-Newest\n3-Classics\n4-Playable\n5-High Scores\n6-Wonderful but not popular\n7-Chinese film\n8-Hollywood\n9-Korea\n10-Japan\n11-Action movies\n12-Comedy\n13-Love story\n14-Science fiction\n15-Thriller\n16-Horror film\n17-Cartoon\nplease select:")
    print "--------------------------------------------------------------------------"
    sort=input("1-Sort by hot\n2-Sort by time\n3-Sort by score\nplease select:")
    print "--------------------------------------------------------------------------"
    number = input("TOP ?:")
    print "--------------------------------------------------------------------------"
    ask_long=input("don't need long-comments,enter 0,i like long-comments enter 1:")
    print "--------------------------------------------------------------------------"
    global save_name
    save_name=raw_input("save_name (xx.txt):")
    print "---------------------crawling...---------------------"

    driver_item.get(url)

##############################################################################
#进行网页get后,先进行电影种类选择的模拟点击操作,然后再是排序方式的选择
#最后等待一会,元素都加载完了,才能开始爬电影,不然元素隐藏起来,不能被获取
#wait.until是等待元素加载完成!
##############################################################################

    wait.until(lambda driver: driver.find_element_by_xpath("//div[@class='fliter-wp']/div/form/div/div/label[%s]"%kind))
    driver_item.find_element_by_xpath("//div[@class='fliter-wp']/div/form/div/div/label[%s]"%kind).click()
    wait.until(lambda driver: driver.find_element_by_xpath("//div[@class='fliter-wp']/div/form/div[3]/div/label[%s]"%sort))
    driver_item.find_element_by_xpath("//div[@class='fliter-wp']/div/form/div[3]/div/label[%s]"%sort).click()

    num=number+1#比如输入想看的TOP22,那需要+1在进行操作,细节问题
    time.sleep(2)

    #打开几次“加载更多”
    num_time = num/20+1
    wait.until(lambda driver: driver.find_element_by_xpath("//div[@class='list-wp']/a[@class='more']"))

    for times in range(1,num_time):
        time.sleep(1)
        driver_item.find_element_by_xpath("//div[@class='list-wp']/a[@class='more']").click()
        time.sleep(1)
        wait.until(lambda driver: driver.find_element_by_xpath("//div[@class='list']/a[%d]"%num))
        #print '点击\'加载更多\'一次'

    #使用wait.until使元素全部加载好能定位之后再操作,相当于try/except再套个while把

    for i in range(1,num):
        wait.until(lambda driver: driver.find_element_by_xpath("//div[@class='list']/a[%d]"%num))
        list_title=driver_item.find_element_by_xpath("//div[@class='list']/a[%d]"%i)
        print '----------------------------------------------'+'NO' + str(SUMRESOURCES +1)+'----------------------------------------------'
        print u'电影名: ' + list_title.text
        print u'链接: ' + list_title.get_attribute('href')
        #print unicode码自动转换为utf-8的


        #写入txt中部分1
        list_title_wr=list_title.text.encode('utf-8')#unicode码,需要重新编码再写入txt
        list_title_url_wr=list_title.get_attribute('href')

        Write_txt('\n----------------------------------------------'+'NO' + str(SUMRESOURCES +1)+'----------------------------------------------','',save_name)
        Write_txt(list_title_wr,list_title_url_wr,save_name)

        SUMRESOURCES = SUMRESOURCES +1

        try:#获取具体内容和评论。href是每个超链接也就是资源单独的url
            getDetails(str(list_title.get_attribute('href')),ask_long)
        except:
            print 'can not get the details!'


##############################################################################
#当选择一部电影后,进入这部电影的超链接,然后才能获取
#同时别忽视元素加载的问题
#在加载长评论的时候,注意模拟点击一次小三角,不然可能会使内容隐藏
##############################################################################
def getDetails(url,ask_long):

    driver_detail.get(url)
    wait1.until(lambda driver: driver.find_element_by_xpath("//div[@id='link-report']/span"))
    drama = driver_detail.find_element_by_xpath("//div[@id='link-report']/span")
    print u"剧情简介:"+drama.text
    drama_wr=drama.text.encode('utf-8')
    Write_txt(drama_wr,'',save_name)
    print "--------------------------------------------Hot comments TOP----------------------------------------------"
    for i in range(1,5):#四个短评
        try:
            comments_hot = driver_detail.find_element_by_xpath("//div[@id='hot-comments']/div[%s]/div/p"%i)
            print u"最新热评:"+comments_hot.text
            comments_hot_wr=comments_hot.text.encode('utf-8')
            Write_txt("--------------------------------------------Hot comments TOP%d----------------------------------------------"%i,'',save_name)
            Write_txt(comments_hot_wr,'',save_name)
        except:
            print 'can not caught the comments!'


    #加载长评
    if ask_long==1:
        try:
            driver_detail.find_element_by_xpath("//img[@class='bn-arrow']").click()
            #wait.until(lambda driver: driver.find_element_by_xpath("//div[@class='review-bd']/div[2]/div/div"))
            time.sleep(1)
            #解决加载长评会提示剧透问题导致无法加载
            comments_get = driver_detail.find_element_by_xpath("//div[@class='review-bd']/div[2]/div")
            if comments_get.text.encode('utf-8')=='提示: 这篇影评可能有剧透':
                comments_deep=driver_detail.find_element_by_xpath("//div[@class='review-bd']/div[2]/div[2]")
            else:
                comments_deep = comments_get
            print "--------------------------------------------long-comments---------------------------------------------"
            print u"深度长评:"+comments_deep.text
            comments_deep_wr=comments_deep.text.encode('utf-8')
            Write_txt("--------------------------------------------long-comments---------------------------------------------\n",'',save_name)
            Write_txt(comments_deep_wr,'',save_name)
        except:
            print 'can not caught the deep_comments!'


##############################################################################
#将print输出的写入txt中查看,也可以在cmd中查看,换行符是为了美观
##############################################################################
def Write_txt(text1='',text2='',title='douban.txt'):

        with open(title,"a") as f:
            for i in text1:
                f.write(i)
            f.write("\n")
            for j in text2:
                f.write(j)
            f.write("\n")

def main():

    getURL_Title()
    driver_item.quit()

main()

另一个评论用了PhantomJS

实现效果

致谢

@mrlevo520-Python自定义豆瓣电影种类,排行,点评的爬取与存储(初级)

相关文章

  • 爬虫学习1-豆瓣爬虫

    目的: 1.根据用户输入,列出豆瓣高分TOP(用户自定义)的电影,链接,及热评若干 方案: 使用PhantomJS...

  • 爬虫入门

    为什么要学习爬虫? Python做爬虫优势 关于Python网络爬虫,我们需要学习的有: 什么是爬虫? 网络爬虫(...

  • 爬虫课程(十一)|知乎:使用Scrapy模拟登录知乎

    前面爬虫课程七、八、九、十,我把爬虫豆瓣读书的爬虫讲解完毕啦,我们很顺利地爬取了豆瓣读书书籍内容,爬取过程中也不需...

  • 资料

    Python爬虫系列(一)初期学习爬虫的拾遗与总结(11.4更) Python爬虫学习系列教程 Python爬虫学习手册

  • Python学习

    python爬虫(五) python爬虫爬取豆瓣电影Top250数据 利用python爬取豆瓣电影TOP250页面...

  • Python爬虫-豆瓣电影Top250-各项信息爬取及xls保存

    Python爬虫-豆瓣电影Top250-各项信息爬取及xls保存 目的 采用python爬虫爬取豆瓣电影Top25...

  • Python 网络爬虫(一)

    网络爬虫的基本介绍 学习爬虫,我想主要从以下几个方面来切入 -爬虫的原理? -爬虫的作用? -爬虫的实现? -爬虫...

  • Python爬虫学习(十六)初窥Scrapy

    Python爬虫学习(一)概述Python爬虫学习(二)urllib基础使用Python爬虫学习(三)urllib...

  • golang爬虫初体验

    最近在学习golang,看网上很多人都喜欢爬豆瓣,今天我就写了一个golang版的爬虫。对于python爬虫,我很...

  • 用Python分析豆瓣电影TOP250

    既然要分析豆瓣电影TOP250, 那就肯定使用一下爬虫咯,如果还不会的话,欢迎看之前的文章: Python爬虫学习...

网友评论

      本文标题:爬虫学习1-豆瓣爬虫

      本文链接:https://www.haomeiwen.com/subject/mszmmqtx.html