美文网首页
Python-爬取智联招聘

Python-爬取智联招聘

作者: 大森森_ | 来源:发表于2020-06-21 21:57 被阅读0次

    import urllib.request
    import urllib.parse
    from bs4 import BeautifulSoup
    import json
    import time
    class ZhiLianSpider(object):
    #url中不变的内容,要和参数进行拼接组成完整的url#
    url='http://sou.zhaopin.com/jobs/searchresult.ashx?'
    def init(self,jl,kw,start_page,end_page):
    #将上面的参数都保存为自己的成员属性#
    self.jl=jl
    self.kw=kw
    self.start_page=start_page
    self.end_page=end_page
    #定义一个空列表,用来存放所有的工作信息#
    self.items=[]

    #根据page拼接指定的url,然后生成请求对象#
    def handle_request(self,page):
        data={
            'jl':self.jl,
            'kw':self.kw,
            'p':page
        }
        url_now=self.url+urllib.parse.urlencode(data)#拼接get参数
        print(url_now)
        #构建请求对象#
        headers={
             "User-Agnet":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36"
        }
        request=urllib.request.Request(url=url_now,headers=headers)
        return request
    
    #解析内容函数#
    def parse_content(self,content):
        #生成对象#
        soup=BeautifulSoup(content,'lxml')
        #思路:先找到所有的table,因为一个工作岗位就是一个table,遍历这个table的列表,然后通过table对象的select、find方法去找每一条记录的具体信息#
        table_list=soup.select('#newlist_list_content_table>table')[1:]
        #遍历这个table_list,依次获取每一个数据#
        print(table_list)
        print(len(table_list))
        for table in table_list:
            #获取职位名称#
            zwmc=table.select('.zwmc > div > a')[0].text
            print(zwmc)#选择器返回是一个列表,需要通过下标访问 #
            #获取公司名称#
            gsmc=table.select('.gsmc > a')[0].text
            #获取职位月薪#
            zwyx=table.select('.zwyx')[0].text
            #获取工作地点#
            gzdd=table.select('.gzdd')[0].text
            #获取发布时间#
            gxsj=table.select('.gxsj > span')[0].text
            #存放到字典中#
            item={
                '职位名称':zwmc,
                '公司名称':gsmc,
                '职位月薪':zwyx,
                '工作地点':gzdd,
                '更新时间':gxsj,
            }
            #再存放到列表中#
            self.items.append(item)
        
        
     #爬取程序#
    def run(self):
        #循环爬取每一页#
        for page in range(self.start_page,self.end_page+1):
            print('开始爬取第%s页'%page)
            request=self.handle_request(page)
            #发送请求,获取内容#
            content=urllib.request.urlopen(request).read().decode()
            #解析内容#
            self.parse_content(content)
            print('结束爬取第%s页'%page)
            time.sleep(2)
            
        #将列表数据保存在文件中#
        string=json.dumps(self.items,ensure_ascii=False) #将字典形式的数据转化成字符串,想要输出中文需要指定ensure_ascii=False#
        with open(r'/Users/marine/Desktop/python/zhilian.txt','w',encoding='utf8')as fp:
            fp.write(string)
    

    def main():
    jl=input('请输入工作地点:')
    kw=input('请输入工作关键字:')
    start_page=int(input('请输入起始页码:'))
    end_page=int(input('请输入结束页码:'))

    #创建对象,启动爬取程序#
    spider=ZhiLianSpider(jl,kw,start_page,end_page)
    spider.run()
    

    if name=='main':
    main()

    相关文章

      网友评论

          本文标题:Python-爬取智联招聘

          本文链接:https://www.haomeiwen.com/subject/pfrzxktx.html