美文网首页
python爬虫之腾讯视频vip下载!还没充过VIP!

python爬虫之腾讯视频vip下载!还没充过VIP!

作者: 数学老师胡坤鹏 | 来源:发表于2018-12-02 17:24 被阅读148次

    运转情形

    IDE:pycharm

    python:3.6.5

    实现目的

    实现对腾讯视频方针url的解析与下载,由于第三方vip解析,只供给在线傍不雅观不雅观,潜匿想实现对方针视频的下载

    实现思绪

    首先拿到想要看的腾讯片子url,经由过程第三方vip视频解析网站停止解析,经由过程抓包,模仿阅读器发送正常哀求,经由过程拿到缓存ts文件,下载视频ts文件,末了经由过程转换为mp4文件,即可实现正常播放

    源码

    import re

    import os,shutil

    import requests,threading

    from urllib.request import urlretrieve

    from pyquery import PyQuery as pq

    from multiprocessing import Pool

    class video_down():

    def __init__(self,url):

    # 拼接全民解析url

    self.api='https://jx.618g.com'

    self.get_url = 'https://jx.618g.com/?url=' + url

    #设置UA模仿阅读器访谒

    self.head = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}

    #设置多线程数目

    self.thread_num=32

    #当前已经下载的文件数目

    self.i = 0

    # 挪用网页获取

    html = self.get_page(self.get_url)

    if html:

    # 解析网页

    self.parse_page(html)

    def get_page(self,get_url):

    try:

    print('正在哀求方针网页....',get_url)

    response=requests.get(get_url,headers=self.head)

    if response.status_code==200:

    #print(response.text)

    print('哀求方针网页完成....\n 预备解析....')

    self.head['referer'] = get_url

    return response.text

    except Exception:

    print('哀求方针网页失败,请搜检错误重试')

    return None

    def parse_page(self,html):

    print('方针信息正在解析........')

    doc=pq(html)

    self.title=doc('head title').text()

    print(self.title)

    url = doc('#player').attr('src')[14:]

    html=self.get_m3u8_1(url).strip()

    #self.url = url + '800k/hls/index.m3u8'

    self.url = url[:-10] +html

    print(self.url)

    print('解析完成,获取缓存ts文件.........')

    self.get_m3u8_2(self.url)

    def get_m3u8_1(self,url):

    try:

    response=requests.get(url,headers=self.head)

    html=response.text

    print('获取ts文件成功,预备提守信息')

    return html[-20:]

    except Exception:

    print('缓存文件哀求错误1,请搜检错误')

    def get_m3u8_2(self,url):

    try:

    response=requests.get(url,headers=self.head)

    html=response.text

    print('获取ts文件成功,预备提守信息')

    self.parse_ts_2(html)

    except Exception:

    print('缓存文件哀求错误2,请搜检错误')

    def parse_ts_2(self,html):

    pattern=re.compile('.*?(.*?).ts')

    self.ts_lists=re.findall(pattern,html)

    print('信息提取完成......\n预备下载...')

    self.pool()

    def pool(self):

    print('经计较必要下载%d个文件' % len(self.ts_lists))

    self.ts_url = self.url[:-10]

    if self.title not in os.listdir():

    os.makedirs(self.title)

    print('正不才载...所需时辰较长,请耐心等待..')

    #开启多历程下载

    pool=Pool(16)

    pool.map(self.save_ts,[ts_list for ts_list in self.ts_lists])

    pool.close()

    pool.join()

    print('下载完成')

    self.ts_to_mp4()

    def ts_to_mp4(self):

    print('ts文件正在停止转录mp4......')

    str='copy /b '+self.title+'\*.ts '+self.title+'.mp4'

    os.system(str)

    filename=self.title+'.mp4'

    if os.path.isfile(filename):

    print('转换完成,祝你不雅观不雅观影快乐')

    shutil.rmtree(self.title)

    def save_ts(self,ts_list):

    try:

    ts_urls = self.ts_url + '{}.ts'.format(ts_list)

    self.i += 1

    print('当前进度%d/%d'%(self.i,len(self.ts_lists)))

    urlretrieve(url=ts_urls, filename=self.title + '/{}.ts'.format(ts_list))

    except Exception:

    print('保留文件出现错误')

    if __name__ == '__main__':

    #片子方针url:狄仁杰之四大天王

    url='https://v.qq.com/x/cover/r6ri9qkcu66dna8.html'

    #片子碟中谍5:奥秘国家

    url1='https://v.qq.com/x/cover/5c58griiqftvq00.html'

    #电视剧斗破苍穹

    url2='https://v.qq.com/x/cover/lcpwn26degwm7t3/z0027injhcq.html'

    url3='https://v.qq.com/x/cover/33bfp8mmgakf0gi.html'

    video_down(url2)

    视频缓存ts文件

    这里都是一些缓存视频文件,每个只需几秒钟播放,末了必要合并成一个mp4名目的视频,就可以正常播放,默认高清下载

    注意这里的进度由于使用多历程下载,进度仅供参考,没有切当表示进度,可以进文件夹检察正常进度,可以理解为表示一次进度,下载一个ts文件

    实现了局

    私信小编007即可获取数十套PDF的获取编制哦!

    相关文章

      网友评论

          本文标题:python爬虫之腾讯视频vip下载!还没充过VIP!

          本文链接:https://www.haomeiwen.com/subject/orzjcqtx.html