美文网首页
爬虫douyin相关

爬虫douyin相关

作者: 无沣 | 来源:发表于2019-11-14 11:31 被阅读0次

记录一下如何用python爬取app数据,本文以爬取抖音视频app为例。

编程工具:pycharm

app抓包工具:mitmproxy

app自动化工具:appium

运行环境:windows10

思路:

假设已经配置好我们所需要的工具

1、使用mitmproxy对手机app抓包获取我们想要的内容

2、利用appium自动化测试工具,驱动app模拟人的动作(滑动、点击等)

3、将1和2相结合达到自动化爬虫的效果

一、mitmproxy/mitmdump抓包
确保已经安装好了mitmproxy,并且手机和PC处于同一个局域网下,同时也配置好了mitmproxy的CA证书,网上有很多相关的配置教程,这里我就略过了。

因为mitmproxy不支持windows系统,所以这里用的是它的组件之一mitmdump,它是mitmproxy的命令行接口,可以利用它对接我们的Python脚本,用Python实现监听后的处理。

在配置好mitmproxy之后,在控制台上输入mitmdump并在手机上打开抖音app,mitmdump会呈现手机上的所有请求,如下图

可以在抖音app一直往下滑,看mitmdump所展示的请求,会发现前缀分别为

http://v1-dy.ixigua.com/http://v3-dy.ixigua.com/http://v9-dy.ixigua.com/
这3个类型前缀的url正是我们的目标抖音视频url。

那接下来就要编写python脚本将视频下载下来,需要使用 mitmdump -s scripts.py(此处为python文件名)来执行脚本。

import requests

文件路径

path = 'D:/video/'
num = 1788
def response(flow):
global num

经测试发现视频url前缀主要是3个

target_urls = ['http://v1-dy.ixigua.com/', 'http://v9-dy.ixigua.com/',
'http://v3-dy.ixigua.com/']
for url in target_urls:

过滤掉不需要的url

if flow.request.url.startswith(url):

设置视频名

filename = path + str(num) + '.mp4'

使用request获取视频url的内容

stream=True作用是推迟下载响应体直到访问Response.content属性

res = requests.get(flow.request.url, stream=True)

将视频写入文件夹

with open(filename, 'ab') as f:
f.write(res.content)
f.flush()
print(filename + '下载完成')
num += 1

代码写得比较粗糙,不过基本的逻辑还是比较清晰的,这样我们就可以把抖音的视频下载下来,不过这个方法有个缺陷,就是获取视频需要人来不断地滑动抖音的下一个视频,这时候我们可以用一个强大的appium自动化测试工具来解决。

二、Appium对手机进行模拟操作
确保已经配置好appium所依赖的环境Android和SDK,网上也有许多教程,这里我就不说了。

appium的用法很简单,首先我们先打开appium,启动界面如下

点击Start Server按钮即可启动appium服务

将Android手机通过数据线与PC相连,同时打开USE调试功能,可以输入adb命令(具体可以去网上查找)测试连接情况,若出现以下结果,则说明连接成功

model是设备名,后面配置需要用到。之后点击下图箭头所指的按钮就会出现一个配置页面

在右下角的JSON Representation配置启动app的Desired Capabilities参数,分别是paltformName、deviceName、appPackage、appActivity。

platformName:平台名称,一般是Android或iOS.

deviceName:设备名称,手机的具体类型

appPackage:App程序包名

appActivity:入口Activity名,通常以.开头

platformName和deviceName比较容易获得,而appPackage和appActivity这两个可以通过以下方法获取到。

在控制台上输入 adb logcat>D:\log.log 命令,并且在手机打开抖音app,然后在D盘中打开log.log文件,查找Displayed关键字

由上图可以知道Displayed后面的 com.ss.android.ugc.aweme对应的是appPackage,.main.MainActivity对应的是appActivity,最后我们的配置结果如下:

{
"platformName": "Android",
"deviceName": "Mi_Note_3",
"appPackage": "com.ss.android.ugc.aweme",
"appActivity": ".main.MainActivity"
}

再点击Start Session即可启动Android手机上的抖音app并进入到启动页面,同时PC上会弹出一个调试窗口,从这个窗口可以预览当前手机页面,还可以对手机模拟各种操作,在本文不是重点,所以略过。

在下面我们将使用python脚本来驱动app,直接在pycharm运行即可

from appium import webdriver
from time import sleep
class Action():
def init(self):

初始化配置,设置Desired Capabilities参数

self.desired_caps = {
"platformName": "Android",
"deviceName": "Mi_Note_3",
"appPackage": "com.ss.android.ugc.aweme",
"appActivity": ".main.MainActivity"
}

指定Appium Server

self.server = 'http://localhost:4723/wd/hub'

新建一个Session

self.driver = webdriver.Remote(self.server, self.desired_caps)

设置滑动初始坐标和滑动距离

self.start_x = 500
self.start_y = 1500
self.distance = 1300
def comments(self):
sleep(2)

app开启之后点击一次屏幕,确保页面的展示

self.driver.tap([(500, 1200)], 500)
def scroll(self):

无限滑动

while True:

模拟滑动

self.driver.swipe(self.start_x, self.start_y, self.start_x,
self.start_y-self.distance)

设置延时等待

sleep(2)
def main(self):
self.comments()
self.scroll()
if name == 'main':
action = Action()
action.main()

相关文章

  • 爬虫douyin相关

    记录一下如何用python爬取app数据,本文以爬取抖音视频app为例。 编程工具:pycharm app抓包工具...

  • 爬虫相关

    前一个系列的文章是关于勘察的,下面这个系列是关于爬虫的,主要内容如下: 使用 Wget 下载一个页面用于离线分析 ...

  • 认清残酷现实吧

    https://v.douyin.com/NymSuWV[https://v.douyin.com/NymSuWV...

  • douyin文案

    我也不觉得日子苦,只是你问我,最近有什么开心事,想了半天也答不上来

  • douyin for video

    run.py spider_douyin_video.py

  • 打开抖音指定视频

    打开https://www.douyin.com/[https://www.douyin.com/]并登陆, 找到...

  • 爬取1000条百度百科词条

    爬虫是什么? 爬虫是一段自动抓取互联网信息的程序,从而可以更好利用数据进行相关分析,做出相关决策。 简单的爬虫架构...

  • 网络爬虫(四)

    爬虫大约分三种: 通用爬虫: 获取相关页面整页数据。 聚焦爬虫:根据所需抓取页面指定的数据。 增量爬虫:检测到网页...

  • 送东阳马生序朗读

    https://v.douyin.com/LQa4Wtf[https://v.douyin.com/LQa4Wtf...

  • GO学习笔记(24) - 爬虫(1) - 入门

    目录 爬虫的法律风险 - robots协议 开源框架: Crawlab 开源框架: colly 爬虫相关知识(待补...

网友评论

      本文标题:爬虫douyin相关

      本文链接:https://www.haomeiwen.com/subject/rwioyqtx.html