美文网首页
Python 爬取有道翻译API

Python 爬取有道翻译API

作者: 哆啦A梦没有毛 | 来源:发表于2018-08-29 12:17 被阅读179次

    参考:

    1. 【Python】有道翻译的爬虫实现(后篇)
    2. 用Python破解有道翻译反爬虫机制

    我昨天用的正规有道API测试翻译小说,结果很快就炸了。所以找了下怎么爬取有道翻译主页。

    主要步骤:

    1. chrome F12查看表单数据
    2. 查看网页源代码,找到类似这样的js文件(因为可能经常会变,比如参考资料中的第二个里面的js文件已经找不到了):<script type="text/javascript" src="http://shared.ydstatic.com/fanyi/newweb/v1.0.9/scripts/newweb/fanyi.min.js"></script>
    3. 复制js文件,格式化
    4. 在里面查找'salt'关键字,我找到的是这个:
            function (e, t) {
                var n = e("./jquery-1.7");
                e("./md5");
                e("./utils");
                var r = null;
                t.asyRequest = function (e) {
                    var t = e.i,
                        i = "" + ((new Date).getTime() + parseInt(10 * Math.random(), 10)),
                        o = n.md5("fanyideskweb" + t + i + "ebSeFb%=XZ%T[KZ)c(sy!");
                    r && r.abort(),
                        r = n.ajax({
                            type: "POST",
                            contentType: "application/x-www-form-urlencoded; charset=UTF-8",
                            url: "/bbk/translate_m.do",
                            data: {
                                i: e.i,
                                client: "fanyideskweb",
                                salt: i,
                                sign: o,
                                tgt: e.tgt,
                                from: e.from,
                                to: e.to,
                                doctype: "json",
                                version: "3.0",
                                cache: !0
                            },
                            dataType: "json",
                            success: function (t) {
                                t && 0 == t.errorCode ? e.success && e.success(t) : e.error && e.error(t)
                            },
                            error: function (e) {
                            }
                        })
                }
            }),
    
    1. 分析下它的加密算法,其实很简单,就是一个常量“fanyideskweb” + 要翻译的内容 + 时间戳和随机数 + 一个常量"ebSeFb%=XZ%T[KZ)c(sy!"(很显然,这个常量可能会时不时的变),然后再把这整个字符串进行MD5就得到了sign
    2. 根据这个写成python:
    def translate(content):
        url = "http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule"
        S = "fanyideskweb"
        n = content
        r = str(int(time.time() * 1000) + random.randint(1, 10))
        D = "ebSeFb%=XZ%T[KZ)c(sy!"
        sign = hashlib.md5((S + n + r + D).encode('utf-8')).hexdigest()
        data = {"i": content,
                "from": "AUTO",
                "to": "AUTO",
                "smartresult": "dict",
                "client": "fanyideskweb",
                "salt": r,
                "sign": sign,
                "doctype": "json",
                "version": "2.1",
                "keyfrom": "fanyi.web",
                "action": "FY_BY_CLICKBUTTION",
                "typoResult": "false"}
        headers = {
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36",
            "Referer": "http://fanyi.youdao.com/",
            "Cookie": "OUTFOX_SEARCH_USER_ID=-1038070705@10.168.8.63; JSESSIONID=aaaP2Qy4ztAfyfZRXzktw; OUTFOX_SEARCH_USER_ID_NCOO=570232601.9713346; fanyi-ad-id=47865; fanyi-ad-closed=1; ___rl__test__cookies=1532406668184"}
        response = requests.post(url, headers=headers, data=data).content.decode('utf-8')
        logging.debug(response)
        result = json.loads(response)['translateResult'][0][0]['tgt']
        print(result)
    

    其中的header部分是我直接从参考资料1里面拷下来的。好吧,其实大部分都是。。。

    但是这个函数还是有点问题的,因为它只返回了翻译结果中的第一个数组。把json结果提取出来合并成一个字符串可以看这篇文章:Python 列表生成式解析json

    顺便说一句,使用未公开的API进行商业用途好像是违法的。所以这个最多只能用来学习测试用哦!

    相关文章

      网友评论

          本文标题:Python 爬取有道翻译API

          本文链接:https://www.haomeiwen.com/subject/oumhwftx.html