美文网首页
Python爬取金十数据并在手机上提示

Python爬取金十数据并在手机上提示

作者: 小牛有财 | 来源:发表于2022-04-10 20:45 被阅读0次

本程序的目的:每天早上爬取重要的金十财经数据,并发送到手机上,早起就可以看到。
为啥要看财经数据?呵呵哒。

环境准备:
1.python 3.8
2.一个linux服务器,24小时不关机
3.一个开启第三方授权的QQ邮箱
4.微信...

程序代码如下:

#!/usr/bin/python3
# -*- coding: utf-8 -*-
# Created by: Niuyoucai
# 2022.04.09 Ver 1.0
# https://rili.jin10.com爬虫

import requests, re, sys
from datetime import *
from bs4 import BeautifulSoup
import smtplib
import email.message

class Spider(object):
    '''
    用于jin10网站爬虫的专用类
    Created by: Niuyoucai
    2022.04.09 Ver 1.0
    '''
    def __init__(self):
        self.headers = {
            'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.141 Safari/537.36'
        }
        self.root = 'https://rili.jin10.com/day/'
        self.session = requests.session()
        self.html = ''
        self.mailtext = ''
 
    def getHtmlContent(self, dt):
        '''读取网页文本信息用于解析
        '''
        self.dt = dt
        url = self.root + dt
        try:
            response = self.session.get(url, headers=self.headers)
            response.encoding = 'utf-8'
            self.html = response.text
            self.getDatas()
            self.getEvents()
            self.getHolidays()
        except requests.exceptions.RequestException as e:
            self.html = ''

    def getDatas(self):
        '''获取重要经济数据
        '''
        stpos = self.html.find('经济数据')
        topos = self.html.find('事件')
        html = self.html[stpos:topos]
        soup = BeautifulSoup(html, 'html.parser')
        trs = soup.find_all('tr', attrs='jin-table-row')
        info = '[' + self.dt + ']' + '<br>' + '<b>重要经济数据</b>' + '<br>'
        for tr in trs:
            if 'is-important' not in str(tr):
                continue
            tds = tr.find_all('td')
            for col in tds:
                data = re.sub('<.*?>', '', str(col)).strip()
                info += data
                info += '  '
            info += '<br>'
        
        self.mailtext += info

    def getEvents(self):
        '''获取重要事件
        '''
        stpos = self.html.find('事件')
        topos = self.html.find('假期')
        html = self.html[stpos:topos]
        soup = BeautifulSoup(html, 'html.parser')
        trs = soup.find_all('tr', attrs='jin-table-row')
        info = '<b>重要事件</b>' + '<br>'
        for tr in trs:
            if 'is-important' not in str(tr):
                continue
            tds = tr.find_all('td')
            for col in tds:
                data = re.sub('<.*?>', '', str(col)).strip()
                info += data
                info += '  '
            info += '<br>'
        
        self.mailtext += info

    def getHolidays(self):
        '''获取假期
        '''
        # html = self.getHtmlContent(self.root)
        stpos = self.html.find('假期')
        html = self.html[stpos:]
        soup = BeautifulSoup(html, 'html.parser')
        trs = soup.find_all('tr', attrs='jin-table-row current-countdown')
        info = '<b>假期</b>' + '<br>'
        for tr in trs:
            tds = tr.find_all('td')
            for col in tds:
                data = re.sub('<.*?>', '', str(col)).strip()
                info += data
                info += '  '
            info += '<br>'
        
        self.mailtext += info

    def mailqq(self):
        #没有爬取到内容时不发邮件
        if self.mailtext == '':
            return
        smtpObj = smtplib.SMTP_SSL('smtp.qq.com',465)
        msg = email.message.EmailMessage()
        msg.set_type('text/html')
        msg["From"] = "3285219560@qq.com"
        msg["To"] = "3285219560@qq.com"
        msg["Subject"] = "每日交易提醒"
        text = "<html><body>" + self.mailtext + "</body></html>"
        
        try:
            smtpObj.login('3285219560@qq.com', 'qq邮箱的第三方授权码')
            #msg.set_content(content)
            msg.add_alternative(text, subtype='html')
            smtpObj.send_message(msg)
        except smtplib.SMTPException as e:
            print(repr(e))
        finally:
            smtpObj.quit()

def main():
    #参数检查
    if len(sys.argv) > 2:
        print('用法:', sys.argv[0], '[数据日期YYYY-MM-dd]')
        return
    #缺省爬取今明两天的数据
    elif len(sys.argv) == 1:
        myspider = Spider()
        dt = datetime.strftime(datetime.now(), '%Y-%m-%d')      
        myspider.getHtmlContent(dt)
        dt = datetime.strftime(datetime.now() + timedelta(days=1), '%Y-%m-%d')
        myspider.getHtmlContent(dt)
        myspider.mailqq()
    #参数指定日期单独一天数据爬取
    elif len(sys.argv) == 2:
        myspider = Spider()
        dt = sys.argv[1]
        myspider.getHtmlContent(dt)
        myspider.mailqq()

if __name__ == '__main__':
    main()

程序说明
金十财经日历有三个内容,财经数据、事件、假期。
程序分别用三个函数爬取。但只摘取重要数据和事件。
获取的内容编辑成html邮件,用qq邮箱给自己发一封信。
QQ邮箱的第三方授权要开启,去qq邮箱的网页版上开启,方法这里不赘婿。
用微信绑定qq邮箱,开启qq邮件提醒功能,这样有邮件到达邮箱,微信就会"咚"地提示一声,然后打开看一下,是这个样子的:


微信图片_20220410204009.jpg

自动执行
linux服务器,crontab设定

58 6 * * 1-5 /home/niu/bin/jin10.py

周一到周五早上6点58分执行一次。可以当闹钟用。

相关文章

  • Python爬取金十数据并在手机上提示

    本程序的目的:每天早上爬取重要的金十财经数据,并发送到手机上,早起就可以看到。为啥要看财经数据?呵呵哒。 环境准备...

  • 人生苦短,我用Pyhon

    学Python的原因就几点:跨平台运行,手机上也能编写。用Python做爬虫,爬取有用的数据,为我所用。(重点!!...

  • Python学习

    python爬虫(五) python爬虫爬取豆瓣电影Top250数据 利用python爬取豆瓣电影TOP250页面...

  • Python学习

    python爬虫(四) python爬虫爬取豆瓣电影数据 今天我们爬取一下豆瓣电影TOP250页面电影的数据,依然...

  • 北京二手房有多贵?Python爬取赶集网得到这样的数据,附完整代

    前言: 本文主要分为两部分:Python爬取赶集网北京二手房数据&R对爬取的二手房房价做线性回归分析。文章思路清晰...

  • 【二】PYTHON爬取全国新房房价与浅析

    【一】学PYTHON及爬虫的一些总结 【二】PYTHON爬取全国新房房价与浅析 PART ONE:【数据采集】爬取...

  • Python爬虫:如何爬取分页数据?

    上一篇文章《产品经理学Python:如何爬取单页数据?》中说了爬取单页数据的方法,这篇文章详细解释如何爬取多页数据...

  • python 爬虫框架scrapy

    由于公司最近要写一个数据爬取工具,以前没接触过python 使用原生python 开发了一套携程国内酒店数据爬取,...

  • 利用python爬取股票交易数据

    利用python爬取股票交易数据 分析网站 找到返回的url 爬取股票交易数据 思路,我们利用request来请求...

  • python爬取数据

    嘿,今天的你过的还好吗,今天学习一下python如何爬取网页数据 用到了两个包 requests bs4 如果lx...

网友评论

      本文标题:Python爬取金十数据并在手机上提示

      本文链接:https://www.haomeiwen.com/subject/yicbsrtx.html