美文网首页爬不动的毛毛虫
scrapy中设置log日志

scrapy中设置log日志

作者: HAO延WEI | 来源:发表于2018-09-14 17:22 被阅读1101次

1.在settings中设置log级别,在settings.py中添加一行:

LOG_LEVEL = 'WARNING'

Scrapy提供5层logging级别:

  1. CRITICAL - 严重错误(critical)
  2. ERROR - 一般错误(regular errors)
  3. WARNING - 警告信息(warning messages)
  4. INFO - 一般信息(informational messages)
  5. DEBUG - 调试信息(debugging messages)

scrapy默认显示DEBUG级别的log信息

  1. 将输出的结果保存为log日志,在settings.py中添加路径:
LOG_FILE = './log.log'

3.显示log位置,在pipelines.py中:

import logging
logger = logging.gerlogger(__name__)

def process_item(self,item,spider):
    logger.warning(item)

4.在spider文件中引入Log日志

class DcdappSpider(scrapy.Spider):
    name = 'dcdapp'
    allowed_domains = ['m.dcdapp.com']
    custom_settings = {
        # 设置管道下载
        'ITEM_PIPELINES': {
            'autospider.pipelines.DcdAppPipeline': 300,
        },
        # 设置log日志
        'LOG_LEVEL':'DEBUG',
        'LOG_FILE':'./././Log/dcdapp_log.log'
    }

文章转载:csdn:https://blog.csdn.net/iswangrl/article/details/78286467

相关文章

网友评论

    本文标题:scrapy中设置log日志

    本文链接:https://www.haomeiwen.com/subject/zzyogftx.html