美文网首页
Selenium请求url后的方法

Selenium请求url后的方法

作者: 木下瞳 | 来源:发表于2019-07-25 18:27 被阅读0次

    了解更多关注微信公众号“木下学Python”吧~
    原文:https://blog.csdn.net/zjkpy_5/article/details/83304081

    browser= webdriver.Chrome()
    browser.get(url)

    2..page_source
    获取网页源码 html

    3..encode(xxx)
    编码;以 xxx 编码对unicode对像进行编码;.encode('GBK', 'ignore') 这里编码遇到格式为 GBK 的忽略

    4..decode(xxx)
    解码;以 xxx 格式解码,.decode('gb2312')#以gb2312编码对字符串str进行解码,获得字符串类型对象;

    .decode('utf-8')#如果以utf-8的编码对str进行解码得到的结果,将无法还原原来的字符串内容

    5..click() 与 Keys.RETURN()
    定位到元素后,用在最后面,点击作用

    from selenium.webdriver.commn.keys import Keys

    .send_keys(Keys.RETURN) 也是点击作用,相当于回车

    !!!click,clear 不能连续使用,使用一次后,要重新定位元素再次使用

    broswer.find_by_xpath('...').clear().click() ................错

    broswer.find_by_xpath('...).clear()

    broswer.find_by_xpath('...).click()

    6..clear()
    定位到元素后,用在最后面,清除作用

    7..save_screenshot('image_name.jpg')
    在使用 PhantomJS 浏览器时,为了调试方便,可截图

    8..maximize_window()
    浏览器窗口最大化

    9..get_screenshot_as_file('12.png')
    截屏

    10.assert

    assert u"百度" in driver.title 判断“百度”是否在页面标题中

    assert u"网络爬虫" not in driver.page_source 判断“网络爬虫”是否出现在了页面中

    相关文章

      网友评论

          本文标题:Selenium请求url后的方法

          本文链接:https://www.haomeiwen.com/subject/edrkrctx.html