美文网首页
网络爬虫之抓取邮箱

网络爬虫之抓取邮箱

作者: 全满 | 来源:发表于2018-06-18 20:28 被阅读0次
import java.util.regex.Matcher;
import java.util.regex.Pattern;

/*
 抓取邮箱号码
 */
public class Demo7 {
    public static void main(String[] args) {
        String str = "有事没事联系:1122423@qq.com 有事没事联系:1122423@qq.com 有事没事联系:1122423@qq.com "
                + "有事没事联系:1122423@qq.com 有事没事联系:1122423@qq.com 有事没事联系:1122423@qq.com"
                + "有事没事联系:1122423@qq.com 有事没事联系:1122423@qq.com.cn 有事没事联:1122423@qq.com.cn"
                + "有事没事联系:1122423@163.com 有事没事联系:1122423@qq.net";
        String reg = "[a-zA-Z1-9]\\w{1,11}@[a-zA-Z0-9]{2,}(\\.[a-z]{2,3}){1,2}";
        /*
         第一步:
            先要把字符串的正则编译成Pattern对象
        */
        Pattern p = Pattern.compile(reg);
        /*
         第二步:
            把正则对象匹配字符串对象得到一个匹配器
         */
        Matcher m = p.matcher(str);
        while(m.find()){
            System.out.println(m.group());
        }
    }
}

相关文章

  • 网络爬虫之抓取邮箱

  • Robots协议

    Robots Exclusion Standard 网络爬虫排除标准 作用:网站告知网络爬虫哪些页面可以抓取,哪些...

  • Robots协议

    1 Robots Exclusion Standard 网络爬虫排除标准 作用: 网站告知网络爬虫哪些页面可以抓取...

  • 爬虫原理与数据抓取(一)

    通用爬虫与网络爬虫 1.通用爬虫 通用网络爬虫 是 捜索引擎抓取系统(Baidu、Google、Yahoo等)的重...

  • Python 爬虫协议及建议

    爬虫协议 什么是爬虫协议:爬虫协议,也被叫做robots协议,是为了告诉网络蜘蛛哪些页面可以抓取,哪些页面不能抓取...

  • Python零基础入门爬虫原理与数据抓取(一)-通用爬虫和聚焦爬

    根据使用场景,网络爬虫可分为 通用爬虫 和 聚焦爬虫 两种. 通用爬虫 通用网络爬虫 是 捜索引擎抓取系统(Bai...

  • 贴吧帖子内图片抓取

    Python之爬虫练习 利用Python对百度贴吧进行网络爬虫,实现抓取每个帖子内的所有图片并将之保存到本地。 本...

  • 爬虫

    网络爬虫 爬虫类型 通用网络爬虫:如搜索引擎,面向关键字,目标是尽可能大的网络覆盖率,侧重广度 聚焦网络爬虫:抓取...

  • 网络爬虫简介

    网络爬虫 网络爬虫是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。 通用爬虫的一般步骤 1.抓取页面2....

  • Python实用练手小案例

    抓取网页信息,并生成txt文件内容!Python抓取网页技能——Python抓取网页就是我们常看见的网络爬虫,我们...

网友评论

      本文标题:网络爬虫之抓取邮箱

      本文链接:https://www.haomeiwen.com/subject/oltoeftx.html