美文网首页
Android屏幕截图研究

Android屏幕截图研究

作者: 神圣于天地 | 来源:发表于2016-09-28 10:52 被阅读816次

    1. FrameBuffer文件介绍

    FrameBuffer 文件是 Linux (Android是基于Linux的) 对显示设备的一种抽象设备,相当于显存。Android 的 SurfaceFlinger 想更新屏幕的时候,就会把相应的改变写入到FrameBuffer里。Android 2.x 的时代,显示开机画面的功能也是通过把图像数据写入到FrameBuffer实现的。所以,你可以认为,FrameBuffer里头一定有当前屏幕内容的图像数据。

    Android平台上,FrameBuffer 文件的绝对路径一般是: /dev/graphics/fb0 。

    所以,如果我们想截图,其中一种方法就是把FrameBuffer里头的图像数据取出来,转换成bitmap,然后存储起来或者给ImageView来显示出来。

    2. FrameBuffer文件格式

    现在我们知道FrameBuffer (/dev/graphics/fb0) 文件里头会有当前屏幕的图像数据,取出来就可以了。但是,如果你直接运行这段代码:

    public void test() {

    byte[] fb_data = new byte[5000000];

    FileInputStream fis = null;

    try {

    fis = new FileInputStream(new File("/dev/graphics/fb0"));

    DataInputStream dStream = new DataInputStream(fis);

    dStream.readFully(fb_data);

    dStream.close();

    Bitmap bm = BitmapFactory.decodeByteArray(fb_data, 0, fb_data.length);

    mImageView.setBackground(new BitmapDrawable(bm));

    } catch (Exception e) {

    e.printStackTrace();

    }

    }

    会遇到两个问题:

    1. /dev/graphics/fb0 文件会拒绝访问,所以你要让你的程序获取root权限后,才能取到/dev/graphics/fb0里头的数据 ,或者获取 root 权限后把 /dev/graphics/fb0 文件改为所有用户可读 (如何获取root权限,这篇文章暂不讨论)

    2. 取到数据后,decode成bitmap,让imageview显示,会花屏,或者索性什么都没显示。

    花屏或者什么都不显示,那是因为FrameBuffer 里头的数据并不是常见的图像数据,直接丢给 BitmapFactory 显示,BitmapFactory 也不知道你这一堆什么玩意儿,所以出来的图像要么花屏,要么什么都不显示。

    那我们现在进入正题:FrameBuffer 里头的数据到底是怎么样的?

    要弄清这个问题,我们需要在我们的jni代码里执行这段代码:

    int fd, ret;

    struct fb_fix_screeninfo finfo;

    // 打开Framebuffer设备

    fd = open("/dev/graphics/fb0", O_RDONLY);

    if(fd < 0)

    {

    LOGD("======Cannot open /dev/graphics/fb0!");

    return -1;

    }

    // 获取Framebuffer 的 fixed info 不变信息

    ret = ioctl(fd, FBIOGET_FSCREENINFO, &finfo);

    if(ret < 0 )

    {

    LOGD("Cannot get fixed screen information.");

    close(fd);

    return -1;

    }

    通过这段代码,我们获取到了Framebuffer 设备的 “不变信息” :其实就是一个名叫 fb_fix_screeninfo 的结构体,这个结构体里包含了我们的 Framebuffer 数据的格式。

    fb_fix_screeninfo这个结构体定义在 linux/include/linux/fb.h 头 文件里头 ( 虽然这个头文件是linux源码里头找的,但是 fb.h 里头定义的很多东西,Android 都直接沿用了)

    定义如下:

    struct fb_fix_screeninfo {

    char id[16];                    /* identification string eg "TT Builtin" */

    unsigned long smem_start;      /* Start of frame buffer mem */

    /* (physical address) */

    __u32 smem_len;                /* Length of frame buffer mem */

    __u32 type;                    /* see FB_TYPE_*                */

    __u32 type_aux;                /* Interleave for interleaved Planes */

    __u32 visual;                  /* see FB_VISUAL_*              */

    __u16 xpanstep;                /* zero if no hardware panning  */

    __u16 ypanstep;                /* zero if no hardware panning  */

    __u16 ywrapstep;                /* zero if no hardware ywrap    */

    __u32 line_length;              /* length of a line in bytes    */

    unsigned long mmio_start;      /* Start of Memory Mapped I/O  */

    /* (physical address) */

    __u32 mmio_len;                /* Length of Memory Mapped I/O  */

    __u32 accel;                    /* Indicate to driver which    */

    /*  specific chip/card we have  */

    __u16 reserved[3];              /* Reserved for future compatibility */

    };

    里面有一个__u32 type 成员,就是这个成员会告诉我们,我们的FrameBuffer里头的数据的格式。

    这个__ur32 type 可能的取值有5个,分别如下:

    #define FB_TYPE_PACKED_PIXELS          0      /* Packed Pixels        */

    #define FB_TYPE_PLANES                  1      /* Non interleaved planes */

    #define FB_TYPE_INTERLEAVED_PLANES      2      /* Interleaved planes  */

    #define FB_TYPE_TEXT                    3      /* Text/attributes      */

    #define FB_TYPE_VGA_PLANES              4      /* EGA/VGA planes      */

    于是我们回到刚刚那段jni 代码,最后加一句打印:

    LOGD("====== type : %d",  finfo.type);

    运行下,会看到我的三星i9300 运行的结果是:

    D/termExec(21787): ====== type : 0

    其实,大多数Android 设备的 fb0 都应该是 type == 0 的,type 为0 意思说 Framebuffer 里头存的是每个像素点的 ARGB 信息。

    但是既然存的是每个像素点的ARGB 信息,为何 BitmapFactory 会解析出花屏图像出来呢? 这是因为 Framebuffer 里头每个像素点的 ARGB 信息是按照 little endian 方式存储的 也就是说,假如屏幕中一个像素点的格式的 ARGB 颜色值是 #FFBBCCDD 的话,存到 Framebuffer 的时候,是存成这样的:DDCCBBFF。所以现在你明白为何你把 Framebuffer 的数据直接丢给 BitmapFactory 的时候会花屏了吧? 因为每个像素点的 ARGB 信息都倒过来了啊,变成 BGRA 了。

    那是如果确定每个像素点存的时候存的是BGRA 的呢?要确定每个像素点的存储格式,需要再运行一段 jni 代码,如下:

    int fd, ret;

    static struct fb_var_screeninfo vinfo;

    // 打开Framebuffer设备

    fd = open("/dev/graphics/fb0", O_RDONLY);

    if(fd < 0)

    {

    LOGD("======Cannot open /dev/graphics/fb0!");

    return -1;

    }

    // 获取FrameBuffer 的 variable info 可变信息

    ret = ioctl(fd, FBIOGET_VSCREENINFO, &vinfo);

    if(ret < 0 )

    {

    LOGD("======Cannot get variable screen information.");

    close(fd);

    return -1;

    }

    这是获取到的是一个叫做fb_var_screeninfo 的结构体的实例,这个结构体同样定义在 linux/include/linux/fb.h 里头,定义如下:

    struct fb_var_screeninfo {

    __u32 xres;                    /* visible resolution          */

    __u32 yres;

    __u32 xres_virtual;            /* virtual resolution          */

    __u32 yres_virtual;

    __u32 xoffset;                  /* offset from virtual to visible */

    __u32 yoffset;                  /* resolution                  */

    __u32 bits_per_pixel;          /* guess what                  */

    __u32 grayscale;                /* != 0 Graylevels instead of colors */

    struct fb_bitfield red;        /* bitfield in fb mem if true color, */

    struct fb_bitfield green;      /* else only length is significant */

    struct fb_bitfield blue;

    struct fb_bitfield transp;      /* transparency                */

    __u32 nonstd;                  /* != 0 Non standard pixel format */

    __u32 activate;                /* see FB_ACTIVATE_*            */

    __u32 height;                  /* height of picture in mm    */

    __u32 width;                    /* width of picture in mm    */

    __u32 accel_flags;              /* (OBSOLETE) see fb_info.flags */

    /* Timing: All values in pixclocks, except pixclock (of course) */

    __u32 pixclock;                /* pixel clock in ps (pico seconds) */

    __u32 left_margin;              /* time from sync to picture    */

    __u32 right_margin;            /* time from picture to sync    */

    __u32 upper_margin;            /* time from sync to picture    */

    __u32 lower_margin;

    __u32 hsync_len;                /* length of horizontal sync    */

    __u32 vsync_len;                /* length of vertical sync      */

    __u32 sync;                    /* see FB_SYNC_*                */

    __u32 vmode;                    /* see FB_VMODE_*              */

    __u32 rotate;                  /* angle we rotate counter clockwise */

    __u32 reserved[5];              /* Reserved for future compatibility */

    };

    注意到这个结构体里面的四个结构体成员了么?red、green、blue 和 transp 这四个成员。它们的类型是 fb_bitfield,这个fb_bitfield 就是用来告诉我们每个像素点的格式的。

    fb_bitfield 也是定义在 linux/include/linux/fb.h 里头,定义如下:

    struct fb_bitfield {

    __u32 offset;                  /* beginning of bitfield        */

    __u32 length;                  /* length of bitfield          */

    __u32 msb_right;                /* != 0 : Most significant bit is */

    /* right */

    };

    这个结构体里头:

    offset  ------ 颜色值的在整个ARGB二进制数据中的偏移量

    length ------ 颜色值二进制位数

    msb_right ------ 0 代表Big endian

    现在我们在刚刚那段获取fb_var_screeninfo 结构体实例的 jni 代码的末尾,加上这几句打印:

    // 下面这一段是每个像素点的格式

    LOGD("====== fb_bitfield red.offset : %d",  vinfo.red.offset);

    LOGD("====== fb_bitfield red.length : %d",  vinfo.red.length);

    // 如果 == 0,就是Big endian

    LOGD("====== fb_bitfield red.msb_right : %d",  vinfo.red.msb_right);

    LOGD("====== fb_bitfield green.offset : %d",  vinfo.green.offset);

    LOGD("====== fb_bitfield green.length : %d",  vinfo.green.length);

    LOGD("====== fb_bitfield green.msb_right : %d",  vinfo.green.msb_right);

    LOGD("====== fb_bitfield blue.offset : %d",  vinfo.blue.offset);

    LOGD("====== fb_bitfield blue.length : %d",  vinfo.blue.length);

    LOGD("====== fb_bitfield blue.msb_right : %d",  vinfo.blue.msb_right);

    LOGD("====== fb_bitfield transp.offset : %d",  vinfo.transp.offset);

    LOGD("====== fb_bitfield transp.length : %d",  vinfo.transp.length);

    LOGD("====== fb_bitfield transp.msb_right : %d",  vinfo.transp.msb_right);

    看看我的i9300 的运行结果:

    D/termExec(21988): ====== fb_bitfield red.offset : 16

    D/termExec(21988): ====== fb_bitfield red.length : 8

    D/termExec(21988): ====== fb_bitfield red.msb_right : 0

    D/termExec(21988): ====== fb_bitfield green.offset : 8

    D/termExec(21988): ====== fb_bitfield green.length : 8

    D/termExec(21988): ====== fb_bitfield green.msb_right : 0

    D/termExec(21988): ====== fb_bitfield blue.offset : 0

    D/termExec(21988): ====== fb_bitfield blue.length : 8

    D/termExec(21988): ====== fb_bitfield blue.msb_right : 0

    D/termExec(21988): ====== fb_bitfield transp.offset : 24

    D/termExec(21988): ====== fb_bitfield transp.length : 8

    D/termExec(21988): ====== fb_bitfield transp.msb_right : 0

    从打印结果我们可以看到:

    1. 每个像素点的单个颜色值占8 bits 也就是一个字节,一个像素是 8 * 4 = 32 bits。

    2. blue offset 是0 也就是 Framebuffer里头存的每个像素点的 前8 bits 是蓝色值

    3. green offset 是 8 ,8 到 15 bits 是绿色值

    4. red offset 是 16 ,16 到 23 bits 是红色值

    5. transp offset 是 24,24 到 31 bits 是透明度值

    综合上面所述,Framebuffer 中的数据肯定是这样的 :

    BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA BGRA ...

    啊!Framebuffer 的数据格式现在是搞清楚了,但是当你以为你简简单单的把 每个像素的 BGRA 信息 转换成 ARGB 后,丢给BitmapFactory就能得到屏幕截图了么?

    其实还不够。

    首先,回头再看看fb_var_screeninfo 的定义,我们注意到里头有六个这样的成员:

    __u32 xres;                    /* visible resolution          */

    __u32 yres;

    __u32 xres_virtual;            /* virtual resolution          */

    __u32 yres_virtual;

    __u32 xoffset;                  /* offset from virtual to visible */

    __u32 yoffset;

    前两个个的的含义如下:

    1. xres -------------- 你可以认为这个就是屏幕的宽(单位:像素)

    2.yres --------------- 你可以认为这个就是屏幕的高(单位:像素)

    前两个很好理解,后面四个就麻烦一点点。稍微查下资料我们就能知道,Android 的 Framebuffer 一般是“双缓冲”的,就是说 Framebuffer里头不止缓存了一个屏幕的像素点数据,而是缓存了两个屏幕的像素点数据。而且两屏数据,是上下摆放的,假设我们的手机屏幕横向有 720 个像素,纵向有 1280 个像素,那 fb0 的实际格式将会是如下所示:

    第一列是fb0 文件的相对地址(十进制表示) 720个像素点 * 每个像素点占用4字节 = 2880

    0     BGRA BGRA BGRA BGRA BGRA BGRA BGRA ...

    2880     BGRA BGRA BGRA BGRA BGRA BGRA BGRA ...

    2880*2     BGRA BGRA BGRA BGRA BGRA BGRA BGRA ...

    .

    . 缓冲的第一屏

    .

    2880*1279  BGRA BGRA BGRA BGRA BGRA BGRA BGRA ...

    2880*1280  BGRA BGRA BGRA BGRA BGRA BGRA BGRA ...

    2880*1281  BGRA BGRA BGRA BGRA BGRA BGRA BGRA ...

    2880*1282  BGRA BGRA BGRA BGRA BGRA BGRA BGRA ...

    .

    . 缓冲的第二屏

    .

    2880*2559  BGRA BGRA BGRA BGRA BGRA BGRA BGRA ...

    把这两屏数据当成一副图,那横向像素点个数就是xres_virtual,纵向像素点个数就是 yres_virtual。由于Android一般是“双缓冲”,所以下面这个公式对很多手机都应该成立:

    xres == xres_virtual

    yres * 2 == yres_virtual

    既然有两屏数据,那哪一屏才是当前的屏幕内容呢?这就是xoffset 和 yoffset 会告诉你的,我的 i9300 获取到的这样的:

    D/termExec(21988): ====== xres : 720

    D/termExec(21988): ====== yres : 1280

    D/termExec(21988): ====== xres_virtual : 720

    D/termExec(21988): ====== yres_virtual : 2560

    D/termExec(21988): ====== xoffset : 0

    D/termExec(21988): ====== yoffset : 0

    所以我的i9300 的 Framebuffer 的第一屏就是当前屏幕的内容。 假如我的 i9300 yoffset == 1280 的话,那第二屏才是真正屏幕的当前内容。

    fb_fix_screeninfo 里头,另外还有一个需要注意的成员是 line_length。其实我们的 Framebuffer 里头保存的一屏数据并不一定刚好就是我们的屏幕分辨率大小,它的横向像素值有可能比屏幕的横向像素值多!假如你发现你截出来的图片屏幕外有黑边,那原因就在这里了。

    Framebuffer里头的图像数据的一行,不应该是 屏幕横向分辨率 * 4,而应该是 line_length (它的单位不是像素点,而是字节)

    3. 从Framebuffer中获取图像数据

    现在我们已经知道了,Framebuffer 中的数据格式,那到底如何中的屏幕图像数据显示在ImageView中呢?

    当然,你已经知道了Framebuffer中的数据格式了,你大可以很自信的自己把一屏的数据截取出来,把BGRA转换成ARGB,然后转换成bitmap,然后丢给ImageView显示出来。比如,下面这段代码:

    long stat2 = System.currentTimeMillis();

    for (int i = 0; i < pixels.length; i+=4) {

    row = i / line_length;

    if (row >= h) break;

    if ((i - row * line_length) >= widthBytes) continue;

    // fb0里面存储的BGRA中的A都是FF

    pixels[offset] =  (0xFF << 24) | ((Fb0Bytes[i + 2] & 0xFF) << 16) | ((Fb0Bytes[i + 1] & 0xFF) << 8) | (Fb0Bytes[i] & 0xFF);

    offset++;

    }

    Logger.d("Moce time =  " + (System.currentTimeMillis() - stat2));

    这段代码你可以不用细看,你只要知道我只读取一屏的数据,然后每次读取4bytes,把BGRA转换成了ARGB。但是这段代码的平均执行时间是 250ms 。这实在是太慢了。为了提速,我第一个想到的是改用C语言来写,但是并没有质的提升。最后经过一番搜索,发现了一个很有名的开源库:turbo-jpeg !turbo-jpeg 会调用Arm cpu 的 Neon 协处理器的 SIMD 指令集,效率非常高!

    4. 实例截图功能的完整Android demo项目

    我上传了一个通过jni 实现截图的功能完整demo项目到Github了,地址如下:https://github.com/faip520/AndroidFramebufferScreenshot

    我简单描述下实现的过程:

    1. 打开 /dev/graphics/fb0 设备

    2.把 fb0 设备内容中的一屏数据,通过 mmap 映射到自己的内存区

    3.通过 turbo-jpeg 的接口,直接读取 fb0 的信息,生成 jpeg 图片数据

    4.把得到的 jpeg 图片数据返回到 java 层

    5.通过BitmapFactory.decode 方法把 jpeg 图片数据转换成 bm,然后转换成 BitmapDrawable 给 ImageView 显示。

    需要说明的是:我这份代码,肯定不是适配所有机型的,你的机型有可能是

    “三缓冲”,有可能不是 32位色,而是 RGB565 或者其他格式,xoffset 和 yoffset 的值也有可能

    比较特别,甚至有可能Framebuffer 都不是 fb0

    文件。这些情况下,你就要自己去修改我的代码了。我这里只是介绍一个解决这种问题的分析模型。

    5. 黑边问题的处理 (图像裁剪)

    其实如果你的截图出来有黑边,或者只想截取其中一部分。可以看看我源码里头的这个地方:

    tjCompress2(handle, framebuffer_memory,

    // 希望生成的jpeg图片的宽 源数据里头屏幕每行的字节数

    300, finfo.line_length,

    // 希望生成的jpeg图片的高

    100, TJPF_BGRA,

    &jpeg_data, &jpegSize,

    TJSAMP_444, 10,

    TJFLAG_NOREALLOC);

    其中第三个和第五个参数,就是你希望生成的jpeg 的宽高。比如 100 100,那就是只截取屏幕左上角的 100 * 100 个像素。配置这里就可以去掉黑边,或者图片裁剪。

    � RAS

    相关文章

      网友评论

          本文标题:Android屏幕截图研究

          本文链接:https://www.haomeiwen.com/subject/jtwjettx.html