CameraManager
收集摄像头硬件信息
class Camera{
// 获取摄像头数量
public native static int getNumberOfCameras();
// 获取的信息包含:
// facing:前置or后置
// orientation:摄像头与屏幕角度
// canDisableShutterSound:是否可以关闭拍照声音
public static void getCameraInfo(int cameraId, CameraInfo cameraInfo);
public Parameters getParameters();
}
Parameters 包含的信息有:
预览相关的:
getPreviewSize:预览尺寸
getSupportedPreviewSizes:支持的预览尺寸列表
getPreferredPreviewSizeForVideo:推荐的视频预览尺寸
getPreviewFpsRange:视频预览帧率
getSupportedPreviewFpsRange:支持的视频预览帧率
getPreviewFormat:预览图像格式
getSupportedPreviewFormats:支持的预览图像格式
输出图片相关的:
getPictureSize:拍摄照片的尺寸
getSupportedPictureSizes:支持的拍摄照片的尺寸
getJpegQuality:拍摄照片的质量
getPictureFormat:拍摄照片的格式
getSupportedPictureFormats:支持的拍摄照片的格式
输出视频相关的:
getSupportedVideoSizes:支持的视频输出尺寸列表
缩略图相关的:
getJpegThumbnailSize:缩略图尺寸
getSupportedJpegThumbnailSizes:支持的缩略图尺寸
getJpegThumbnailQuality:缩略图质量
没有格式,是因为缩略图只能是JPG的
图像增强相关的:
白平衡、闪光灯and so on……
视频尺寸的计算
如果设备支持“视频的预览尺寸和输出尺寸不同”,那么getSupportedVideoSizes返回一个数组,其中的元素可以作为MediaRecorder.setVideoSize()的参数;否则返回null。
也就是说,更一般的情况下,预览尺寸和输出尺寸是相同的,getSupportedVideoSizes是不用的。所以以下统称视频尺寸。
定义两个变量:
exceptSize:用户希望的视频尺寸,也是用于预览视频的SurfaceView或TextureView的尺寸
previewSize:计算得到的实际的视频尺寸
视频尺寸计算的原则是:
previewSize不能超过getPreferredPreviewSizeForVideo;
previewSize不能小于exceptSize;
previewSize的宽高比“最好”等于getPreferredPreviewSizeForVideo的宽高比;
previewSize要尽量小。
打开/关闭摄像头
class Camera{
// 打开摄像头,cameraId 取 0到getNumberOfCameras - 1
public static Camera open(int cameraId);
// 关闭摄像头
public final void release();
}
打开关闭的操作都要在子线程中做。
CameraDevice单例模式;
// 接收用户传来的参数,创建并初始化CameraManager、工作子线程
public void init(int facing, int exceptWidth, int exceptHeight, SurfaceHolder displaySurface);
// 创建图像录制任务,实际是向子线程发消息,打开摄像头,在摄像头开启成功的回调中,才真正创建RecorderMission
public void createMission();
从摄像头输出到显示到屏幕上
摄像头录入的图像数据 -> SufaceTexture -> OpenGL texture -> 帧缓冲区 -> EGLSurface -> Surface -> 屏幕
1.摄像头录入的图像数据 -> SufaceTexture -> OpenGL texture
这部分封装在RecorderMission中。
使surfaceTexture作为摄像头录入的图像数据的输出目的地
camera.setPreviewTexture(surfaceTexture);
这个surfaceTexture是根据texture的索引建立的
public class SurfaceTexture{
// 构造一个SurfaceTexture,to stream images to a given OpenGL texture.
public SurfaceTexture(int texName)
}
texture的索引是创建的时候由OpenGL返回的
public class GLES20{
// 创建一个OpenGL texture
// n:要创建的数量
// textures:装载texture的索引,length = n
// offset:偏移
public static native void glGenTextures(int n, int[] textures, int offset);
}
2.texture -> 帧缓冲区
这部分封装在BeautyRender中。在另一篇中记录。
3.帧缓冲区 -> EGLSurface
帧缓冲区是显存上一块唯一区域,而EGLSurface是内存中的对象,可以有多个,那么帧缓冲区是对应哪一个EGLSurface呢?
public interface EGL10{
// display是对本地图像系统的抽象
// draw和read都是对target的抽象,draw表示target向这个EGLSurface画,read表示这个EGLSurface从target读,效果是一样的,只是主被动不同
// context包含OpenGL的配置信息
// 调用后OpenGL的代码会运行在当前线程中
boolean eglMakeCurrent(EGLDisplay display, EGLSurface draw, EGLSurface read, EGLContext context);
}
4.EGLSurface -> Surface
这一步把二维图像数据从OpenGL的操作空间传递到了本地图像系统
public interface EGL10{
// native_window就是Surface,两者建立了联系
EGLSurface eglCreateWindowSurface(EGLDisplay display, EGLConfig config, Object native_window, int[] attrib_list);
// 把二维像素数据从EGLSurface对应的target复制到Surface对应的匿名共享内存
boolean eglSwapBuffers(EGLDisplay display, EGLSurface surface);
}
5.Surface -> 屏幕
Surface是SurfaceView或TexureView提供的。Surface -> 屏幕的过程就是Andorid的图像系统的显示过程。
网友评论