视+ 里的扫描效果如何做的,从中间发散的,感觉像是个滤镜,我用GPUimage 试了下,里面的 GPUImagePrewittEdgeDetectionFilter 是可以的,但是整个屏幕出现的所有画面都是这被滤镜 过滤了,我猜测发散的效果应该是滤镜在着色的时候有路径,而这个Filter 文件并没有暴露 出着色的路径。 或许是我想错了,有没有谁知道如何写,给个思路。谢谢。
视+ 里的扫描效果如何做的,从中间发散的,感觉像是个滤镜,我用GPUimage 试了下,里面的 GPUImagePrewittEdgeDetectionFilter 是可以的,但是整个屏幕出现的所有画面都是这被滤镜 过滤了,我猜测发散的效果应该是滤镜在着色的时候有路径,而这个Filter 文件并没有暴露 出着色的路径。 或许是我想错了,有没有谁知道如何写,给个思路。谢谢。
本文标题:iOS 视+ 里的扫描效果是如何做的?
本文链接:https://www.haomeiwen.com/subject/cglvrftx.html
网友评论