iOS开发中,如何从视频数据sampleBuffer中将数据转换成灰度图像数据?

项目中用到了人脸识别,目前工作是需要从摄像头中拿数据传入到人脸算法中。
现在数据我通过AVFoundation中的代理方法拿到了原始数据sampleBuffer。

- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
    
}

我如何从原始数据sampleBuffer中将数据转成算法能接收的灰度图像数据?

阅读 5.3k
2 个回答
✓ 已被采纳新手上路,请多包涵
CVImageBufferRef imageBufferRef=CMSampleBufferGetImageBuffer(sampleBuffer);
    
CVPixelBufferLockBaseAddress(imageBufferRef, 0);
    
unsigned char *ptr_image=CVPixelBufferGetBaseAddressOfPlane(imageBufferRef, 0);
    
unsigned char* dst = (unsigned char *)malloc(sizeof(unsigned char) * 640 * 480 * 4);
    

其中480 640为传入人脸识别算法的宽和高,具体要看算法要求

撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题