毕业论文开发语言企业开发JAVA技术.NET技术WEB开发Linux/Unix数据库技术Windows平台移动平台嵌入式论文范文英语论文
您现在的位置: 毕业论文 >> 嵌入式 >> 正文

WinCE16位位图灰度化输出

更新时间:2013-6-19:  来源:毕业论文

WinCE16位位图灰度化输出

void CYY_Wince1Dlg::OnBnClickedFileOpen()
{
CFileDialog dlg(true,_T("*.bmp"),NULL,OFN_HIDEREADONLY|OFN_OVERWRITEPROMPT|OFN_ALLOWMULTISELECT,_T("image file(*.bmp;*.jpg)|*.bmp;*.jpg|All Files(*.*)|*.*||"),NULL);

if (dlg.DoModal()==IDOK)
{
CString path;
path=dlg.GetPathName();
DrawPicToHDC(path);
}
}

void CYY_Wince1Dlg::DrawPicToHDC(CString p)
{
CDC *pDC;
CRect rc;
GetDlgItem(IDC_EDIT1)->GetClientRect(rc);
pDC=GetDlgItem(IDC_EDIT1)->GetDC();

IImage *m_pImage[1];
IImagingFactory *m_pImagingFactory;
HRESULT hr;
hr=CoInitializeEx(NULL,COINIT_MULTITHREADED);
hr=CoCreateInstance(CLSID_ImagingFactory,NULL,CLSCTX_INPROC_SERVER,IID_IImagingFactory,(void**)&m_pImagingFactory);
hr=m_pImagingFactory->CreateImageFromFile(p,&m_pImage[1]);
hr=m_pImage->Draw(pDC->m_hDC,&rc,NULL);
        ?
        ?
        ?
}到这里我把图片显示出来了,图片是16位位图,想在?部分转换成灰度化然后输出

      最近一段时间作者开始进行运动目标识别定位系统设计,本文以及后续的几篇文章都是从一个图像处理初学者的角度来总结目标检测定位过程中所应用到的各种常见的算法,尤其是解决算法实现过程中由于粗心大意或者C编程基本功不扎实所引起的各种问题。本文主要对彩色图片灰度化的方法及其实现过程进行总结,最终给出实现的C代码。

     在进行视频流目标识别与跟踪时,通常第一个步骤就是对采集到的彩色图像进行灰度化,这是因为黑白照片数据量小,相比彩照更易实现实时算法,另一方面黑白照片是由未处理的光线所形成的照片,因此从图像处理学角度来看,这种未经特殊滤光处理的图片所涵盖的信息更有价值。

     目前,在图像处理过程中,最常用的彩色图片格式有RGB,HSV、YUV以及HLS三种。以下分别对这三种格式的彩色图像进行灰度化实现。
1、RGB空间图像

     定义于RGB空间的彩色图,其每个像素点的色彩由R、G、B三个分量共同决定。每个分量在内存所占的位数共同决定了图像深度,即每个像素点所占的字节数。以常见的24深度彩色RGB图来说,其三个分量各占1个字节,这样每个分量可以取值为0~255,这样一个像素点可以有1600多万(255*255*255)的颜色的变化范围。对这样一幅彩色图来说,其对应的灰度图则是只有8位的图像深度(可认为它是RGB三个分量相等),这也说明了灰度图图像处理所需的计算量确实要少。不过需要注意的是,虽然丢失了一些颜色等级,但是从整幅图像的整体和局部的色彩以及亮度等级分布特征来看,灰度图描述与彩色图的描述是一致的。
     对于RGB图像进行灰度化,通俗点说就是对图像的RGB三个分量进行加权平均得到最终的灰度值。最常见的加权方法如下: 


      1)Gray=B;Gray=G;Gray=R

      2)Gray=max(B+G+R)

      3)Gray=(B+G+R)/3

      4)Gray= 0.072169B+ 0.715160G+ 0.212671R

      5)Gray= 0.11B+ 0.59G+ 0.3R
     这三种方法中,第一种为分量法,即用RGB三个分量的某一个分量作为该点的灰度值;第二种方法为最大值法,将彩色图像中的三分量亮度的最大值作为灰度图的灰度值。第三种方法将彩色图像中的三分量亮度求平均得到一个灰度图;后两种都是属于加权平均法,其中第四种是OpenCV开放库所采用的灰度权值,第五种为从人体生理学角度所提出的一种权值(人眼对绿色的敏感最高,对蓝色敏感最低)。

2、其他颜色空间的灰度化
     关于HSV以及HLS颜色空间的彩色图灰度化,可以参考网页《HSL和HSV色彩空间》,该网页中所述方法可将几种不同颜色表达方式进行转换,将其转换到RGB空间,然后再采用上述公式进行灰度化。

     关于YUV空间的彩色图像,其Y的分量的物理意义本身就是像素点的亮度,由该值反映亮度等级,因此可根据RGB和YUV颜色空间的变化关系建立亮度Y与R、G、B三个颜色分量的对应:Y=0.3R+0.59G+0.11B,以这个亮度值表达图像的灰度值。

3、代码实现
     本文旨在对整个实现原理及思路进行总结,因此以下基于OpenCv的基本函数实现这几种变化过程,至于位图以及其他形式的图像,在获取了图像原始数据后,处理方法都一样,仅需注意指针的位置操作即可。具体代码如下:


[cpp] view plaincopyprint?
01.IplImage    *ColorImage;                        //定义相应的图像指针  
02.IplImage    *GrayImage1;                        //从1~5代表5中不同权值的结果  
03.IplImage    *GrayImage2; 
04.IplImage    *GrayImage3; 
05.IplImage    *GrayImage4; 
06.IplImage    *GrayImage5; 
07.IplImage    *GrayImage6; 
08.IplImage    *GrayImage7; 
09. 
10.ColorImage = cvLoadImage( "49138.jpg", -1 );    //读取图片  
11.if (ColorImage == NULL) 
12.    return;  
13. 
14.GrayImage1 = cvCreateImage(cvGetSize(ColorImage),8,1); 
15.GrayImage2 = cvCreateImage(cvGetSize(ColorImage),8,1); 
16.GrayImage3 = cvCreateImage(cvGetSize(ColorImage),8,1); 
17.GrayImage4 = cvCreateImage(cvGetSize(ColorImage),8,1); 
18.GrayImage5 = cvCreateImage(cvGetSize(ColorImage),8,1); 
19.GrayImage6 = cvCreateImage(cvGetSize(ColorImage),8,1); 
20.GrayImage7 = cvCreateImage(cvGetSize(ColorImage),8,1); 
21. 
22.CvMat* pGrayMat1 = NULL;         //定义与图像关联的数据指针  
23.CvMat* pGrayMat2 = NULL; 
24.CvMat* pGrayMat3 = NULL; 
25.CvMat* pGrayMat4 = NULL; 
26.CvMat* pGrayMat5 = NULL; 
27.CvMat* pGrayMat6 = NULL; 
28.CvMat* pGrayMat7 = NULL; 
29. 
30.pGrayMat1 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1); 
31.pGrayMat2 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1); 
32.pGrayMat3 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1); 
33.pGrayMat4 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1); 
34.pGrayMat5 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1); 
35.pGrayMat6 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1); 
36.pGrayMat7 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1); 
37. 
38.BYTE data1;       //中间过程变量  
39.BYTE data2; 
40.BYTE data3; 
41.BYTE data4; 
42.BYTE data5; 
43.BYTE data6; 
44.BYTE data7; 
45.for(int j=0; j<ColorImage->height; j++) 
46.{ 
47.    for(int i=0; i<ColorImage->width; i++) 
48.    {            
49.        data1 = (BYTE)ColorImage->imageData[j*ColorImage->widthStep + i*3];     //B分量  
50.        data2 = (BYTE)ColorImage->imageData[j*ColorImage->widthStep + i*3 + 1]; //G分量  
51.        data3 = (BYTE)ColorImage->imageData[j*ColorImage->widthStep + i*3 + 2]; //R分量  
52.        data4 = max(data1, max(data2, data3));    //最大值  
53.        data5 = (BYTE)((data1 + data2 + data3)/3); 
54.        data6 = (BYTE)(0.072169*data1 + 0.715160*data2 + 0.212671*data3); 
55.        data7 = (BYTE)(0.11*data1 + 0.59*data2 + 0.30*data3); 
56.        cvmSet(pGrayMat1, j, i, data1); 
57.        cvmSet(pGrayMat2, j, i, data2); 
58.        cvmSet(pGrayMat3, j, i, data3); 
59.        cvmSet(pGrayMat4, j, i, data4); 
60.        cvmSet(pGrayMat5, j, i, data5); 
61.        cvmSet(pGrayMat6, j, i, data6); 
62.        cvmSet(pGrayMat7, j, i, data6); 
63.    } 
64.} 
65.cvConvert(pGrayMat1, GrayImage1); 
66.cvConvert(pGrayMat2, GrayImage2); 
67.cvConvert(pGrayMat3, GrayImage3); 
68.cvConvert(pGrayMat4, GrayImage4); 
69.cvConvert(pGrayMat5, GrayImage5); 
70.cvConvert(pGrayMat6, GrayImage6); 
71.cvConvert(pGrayMat7, GrayImage7); 
72. 
73.cvNamedWindow( "ColorImage",CV_WINDOW_AUTOSIZE); 
74.cvNamedWindow( "GrayImage1",CV_WINDOW_AUTOSIZE); 
75.cvNamedWindow( "GrayImage2",CV_WINDOW_AUTOSIZE); 
76.cvNamedWindow( "GrayImage3",CV_WINDOW_AUTOSIZE); 
77.cvNamedWindow( "GrayImage4",CV_WINDOW_AUTOSIZE); 
78.cvNamedWindow( "GrayImage5",CV_WINDOW_AUTOSIZE); 
79.cvNamedWindow( "GrayImage6",CV_WINDOW_AUTOSIZE); 
80.cvNamedWindow( "GrayImage7",CV_WINDOW_AUTOSIZE); 
81. 
82.cvShowImage("ColorImage", ColorImage); 
83.cvShowImage("GrayImage1", GrayImage1); 
84.cvShowImage("GrayImage2", GrayImage2); 
85.cvShowImage("GrayImage3", GrayImage3); 
86.cvShowImage("GrayImage4", GrayImage4); 
87.cvShowImage("GrayImage5", GrayImage5); 
88.cvShowImage("GrayImage6", GrayImage6); 
89.cvShowImage("GrayImage7", GrayImage7); 
90.     
91.cvWaitKey(0); 
92.cvDestroyWindow("ColorImage"); 
93.cvDestroyWindow("GrayImage1"); 
94.cvDestroyWindow("GrayImage2"); 
95.cvDestroyWindow("GrayImage3"); 
96.cvDestroyWindow("GrayImage4"); 
97.cvDestroyWindow("GrayImage5"); 
98.cvDestroyWindow("GrayImage6"); 
99.cvDestroyWindow("GrayImage7"); 
100. 
101.cvReleaseImage(&ColorImage); 
102.cvReleaseImage(&GrayImage1); 
103.cvReleaseImage(&GrayImage2); 
104.cvReleaseImage(&GrayImage3); 
105.cvReleaseImage(&GrayImage4); 
106.cvReleaseImage(&GrayImage5); 
107.cvReleaseImage(&GrayImage6); 
108.cvReleaseImage(&GrayImage7); 
109. 
110.cvReleaseMat(&pGrayMat1); 
111.cvReleaseMat(&pGrayMat2); 
112.cvReleaseMat(&pGrayMat3); 
113.cvReleaseMat(&pGrayMat4); 
114.cvReleaseMat(&pGrayMat5); 
115.cvReleaseMat(&pGrayMat6); 
116.cvReleaseMat(&pGrayMat7); 
 IplImage *ColorImage;                        //定义相应的图像指针
 IplImage *GrayImage1;                        //从1~5代表5中不同权值的结果
 IplImage *GrayImage2;
 IplImage *GrayImage3;
 IplImage *GrayImage4;
 IplImage *GrayImage5;
 IplImage *GrayImage6;
 IplImage *GrayImage7;

 ColorImage = cvLoadImage( "49138.jpg", -1 );    //读取图片
 if (ColorImage == NULL)
  return; 
 
 GrayImage1 = cvCreateImage(cvGetSize(ColorImage),8,1);
 GrayImage2 = cvCreateImage(cvGetSize(ColorImage),8,1);
 GrayImage3 = cvCreateImage(cvGetSize(ColorImage),8,1);
 GrayImage4 = cvCreateImage(cvGetSize(ColorImage),8,1);
 GrayImage5 = cvCreateImage(cvGetSize(ColorImage),8,1);
 GrayImage6 = cvCreateImage(cvGetSize(ColorImage),8,1);
 GrayImage7 = cvCreateImage(cvGetSize(ColorImage),8,1);

 CvMat* pGrayMat1 = NULL;         //定义与图像关联的数据指针
 CvMat* pGrayMat2 = NULL;
 CvMat* pGrayMat3 = NULL;
 CvMat* pGrayMat4 = NULL;
 CvMat* pGrayMat5 = NULL;
 CvMat* pGrayMat6 = NULL;
 CvMat* pGrayMat7 = NULL;

 pGrayMat1 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1);
 pGrayMat2 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1);
 pGrayMat3 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1);
 pGrayMat4 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1);
 pGrayMat5 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1);
 pGrayMat6 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1);
 pGrayMat7 = cvCreateMat(ColorImage->height, ColorImage->width, CV_32FC1);

 BYTE data1;       //中间过程变量
 BYTE data2;
 BYTE data3;
 BYTE data4;
 BYTE data5;
 BYTE data6;
 BYTE data7;
 for(int j=0; j<ColorImage->height; j++)
 {
  for(int i=0; i<ColorImage->width; i++)
  {   
   data1 = (BYTE)ColorImage->imageData[j*ColorImage->widthStep + i*3];     //B分量
   data2 = (BYTE)ColorImage->imageData[j*ColorImage->widthStep + i*3 + 1]; //G分量
   data3 = (BYTE)ColorImage->imageData[j*ColorImage->widthStep + i*3 + 2]; //R分量
   data4 = max(data1, max(data2, data3));    //最大值
   data5 = (BYTE)((data1 + data2 + data3)/3);
   data6 = (BYTE)(0.072169*data1 + 0.715160*data2 + 0.212671*data3);
   data7 = (BYTE)(0.11*data1 + 0.59*data2 + 0.30*data3);
   cvmSet(pGrayMat1, j, i, data1);
   cvmSet(pGrayMat2, j, i, data2);
   cvmSet(pGrayMat3, j, i, data3);
   cvmSet(pGrayMat4, j, i, data4);
   cvmSet(pGrayMat5, j, i, data5);
   cvmSet(pGrayMat6, j, i, data6);
   cvmSet(pGrayMat7, j, i, data6);
  }
 }
 cvConvert(pGrayMat1, GrayImage1);
 cvConvert(pGrayMat2, GrayImage2);
 cvConvert(pGrayMat3, GrayImage3);
 cvConvert(pGrayMat4, GrayImage4);
 cvConvert(pGrayMat5, GrayImage5);
 cvConvert(pGrayMat6, GrayImage6);
 cvConvert(pGrayMat7, GrayImage7);

 cvNamedWindow( "ColorImage",CV_WINDOW_AUTOSIZE);
 cvNamedWindow( "GrayImage1",CV_WINDOW_AUTOSIZE);
 cvNamedWindow( "GrayImage2",CV_WINDOW_AUTOSIZE);
 cvNamedWindow( "GrayImage3",CV_WINDOW_AUTOSIZE);
 cvNamedWindow( "GrayImage4",CV_WINDOW_AUTOSIZE);
 cvNamedWindow( "GrayImage5",CV_WINDOW_AUTOSIZE);
 cvNamedWindow( "GrayImage6",CV_WINDOW_AUTOSIZE);
 cvNamedWindow( "GrayImage7",CV_WINDOW_AUTOSIZE);

 cvShowImage("ColorImage", ColorImage);
 cvShowImage("GrayImage1", GrayImage1);
 cvShowImage("GrayImage2", GrayImage2);
 cvShowImage("GrayImage3", GrayImage3);
 cvShowImage("GrayImage4", GrayImage4);
 cvShowImage("GrayImage5", GrayImage5);
 cvShowImage("GrayImage6", GrayImage6);
 cvShowImage("GrayImage7", GrayImage7);
  
 cvWaitKey(0);
 cvDestroyWindow("ColorImage");
 cvDestroyWindow("GrayImage1");
 cvDestroyWindow("GrayImage2");
 cvDestroyWindow("GrayImage3");
 cvDestroyWindow("GrayImage4");
 cvDestroyWindow("GrayImage5");
 cvDestroyWindow("GrayImage6");
 cvDestroyWindow("GrayImage7");
 
 cvReleaseImage(&ColorImage);
 cvReleaseImage(&GrayImage1);
 cvReleaseImage(&GrayImage2);
 cvReleaseImage(&GrayImage3);
 cvReleaseImage(&GrayImage4);
 cvReleaseImage(&GrayImage5);
 cvReleaseImage(&GrayImage6);
 cvReleaseImage(&GrayImage7);
 
 cvReleaseMat(&pGrayMat1);
 cvReleaseMat(&pGrayMat2);
 cvReleaseMat(&pGrayMat3);
 cvReleaseMat(&pGrayMat4);
 cvReleaseMat(&pGrayMat5);
 cvReleaseMat(&pGrayMat6);
 cvReleaseMat(&pGrayMat7);
     各种不同方法实现灰度化的效果图对比如下;

图1 待处理的原始图像—脱离低级趣味的猫
图2 分量灰度化—B分量
图3 分量灰度化—G分量
图4 分量灰度化—R分量
图5 最大值灰度化
图6 均值灰度化
图7 OpenCV权值系数灰度化
图8 网络常用权值灰度化

4、思考
     上文的代码实现中,以最后一种方法为例,用到了如下代码:

     Gray= (0.11* Blue + 0.59* Green + 0.30* Red);

     实际计算机处理时,这种方法已经很快了,但实际上还存在可以优化的余地。以上代码所采用的是浮点运算。而在图像处理中,速度就是生命,实时性往往是很重要的指标,这就要求我们在实现算法时必须考虑到代码的效率问题。所以有一个原则:在图像处理中,能不用浮点运算,就最好不要用!

     因此,上述代码可以等效的优化为:

     Gray = (30 * Red + 59 *Green + 11 * Blue) / 100;

     这样一改,可以有效避免浮点运算,因此可以提高代码的效率

     对这行代码还可以继续改进为如下:

     Gray= HiByte(77 * Red + 151 * Green + 28 * Blue);

     其中77,151,28分别除以256,即为上文的三个系数。

     同样的,还可以实现为:

     Gray= (77 * Red + 151 * Green + 28 * Blue) shr 8;

     这种方法实现了移位运算,避免了除法,效率上又有所提高

设为首页 | 联系站长 | 友情链接 | 网站地图 |

copyright©youerw.com 优尔论文网 严禁转载
如果本毕业论文网损害了您的利益或者侵犯了您的权利,请及时联系,我们一定会及时改正。