-
眼底是唯一能够直接无创观测到全部深层次的微血管和神经的部位,利用眼底图像不仅可以观察到眼部疾病的状况,还能对糖尿病、高血压等心脑血管疾病提供诊疗依据。但是,由于采集的过程中图像质量容易受镜头、光照条件以及采集人员的经验等不可控因素的影响,导致彩色眼底图像的对比度差、亮度低、细节信息模糊不清或者信息丢失等问题,使得图像的质量降低,影响临床的诊断和治疗效果。通过对眼底图像进行增强处理,将有助于提高临床诊断的准确性和高效性。
目前的眼底图像增强方法主要以直方图均衡化算法[1]、小波变换[2]、对比度受限自适应直方图均衡化算法(CLAHE)[3]、Retinex算法[4]和形态学高帽变化[5-6]等算法为主。原始的眼底图像大部分都是彩色图像,采用上述方法处理后,从一定程度上可提高图像的对比度和亮度,但增强后的彩色图像却存在泛白、容易出现光晕等色彩失真的问题[7]。因此大部分的眼底图像增强处理方式是将彩色眼底图像转变为仅有绿色通道的灰度图像,虽然灰度图像便于后期处理,但却丢失红、蓝颜色通道的细节信息,影响后续的图像分割和识别[8]。
为了实现眼底图像的颜色保真,提高图像的清晰度和对比度,本文将眼底图像增强过程分解为颜色保真任务、亮度均一化、细节增强任务。颜色保真任务主要通过色彩空间转换分离出颜色信息。亮度均一化的任务主要对亮度信息进行基于亮度的自适应幂律变换的方法;细节增强任务主要通过对Lab空间中的亮度成分进行CLAHE处理,最后将所得到的结果进一步转换为RGB图像。
-
CLAHE算法主要使用分块方法来限制局部直方图的幅度,以避免局部对比度过增强[9],算法原理如图1所示,具体的实现步骤如下[10]。
1) 将原始图像分为N个相同大小且不重叠的子块,N可根据实际需要设置;
2) 统计每个子块的直方图,并对其幅度进行剪切,计算子块的像素平均值:
$$ {A}_{V}={V}_{{x}}{V}_{y}/{N}_{xy} $$ (1) 式中,子块灰度级数为
$ {N_{xy}} $ ;子块在X和Y方向的像素数分别为$ {V_x} $ 和$ {V_y} $ 。设定
${N_{{\rm{c}}{\text{lip}}}}$ 为所设置的裁剪系数,则:$$ {C}={N}_{{\rm{c}}\text{lip}}{A}_{V} $$ (2) 对相应的子块利用式(2)进行剪切,假设被剪切像素总数为
$W$ ,则裁剪后的像素平均值为:$$ {a}_{v}=W/{N}_{xy} $$ (3) 重复上述流程,直到所剪切的像素被分配完毕。
3)计算上述处理后的每个子块灰度直方图,用
$f(x)$ 来表示。4)得到所有子块的
$f(x)$ 后,并将这些点作为参考点,对各子块进行双线性差值计算以消除块效应的影响,从而进一步得到新像素值。CLAHE能把超限的部分均匀分布到其他部分,并非直接去除,因此改善了原始图像的细节,提高了图像的质量。
-
幂律算法本质上是调整图像亮度的变换函数:
$$ S = c{r^\gamma } $$ (4) 式中,
$ S $ 为结果图像;$ r $ 为输入图像;γ为幂级数;$ c $ 为系数。算法主要通过改变γ值将部分区域映射到更宽或更窄的区域以达到不同的增强效果。当γ>1时,高灰度值区域得到增强;γ<1时,低灰度值区域得到增强。 -
为了能够保持原始图像的色彩信息,并获得更多的细节信息,本文提出一种颜色保真性的眼底图像增强方法,使得处理后的图像兼顾颜色保真与细节亮度相匹配,有效提高了眼底图像的质量。
算法流程如图2所示。
-
对于彩色图像来说,RGB各通道与亮度通道有密切关系,如果直接对RGB通道进行处理会造成各通道颜色比例失调,引起图像颜色失真。为了颜色保真,需要处理后图像的各颜色通道间的比例关系保持不变[11-12]。
HSV空间模型是由色调(H)、饱和度(S)和亮度(V)组成的彩色空间模型,适用于对图像亮度进行增强。因此,本文首先将RGB颜色空间的眼底图像转换到HSV空间,对V分量进行基于亮度的自适应幂律变换,使得眼底图像的亮度和对比度达到平衡。
Lab颜色空间模型由亮度L分量和颜色a、b分量组成。L分量与人的亮度感知非常匹配,通过对Lab空间的L分量进行CLAHE算法,提高图像的细节信息和对比度,保持色度通道不变,避免了图像的颜色失真。
-
幂律算法又称为伽马算法(式4),不同的γ值映射的曲线不同,合适的γ值,可使图像的亮度和对比度达到平衡。传统幂律算法的γ值是固定的,因此无法根据图像的实际亮度进行自适应调节。为了解决这个问题,本文提出了一种基于亮度的自适应幂律校正方法。
亮度是图像的一个重要参数,图像的平均亮度为[13]:
$$ {\rm{AL}}(i) = \frac{1}{{M N}}\sum\limits_{x = 1}^M {\sum\limits_{y = 1}^N {L(i,x,y)} } \begin{array}{*{20}{c}} {}&{}&{i = 0,1,2} \end{array} $$ (5) 式中,
$ L(i,x,y) $ 表示第$ i $ 颜色分量在点$ (x,y) $ 的亮度,可以根据式(6)计算出最佳亮度值:$$ {\rm{A}}{{\rm{L}}_{{\rm{op}}}} = \frac{1}{{M N}}\sum\limits_{j = 0}^{255} {j \frac{{M N}}{{256}}} = 127.5 $$ (6) 通过式(6)可求得图像最佳亮度为127.5,以此参数作为基准,如果图像亮度均值AL超过127.5,则视为偏亮,否则,视为偏暗。
图像均值偏离127.5的归一化作为幂律算法的自适应参数:
$$ {\gamma }{\text{ = }}\frac{{{\text{mean}}({{\rm{AL}}})-127.5}}{{127.5}} \;{\text{AL < 127}}{\text{.5}} $$ (7) $$ {\gamma }{\text{ = }}\frac{{127.5}}{{{\text{mean}}({{\rm{AL}}})-127.5}} \;{\text{AL > 127}}{\text{.5}} $$ (8) 式中,AL为图像整体亮度的平均值。图3为经过亮度自适应变换与原图的对比结果。
从图3可以看出,原始眼底图像照度低,亮度分布不均,除视盘外,血管、黄斑、眼底的整体轮廓等信息比较模糊。直方图同样可看到G、B两通道的直方图均集中在低灰度部分,难以分辨,灰度级范围较狭窄。经过亮度自适应幂律变换后,眼底图像的全局亮度得到了调整,亮度的分布更加均匀,能分辨出视盘,黄斑的位置以及眼底的整体轮廓,但从图像的细节来看,细节信息还不够清晰。
-
为了进一步提高眼底图像的质量,需要对眼底图像的细节进行增强处理。CLAHE是目前直方图增强方法中提高图像局部对比度的最有效方法。因此,将自适应幂律计算后的结果图转化为Lab空间后对L通道进行CLAHE处理。只对L通道处理是为了不影响空间中另外两个通道的颜色信息,从而保证图像的颜色保真性。图4为处理结果,与图3对比可看出,加入CLAHE处理后提高了眼底图像的细节信息,增强了图像的清晰度,使得眼底的血管及周边的渗透物更加清晰。
-
为了验证本文算法的有效性,将本文算法与常用的眼底图像增强方法Retinex算法、CLAHE 算法进行对比分析。实验数据来源于DIABETED0 数据库[13]。
-
选取数据库中的正常、出血和有渗出物的眼底图像进行增强算法的主观评价,实验结果如图5~图7所示。
从结果来看,无论正常或病理的彩色眼底图像,现有的CLAHE算法与原始图像相比,图像中血管、视盘、黄斑等局部的亮度有所增强,但图像整体亮度仍然较暗,血管、视盘、黄斑等重要部位对比度不高,细节信息不够清晰,眼底部分与背景部分的对比度不高。Retinex算法能很好地保留血管、视盘、黄斑等关键部位的信息,并提高了图像的整体亮度和对比度,但图像整体偏白,色彩严重失真。本文算法使得血管、黄斑、视神经盘等部位细节更加清晰,对比度有明显提高,且保留了原始图像的颜色信息,并无失真、泛白等现象。
从主观结果来看,无论正常或病理图片,本文算法提高了图像的清晰度和对比度,并能实现眼底图像的颜色保真。
-
为了进一步验证本文算法的效果,分别对DIABETED0数据库中的130幅图像进行CLAHE算法与本文算法处理,并采用客观评价指标进行定量比较。
增强图像由于缺乏对应的“完美”图片,如采用均方误差(mean squared error, MES)、峰值信噪比(peak signal-to-noise ratio, PSNR)指标则不能很好反应增强后图像的质量[14]。因此,本文采用质量评价指标,颜色评价指标,清晰度评价指标以及保真度评价指标等多个维度指标综合衡量算法性能,具体指标包括色彩浓度综合指标(underwater color image quality evaluation, UCIQE)[15],梯度指标(average gradient, AG)[16],无参图像质量评价指标(color image assessment function, CAF) [17],图像保真率(total fidelity rate, TFR)[18]以及颜色保真度指标(color of rate, COR)。
UCIQE主要用来定量评价彩色图像的色偏,值越大,说明图像的色偏度越小。AG用来评价图像的清晰程度,如果图像清晰度较高则具有较大的梯度值。CAF指标是无参考质量评价指标,主要用于评价增强图像的质量,值越大,说明图像质量越好。TFR用以评估信息损失情况,值越高,相对于原始图像所丢失的信息就越少。COR为颜色保真度指标,是指颜色通道之间的相关性,COR越大,颜色保真性越好。
从表1可以看出,本文算法的颜色浓度综合指标UCIQE较高,说明本文算法色偏小;AG指标较高,说明算法的清晰度较好;CAF指标较高,说明算法所得到的图像质量较好; TFR保真度和颜色保真度数据也比CLAHE算法高,说明本文增强算法的总体保真性和颜色保真度较好。
从客观指标可得出,本文算法无论从色偏、清晰度、质量评价指标还是保真性方面都比CLAHE方法要好。
表 1 不同算法指标分析
方法 UCIQE AG CAF TFR COR CLAHE 35.5444±4.2812 40.1092±8.8065 12.0732±3.2236 0.4881±0.1691 0.9806±0.0058 本文算法 56.9802±6.6415 87.6420±17.4329 13.0837±1.7816 0.6081±0.2332 0.9922±0.0060
Hue Preserving Algorithm for Color Fundus Image Enhancement Method
-
摘要: 为了改善彩色眼底图像增强后颜色失真及采集过程所造成的对比度低、细节信息模糊甚至细节丢失的问题,提出一种兼顾颜色保真、亮度增强和细节增强相匹配的眼底图像增强方法。首先将RGB空间的眼底图像转换到HSV空间进行基于亮度的自适应幂律变换,以解决眼底图像亮度的平衡问题。其次,在Lab颜色空间中采用受限直方图均衡化方法提高眼底图像的细节信息,使得处理后的彩色眼底图像颜色保真性较好。最后,在DIARETDB0 眼底图像数据库上进行分析,并与目前常用的眼底图像增强方法进行对比。对比结果表明,该算法相对于其他算法具有更好的视觉效果,改善了彩色眼底图像的颜色失真及对比度低的问题,客观评价指标优于传统的CLAHE方法,色彩浓度综合指标提高了37.6%,梯度指标提高了54.23%,图像质量评价指标提高了7%,有效提高了眼底图像的质量,为后期眼底图像的识别、分割和分类提供了一种新的预处理方法。Abstract: A color fundus image enhancement algorithm is proposed, which it is considering the matching of hue preserving, brightness enhancement and detail enhancement to deal with the problems of poor contrast, low brightness, and color distortion after other image enhancement methods. Firstly, the fundus image in RGB space is converted to HSV space for adaptive power-law transformation based on brightness to solve the problem of brightness balance of fundus image. Secondly, the limited contrast adaptive histogram equalization method is used in Lab color space to improve the detail information of fundus image. Finally, experiments are carried out on Diaretdb0 fundus image database and compared with other enhancement algorithms. The experimental results show that this method has better visual effect than other image enhancement algorithms, improves low contrast and the color distortion of color fundus images. The underwater color image quality evaluation was increased by 37.6%, average gradient was increased by 54.23%, visual parameter measurement index was increased by 7%. It provides a new pre-processing method for the recognition, segmentation and classification of fundus images.
-
Key words:
- color fundus image /
- hue preserving /
- image enhancement /
- image quality assessment
-
表 1 不同算法指标分析
方法 UCIQE AG CAF TFR COR CLAHE 35.5444±4.2812 40.1092±8.8065 12.0732±3.2236 0.4881±0.1691 0.9806±0.0058 本文算法 56.9802±6.6415 87.6420±17.4329 13.0837±1.7816 0.6081±0.2332 0.9922±0.0060 -
[1] TREISMAN M. Sensory scaling and the psychophysical law[J]. Quarterly Journal of Experimental Psychology, 1964, 16(1): 11-22. [2] 李云, 刘学诚. 基于小波变换的图像增强算法研究[J]. 计算机应用与软件, 2008, 25(8): 100-103. LI Y, LIU X C. On algorithm of image contrast enhancement based on wavelet transformation[J]. Computer Applications and Software, 2008, 25(8): 100-103. [3] SONAL S S, KUMAR S A, et al. An approach for de-noising and contrast enhancement of retinal fundus image using CLAHE[J]. Optics and Laser Technology, 2019, 110(2): 87-98. [4] 梁礼明, 盛校棋, 蓝智敏, 等. 基于多尺度滤波的视网膜血管分割算法[J]. 计算机应用与软件, 2019, 36(10): 190-196, 204. LIANG L M, SHENG X Q LAN Z M, et al. Retineal vessels segmentation algorithm based on multi-scale filtering[J]. Computer Applications and Software, 2019, 36(10): 190-196, 204. [5] 陈萌梦, 熊兴良, 张琰, 等. 一种视网膜眼底图像增强的新方法[J]. 重庆医科大学学报, 2014, 38(8): 1087-1090. CHEN M M, XIONG X L, ZHANG Y, et al. A new method for retinal fundus image enhancement[J]. Journal of Chongqing Medical University, 2014, 38(8): 1087-1090. [6] 于天河, 李昱祚, 兰朝凤. 基于顶帽底帽变换的仿生图像增强算法[J]. 计算机应用, 2020, 40(5): 1440-1445. YU T H, LI Y Z, LAN C F. Bionic image enhancement algorithm based on top-bottom hat transformation[J]. Journal of Computer Applications, 2020, 40(5): 1440-1445. [7] 宋鑫, 熊淑华, 何小海, 等. 基于HSI空间的Retinex低照度图像增强算法[J]. 图像与信号处理, 2017, 6(1): 29-36. SONG X, XIONG S H, HE X H, et al. Retinex enhancement algorithm for low intensity images based on HIS space[J]. Journal of Image and Signal Processing, 2017, 6(1): 29-36. [8] 康健, 王晓玲, 李威良, 等. 基于眼底OCT图像识别青光眼病症的算法研究[J]. 激光杂志, 2020, 41(3): 105-110. KANG J, WANG X L, LI W L, et al. Research on algorithms for glaucoma recognition based on fundus OCT image[J]. Laser Journal, 2020, 41(3): 105-110. [9] 魏德志, 梁光明. 基于改进的CLAHE显微细胞图像增强算法[J]. 计算机技术与发展, 2018, 28(10): 111-114. WEI D Z, LIANG G M. A microscopic cell image enhancement algorithm based on improved CLAHE[J]. Computer Technology and Development, 2018, 28(10): 111-114. [10] 于天河, 孟雪, 潘婷, 等. 小波变换和自适应变换相结合的图像增强方法[J]. 哈尔滨理工大学学报, 2018, 23(6): 104-108. YU T H, MENG X, PAN T, et al. Image enhancement based on wavelet transform and contrast limited adaptive histogram equalization[J]. Journal of Harbin University of Science and Technology, 2018, 23(6): 104-108. [11] MURAHIRA K, TAGUCHI A. Hue-preserving color image enhancement in RGB color space with rich saturation[C]//The 2012 International Symposium on Intelligent Signal Processing and Communications Systems. Taiwan, China: IEEE, 2012, 11: 266-269. [12] 肖胜笔, 李燕. 具有颜色保真性的快速多尺度Retinex去雾算法[J]. 计算机工程与应用, 2015, 51(6): 176-180. XIAO S B, LI Y. Fast multiscale Retinex algorithm of image haze removal with color fidelity[J]. Computer Engineering and Applications, 2015, 51(6): 176-180. [13] KAUPPI T, KALESNYKIENE V, KAMARAINEN J K, et al. DIARETDB diabetic retinopathy database and evaluation protocol[C]//Proceedings of the British Machine Vision Conference. [S.l.]: DBLP, 2007, 9: 1-10. [14] 张芳, 赵东旭, 肖志涛, 等. 眼底图像质量分类综述[J]. 计算机辅助设计与图形学学报, 2020, 32(3): 501-512. ZHANG F, ZHAO D X, XIAO Z T, et al. A survey of fundus image quality classification[J]. Journal of Computer-Aided Design and Computer Graphic, 2020, 32(3): 501-512. [15] YANG M , SOWMYA A. An underwater color image quality evaluation metric[J]. IEEE Transactions on Image Processing, 2015, 24(12): 6062-6071. [16] HE N, WANG J B, ZHANG L L, et al. An improved fractional-order differentiation model for image denoising[J]. Signal Processing, 2015, 112: 180-188. [17] 陈勇, 李愿, 吕霞付, 等. 视觉感知的彩色图像质量积极评价[J]. 光学精密工程, 2013, 21(3): 742-750. CHEN Y, LI Y, LYU X F, et al. Active assessment of color image quality based on visual perception[J]. Optics and Precision Engineering, 2013, 21(3): 742-750. [18] LIU Y H, YAN H M, GAO S B, et al. Novel criteria to evaluate the fidelity of image enhancement by MSRCR[J]. IET Image Processing, 2018, 12(6): 880-887.