作为一个多学科交叉的领域,计算机视觉的主要研究内容是由多幅平面图像恢复出被摄场景的三维空间尺度和辐照度信息,模仿人眼视觉的感知过程,提取其中特征信息。本项目针对给交通带来极大安全隐患的雾、霾等低能见度天气,提出利用现有路况摄像视频,实时监测路况能见度值,以保障恶劣天气下路况行车安全,开辟低能见度气象的视觉检测新途径。主要涉及理论问题有1)构建合理的混合摄像机标定模型,通过低能见度视频中有限特征,求解摄像机传统内外参数、照度增益等,完成从视频到空间位置、场景辐照的精确转换;2)仿真人眼视觉感官特性,设计均匀色彩感知空间以计算图像中不同色彩的感知差异,进而结合LIP构建满足多重透/反射模型,人眼感知和心理对比度概念的彩色对数图像处理框架;3)设计低能见度天气下气溶胶的光学散射、消光模型,推导图像特征和亮度退化参量值与大气消光系数间的关系,给出日/夜间能见度描述值。
camera optics calibration;camera irradiance calibration;uniform color space;color space logarithmic image processing framework;video visibility detection
本项目综合智能交通、图像处理、大气光学和生物学等交叉学科,探索摄像视频与人眼视觉的表征映射关系,开展交通能见度视频检测方法的研究。考虑人眼视觉在不同波段上的特性设计了色彩空间对数图像处理框架CSLIP,构建了符合人眼视觉的色彩空间边缘检测算子提取图像特征,设计了多种大气消光系数求取方法,结合摄像机几何标定和辐照度标定算法,最终给出符合视觉感知的能见度数值,对保障恶劣天气下路况行车安全具有重要意义。项目成果主要体现在以下方面 1) 通过摄像机成像几何参数及辐照度的混合标定实现了交通摄像视频图像坐标与场景空间位置、图像亮度与场景光照的准确转换。建立了全新的路况PTZ摄像机成像模型,对规则路面提出利用特征角点实现几何标定,对不规则路面提出新颖的交互式网格标定方法。建立了基于能量函数的辐照度响应曲线求解算法,以改进后的EMoR参数模型、平方和残差惩罚项、收敛约束项作为能量函数的优化组成成分,通过快速迭代LM算法最小化能量函数求解响应曲线参数。 2)通过研究人眼对色彩空间的感知特点,构建了符合人眼视觉的色彩空间边缘检测算子。构造了包含背景亮度掩膜和对比度敏感函数(CSF)的色差阈值的权重函数,形成自适应恰可察觉色差阈值(AJNCD)用于边缘检测,克服了视觉不敏感边缘的过检测问题。用色彩张量表示光照准不变微分式改进canny边缘检测算子,解决了边缘丢失、定位不准、不连续、伪边缘等问题。 3) 在传统LIP模型的基础上,提出单一因子参数化LIP,进一步结合人眼对不同色光的敏感函数,构建了彩色对数图像处理框架CSLIP。所提CSLIP理论基于人眼LMS感知模型,将RGB色彩空间转换为耦合性较低的透射率空间,在多种实际应用中取得显著效果,包括基于单因子PLIP的边缘检测、基于地物波谱特性的透射率-暗原色先验去雾增强、基于透射率空间与色彩纹理相关性的图论分割等应用。 4)依据气象学Koschmieder理论,计算大气消光系数反推气象能见度,构建了一系列日/夜能见度检测算法提取路面视亮度曲线构建多组幂函数,求解路面固有亮度进而计算消光系数;以路面视亮度与真实路面视亮数值之平方差做为目标优化函数,通过最小二乘逼近获得最优消光系数;以迹范数表征图像边界差异,基于变分理论拟合路面视亮度曲线进而求取消光系数;利用点光源的大气点扩散函数APSF推算出夜间大气消光系数,经大量实验证实有效可行。