针对无人驾驶车辆行驶过程中面临的不确定、非线性、变结构、多变量的交通场景,引入认知科学和人工智能中的知识认知机理,利用计算几何、多传感器数据融合等学科的最新研究成果,开展多视点全景视觉和动态交通场景描述方法研究。借鉴蝇复眼识别机理,通过在无人车上搭建多视点多源传感器系统,使之能全面、有效的采集交通场景信息;基于视觉感应信息熵的多视点数据融合技术实现交通场景的全景视觉;拟合人类对感兴趣区域认知与全局认知的交互认知机理,提出了快速交通标识检测与识别方法;利用计算几何对点、线、面、几何拓扑网络等轮廓特征很好的描述方式,提出了基于计算几何的交通场景描述。项目最后将在实验室的地面无人车平台上验证算法的可行性。项目的研究内容和方法可提高无人车辆对复杂交通场景的感知、智能行为和决策能力,也可推广用于认知科学的其他领域。
unmanned ground vehicle;environment perception;traffic sign;GIS;computational geometry
无人驾驶车辆是一个集环境感知、规划决策等于一体的综合系统。为了实现安全驾驶,无人驾驶车辆需要实时地认知复杂环境、正确地判断当前的状态并做出相应的决策。因此,交通场景的全面、实时感知是安全驾驶的基础。本项目以有效认知与感知环境目标为主要目的,基于计算几何、多传感器数据融合算法,实现对动态交通场景的准确描述与智能感知。 本项目设计了基于FPGA+DSP嵌入式多视点视觉传感器图像系统,实现图像的高速、实时采集、处理,基于ICP实现激光雷达间的空间对准,基于光流法设计相机与惯导时间对准算法;完成了多焦距地面标志图像、不同视角及焦距的交通场景图像拼接;提出基于区域自相关性与对称性的交通标志快速检测算法;提出一种新的交通信号灯识别系统的架构基于边缘凹凸的信号灯识别、基于概率模型的信号灯定位以及基于数据关联与运动模型的信号灯跟踪算法;构建了适用于无人驾驶车辆的道路网络模型,提出基于GIS的交通场景描述方法、基于RBF神经网络的路段通行时间预测模型,基于GIS数据库设计了最短时间路径规划算法。 本项目获得资助以来,出版专著2部,发表学术论文24篇,其中SCI检索3篇,EI检索20篇,申请发明专利9项。 基于项目研究成果的无人驾驶车辆每年参加国家自然基金委主办的“中国智能车未来挑战赛”。