位置:立项数据库 > 立项详情页
面向无人驾驶车的城市车辆灯语与笛语获取、识别、理解和运用
  • 项目名称:面向无人驾驶车的城市车辆灯语与笛语获取、识别、理解和运用
  • 项目类别:面上项目
  • 批准号:61075089
  • 申请代码:F030603
  • 项目来源:国家自然科学基金
  • 研究期限:2011-01-01-2013-12-31
  • 项目负责人:尹峻松
  • 负责人职称:博士后
  • 依托单位:中国人民解放军总参谋部第六十一研究所
  • 批准年度:2010
中文摘要:

车辆之间灯语与笛语是驾驶行为交互的重要方式,有效利用灯语、笛语及其交互信息是无人驾驶车在城市交通环境中安全行驶的必要前提。本课题拟研究并实现灯语与笛语的获取、识别、理解和运用关键技术与原型系统,主要研究内容包括1)利用全景视觉感知与声音三角定位技术获取灯语、笛语及其交互信息;2)研究灯语与笛语识别技术,包括色彩空间投影、时域分析算法、Kalman滤波及盲信号分离的运用方法;3)对驾驶环境、驾驶行为及行车意图等多种情境进行统计学习建模与理解,利用定性定量转换云模型构建灯语笛语的开放式语义、驾驶行为、响应策略及不确定性推理规则库;4)面向城市交通环境,研制无人车灯语笛语子系统,平滑嵌入到无人车平台并在室外环境中进行典型场景实验。本课题是无人车智能技术不可或缺的组成部分,为提高无人驾驶车环境感知与交互能力、实现城市交通环境下多车交互与协同提供技术支持。

结论摘要:

本项目针对城市交通环境中灯语与笛语在无人驾驶技术中的运用需求,从灯语与笛语的获取、识别、理解和运用的全过程入手,深入研究了相关视觉、听觉信息的检测、处理等关键技术,依据真实情景构建了行车识别专用灯语和笛语分类模式,完成了原型系统的搭建。具体包括以下4个方面的内容 1) 构建了灯语检测与识别环境,构建了分布式麦克风阵列,建立了全景视觉信息采集系统与声波采集阵列,利用全景视觉感知与声音三角定位技术获取灯语、笛语及其交互信息; 2)研究灯语与笛语识别技术,包括色彩空间投影、时域分析算法、Kalman滤波及盲信号分离的运用方法,实现了真实道路环境信息的检测与理解,实现了主动感知域内的车辆检测与跟踪;灯语与笛语信息的识别算法研究; 3) 根据灯语与笛语模式分析构建了车辆行为推理模型,对驾驶环境、驾驶行为及行车意图等多种情境进行统计学习建模与理解,利用定性定量转换云模型构建灯语笛语的开放式语义、驾驶行为、响应策略及不确定性推理规则库,建立灯语与笛语模式的语义分析和行为推理模型,以及典型情境下灯语和笛语响应策略模式; 4) 建立了灯语与笛语采集、识别软件系统,提出了一种针对无人驾驶车辆智能测试的4S模式安全性(Safety)、智能性(Smartness) 、平滑性(Smoothness)和速度性(Speed)的具体实现指标体系,面向城市交通环境,研制无人车灯语笛语子系统,平滑嵌入到无人车平台并在室外环境中进行典型场景实验。对无人驾驶车辆的智能测试研究,提出了一种无人驾驶车辆智能测试的三级智能的评估方法;提出了一种智能车在城市道路行驶中的接力导航方法。


成果综合统计
成果类型
数量
  • 期刊论文
  • 会议论文
  • 专利
  • 获奖
  • 著作
  • 3
  • 3
  • 0
  • 0
  • 0
相关项目
期刊论文 2 会议论文 1 获奖 10 专利 2 著作 1
期刊论文 14 会议论文 5 著作 1
尹峻松的项目