位置:立项数据库 > 立项详情页
基于视听觉信息的多车交互协同驾驶关键技术研究
  • 项目名称:基于视听觉信息的多车交互协同驾驶关键技术研究
  • 项目类别:重大研究计划
  • 批准号:91120306
  • 申请代码:F03
  • 项目来源:国家自然科学基金
  • 研究期限:2012-01-01-2015-12-31
  • 项目负责人:徐友春
  • 依托单位:中国人民解放军军事交通学院
  • 批准年度:2011
中文摘要:

基于视听觉信息的多车交互与协同驾驶是智能车融入正常交通流的核心科学问题。针对多车交互环境下视听觉信息感知的注意力机制、多源异构交互信息融合、交互机制设计与行为决策、面向任务的多车协同等问题,1)研究"视而不觉"、"先觉后视"的视听觉注意力机制,提出高维数据变粒度信息抽取算法,实现自主驾驶决策所需环境信息的快速处理与认知;2)构建分布式松耦合知识服务模式,实现多源感知融合到实时决策控制的知识映射,提高系统的实时性与可靠性;3)基于MOR建立多车交互决策机制,揭示车辆行驶对道路资源的竞争本质;4)构建"网络导航+智能驾驶"自主控制模式,实现面向任务的智能车与有人驾驶车辆及智能车群之间的协同控制;5)构建3辆智能车组成的实验平台,以京津城际高速为实验环境,开展多车交互协同驾驶演示。本项目为重大计划提供多车交互协同的理论、方法和实验数据,为最终平台的集成和完成京珠高速智能驾驶提供必要的技术支撑。

结论摘要:

本项目是“视听觉信息的认知计算”重大研究计划重点支持项目,为实现真实道路环境正常交通流中的智能驾驶,以多辆智能车为研究对象,围绕真实道路环境中视听觉信息的感知、多车交互决策、车辆协同控制问题展开攻关,取得的成果包括1)视听觉信息的认知计算方面,借鉴选择性注意机制,提出了能够有效识别复杂场景中动、静态目标的方法;利用变尺度栅格图方法实现了多源信息的有效融合与道路环境建模;2)揭示车辆行驶对道路资源(路权)的竞争和共享本质,建立了交互机制与决策系统,实现了智能车全局动态规划,局部一次规划和局部二次规划,以及向后行驶规划;3)实现了基于滑模理论的智能车路径跟踪与控制;设计了基于显式模型预测控制的参数化速度控制系统;提出了一种利用半实物仿真技术手段实现车队协同驾驶的方法;4)完成了8辆整车平台改造与调试;实现了可伸缩裁剪的硬件和软件平台,实现了标准化的传感器、车辆平台和通信接口;提出了智能车智商由低到高的增量式调试方法和测试规范,建设了240平米的三维缩微道路环境,开展了基于缩微智能车的多车交互协同驾驶实物仿真研究工作;开展了近30000公里的真实道路环境多车交互协同驾驶实验,完成了在三方(国家机关—基金委、发改委、军交部,新闻媒体—CCTV,第三方测试机构)共同监督下的京津高速公路无人驾驶公开测试,完成了郑开大道开放快速路无人驾驶公开测试;三次夺得“中国智能车未来挑战赛”冠军。本项目提供了基于视听觉信息的多车交互协同驾驶理论、方法和大量实验数据,为完成真实道路开放环境下的智能驾驶提供了必要的技术支撑。


成果综合统计
成果类型
数量
  • 期刊论文
  • 会议论文
  • 专利
  • 获奖
  • 著作
  • 37
  • 18
  • 0
  • 2
  • 0
期刊论文
相关项目
徐友春的项目