保存成功
订阅成功
保存失败,请重试
提交成功

刘宇达:解析深度学习的计算机视觉技术在无人驾驶中的应用

美团技术团队官方账号
查看本场Chat

2018年10月23日,周二晚上8点30分。曾就职于微软,曾获 ACM 亚洲区域赛金牌,美团无人配送部资深算法工程师刘宇达带来了主题为《基于深度学习的计算机视觉技术在无人驾驶中的应用》的交流。以下是主持人飘静整理的问答实录,记录了作者和读者问答的精彩时刻。


内容提要:

  • 文章里提到检测分为一步检测和两步检测,这二者有什么区别?
  • 文中提到了 Roi-Pooling,它具体的过程是怎样的?
  • 分割模型 FCN 中先下采样再上采样,为什么要这样折腾?
  • 分割在无人驾驶中的应用有什么实际的落地场景吗?
  • 距离估计有这么多种方式,目前业界主要是用哪种?
  • 美团的无人车在计算机视觉方面都做过什么功能?
  • 有人说没有特别制定的道路作配合(特定场景下),无人驾驶实现起来很困难,怎么看待这种说法?
  • 能否介绍下利用相机做 3D 检测的技术 ?RGB-D 深度图像在 3D 检测中的运用?
  • 无人车上做机器视觉都需要什么样的嵌入式硬件?
  • 现在主流的车载机器视觉方案都有哪些?
  • 视觉检测的结果怎么应用到车辆控制的决策?这是其他团队的工作还是视觉团队工作的一部分?自动驾驶通常怎么分工合作的?
  • SSD 可以通过修改哪些训练参数,达到检测较小目标的目的?有没有更好的网络模型可以应用在嵌入式平台做目标检测的?
  • 视觉检测主要是双目还是多目?应用深度学习之后,实时性怎么样?
  • Fast-RCNN 为了避免重复计算,在第一层特征层上直接提取输入模型,该算法候选框是咋得到的,是和 R-CNN 一样在原始图像上得到还是在第一层特征上得到的?
  • 视觉检测和激光 SLAM 的侧重点是什么?
  • Autoware 的解决思路能介绍一下吗?
  • 无人驾驶算法的开发环境是 VS 吗,就是如果想研究代码的话,有开源的代码吗?有的话直接下载到 VS 里就可以吗?
  • 分割模型时间和准确率的对比,来自于道路实测还是一些网上的公开图片集?
  • 无人驾驶领域岗位需求还多吗?就业前景如何?
  • 基于视觉检测轨迹线进而实现车辆的循迹控制在美团无人小车上是否有考虑?
  • 整个网络输出 NxNx(5xB+C) 的 Tensor 这个是怎么计算出来的?
  • Apollo 中有提到 2Dto3D 的技术,请问在实际运用的时候 如果只有图像输入能否完成这个 2Dto3D 的过程?
  • 高精地图具体指什么,原文中后半部分分隔章节中有“现在的无人驾驶都是基于高精地图,而这种基于可行驶区域的方案是一种脱离高精地图的方案。”疑惑现在的无人驾驶(基于高精地图的)难道不需要在三维空间中建立可行驶区域吗,那车岂不是跑出道路了?
  • 无人驾驶现在距离真正商用还有多远?在技术层面上主要是哪些问题影响了真正商用?
  • 感知领域应用到无人车的算法有哪些?是基于常见算法的魔改吗?
  • Yolo V3 的速度是比较快的,请问有没有 Yolo 来解决图像语义分割的方法?可以给几个例子参考下吗?最近也在看试图将目标检测网络和图像语义分割网络融合一个网络里,你认为难点在哪里?
  • 想研究目标检测的迁移学习,对于新的目标种类,一般需要多少新的标签数据?有没有办法降低需要的样本数吗?有没有相关的开源实现可以参考?
  • 现在的无人驾驶是把道路从背景中分割出来然后实现的吗(可能辅助高精地图信息)?如果是分割的话,是不是需要跑一段相似路况进行分割网络的参数训练?之前说到的把区域投影到鸟瞰图上是不是指无人车前端采集的图像吗?
  • 像 Apollo 这种效果的实现检测时候仅仅输入图像就行了吗?

问:文章里提到检测分为一步检测和两步检测,这二者有什么区别?

还没有评论
评论
查看更多