9月28日-29日,“中国车谷2021智能车产业创新论坛”隆重举行。 本次论坛由武汉经济技术开发区和东风汽车集团有限企业共同主办,武汉市智能车产业创新联盟和盖西汽车共同主办,主要围绕智能车创新快速发展的主题展开,包括人机驾驶、地图定位、人工智能和芯片、仿真 以下是均胜电子副总裁、均胜智能车技术研究院院长郭继舜的发言。
你好。 谈量产研发中的人工智能APP应用。 批量生产期间,我有几个观点。 第一,我是激光雷达的坚定支持者,我认为只有充分异构的传感器互联网才能形成鲁棒系统。 其次,只要深度学习还不能说明,我想它只能用于感知,不能用于批量生产时的决定、限制。 我当时在主机厂,现在在第1层。 我们关注的是如何让技术落地。 因此,在讨论批量生产的时候,我越来越深刻地注意到很多先进技术被搬上车,看起来很性感,但没有经过充分的验证。 如果没有充分的设定,就很少被采用于批量生产。 所以现在我们在批量生产中的尝试在增加。
从感知上来说,我是坚定的异构路线的支持者,所有用纯粹视觉制作的量产方案都存在很大的瓶颈。 我常说的是,在自动驾驶系统中,软件决定的是系统离线,硬件决定的是系统在线。 因此,至少在现阶段,传感器不能太简化。 不这样做的话,就不安全。 因此,我们考虑采用足够高性能、足够高的传感器,进而在车外采用红外、远红外传感器。 经过我们大量的测试,这对鬼探测器一样的场景覆盖非常好。 比起现阶段不成熟、覆盖面还不充分的v2p,这就是所谓的车道协同中的人车协同。
此外,年内,许多eccv算法大佬坐下来讨论,其中涉及自动驾驶。 本来什么样的技术是现阶段最难的呢,大家一起讨论。 这些大佬经过一致讨论得出的结论还是感知。 前段时间的特斯拉和国内某车制造新势力的事件,说到底只是感知问题,所以我先说说人工智能在感知上的应用。
在以前传下来的视觉中,如果所有有知觉的同事都上不来的话,我会给出深入学习的建议。 现在,越来越喜欢将深度学习和以前流传下来的视觉结合起来,例如与边缘检测相比,在车道上的识别效果非常好。 但是,实际上,在深度学习不能再小规模化的时候,其实用以前就流传下来的做法来制定约束对于深度学习来说是一个非常好的优化方法。 我前天读了美国国防报告上的文件。 其结论是,世界上不存在完全不需要人参与的非监督的系统。 也就是说,一定需要人的参与,监督体系是必然的,最多的时候是半监督这一点很重要。 我们在深度学习中加入一些以前流传下来的算法来对其进行优化是一个非常合理的方法。
基于数据驱动的感知和分类方法,这是现在大家做得非常多的事情,年大家开始采用各种各样的深度学习进行语音学习等。
特征是什么? 特点是,以前流传下来的做法需要专家知识,而深度学习则很暴力,例如可以用大量的标注数据建立比较好的模型。 特别是,例如在暗的光和逆光的情况下,在一部分场景不能相对正确地说明的情况下,其效果非常好。
通过公开我们数据集和购买的数据,或者被标记的数据,无论如何,你都得到了这些数据。 当然,众包也是通过入驻的方法得到了一点场景的数据。 例如,在特斯拉的阴影模式中,工程师们稍入云,学习和训练特斯拉认为场景不太容易分类的数据。 然后将其放入深度学习互联网中,得到可以客观评价和测试的结果。 但是,问题是这个过程是不可解释的,基本上是不可见的。 总的来说,深度学习是一个非常容易使用的系统,但我们不将其置于计划、决定、控制之中的最大理由是,它无法解释。 我不知道那个边界在哪里。
与深度学习进行的多目标检测模型相比,地平线认为中国的场景和中国的道路交通参与者的认识会更好。
这是深度学习模型可行驶区域的分割比较,输入大量数据进行标记,标记后再去告诉机器哪里可以行驶。 最终得到可行驶区域。 这是大家经常使用的方法。
我们以前试过一点,也发表了一点论文。 第一,比较如何区分多而复杂的物体,得到比较好的分割结果。 例如,交通标志的识别和分类基本上是非常暴力的。 你稍微优化了你的模型。 大部分是标记数据,塞进去,做模型。 也许是多层神经互联网,最终会有好的结果。 现在,大家正在做一个大模型。 在自动驾驶中很少使用。
这是我们以前的尝试,比如robotaxi怎么识别警察指挥,保证即使在信号灯坏了的场景下也能正常行驶。 右侧是我们对过马路的行人的评价。
那么,如何使用深度学习进行人和身体的识别,如何评价一个身体即将过马路? 中国的行人通常不明确,他的离散度更大。
这是一个dms,如果采用地平线的芯片就可以很快整合,深度学习的特点就已经在那里了。 但迄今为止,我们采用了如此多的深度学习,在大量采用的过程中仍然面临着光照、遮挡等难点。
另外,我们做了一点尝试。 例如,我们现在做的小物体的识别。 小物体是指高速公路上速度极快或地面20×20cm厘米的小物体。 这是非常重要的。 特别是在停车场景中,例如有被切断的停车场。 这包括高速行驶时掉落的物体。 这个小物体会对你的驾驶产生比较大的影响或伤害。 因此,我们必须尽快识别它,但它其实很少分类。
我该怎么办? 我们需要通过一点深度学习模型,通过大量的标记来完成更好的训练,最终实现l4级自动驾驶中的小物体检测。 为什么需要激光雷达的角分辨率,特别是要求其横向和纵向的角分辨率一致,本质上是为了识别小物体。 但是,有些激光雷达横向分辨率小,纵向分辨率大。 它对你识别小物体有非常大的影响。 因此,重点必须放在距离均匀的激光雷达上。
我发现这在我们做的时候还有另一个好处。 样本的不对称性。 通常,训练深度学习模式时,什么点最好? 我可以找到很多正的样本。 小物体的样本很多,但基本上找不到非常好的数据库。 在这种情况下,要找出分类的边界并不容易。
我们进行了大量的测试、系统输入、标记训练,然后进行了系统输出等。 这就涉及到算法如何准备数据,如何进行乘车测试,如何进行算法的模型开发,如何进行预解决,如何与小物体进行区分等。
我刚才提到了样本非常困难,但是所有样本不对称性强、不对称性强的样本都需要大量的收集工作。 那么样品怎么设计,实车测试怎么测量,能保证我的边界足够确定吗?
最终,我们可以把范围控制在94%,但实际上准确率已经很高了。 但是,比较小物体必须给予更好的参考。 这个没有装激光雷达。 如果打开激光雷达,横向、纵向的角分辨率为0.02度左右,数据结果会更好。 虽然现在是用单纯的视觉方案在做,但是可以看到在文献中会得到最好的结果。 可以看出,该计算力的消耗量几乎为3t左右,这仍然介于非常大的优化空之间。
此外还有很多人群监测,很难评价人是否过马路,需要基于时间规则算法通过持续的方法进行评价。
在决定中我不认同深度学习的方法。 我现在也觉得基于规则的决定才是真正有效的。 无法解释意味着几乎没有边界。
我们可以稍微尝试一下,加强了解,做正确的事吃糖,错打一巴掌,用这种方法训练,基本上可以理解为是软弱的教练。
强化学习的一个非常典型的东西是alphogo。 去alphago zero的时候,是基于强化学习和迁移学习进行的。 请看。 这是前几天百度同事使用大数据平台做的机器人狗优化。 即使让机器人狗过独木桥或爬楼梯,也什么都不告诉我。 通过强化学习可以得到非常好的结果。
自动驾驶怎么办? 自动驾驶仍然是通过信号输入和反馈,更加稳定,更加鲁棒,能够覆盖越来越多的场景的形式。 本质上非常多且复杂。 如何设定激励,比如不碰撞,比如在尽可能短的时间内通过十字路口。 分数越高,证明这种方法的增益越大,通过反复训练,可以得到比较稳定的结果。
这是一个虚拟仿真平台。 我想展示的是自动驾驶的模拟能力。 其中跑得比较顺畅的路径规划和决定是通过强化学习和迁移学习来进行的。 它能应对一点场面,能比较好地在道路右侧行驶,能避开一点车辆。 这是我们初步训练的结果。
这是我们阶段性的成果。 我们最初训练了驾驶行为模型,比较了与多辆车的交互,制定了一点战略。 例如,从这些模型中如何预测,如何处理没有保护的左转并不容易。 以上是我们的结果。 中间的是道路协作。 下面是我们没有参加深度学习的现有结果。 你会发现仍然有效。 但是,我们现在没有把那个用于批量生产。 为什么这么说呢,因为那个需要大量的验证和测试。
自动驾驶方式之所以会成为采用端到端自动驾驶的最大障碍,是无法说明且不可见的。 车辆进入传感器的消息,直接发出你必须刹车,左右旋转,这是一个非常长的端到端,让感知、决策、控制都在一个链条上完成,但这是学术做法。
我们打算使用单个变量监视深度学习。 例如,上面有一个身体,下面没有人。 那不是用不同的做法吗? 如果是这样的话,就证明这个战略是有效的。 但这是黑匣子的方法,这个方法非常没有效率。
我们也开始了一点可视化的尝试。 例如,如果用热力与感知模型的物体建立关联,则右侧就是可视化的结果。 这是根据感知领域中间的深度学习模型和自动驾驶模型中备受瞩目的交通参与者将他关联起来进行分类的。 另外,关于十字路口的行动预测,所有的参加者在预测了他之后,都会用不同颜色的线进行标记。 你怎么解释那个? 这辆车要往前走的时候,你为什么往前走? 我们追溯那个的理由是什么? 于是,我们制作了能够自动追溯车辆决定的系统。
这种方法的尝试是为了保证深度学习具有很好的可解释性,此后,深度学习可以用于自动驾驶的决策、管制,甚至越来越多的行业。
我们现在立足于中国,做比较海外oem自动驾驶处理方案的服务。 我们也有一点批量生产项目。 让越来越多的技术回到中国,希望中国成为我们自动驾驶处理方案量产APP的重镇。
最后,我也要通过这个平台告诉大家,我们需要越来越多的人才。 如果你们对算法感兴趣的话,无论是企划、决定、控制还是其他相关的,都希望你能和我联系。 谢谢你。
标题:“均胜电子郭继舜:量产开发中的人工智能应用”
地址:http://www.0317jhgd.com//dfqcxw/11842.html