随着人工智能及其未来的作用成为社会讨论的焦点,恩智浦也在探索重要的问题。 如何从开发过程着手,确保人工智能和机器学习的安全?

在恩智浦,根据客户的正式要求开发硬件功能。 为了满足顾客的要求,首先举一点已知的输入新闻,也就是用例。 用例可能包括雷达传感器在汽车中的位置(面向前方或角落)、电动汽车电池的工作电压、汽车驾驶舱中的屏幕数量等。 然后重新定义设计,验证功能是否按预期工作。 另外,不仅在模拟环境中,也在实地环境中进行验证。 由于在实际环境中,功能无法控制实际接收的输入,因此在选定的用例范围内,设计功能尽量稳定可靠。

“未来挑战:确保人工智能的安全”

但是,人工智能的情况下,这个开发过程会有些变化。 定义用例,但必须为每个用例分配定义的输出。 我们把这个任务交给计算机,然后定义功能。 从例子中学习的过程被称为训练,需要教计算机必要的应对措施。

对计算机进行用例培训后,将这些知识转移到设备上,从而使设备将知识应用于当地环境,更好地解决难以预测的数据的过程称为推理。 与非人工智能过程的重要区别在于,在人工智能的开发中,工程师不一定像过去那样了解功能本身。

“未来挑战:确保人工智能的安全”

因此,我们必须判断,在输出的结果符合我们最初的期望之前,有必要调整机器的动作。 对于计算密集型设备,此调整过程在云中进行,而不是在边缘。

什么是安全的人工智能? 为什么需要呢? [/s2/]

人工智能和机器学习应用于汽车的安全功能。 这是因为需要避免违反安全规则。 在汽车领域的背景下考虑人工智能和机器学习时,汽车oem面临的问题是特定功能的风险水平以及如何理解它们可能对人造成的伤害。 这是为了在定义功能时,避免引起系统故障,同时减少随机故障。 我们利用安全管理流程和安全体系结构满足了这些要求,在人管理的开发中实现了设备的监控。

“未来挑战:确保人工智能的安全”

但是,由于培训和推理本质上不同,仅仅遵循现有的开发流程是不够的。 因此,我们有必要定义不同的问题陈述。 首先,需要知道培训数据是否存在系统故障。 其次,我们需要知道人工智能模型是如何建立的。 该模型是否存在可能导致系统故障的不必要的偏差? 另外,在推理过程中,模型的运行是否存在随机障碍?

“未来挑战:确保人工智能的安全”

在这方面,机器学习的质量保证发挥作用,涉及训练和判断程序的完备性、准确性和一致性,涵盖了所有顶级的安全流程和数据管理,目的是确保所采用的数据准确完整,没有任何偏差。

在推理层面,安全机制确保了硬件的完整性。 这些硬件可以是任何形式的硬件核心。 经典的安全机制包括ecc/奇偶校验、锁定步骤和流量监控功能。 此外,还可以通过安全软件包进行增强,增加数据检查,并从统计上衡量安全性能。

“未来挑战:确保人工智能的安全”

恩智浦的算法道德白皮书阐述了恩智浦对人工智能开发完善性的看法,探讨了可靠人工智能的安全性和透明度。 有一个叫auto eiq的专用软件。 这有助于开发人员判断和优化培训模式,并将培训模式引入目标环境,从而持续提高模式的可靠性。

“未来挑战:确保人工智能的安全”

有关安全性新闻的更多信息,请参见nxp/functionalsafety。

作者;作者

安德烈斯·巴里雷多

恩浦半导体功能安全判断员

andres在恩智浦核心团队担任功能安全判断员。 过去,andres曾担任雷达前端设备的安全设计师和汽车传感器的应用工程师。

标题:“未来挑战:确保人工智能的安全”

地址:http://www.0317jhgd.com//dfqcxw/15275.html