特斯拉车主抗议特斯拉刹车时僵硬,导致刹车时间过长,导致车祸,从大量视频讨论中看出:特斯拉的自动驾驶AI算法好像在昏暗的地下停车场路面上有一些“瑕疵”,它可能无法判断地面防滑漆的反光以及遭遇积水的复杂交互情况,这里有几个因素交互:
- 1. 停车场的灯光昏暗,不利于判断地面是积水还是地面漆反光。
- 2. 地面漆在遭遇一定湿度时,在对轮胎的反作用力方面非常复杂。
说白了,还原法是无法追查特斯拉刹车事件的根本原因的,我们的注意力应该集中在部件的相互作用上:
- 昏暗的地下室 +
- 容易反光的地面漆 +
- 地面漆的防滑性 +
- 地面有一点积水 +
- 地面从积水慢慢过渡到湿润直至干燥 +
- 特斯拉的自动驾驶主动干预算法 +
- 驾驶员踩刹车的犹豫(由于人眼误判和车辆实际反应的区别)+
- 博世刹车助力何时介入如何退出
在AI机器学习自动化的四个等级一文中,人工智能与机器学习实现自动化的四个等级:
- L0. Human-only 人工
- L1. Shadow mode 影子模式
- L2. AI-Assisted AI辅助
- L3. Partial automation 部分自动化
- L4. Full automation 完全自动化
当然,如果驾驶处于L3级别,也有矛盾,人工决定和机器决定是处于相同地位,到底谁说了算?人工判断失误怎么办?机器因为没有道德感,它会认为:牺牲一个人换得十个人生存是合理吗?那么牺牲一百万人换得一千万人是合理吗?这恐怕是人类自身道德观问题,人类自己都没有就这些问题解决达成共识,何以让AI来判断?
总结:
本文不是怀疑人工智能或自动驾驶,也不试图偏袒事件中任何一方,只是希望善意提醒人们意识到:复杂系统的系统思考方式非常重要,有兴趣了解复杂系统分析方法的可查看下面链接。
补充:特斯拉刚刚决定在北美所有车型取消雷达,原因是雷达 摄像头获得的信息矛盾时,该相信谁?同样,当人驾驶特斯拉时,人脑和特斯拉神经网络判断矛盾时,车该由谁决定的问题?