obao体育

我们可以教汽车驾驶;但我们可以教他们道德吗?

efwfwq发展自主汽车的一个主要论点支持是机器人汽车可以反应远快于人类的反应和大幅减少,30000年致命的交通事故,我们每年在美国的经历。在死亡或受伤的情况下通过一个交通事故,原因是有时被认为是人类不可避免的标准,但是在不久的将来会发生什么,如果事故判定为故障的自动驾驶车吗?在更一般的意义上,谁的责任为自动驾驶汽车,汽车的制造商或软件开发人员程序算法?

一辆无人驾驶汽车疏忽是什么时候?

根据IEEE频谱“理性人”的法律标准,司机的疏忽可能消失的2020年代激增无人驾驶汽车将会崩溃率减少了90%。新定义可能会改变的“合理的机器人”。我们今天的法庭从来都不会问为什么一个司机做任何特别的事情在关键时刻前崩溃。司机的假设是,在恐慌,凭直觉行事。人类的道德标准,完全呈现为法律,使主要的假设一个人有良好的判断知道什么时候无视法律条文以尊重法律的精神。它变成了工程师的工作很好的判断转化为代码自动驾驶汽车和其他自治机器,换句话说,机器人。

在加州,自驾车辆许可测试要求提供所有数据从传感器的集合——视频、超声波、红外、雷达、激光雷达、等等,30秒前的机动车辆管理部门的崩溃。工程师就能够重建非常精确的了解周围的事件崩溃,车辆感觉到什么,考虑什么样的替代行为,激励其决策的逻辑。通过监管机构的严格审查和诉讼律师将依赖于自主车辆碰撞后,持有他们超人的安全标准生产,编程,和性能。

现实世界的道德困境

因为所有驾驶带来风险,分配风险之间的司机,行人、乘客,骑自行车,和财产将注入伦理性考量决定一辆无人驾驶汽车。麻省理工学院的技术评论报道研讨会举行2015年斯坦福大学的工程师们和哲学家被要求讨论道德困境时可能出现的自动驾驶汽车是部署在现实世界中。

斯坦福大学教授克里斯·杰兹标题的自动驾驶实验的研究实验室,和加州理工大学的哲学教授帕特里克·林呼吁研究人员、汽车高管和汽车工程师在车间准备考虑他们正在开发的技术的伦理问题。他们实施不同的伦理设置控制程序的无人驾驶汽车,例如指示汽车优先避免人类而不是避免passengerless货车或松鼠。真实瞬间场景提出了场景,如一个孩子突然冲到街上,迫使无人驾驶汽车打过孩子选择或迂回迎面而来的车。

要求公众

研究结果报道科学美国人杂志表明,参与者从一般公众首选自驾车辆牺牲自己和乘客在一个行人受伤。然而,他们喜欢骑一个自治车辆,会优先考虑自己的安全。第二个考虑实施条例是否应该阻碍或延迟的无人驾驶汽车的推出将防止每年成千上万的人死亡的问题非常、非常罕见的汽车可能会导致死亡。

美国国家运输安全委员会主席克里斯托弗·哈特,相信联邦法规需要设置自动车辆的基本道德,以及安全标准他们必须多么可靠。严格的安全标准很可能必须到位,以满足未来的供应商在未来汽车保险。

篇文章http://www.Netquote.com

一篇由LindseyPatterson (14日文章)

在LeraBlog LindseyPatterson是作者。作者的观点完全是自己的,可能没有反映LeraBlog人员的观点和意见。

留下你的评论

你的电子邮件地址将不会被发表。必填字段标记*