写于 2018-12-27 10:08:01| 腾讯分分彩app| 体育
<p>构建人工智能和自主系统的科学家需要对其工作可能产生的影响有一个强烈的道德理解100多名技术先驱最近发表了一封关于致命自主武器或“杀手机器人”主题的联合国公开信</p><p>阅读更多:如何制造我们可以信赖的机器人这些人,包括企业家Elon Musk和几家机器人公司的创始人,都是2015年开始的一项努力的一部分原始信件要求结束军备竞赛,它声称可能是“战争中的第三次革命,在火药和核武器之后”联合国可以发挥作用,但对这些系统未来的责任也需要在实验室中开始培训我们的人工智能研究人员的教育系统需要以道德规范来培养他们</p><p>以及编码自治系统可以为自己做出决策,几乎没有来自人类的输入这大大增加了机器人和类似设备的实用性例如,自主交付无人机只需要交付地址,然后可以自行确定最佳路线 - 克服沿途可能遇到的任何障碍,例如恶劣天气或一群好奇的海鸥</p><p>对自动化系统进行了大量研究,目前正由亚马逊Clearly等公司开发交付无人机,同样的技术可以很容易地用于交付比食物或书籍更糟糕的交付无人机也变得越来越小,越来越便宜更加强大,这意味着很快就可以制造和部署数千架无人机的飞行军队这样部署武器系统的可能性很大程度上与人类控制分离,促使这封信敦促联合国“找到一条路保护我们所有人免受这些危险“无论您对此类武器系统的看法如何,该问题都强调了在AI中考虑道德问题的必要性研究与大多数科学领域一样,获取必要的深度来为世界知识做出贡献需要关注一个特定的主题通常研究人员是相对狭窄领域的专家,可能缺乏道德或道德推理的正式培训正是这种越来越需要的推理例如,在美国进行测试的无人驾驶汽车需要能够对潜在的危险情况作出判断</p><p>例如,如果一只猫意外地穿过马路,它应该如何反应</p><p>是不是更好地跑过猫,或急剧转向避免它,冒着车的乘客受伤的风险</p><p>希望这样的情况很少见,但是汽车需要设计时考虑到一些特定的原则来指导其决策</p><p>弗吉尼亚·迪格纳姆在最近举行的国际人工智能联合会(IJCAI)上发表“负责任的自治”论文时提出了这一点</p><p>在墨尔本:无人驾驶汽车将具有道德规范;问题是谁的</p><p> Naveen Sundar Govindarajulu和Selmer Bringsjord在“自动化双重效应学说”一文中探讨了一个类似的主题</p><p>双效原则是一种推理道德问题的方法,例如在特定情况下的自卫权,以及归功于13世纪的天主教学者托马斯·阿奎那</p><p>双重效应的名称来自于获得良好的效果(例如拯救某人的生命)以及不良影响(在此过程中伤害其他人)这是证明行为的一种方式作为无人机射击行人奔跑的汽车作为人工智能研究讨论主题的伦理学的出现表明,我们还应该考虑如何让学生为自动系统越来越普遍的世界做好准备“T-的需要塑造“人们最近成立的公司现在正在寻找毕业生,不仅仅是具有特定的技术深度领域(T的垂直行程),而且还有专业人士学习技能和个人素质(横向中风)结合起来,他们能够从不同的角度看待问题并在多学科团队中有效地工作大多数计算机科学和类似学科的本科课程包括职业道德和实践课程这些课程通常侧重于知识分子财产,版权,专利和隐私问题,这当然很重要 然而,从IJCAI的讨论中可以清楚地看到,在更广泛的道德问题上需要更多的材料了解更多:没关系杀手机器人 - 即使是好的机器人也是难以预测的主题可能包括确定两个邪恶中较小的一些的方法,犯罪过失等法律概念,以及技术对社会的历史影响关键点是让毕业生从一开始就将伦理和社会观点纳入其工作中</p><p>似乎也需要研究方案来证明道德考虑是如何随着人工智能在日常生活中变得更加广泛和深入,