u乐娱乐平台官网登录

外媒:杀手机器人超越人类智能 将是人类噩梦 图

作者:眭煺喝    发布时间:2019-08-15 11:04:00    

人类是一个嗜血的物种根据学者史蒂文•平克(Steven Pinker)的说法,在历史的大部分时间里,被同类所杀是人类的头号死因文明基本上是人的暴力本能被逐渐束缚住的故事其中一个部分是有血有肉的人持续从战场撤出,前线逐渐被远程武器和空中军事力量拉远,公众对于伤亡的容忍程度也下降了 可以说,美国的主要进攻武器是无人机,操纵者安坐于千里之外对目标进行打击考虑到技术进步之快,无需脑洞大开,我们就能预见到机器将可完全代替人类进行杀戮在迄今仍被视为人类专属的活动领域里,人工大脑已有良好表现电脑将被交托驾驶汽车或者诊断疾病的任务因此,在做出杀戮的决策上,算法智能或许也将超越人类智能 这种可能性,促使1000多名人工智能专家在一封公开信中呼吁立即停止发展“致命自动武器系统”他们敦促称,现在就行动,否则被他们不可避免地称为“杀手机器人”的武器将和卡拉什尼科夫步枪(Kalashnikov,即AK-47)一样广为流传并造成同样致命的危害 军方对机器人战争的热衷很容易理解士兵是宝贵的、成本高昂的,也是会犯错误的本可避免的人为失误在每一场战斗中都造成了严重伤亡相较之下,机器既不知疲倦,也不会失去耐心它们可以被送往不安全甚至普通士兵无法到达的地方计算能力的迅速提升正赋予机器“更柔软”的技能,比如识别一个有血有肉的单独目标最终,事实可能将证明机器人会比最有经验的士兵更安全,比如能够从一群孩子中挑出枪手——然后射杀他 反对机器人战争的理由与反对所有武器进步的理由相同——避免大量无辜受到伤害这种不可预知的后果无论采取了什么预防措施,都没有万无一失的方法来阻止武器落入不法之徒的手中要想一窥那种情况下会有什么后果,可以回忆一下美国汽车制造商克莱斯勒(Chrysler)在发现汽车可以被远程入侵后,需要检测和排除140万辆汽车隐患的事情现在,想象一下这些车装备了枪支 技术未来主义者也担忧人工智能异常快速的发展科学家斯蒂芬•霍金(Stephen Hawking)最近提醒人们警惕人工智能远超人类智能后可能发生的“科技大灾难”这到底是绝对无法避免的事情,还是只是幻想,科学本身无法确定:但考虑到其中的风险,给超级智能装备武器能有多明智呢? 道德方面的理由更为直接在减少杀人方面,对杀戮的厌恶是个重要因素,其作用不亚于任何技术突破将人工智能插入这条因果链,将弄混杀人决定背后的责任没有明确的责任,不仅发动战争的手段得到加强,发动战争的意愿也可能上升 让武器消失是不可能的:想一想杀伤性地雷——一种自动运行的武器——现在依然每年造成1.5万到2万人丧生人工智能的性质使人们无法预见自动武器发展的终点在哪里不管进行多少精密的编程,

 

友情链接: © 网站地图