博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
联合报告称“杀人机器人”将出现,人类安全或受红色警告
阅读量:6239 次
发布时间:2019-06-22

本文共 916 字,大约阅读时间需要 3 分钟。

随着科技进步和人类有放弃武器控制权的可能性,“杀人机器人”数年内将出现,“阻止杀人机器人运动”相关组织发出禁止呼吁。

联合报告称杀人机器人将出现,人类安全或受红色警告

电影中不乏一些以与人类斗争或机器人攻占地球为背景的美国大片,也早已有人反对智能武器的发展,但大多人都对此保持乐观态度。据每日邮报报道,联合国组织的为期一周的智能武器会议在日内瓦召开时,哈佛法学院下属国际人权诊所与人权观察组织联合发布报告,称数年内科技就能达到制造“杀人机器人”的水平,人类安全受到威胁,呼吁人们禁止相关科技发展。

所谓“杀人机器人”就是指机器人或坦克支持预先编程在没有人为干预情况下,便具有开枪射杀目标的能力。联合报告指出科技发展到让机器自行开枪射杀目标的水平仅需数年,所以人类控制有关机器挽救生命、选择目标、以及确保其遵守国际法等所有武器系统成为“杀人机器人”是否出现的关键。

对此,人权观察组织研究员,资深武器专家伯尼·多彻蒂(Bonnie Docherty)表示机器充当战争工具已有很长的历史,但在此期间,它们从未脱离人类的指示单独行动。而现在,人类有放弃对武器的控制权的可能,试图将生死大权交给机器,这会对人类安全造成威胁。

联合报告称杀人机器人将出现,人类安全或受红色警告

虽然有些人对使用智能机器人持乐观态度,认为其能减少死亡,但反对智能武器研发的人们态度强硬。包括联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)以及电动汽车公司首席执行官伊隆·马斯克(Elon Musk)和科学家史蒂芬·霍金(Stephen Hawking)在内的1000多名科技和机器人专家在去年就已发出警告,称“杀人机器人”可能不需数十年而是数年就会出现。

他们的担心不止如此,在发布的公开信中指出,自主智能武器研发的推动,会造成不止是军事大国甚至是全球各国之间的军备竞赛。自主武器最终的结局是成为“明日的卡拉什尼科夫步枪”。

这种担心不是没有可能,据英国“阻止杀人机器人运动”组织的消息,美国、俄罗斯、英国、以色列以及韩国都在研发使机器具有更大战斗自主权的系统。对此,希望研发智能武器的决策者在做每一步都决定时都要慎重。

原文发布时间:
2016-04-13 19:36
本文作者:
星星
本文来自云栖社区合作伙伴镁客网,了解相关信息可以关注镁客网。

转载地址:http://hucia.baihongyu.com/

你可能感兴趣的文章
2017书单
查看>>
Redis学习总结(1)——Redis内存数据库详细教程
查看>>
python 生成器与迭代器
查看>>
VS2017 调试期间无法获取到变量值查看
查看>>
Java+SpringBoot实现四则运算
查看>>
【转载】Discriminative Learning和Generative Learning
查看>>
Git中的AutoCRLF与SafeCRLF换行符问题
查看>>
通过Process启动外部程序
查看>>
那些在django开发中遇到的坑
查看>>
cocos2dx lua 绑定之二:手动绑定自定义类中的函数
查看>>
IE CSS HACK
查看>>
北风设计模式课程---深入理解[代理模式]原理与技术
查看>>
php课程 4-14 数组如何定义使用
查看>>
winform托盘时,要运行一个实例,解决办法
查看>>
vagrant up 失败解决办法
查看>>
mysql AM/PM to 24 hours fromat
查看>>
远程唤醒UP Board
查看>>
网页打印
查看>>
Loading——spin.js
查看>>
Hadoop完全分布式环境搭建(四)——基于Ubuntu16.04安装和配置Hadoop大数据环境...
查看>>