凯迪微信公众号
扫描二维码关注
发现信息价值

微信扫一扫
分享此帖文

发帖人:
旁观者2018
 |  只看此人
   楼主
收藏
收藏成功
添加
添加标签来管理你的收藏吧!
| 刷新 | 字体缩小 | 字体变大
[转帖]危险程度堪比核武?“杀人机器”研发或引发灾难
601 次点击
1 个回复
旁观者2018 于 2019/5/15 20:38:55 发布在 凯迪社区 > 猫眼看人
    危险程度堪比核武?“杀人机器”研发或引发灾难


    美国石英财经网站5月11日发表了贾斯廷仿薅5奶馕丁暗?次战争革命”是能够自己决定杀人的武器》的文章,现将原文编译如下:

    自主致命性武器——批评者称之为“杀人机器人”——的出现让许多分析人士感到惊恐。在没有人类近距离控制的情况下,装备了人工智能的某些此类武器能以士兵无法企及的速度和效率选定并消灭目标。

    包括美国在内的多个国家正在研发自主致命性武器,相关项目包括装备人工智能的无人坦克、无人战斗机等。

    各国就此自行实施了一些准则,但专家说这些还不够。美国军方政策规定,无人武器装备作出开火决定时必须有“适当程度的”人类判断,但并未对此作出明确定义,而且允许有例外。美国也是反对在该领域进行国际监管的少数国家之一。

    不过,担心爆发军备竞赛的荷兰非政府组织“和平”反战组织最新发表的报告称,要想防止最终的灾难,除了全面禁止之外别无选择。

    这种担忧不无道理。人工智能专家认为这种武器将引发“第3次战争革命”。和前两次战争革命——黑色火药和核弹——一样,此类武器系统能迅速证明其价值,让拥有它们的一方获得几乎不可超越的技术优势。

    如果不加以禁止,人工智能武器可能在全世界的军队中投入使用。就像社交媒体一样,在相关公司强烈抵制——而同时技术还在飞速发展——的情况下,试图到后来再回溯性地实施监管将被证明困难重重。

    正如“和平”组织所声称的,“将生死决定权交给机器或算法是极不道德的”。

    问题是,我们会及时行动起来吗?对于人工智能武器,快速采取行动极为重要。

分享: 分享到新浪微博 分享到腾讯微博 分享给朋友
凯迪社区APP下载

优秀帖文推荐

    回复 | 引用 | 举报
    回帖人: | 只看此人 | 不看此人 | 2019/5/15 20:50:30    跟帖回复:
       沙发
    楼下继续
    跳转论坛至:
    快速回复:[转帖]危险程度堪比核武?“杀人机器”研发或引发灾难
    本站声明:本站BBS互动社区的文章由网友自行帖上,文责自负,对于网友的贴文本站均未主动予以提供、组织或修改;本站对网友所发布未经确证的商业宣传信息、广告信息、要约、要约邀请、承诺以及其他文字表述的真实性、准确性、合法性等不作任何担保和确认。因此本站对于网友发布的信息内容不承担任何责任,网友间的任何交易行为与本站无涉。任何网络媒体或传统媒体如需刊用转帖转载,必须注明来源及其原创作者。特此声明!

    【管理员特别提醒】 发布信息时请注意首先阅读 ( 琼B2-20060022 ):
    1.全国人大常委会关于维护互联网安全的决定2.凯迪网络BBS互动区用户注册及管理条例。谢谢!
    • 广告