数百名AI专家力挺马斯克霍金:呼吁禁杀人机器人

   2020-09-01 中国机器人网中国铸造网1330
核心提示:  11月9日消息,据CNBC报道,了解人工智能(AI)潜力的科学家对杀手机器人(也被称为自主武器)深感恐惧
   11月9日消息,据CNBC报道,了解人工智能(AI)潜力的科学家对杀手机器人(也被称为自主武器)深感恐惧。今年8月份,包括特斯拉电动汽车公司(Tesla)和美国太空探索技术公司SpaceX首席执行官伊隆·马斯克(Elon Musk)在内的100多名科技界领袖签署了一封公开信,呼吁联合国禁止开发和使用人工智能武器。马斯克也数次在推特上强调,他担心AI全球军备竞赛会导致第三次世界大战。
数百名AI专家力挺马斯克霍金:呼吁禁杀人机器人
  图:2009年3月18日,在日本东京举行的Terminator Exhibition展览上,电影《终结者2》(terminator 2)中出现的机器人T-800全尺寸图像
 
  不久前,著名物理学家斯蒂芬·霍金(Stephen Hawking)也发出警告,强调监管AI的重要性。他在里斯本举行的网络峰会上说:“除非我们学会如何为应对和避免潜在风险做好准备,否则AI可能是人类文明历史上最糟糕的事件。它带来了危险,比如强大的自主武器,或者是少数人压迫绝大多数人的新方法。”
 
  11月2日,来自加拿大和澳大利亚的数百名AI专家加入了马斯克和霍金的行列,向各自的政府提交了公开信,敦促他们支持联合国禁止自主武器的行动。加拿大社区给加拿大总理贾斯汀·特鲁多(Justin Trudeau)的信中写道:“正如你所知道的,AI研究(包括研发能够执行智能任务机器的尝试)在过去十年里取得了惊人的进步。传统AI得益于机器学习的迅速发展,使AI社区的雄心重新燃起,它们希望制造出能够在人类监督或干预下进行复杂操作的机器。”
 
  这封信指出,AI技术的发展有可能在许多领域帮助社会进步,包括交通、教育、卫生、艺术、军事以及医学等。但同样的技术被应用于武器上,可能产生令人恐怖的后果。信中写道:“AI具有革命性的意义。这些转变(无论是实际还是潜在情况下)要求我们的理解,以及越来越多的道德关注。正是出于这些原因,加拿大AI研究团体呼吁你和你的政府让加拿大成为世界上第20个反对AI武器化的国家。致命的自主武器系统,从决定目标的合法性和部署致命武力的角度,都在消除有意义的人类控制,这显然违背了我们的道德底线。”
 
  澳大利亚AI社区在给国家领导人的公开信中,也以类似的语气和措辞表达了同样的担忧。信中称:“正如许多AI和机器人公司(包括澳大利亚公司)最近敦促的那样,自主武器系统可能会成为战争的第三次革命。如果它们发展起来,将会导致武装冲突的规模以比以往任何时候都更大,而且在时间上比人类能理解得更快。致命的后果是,机器(而不是人类)将决定目标的生死。澳大利亚AI社区无法容忍AI被用于这种用途,我们只是想要研究、创造和促进其有益的用途。”
只要你关注机器人,你就无法错过睿慕课
 
举报 收藏 打赏 评论 0
 
更多>同类资讯
推荐图文
【2025泰国压铸业考察团】泰国新能源汽车产业链深度考察之旅(6.18-21 日)—— 抢占东南亚千亿市场先机!】 压铸要闻速览|技术突破、政策动态、企业大事件全掌握!
【泰国压铸业考察团,欲报从速!】2025泰国新能源汽车产业链深度考察之旅(6.18-21 日)—— 抢占东南亚千亿市场先机! 【2025泰国压铸业考察团】泰国新能源汽车产业链深度考察之旅(6.18-21 日)—— 抢占东南亚千亿市场先机!
推荐资讯
点击排行
网站首页  |  付款方式  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报 营业执照  |  粤ICP备18059797号-1
×