100.人工智能可以武器化吗?

点击打开微信,马上办理ETC





不幸的是,这个问题的答案是肯定的。


考虑一下历史上使用的一些工具。在许多情况下,它们最初是为了帮助人们更好或更快地执行任务而创建的,但后来也为了战争目的进行了调整。


随着人工智能和机器人技术的不断发展,军事组织很可能会找到可以利用它们的方式。


20178月,Elon Musk与来自26个国家的116名首席执行官和人工智能研究人员一起签署了一封公开信,要求联合国禁止使用人工智能武器。{335}


您可以在以下网址查看此信函的内容以及签署该信函的人员姓名:https//futureoflife.org/autonomous-weapons-open-letter-2017


这封公开信中的一条重要内容是:


一旦[致命的自主武器]得以发展,它们将允许武装冲突以比以往更大的规模进行,并且比人类能够理解的时间更快。一旦这个潘多拉盒子打开,就很难关闭。因此,我们恳请缔约国找到一种方法来保护我们所有人免受这些危险。{336}


希望机器人和人工智能领域的领导者所获得的支持将鼓励业内其他人也效仿。


托比沃尔什(Toby Walsh)出版的一封类似的公开信,劝告各国反对开始以军事为基础的人工智能军备竞赛。这封信已由AI和机器人行业的3,105名研究人员签署,另外还有17,701人。您可以在以下网址查看该信件并自行签名:https//futureoflife.org/open-letter-autonomous-weapons


生命未来研究所的创始人Max Tegmark警告说,我们需要通过第一次获得高级AI来为未来做好准备。根据Tegmark的说法,除了火灾等其他发明和发现之外,人类还有机会犯错误并从中吸取教训,但我们没有先进的超级AI那种奢侈品。


在先进的超级人工智能领域,即使规划中的小错误也可能导致未来出现大问题。为了防止这种情况发生,Tegmark敦促所有参与者参与安全工程。这方面的关键例子是禁止使用致命的自主武器,并确保AI产生的利益在整个社会中公平分配。{}
337


此外,如果您有兴趣关注并了解有关此类问题的更多信息,我建议您加入生命未来研究所,可在以下网址找到:https//futureoflife.org/get-involved/


 







 




点击打开微信,马上办理ETC


意见反馈

发表评论