您的位置:首页 > 资讯 > 人工智能 > 行业动态 > 正文

我们能信任未来的超级智能AI吗?

2021-11-30 10:59 性质:编译 作者:Lv 来源:无人系统网
免责声明:无人系统网(www.youuvs.com)尊重合法版权,反对侵权盗版。(凡是我网所转载之文章,文中所有文字内容和图片视频之知识产权均系原作者和机构所有。文章内容观点,与本网无关。如有需要删除,敬请来电商榷!)
随着人工智能技术在生活中带来的种种变化,人们越来越担心它的零星增长将使人类在不久的将来难以控制。比如失去对人工智能机器的控制?那将是灾难性的。研究表明...

随着人工智能技术在生活中带来的种种变化,人们越来越担心它的零星增长将使人类在不久的将来难以控制。比如失去对人工智能机器的控制?那将是灾难性的。

研究表明,从理论上讲,超级智能AI将无法被人类遏制,因为在未来十年内,我们可能会变得不如机器学习智能。

但在所有这些中,超级智能AI的能力是什么?

在其创建的早期阶段,超级智能AI已经表明它可以成为人类有价值的对手,但是尽管在我们物种的成长中发挥了重要作用,但有一个因素仍然不稳定,那就是AI的存在发展。

即使分析师和人工智能专家肯定,经验技术清算将打破人类的壁垒,但这种情况不会很快发生。

随着它的应用遍布各个层面,人工超级智能在我们这个时代的所有计算方面都可以发现。随着人工智能技术被应用于一些最基本的游戏,如国际象棋、危险游戏,以及解决几乎不可能的数学问题,这些过程需要人类花费数年时间来完成,看来人类本身将没有什么可做的了。

人工智能开发的机器已经发展并达到了一个非常重要的广泛水平,已经超过了所有已知的人类思维限制。马德里自治大学的一位计算机科学家曼努埃尔-阿方塞卡在强调超级智能AI能够做什么的同时,试图回答 “关于超级智能如果被创造出来是否能够被控制的问题是相当古老的,它至少可以追溯到1940年阿西莫夫的机器人第一定律。”

阿西莫夫的机器人学第一定律是在三个支柱下制定的,这些支柱在一个保护伞下制定了基本规则,即机器人不得伤害人类。下面就来看看这些定律。

§ 第一定律:机器人可能没有能力引起疼痛或使人受到伤害。

§ 第二定律:只要不与第一定律相抵触,机器人就必须遵守来自人类的任何命令。

§ 第三定律:只要不与第一条定律相抵触,机器人就必须保护自己的生存。

应该指出的是,这三条定律与其说是逻辑的,不如说是哲学性的,规律的模糊性重新定向了每一条定律背后的含义。定律中的细节没有得到精心处理,尽管讨论了如何不对人类造成伤害。

这其中的含义是,超级智能人工智能需要发生具体的改变,才能以这两个共同的想法来指导。限制其危险性的可能建议之一是,在一定范围内指定机器人,例如将人工智能与某些技术设备断开,使其与外部世界脱节,但这将不利于减少人工智能的优势力量,使其在回答人类的各种需求时能力下降。

第二个想法认为,在编码中实施道德原则将有助于编程人工超级智能以实现人类有益的目标,但它也有自己的局限性,因为人们必须严重依赖特定的算法行为,确保无论在什么情况下它都不会伤害任何人。只有复制AI的第一行为,同时分析恶意有害意图,这才足够了。

这一程序受到了研究人员的质疑和驳斥,他们肯定地披露,我们这个时代的现有计算标准无法处理这种算法的创造。

随着数字化的超级智能出现在我们生活的每一个技术层面,并且知道计算机和由计算机控制的机器遵循他们的编程代码,可以说,如果人工智能被人类编程为对另一个人造成伤害,它就会完全这样做,甚至当另一个人试图阻挡机器实现其目的时。

人工超级智能的运作需要使用互联网,而连接互联网是使机器生存的必要条件,这种连接使人工智能能够访问人类数据,使其能够独立学习。智力机器很可能在未来达到可以替代现有程序的程度,并获得对全球任何在线机器的权力。

但是,许多人都想知道,人类是否能够对抗超级智能人工智能,是否有必要的能力这样做,这促使一群计算机科学家进行理论计算,揭示了人类要赢得与数字超级智能的战斗是多么的不可思议和难以实现。

人类和机器中心数字动员小组负责人曼努埃尔·塞布里亚(Manuel Cebrian)对危险持谨慎态度,他说:“一台控制世界的超级智能机器听起来像科幻小说。但是已经有一些机器可以独立执行某些重要任务,而程序员却没有完全理解他们是如何学习这些任务的。因此,问题在于,这是否会在某个时候变得无法控制,对人类来说是危险的。”

但分析家们对超级智能人工智能的能力发表了看法,他们清楚地知道代码驱动的机器将提高人类的能力和效率,但也可能使人类的自主性、机构和能力受到严重威胁。

当人工智能变得过于强大时,人类的未来是什么?

一个没有答案的问题。

网友评论
文明上网,理性发言,拒绝广告

相关资讯

热点资讯
推荐图文

关注官方微信

手机扫码看新闻