人工智能时代的技术也应该具有“价值”

来源:互联网

由于人工智能产生不确定性风险的可能性太高,任何研究和开发人工智能技术的人都应该负责其研究和开发。

在一些人工智能研究专家看来,目前人工智能技术的研究和开发与儿童玩炸弹一样危险。在这方面,拥有OpenAI和SpaceX等许多公司的美国企业家Elon Musk就是典型的。其公司OpenAI最近加入了包括牛津大学和剑桥大学在内的多家机构,发布了一份报告,调查恶意使用人工智能的潜在安全威胁形势,并提出了预测,预防和缓解威胁的方法。

人工智能的不确定性令人恐惧

总之,该报告认为,未来人工智能对人类智能造成的威胁主要包括三种类型。一是扩大或升级人类面临的现有威胁,使这些威胁更容易实施,降低成本;人工智能的出现带来的新威胁;第三,威胁的典型特征发生变化。

毫无疑问,人类目前处于人工智能黄金时代的黎明。 Siri和Alexa等数字个人助理的出现,自动驾驶汽车以及超越人类能力的许多有意义的算法正在帮助人类在社会和经济中发挥作用。在多个领域实现更好的目标。

但与许多其他技术行业不同,该领域的研究不受正式的安全法规或标准的约束,导致人们担心人工智能可能最终偏离人类控制的轨道,成为负担而非利益。常见的担忧包括人工智能取代人类工作者,剥夺了我们的权利并对我们的生存构成了威胁。后者是马斯克建立OpenAI和SpaceX等公司的重要原因。

从本报告的内容来看,人工智能对人类构成的威胁可以减少到两个。一个是当前威胁的扩展和升级。这种威胁实际上并不是最大的威胁。它的攻击属性和目标仍然很明确,但在人工智能技术的帮助下,它实现的方式和方法更加先进,有效和准确。这种可预测的威胁基本上可以通过升级或开发相应的技术和防御方法来解决。

但人工智能的真正恐惧在于其不确定性。从现有的人工智能技术来看,人工智能技术似乎只是过去其他科学技术的升级。但事实显然并非如此。它不像用蜡烛替代电力,甚至可以做出更独立的决定。而这一决定的过程可能超出了人类的控制范围。目前广泛使用的深度学习算法就是一个例子。因此,为了解决“黑匣子”深度学习的决策过程,许多研究人员也试图通过其他方式打开这个“黑匣子”。但人工智能的“黑屏”远不止于此。

这在OpenAI报告中提出的响应策略中也是一个不太令人信服的地方。面对诸多不确定因素,任何过于具体的对策都将过于狭隘和无效。但即便如此,我们必须积极寻求潜在的解决方案,而不是被动地等待变革。

通过“价值对齐”保护AI潜在威胁

值得关注和关注的是,过去反复提到的“无价值技术”的中立原则在人工智能技术中是不可行的。由于人工智能太可能产生不确定性风险,任何研究和开发人工智能技术的人都应该对其研究和开发负责,而不是“我只是使用工具,无论好坏”。该人决定“承担责任”。

虽然世界各国,公司和研究人员都不同意如何控制人工智能以及如何开发,但“价值调整”是一个普遍接受的标准,即人工智能的发展不能与人类价值观相抵触。

无论如何,即使上述分析在充满不确定性风险的人工智能面前令人沮丧,这也是人类面对人工智能的现实。因此,在制定更有效和更有说服力的战略以应对人工智能的潜在威胁之前,要保持人为控制,明确开发人工智能技术的责任,分享价值,通过多次迭代确保人工智能有益于人类发展和繁荣。人工智能技术,而不是快速发展,不断讨论和关注各种人工智能的发展是防止人工智能潜在劣势的最基本方法。

这也要求人类需要建立相应的管理机构,掌握全球人工智能活动,及时制定相关政策,确保人的安全和现有秩序的稳定。在这方面,政府官员需要加深对人工智能的理解,而不仅仅局限于简单的问题,如人工智能可能会被人类的工作所取代。

免责声明
• 
本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除。