谷歌前首席执行官埃里克·施密特警告人工智能开发者要控制他们的开发上限。他还强调了美国赢得与中国正在进行的人工智能(AI)竞赛的重要性。
周日,施密特在美国广播公司新闻节目乔治·斯特凡诺普洛斯的《本周新闻》中对人工智能系统dent运行甚至自我改进的潜力提出了警告。
“我们很快就能让计算机自行运行,决定它们想要做什么,”施密特说。
施密特重申了先进人工智能发展不受控制的风险,并指出能够自我改进的系统存在重大危险。
“当系统能够自我改进时,我们需要认真考虑拔掉它,”这位谷歌前首席执行官表示。
当斯蒂芬诺普洛斯问施密特,这样的人工智能系统是否可以对抗关闭它们的努力时,施密特回答说:“好吧,从理论上讲,我们最好有人把手放在插头上——打个比方。”
尽管人们对人工智能存在风险的担忧日益加剧,但一些专家认为这种担忧被夸大了。伦敦帝国理工学院研究副教务长尼克·詹宁斯教授是驳斥世界末日预言的人之一。
詹宁斯认为,虽然人工智能可以在特定任务中表现出色,但在不同领域创建具有类人智能的系统仍然远远超出了科学家目前的能力。
“开发能够很好地执行单一任务的人工智能是可以实现的, ”詹宁斯解释道。 “但是,在不久的将来,我们无法期望构建能够反映跨多个学科的人类智能的通用人工智能。”
与此同时,领先的人工智能研究人员仍然存在担忧,他们警告目标定义不defi和安全措施不足带来的危险。加州大学伯克利分校教授斯图尔特·拉塞尔和博士后学者迈克尔·科恩认为,如果不加以控制,强大的人工智能系统最终可能会对人类构成生存威胁。
在《科学杂志》上发表的一篇见解论文中,拉塞尔和科恩呼吁对人工智能的发展进行更严格的监督。他们强调科技公司需要在将其人工智能系统投放市场之前证明其安全性。他们认为,如果没有明确的目标和强有力的保障措施,先进的人工智能系统可能会损害人类的利益。
“如果这些人工智能的目标与人类的目标相冲突,可能会带来灾难, ”拉塞尔和科恩写道。他们认为科技公司应该负责确保其系统的安全,并dent人工智能永远不应跨越的关键“红线”。
人工智能的快速发展已经带来了挑战,包括虚假信息的传播、社会两极分化和算法偏见。对安全和监管的担忧尚未跟上技术发展的步伐。
施密特的言论反映出行业领导者应对这些挑战的紧迫性日益增加。 埃隆·马斯克等专家长期以来一直呼吁采取先发制人的监管措施来减轻人工智能风险。
马斯克曾将人工智能描述为“我们作为一个文明所面临的最大风险”, 他警告说,当局在解决其危险方面几乎没有采取任何措施。同样,物理学家史蒂芬·霍金担心,实现奇点(即机器超越人类智能的点)可能会让人类无法控制先进的人工智能系统。
霍金在接受采访时表示,如果没有监管,人工智能可能会成为“人类发生的最好或最坏的事情”。
施密特指出,虽然美国此前在人工智能发展方面领先于中国,但在过去六个月中,差距已显着缩小。他说:“中国以一种引人注目的方式迎头赶上。 ”他将当前局势描述为两个超级大国之间的一场高风险竞赛。
“也许在未来一两年内,系统可以开始进行自己的研究。他们被称为人工智能科学家,而不是人类科学家。所以你从 1000 名人类科学家变成了 100 万人工智能科学家。我认为这会增加坡度,当你以这种速度前进时,你的竞争对手很难赶上, ”他评论道。
施密特认为,即将上任的特朗普政府将优先考虑美国在人工智能领域的竞争力,他认为这是积极的一步。 “只要人类价值观得以保留,”他说,“我们应该没问题。”
90 天内开启您的 Web3 职业生涯并获得高薪加密工作的分步系统。