马斯克提出确保AI安全的三要素:“真理、美和好奇心”

特斯拉CEO埃隆·马斯克近日再次对人工智能的危险发出警告,并列出了他认为确保人工智能有积极未来的三个最重要因素。

当地时间11月30日,马斯克与印度企业家Nikhil Kamath进行了一次播客访谈。

马斯克在播客上说:“这并不是说我们一定会在人工智能方面有一个积极的未来。当你创造出一项强大的技术时,会有一些危险,一项强大的技术可能具有破坏性。”

马斯克此前曾警告说,“人工智能是人类文明未来面临的最大风险之一”,并强调,人工智能的快速发展正使其成为比汽车、飞机或药品更大的社会风险。

在最近的播客访谈中,这位科技亿万富翁强调了确保人工智能技术追求真相而不是重复错误的重要性。“这可能非常危险,”马斯克说。

“真理、美和好奇心。我认为这是人工智能最重要的三件事,”他说。

他说,如果不严格遵守真理,人工智能将从网络资源中学习信息,它“将吸收大量谎言,然后在推理方面遇到困难,因为这些谎言与现实不相容。”

他补充说:“如果你强迫人工智能相信不真实的事情,它就会发疯,因为它会得出同样糟糕的结论。”

“幻觉”——不正确或误导性的反应——是人工智能面临的主要挑战。

马斯克补充说,“对美的欣赏力是很重要的,当你看到它的时候你会知道它。”

马斯克还说,人工智能应该有好奇心,想要更多地了解现实的本质,因为人类比机器更有趣。

“看到人类的延续(如果不是繁荣的话)比人类的灭绝更有趣,”他说。

被称为“人工智能教父”的谷歌前副总裁、计算机科学家杰弗里•辛顿(Geoffrey Hinton)今年早些时候在《CEO日记》播客的一集节目中表示,人工智能有“10%到20%的可能性”将“消灭我们”。他列举的一些短期风险包括“幻觉”和入门级工作的自动化。

辛顿补充说:“我们希望,如果足够聪明的人用足够的资源做足够的研究,我们就能找到一种方法来建造它们,这样它们就永远不会想要伤害我们。”

责任编辑:于健 SF069

免责声明:

1、本网站所展示的内容均转载自网络其他平台,主要用于个人学习、研究或者信息传播的目的;所提供的信息仅供参考,并不意味着本站赞同其观点或其内容的真实性已得到证实;阅读者务请自行核实信息的真实性,风险自负。

2、如因作品内容、版权和其他问题请与本站管理员联系,我们将在收到通知后的3个工作日内进行处理。