**人工智能对人类的潜在威胁:诺贝尔奖得主辛顿的观点**
2024年诺贝尔物理学奖得主、人工智能领域领军人物杰弗里·辛顿,近日发表了关于人工智能对人类未来影响的看法。
在接受采访时,辛顿表示,他认为人工智能在未来30年内导致人类灭绝的可能性在10%至20%之间。主持人询问该概率是否有所变化,辛顿表示并没有变化。
辛顿认为,开发比人类更智能的人工智能(AGI)可能会带来巨大的风险。他解释说,这种技术有可能超出人类的控制,对人类的生存构成威胁。
"我们目前面临的情况是,该领域的大多数专家认为,我们可能在未来20年内开发出比人类更智能的人工智能。这是一个非常可怕的想法。"辛顿说。
辛顿强调,仅仅依靠大型科技公司的利润动机并不能确保他们会安全地开发这项技术。他认为,政府的监管是迫使这些公司投入更多资源进行安全研究的唯一途径。