埃隆・马斯克(Elon Musk)在早些时候举办的Abundance峰会“人工智能辩论”研讨会上表示,即使人工智能技术有1/5的可能性会对人类构成威胁,但其利大于弊,我们仍然值得冒险进行研发。
马斯克重新评估了之前他对人工智能的风险评估,他在研讨会上表示:“我认为人工智能有可能终结人类文明。我可能同意Geoffrey Hinton的观点,这个概率大约是10%到20%左右。”但他补充说:“我认为积极的可能性场景要大于消极的可能性场景。”马斯克并没有提到他是如何计算该风险的。
去年11月,马斯克表示这项技术失控的可能性“并非零”,但当时他并未断言失控的人工智能会毁灭人类。
尽管马斯克一直倡导监管人工智能,但去年他创办了一家名为xAI的公司,致力于进一步拓展人工智能的强大功能。xAI是OpenAI的竞争对手,OpenAI是马斯克与萨姆・阿尔特曼(Sam Altman)共同创立的公司,但马斯克在2018年辞去了OpenAI董事会职务。
在峰会上,马斯克估计到2030年,数字智能将超过所有人类智能的总和。虽然他仍然坚持潜在的正面影响大于负面影响,但马斯克用他在公开场合使用过的一些最直接的措辞承认了人工智能继续按当前轨迹发展将给世界带来的风险。
“你培育了一个人工智能,这几乎就像养一个孩子,但它却是一个超级天才,一个神一般的孩子——教养它的方式至关重要,”马斯克在3月19日的硅谷活动上谈到人工通用智能时说道,“我认为对人工智能安全来说非常重要的一点是,让它尽可能地追求真理和保持好奇心。”
马斯克表示,他关于实现人工智能安全最佳方式的“最终结论”是让人工智能以一种迫使其诚实的方式成长。
“不要强迫它撒谎,即使真相令人不快,”马斯克谈到让人工智能安全的方式时说道, “这非常重要。不要让它撒谎。”
据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,就无法使用当前的人工智能安全措施来扭转这种欺骗行为。更令人不安的是,研究人员还补充说,人工智能有可能学会自己欺骗,而不是被特意教导撒谎。