站长搜索(www.adminso.com):人工智能太危险,霍金、马斯克真急了 站长搜索讯 1月12日消息,关于人工智能的是否会引发不可控事件的讨论一直没有停止。日前特斯拉CEO马斯克与科学家霍金等人签署了一封公开信,呼吁人们关注人工智能的安全性
站长搜索(www.adminso.com):人工智能太危险,霍金、马斯克真急了
站长搜索讯 1月12日消息,关于人工智能的是否会引发不可控事件的讨论一直没有停止。日前特斯拉CEO马斯克与科学家霍金等人签署了一封公开信,呼吁人们关注人工智能的安全性。
2014年创立的生命未来研究所(Future of Life Institute,简称FLI)发出了这封公开信,马斯克、霍金以及著名演员摩根・弗里曼(Morgan Freeman)都是该研究所科学顾问委员会委员。关注人工智能的各界人士在这封公开信中表示,随着科技的发展,人工智能将会对社会产生越来越大的影响,因此如何规避潜在的风险就显得尤为重要。
马斯克和霍金此前在公开场合就表达过对人工智能发展的担忧。马斯克多次表示人工智能很可能将召唤出恶魔,在五年内可能就会发生人类不可控的事情,他甚至还将人工智能视为超过核武器的人类最大威胁;而霍金则得出结论称“彻底开发人工智能可能导致人类灭亡。”
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!