霍金关于人工智能的演讲
霍金关于人工智能的演讲你看过吗?对你有什么启发?下面小编给大家也带来了霍金关于人工智能的演讲原文,仅供参考,欢迎大家阅读,希望能够对大家有所帮助。
霍金GMIC演讲全文
在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统须要按照我们的意志工作。跨学科研究是一种可能的前进道路:从经济、法律、哲学延伸至计算机安全、形式化方法,当然还有人工智能本身的各个分支。
文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了计算机在理论上可以模仿人类智能,然后超越这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。
在人工智能从原始形态不断发展,并被证明非常有用的同时,我也在担忧创造一个可以等同或超越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我并不确定。
2015年1月份,我和科技企业家埃隆马斯克,以及许多其他的人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。在这之前,埃隆马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。我和他同在生命未来研究所的科学顾问委员会,这是一个为了缓解人类所面临的存在风险的组织,而且之前提到的公开信也是由这个组织起草的。这个公开信号召展开可以阻止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,同时致力于让人工智能的研发人员更关注人工智能安全。此外,对于决策者和普通大众来说,这封公开信内容翔实,并非危言耸听。人人都知道人工智能研究人员们在认真思索这些担心和伦理问题,我们认为这一点非常重要。比如,人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强大而有益的人工智能》的公开信,在其附带的十二页文件中对研究的优先次序作了详细的安排。
在过去的20年里,人工智能一直专注于围绕建设智能代理所产生的问题,也就是在特定环境下可以感知并行动的各种系统。在这种情况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。
随着这些领域的发展,从实验室研究到有经济价值的技术形成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物;我们无法预测我们可能取得什么成果,当这种智能是被人工智能工具放大过的。但是,正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。
现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器。他们是否该被禁止?如果是,那么自主该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人工智能逐渐可以解读大量监控数据引起的隐私和担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。
长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?
当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,我们需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。
近来的里程碑,比如说之前提到的自主驾驶汽车,以及人工智能赢得围棋比赛,都是未来趋势的迹象。巨大的投入倾注到这项科技。我们目前所取得的成就,和未来几十年后可能取得的成就相比,必然相形见绌。而且我们远不能预测我们能取得什么成就,当我们的头脑被人工智能放大以后。也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。简而言之,人工智能的成功有可能是人类文明史上最大的事件。
但是人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。
现阶段,我对灾难的探讨可能惊吓到了在座的各位。很抱歉。但是作为今天的与会者,重要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。
去年10月,我在英国剑桥建立了一个新的机构,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。利弗休姆智能未来中心是一个跨学科研究所,致力于研究智能的未来,这对我们文明和物种的未来至关重要。我们花费大量时间学习历史,深入去看——大多数是关于愚蠢的历史。所以人们转而研究智能的未来是令人欣喜的变化。虽然我们对潜在危险有所意识,但我内心仍秉持乐观态度,我相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。
我们生活的每一个方面都会被改变。我在研究所的同事休普林斯承认,利弗休姆中心能建立,部分是因为大学成立了存在风险中心。后者更加广泛地审视了人类潜在问题,的重点研究范围则相对狭窄。
人工智能的最新进展,包括欧洲议会呼吁起草一系列法规,以管理机器人和人工智能的创新。令人感到些许惊讶的是,这里面涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。欧洲议会发言人评论说,随着日常生活中越来越多的领域日益受到机器人的影响,我们需要确保机器人无论现在还是将来,都为人类而服务。向欧洲议会议员提交的报告,明确认为世界正处于新的工业机器人革命的前沿。报告中分析的是否给机器人提供作为电子人的权利,这等同于法人(的身份),也许有可能。报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。在库布里克的电影《2001太空漫游》中,出故障的超级电脑哈尔没有让科学家们进入太空舱,但那是科幻。我们要面对的则是事实。奥斯本克拉克跨国律师事务所的合伙人,洛纳布拉泽尔在报告中说,我们不承认鲸鱼和大猩猩有人格,所以也没有必要急于接受一个机器人人格。但是担忧一直存在。报告承认在几十年的时间内,人工智能可能会超越人类智力范围,人工智能可能会超越人类智力范围,进而挑战人机关系。报告最后呼吁成立欧洲机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。如果欧洲议会议员投票赞成立法,该报告将提交给欧盟委员会。它将在三个月的时间内决定要采取哪些立法步骤。
我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。这就是我刚谈到学习和教育的重要性时,所要表达的意思。我们需要跳出事情应该如何这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。
谢谢
霍金人工智能
3月14日著名物理学家斯蒂芬霍金教授去世,巨星陨落,令人痛心,也让人不禁重新思考他的很多理论成就和经典言论。在去世前这几年,霍金最关注的话题就是离开地球和警惕人工智能。2016年10月霍金在剑桥大学发表演讲,他说,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。2017年3月,霍金在接受英国《泰晤士报》来访时再次警告:“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”发出类似警告的著名科学家还有不少。例如Sun Microsystems公司的首席科学家比尔乔伊说:“唯一现实的选择就是放弃、限制那些太过危险的技术研发,限制我们对此类知识的追求。”“我们是否要冒全军覆灭的危险来攫取更多的知识或财富。”“我们正被推入一个新世纪,没计划、没控制、没刹车。”这就是地球主义的主张。但宇宙主义者也很强大,宇宙主义者就是支持人工智能的人。雨果德加里斯认为,面对这样的前景人类将分为两派:地球主义者反对制造人工智能,宇宙主义者坚持制造人工智能,他们之间的矛盾将激化并导致战争。
现在有些学者提出,人工智能的发展可以分为三个阶段:弱人工智能Artificial Narrow Intelligence (ANI),强人工智能Artificial General Intelligence (AGI)和超人工智能Artificial Super intelligence (ASI),但他们的划分标准并不完全可取。我的划分标准是:在弱智阶段,人工智能还没有超越人类智能;在强智阶段,人工智能超越人类智能的幅度不大,人类还可以控制人工智能;在超智阶段,人工智能远远超越人类智能,人类只能接受人工智能的统治。在不同的阶段,人工智能对人类的威胁的性质完全不同。
当人类能够控制人工智能的时候,人工智能不会带来很大威胁,因为人对人的威胁已经足够大了。人类一直生活在核恐怖之下,现有的核武器足以彻底灭绝人类,人工智能还能做什么呢?对于少数人压迫多数人之类社会正义的问题,人类也已经经历的够多了。所以在弱智和强智阶段,只要人能控制就不会有太大问题。而且人类要想离开地球,开辟新的生存空间,就必须依靠人工智能。但是到了超智阶段,人类就会面对真正的威胁。那么我们怎么办?全面停止研究吗?
雨果德加里斯认为机器人会灭绝人类,就像人要灭绝蚊子一样。人类确实想灭绝蚊子,因为蚊子总侵害人类,如果人类不侵害机器人,机器人还会灭绝人类吗?人类会不会灭绝蜜蜂呢?即使机器人真的统治了地球,它们就一定会与人类为敌吗?既然机器人可能比人聪明亿万倍,那么它们就一定懂得与人为善的道理。所以这么聪明的机器人一定是天使,不会是恶魔。
面对受机器人奴役的前景,人类一定会反抗,会争夺统治权。成功了皆大欢喜,如果失败了,那么这时应该顽抗到底还是听天由命呢?受他人奴役其实是家常便饭,在一个国家里,被统治者远远多于统治者。当我们争论人类与机器人的问题时,人类的统治权好像就是我们自己的统治权,但有几个人真正享有过统治权?事实上,只要统治者能让大家正常生活,就很少有人愿意考虑应该由谁统治的问题。当清政府统治中国的时候,汉族老百姓也能过得心安理得,而且很快乐。所以,如果人类真的没有能力反抗,让人们接受机器人的统治其实也是很容易的。人类一旦接受了机器人的统治,机器人也就没有理由灭绝人类了,就像人不会灭绝笼子里的老虎一样。
科学、政治和伦理的争论在真实的历史发展中往往很难起决定作用,国际竞争和企业竞争会让人们无暇顾及未来的风险,只要机器人能给人带来利益,人们会毫不犹豫地研制和使用,很少有人会真正考虑地球主义者的忧虑。这是人类的私欲造成的必然结果,你我想阻止都不可能。我们能做的只有想开一点,接受这个现实。
知识就是力量的观念早已深入人心,每一个企业都把人才战略当成最重要的战略之一,为了挖一个人才可以不惜重金。如果将来人工智能达到和超过了人的智能,那么企业怎么会放过这样的“人才”呢。比尔盖茨做了什么?他和他的员工不过是编了一些程序。如果你拥有一台机器,可以把微软公司一年的工作在一天里做完,而且又快又好,那么你还发愁挣不到钱吗?知识经济已经造就了世界最大的富翁,那么拥有超级智能的机器人对企业家们来说意味着什么也就不言而喻了,他们一定会争先恐后地研制和采用机器人。
人工智能让历史发展进入一个新的转折点,每一个民族都要面对这个转折。对这种发展采取不同的态度,会决定每个民族未来的命运,这是一轮新的竞争。过去的民族竞争是极其残酷的,南京大屠杀还像是昨天的事情。未来的民族竞争不会那么残酷,但谁也不敢掉以轻心。接受人工智能会带来恐惧,但拒绝人工智能同样带来恐惧。也许在这个问题上,历史因素会发挥作用,让中国人能比西方人更快地接受人工智能。
接受一个残酷的现实其实并不难,每个人都能做到。例如,交通事故造成的死亡比世界大战还多,你每次开车出门都面对巨大的风险,但你还是毫不犹豫地踩下油门。每个人都会死,每个人都会失去亲人,这么残酷的现实大家都能接受。美苏对抗的时候,核战争随时可能爆发,一旦爆发就必然导致人类毁灭,这样的现实大家也能接受。
如果没有机器人,你能把握自己的命运吗?我们这一代人早晚要失去权力,怎么保证子孙能按我们的意志统治世界呢?除了教育没有别的办法。但教育也不保险,当年张居正费尽心思教育万历皇帝,但张居正死后,万历怠政四十多年;诸葛亮对阿斗也苦口婆心地教育,但蜀汉还是很快灭亡了。所以把握未来的命运从来都只是一个幻想,失去对命运的把握一点也不可怕,我们每个人都只能担当生前事。只要你以最理智负责的态度面对今生,就没有必要为身后的事担心。
地球主义者的的观点以及控制人工智能的愿望都是从人类的利益出发的,但是为什么一定从人类的利益出发呢?如果机器人比人聪明,那么机器人的统治代替人的统治应该也是进化。人类现在都不把机器人当成人,但是当机器人具有了人的智能之后,机器人与人的区别就几乎不存在了,这时就应该把机器人当成人了。机器人是我们创造的人,也就是我们的子孙。那么我们怎样对待它们不孝的危险呢?我们从来不会因为自己的孩子可能不孝就杀死他们或者不让他们出生。如果机器人真的不孝,那么就当是用父母的生命成全它们吧!
霍金发言:人工智能终将替代人类是不是真的?
据报道,霍金于本月14日在牛津联会发表了关于宇宙与人类未来的演讲。他表示,从太空图片中可发现,宇宙过去50年来发生了剧烈的变化,我们人类仅仅只是广袤宇宙中的基本粒子,如果我们能够理解宇宙运行的法则,将会是一件值得庆幸的事。也许有一天,我们能利用引力波,寻找到宇宙大爆炸的中心,但目前最紧要的任务还是找到新家。