马斯克资助的AI安全项目正在做什么

上传人:人*** 文档编号:546192535 上传时间:2023-05-19 格式:DOC 页数:4 大小:22KB
返回 下载 相关 举报
马斯克资助的AI安全项目正在做什么_第1页
第1页 / 共4页
马斯克资助的AI安全项目正在做什么_第2页
第2页 / 共4页
马斯克资助的AI安全项目正在做什么_第3页
第3页 / 共4页
马斯克资助的AI安全项目正在做什么_第4页
第4页 / 共4页
亲,该文档总共4页,全部预览完了,如果喜欢就下载吧!
资源描述

《马斯克资助的AI安全项目正在做什么》由会员分享,可在线阅读,更多相关《马斯克资助的AI安全项目正在做什么(4页珍藏版)》请在金锄头文库上搜索。

1、马斯克资助的AI平安工程正在做什么? 人工智能是一把双刃剑。如何让它只做对人类有益的事却不至于失控,拥有豪华科学参谋团队的生命将来研究所正未雨绸缪。 美国麻省理工学院教授、宇宙学家麦克斯泰格马克将致力于降低人类存在性风险的生命将来研究所官网Logo设计成一棵树是有意味的。这棵与众不同的树一边枝繁叶茂,另一边只剩下枯枝,似乎在暗示技术能给人类带来前所未有的繁盛,但也会让人类走向自我消灭。 麦克斯是生命将来研究所Future of Life Institute,简称FLI的结合创始人之一。如名所示,这是一个关注人类将来的组织,关注基因、核以及人工智能等各种现代技术的开展会为人类带来怎样的前景。 F

2、LI官网上列出的一长串科学参谋委员会成员名单,可谓大牌云集。这可能是由世界上最聪明、最具影响力的一群人组成的参谋团。 他们中有行事天马行空的特斯拉创始人埃隆马斯克,还有身兼导演、演员、编剧等身份,屡次获得艾美奖和金球奖的艾伦艾尔达,以及内地很多观众熟悉的影星摩根弗里曼。但更多的还是学术圈名人,著名物理学家史蒂夫霍金领衔一众来自哈佛、牛津、剑桥、麻省理工等院校的精英们,涉及基因、大脑、人工智能、物理、宇宙、数字经济等各个领域。 他们中的不少人曾在不同场合向媒体表达过对人工智能的担忧。去年12月,霍金承受BBC采访时称全面开展的人工智能可能成为人类的终结者,他主要担忧的是那些到达或者超越人类的人工

3、智能“他们会快速地开展和更新换代,但人类受制于缓慢的生物进化,无法与之抗衡,终将被取代。马斯克也有过“开展人工智能就像是召唤魔鬼的言论,他说:“就像所有的神话中画着法阵捧着圣水的邪恶巫师一样,每个巫师都声称自己可以控制恶魔,但最终没有一个成功的。 名人的担忧表达了时下这个社会流行且互相冲突的潮流:过去5年,人工智能得以快速开展,很多5年前或者多年前想象的事情如今已经发生了,从活泼在各种制造业工厂的机器人到大脑原型芯片TrueNorth,再到Siri、微软小冰等,人工智能已经陆续走进并改变着人们的生活,但机器越来越像人的同时也让它们的创造者深陷恐惧。 2022年3月,在麦克斯的倡导下,Skype

4、的创始人之一扬塔里安、哈佛大学统计学在读博士维克托维亚克拉克弗纳、加州大学圣克鲁兹分校理论宇宙学教授安东尼阿吉雷,以及拥有教育和哲学背景的波士顿大学在读博士米哈埃拉契塔共同成立了FLI。 依托于波士顿地区丰富的高校资源,FLI吸引了来自各个高校的志愿者。志愿者和创始人们经常在一起席地而坐进展头脑风暴,讨论工程、组织活动。 “出于对人类将来的关心,来自不同领域的我们聚在了一起。不同的专业背景和兴趣能让我们更好地完成使命。维克托维亚说。 彼时在商业上已经颇有成就的扬塔里安为初创的机构注入了开展资金。而真正让媒体和公众关注到这个组织的,那么是埃隆马斯克。今年年初,马斯克向FLI提供了1000万美元的

5、资助,用于AI平安的研究。 “我们应该主动出击 去年10月,马斯克在麻省理工学院航空航天系的百年研讨会上与学生们交流,聊的话题很“将来,计算机科学、人工智能、太空探究,还有火星殖民方案。有人问及他对人工智能的看法,这位科技狂人说:“我觉得我们应该非常小心人工智能。或许人工智能是我们所面临的最大的存在性威胁。我越来越倾向于应该有一些标准和监视,国家层面或者是国际层面的,从而保证我们不会做蠢事。 被很多媒体引用的“召唤魔鬼的言论就出自这场交流。麦克斯说他很欣赏马斯克的一个地方,就是他不仅说,而且真的会去做。 “马斯克关注人工智能的平安问题已经有一段时间了,这也促使他参加了CSER 存在风险研究中心

6、和FLI。维克托维亚说,“今年年初我们组织了一场AI会议,达成了很多研究方向的共识,马斯克希望让这些研究可以落地。 在宣布资助不久后的一次对话中,麦克斯问马斯克:“为什么对人类的将来这么有兴趣?先后创立了特斯拉、SpaceX的马斯克说这跟他小时候喜欢看科幻小说和哲学书籍有关,让他意识到,“我们应该做的是让生命在将来延续,尤其是有意识的生命。这样我们才可以更好地去理解宇宙的本质,到达更高的文明层次。 在与麦克斯的对话中,马斯克认为,将来科技将会从五个层面对人类社会产生宏大影响让生命多星球化、能源的可持续消费和使用、互联网的持续开展、对人类基因的重编码以及人工智能。马斯克创办的特斯拉和SpaceX

7、,前者专注于新能源的使用,减少人类交通对石油类能源的依赖,后者作为一家私营太空运输公司,旨在为人类进入太空铺路。 在对人工智能的态度上,马斯克的立场显得矛盾。他认为,AI最大的好处在于可以使人们从很多无聊、繁重的工作和测试中解放出来,并打破一些人类智慧尚未解决和难以控制的问题,比方治疗癌症、老年疾病等。 同时,他也认为,AI与基因技术一样是“双面的,可能带来混乱。“最好的方式是防止AI的负面影响出现,而不是等它出现之后再做出反响。有些AI的潜在威胁是很严重的。当风险很大的时候,我们应该主动出击而不是被动反响。 “当时做特斯拉和SpaceX,成功的几率可能只有两成。在马斯克看来,二者对人类社会都

8、是一种长期的优化,不宜急功近利。同样的,在资助FLI做人工智能平安研究这件事上,他也看得很长远,对钱的问题并不太计较,“并不是每个人都需要做这些事情,只是确实需要有人去做。假如我看到这些领域没有人在做,就会想也许我可以在这些事情上做点什么。 一切都是为了有益于人类 Skype的创始人扬塔里安曾打过一个比方,“开展先进的人工智能就像发射火箭,第一要务是使加速度到达最大,一旦它开场增速的时候,就得去关注控制与引导的问题。 FLI的创始人麦克斯并不是AI的反对派,不认为应该减缓人工智能的开展,但他希望调整人工智能的目的。这位来自麻省理工学院的教授告诉?博客天下?,开展人工智能的目的不应该是让机器更加

9、聪明更加智能,而是让它们更加忠诚且更有益于人类。 “做生物的人,他们并不想做生物武器,他们只想去做药品之类的对人类有益的事情;做化学的一样,他们不希望去研发化学武器,他们只想创造新的材料去帮助人类。对人工智能来说也是一样的,研发他们的人在最开场就应该想清楚这些东西将会走向哪里。麦克斯说。所以,FLI对参选工程的一个要求就是,“如何让AI更加有益于人类而不是简单地变得更加能干。 在大方向的指引下,还有详细的研究重点。FLI根据前期调研以及会议成果发布了一份文件,详细介绍了AI平安研究的短期和长期研究重点。短期研究重点关注那些已经初步显现的AI的影响与威胁,长期研究重点那么关注超级人工智能是否能实

10、现。 在得到马斯克的资助后,FLI开场了针对AI将来研究工程的征集与选拔。此前麦克斯和FLI的另一位创始人安东尼阿吉雷曾经运营过物理学领域的一个类似机构,他们对机构运营和工程管理有一定的经历,因此他们也为工程订立了一系列科学严谨的审批流程在收到各个研究团队的提案后,FLI将组织相应领域内公认的学者教授或者业内人士组成专家评审团,对工程进展同行评审。当然,FLI会保证评审者和工程申请者互相不知道对方的信息。 评审标准包括工程主要研究者及其团队的资格审查,工程本身的价值、科学严谨性和创新性,在给定时间框架内研究的可行性等。最终37个工程通过了审核。 之后,FLI与硅谷社区基金会下属的一个捐赠人指导

11、基金DAF合作确定每个工程分配多少钱。根据工程承接团队要求的资助金额,结合工程的影响力,DAF最终确定下分配的工程资金,并且后期负责与工程承当方在经费上的对接。 这些工程将获得为期3年的资助,大局部工程从今年9月份开场,工程承当者每年将给FLI提交报告汇报,FLI将组织相应的审核。 比失业更可怕的是失去尊严 牛津大学的尼克博斯特罗姆教授拿到了FLI的150万美元的最高资助。 这笔经费将用于筹建人工智能战略研究中心。这一中心将由牛津大学和剑桥大学结合成立,专注于为政府、行业指导者等提供政策研究支持,从而降低人工智能开展的风险,使其效益最大化。 尼克是牛津大学的哲学教授,专注于存在风险和人类将来的

12、研究,也是畅销书?超级智能:途径、危险、策略?一书的作者。尼克认为,人们有理由相信不受监管与约束的人工智能会带来相当大的危险,一方面是因为技术本身有了前所未有的才能,另一方面是因为政府的不负责任。像核裂变等高科技,政策走在了技术开展之后,使得这项技术的开展伴随着消灭性的风险。为了防止这种状况发生,人工智能平安战略的研究必须走在超越人类的实用人工智能广泛实行之前。尼克希望战略研究中心的成果可以为全世界的政府和从事AI行业的人所用。 尼克本人更加关注AI的长期开展,包括超级人工智能一类的议题,但是人工智能战略研究中心建成后也会关注AI造成的短期问题,例如失业问题。对这一问题,他个人的看法比拟乐观:

13、“我个人觉得到目前为止,我们还没有看到人工智能技术的应用与早前的技术进步浪潮带来的改变有什么不同一些工作会被淘汰,但新的工作也会出现。 但并非所有人都这么乐观。“我认为将来20年间,人工智能带来的失业问题是最令人担忧的。FIL的工程承当者之一,斯坦福大学博士迈克尔韦伯告诉?博客天下?,“不管你是一个拿着高收入的律师,还是流水线上消费iPad的普通工人,当你的雇主发现使用机器或者软件本钱更低时,你都有可能失业。 迈克尔说,人类在享受人工智能带来的经济增长和生活质量改善的同时,更应该去关注社会中每个人的幸福和尊严,尤其是可能被技术进步夺去工作的人。他的研究课题是“人工智能经济的优化过渡,他将根据相

14、关经济理论,针对不同情境下的AI开展,探究各种工种以及经济将会受到的影响,进而分析不同的税收、福利、教育、创新等政策会带来怎样的结果。“只有我们更明晰地理解这些状况后,政府以及个人才会做出更加明智的决定。 与AI影响下的失业以及经济优化这些贴近现实的研究相比,对超级人工智能的研究更为理论。这个工程由旨在为人类对抗威胁提供解决方案的全球风险研究所承接。 完成理论工程并不比解决现实问题更容易。全球风险研究所的执行理事赛斯鲍姆说:“工程研究最大的困难在于这是一项根本不存在的技术,甚至将来是否会出现也是问题。 赛斯和他的团队将根据既有的信息,利用故障树形图和影响图等风险决策分析方面的方法构建模型,试图

15、模拟出超级人工智能的开展途径以及不同的决策对这些途径的影响。 正确理解人类意图很重要 现阶段,麦克斯最担忧的是以纯粹的“目的导向来开展人工智能的趋势。 “机器没有邪恶或者仁慈之分。机器只会更加智能,变得更自信,它确信可以实现目的。假如你有一个非常自信而且比你更有才能的机器,它去完成它的一个目的任务时,你没有方法去阻止它。他说。类似的场景在热播美剧?硅谷?中有所呈现一辆无人驾驶的汽车按照既定程序开到了一个孤岛上,坐在车里的Jared完全无法阻止已经启动了程序的汽车,被迫困在车里长达4天多。 所以,如何让机器或者说人工智能不仅仅是去实现目的,而是去理解人们的真实想法,也是FLI资助很多工程的研究重点。 杜克大学的一个研究团队就尝试综合运用计算机科学、哲学和心理学的方法,去建立一个可以在现实场景中进展合理道德判断和决策的人工智能系统,类似于权利比方人类才有的隐私权、角色比方作为一个家庭成员、过去的行为比方承诺、动机与目的等影响道德判断的因素都会被AI系统参加进去。 尼克说自己无法准确答复自己的工程研究终究能带来什么。对于这些人类未知之事的研究,他认为,重要的是保持好的心态,“这是一个非常新的领域。带着开放的心态不断地去靠近、探究是很重要的。或许对外行

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 学术论文 > 其它学术论文

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号