当前位置> 常山生活网 > 科技 >

助人还是杀人:人工通用智能的奇幻可能性

来源:常山信息港 发表时间:2021-05-14 21:23
    人工智能与隐私与人权的未来
 
    当然,人工智能对大数据的依赖已经在很大程度上影响了隐私。看看剑桥分析公司(CambridgeAnalytica)的Facebook恶作剧或亚马逊(Amazon)的Alexa窃听,这两个都是科技疯狂的例子。批评人士认为,如果没有适当的监管和限制,情况会变得更糟。2015年,苹果首席执行官蒂姆?库克嘲笑竞争对手谷歌和Facebook贪婪驱动的数据挖掘。
 
    他在2015年的一次演讲中说:“他们正在狼吞虎咽地学习关于你的一切知识,并试图将其货币化。”。“我们认为这是错误的。”
 
    去年秋天,库克在比利时布鲁塞尔的一次谈话中阐述了他的担忧。
 
    他说:“通过收集大量个人资料来推进人工智能是懒惰,而不是效率。”。“人工智能要真正聪明,就必须尊重人的价值,包括隐私。如果我们弄错了,危险是深远的。”
 
    “如果负责任地实施,人工智能将造福社会。然而,与大多数新兴技术一样,商业和国家的使用对人权产生有害影响,这种实际风险是存在的。”对此很多人都表示同意。
 
    总部设在英国的人权和隐私组织Article19和privacyInternational最近发表了一篇论文,文章指出,人们对人工智能的焦虑只限于其日常功能,而不是像机器人霸主的出现那样的灾难性转变。
 
    “如果负责任地实施,人工智能可以造福社会,”“然而,正如大多数新兴技术的情况一样,商业和国家使用确实存在对人权产生有害影响的风险。特别是,这些技术的应用经常依赖于大量数据的生成、收集、处理和共享,包括个人和集体行为。这些数据可以用来分析个人和预测未来的行为。虽然其中一些用途,如垃圾邮件过滤器或网上购物的建议项目,可能看起来是良性的,但其他用途可能产生更严重的影响,甚至可能对隐私权以及言论和信息自由权(“言论自由”)构成前所未有的威胁。使用人工智能还可能影响其他一些权利的行使,包括获得有效补救的权利、获得公平审判的权利和免受歧视的权利。”
 
    助人还是杀人:人工通用智能的奇幻可能性
 
    2018年11月下旬在伦敦威斯敏斯特大教堂发表讲话,国际知名人工智能专家斯图尔特·罗素(StuartRussell)开玩笑说(或不开玩笑)“他与记者们达成了正式协议,除非他们同意不在文章中放一个终结者机器人,否则我不会与他们交谈。”他的调侃透露出对好莱坞代表的遥远未来人工智能的明显蔑视,后者倾向于过度劳累和世界末日。罗素所说的“人类级人工智能”,也被称为人工通用智能,长期以来一直是幻想的素材。
 
    拉塞尔解释说:“在我们制造出任何类似人类水平的人工智能之前,仍有一些重大突破需要实现。”。“一个例子是真正理解语言内容的能力,这样我们就可以使用机器在语言之间进行翻译……当人类进行机器翻译时,他们理解内容,然后表达出来。而现在机器并不擅长理解语言的内容。如果达到这个目标,我们就会有一个系统,可以阅读和理解人类所写的一切,而这是人类无法做到的。一旦我们有了这种能力,你就可以查询人类所有的知识,它就能够综合、整合和回答人类从来没有回答过的问题,因为他们没有阅读过,并且能够把在历史上一直保持分离的事物之间的点合在一起。”
 
    另外一个例子,如何让机器人具有思想。在这一方面,模仿人脑是非常困难的,这也是AGI仍然未能实现的另一个原因。密歇根大学(universityofmichigan)工程与计算机科学教授约翰莱尔德(johnlaird)在这一领域进行了几十年的研究。
 
    “我们的目标一直是试图建立我们称之为认知架构的东西,我们认为这是智力系统固有的东西,”他在谈到主要受人类心理学启发的工作时说。“例如,我们知道的一件事是,人脑实际上不仅仅是一组同质的神经元。在不同的组成部分中有一个真实的结构,其中一些与如何在世界上行为的知识有关。”
 
    这叫做程序记忆。然后是基于一般事实的知识,也就是语义记忆,以及关于先前经历(或个人事实)的知识,这被称为情景记忆。莱尔德实验室的一个项目涉及使用自然语言指令来教机器人一些简单的游戏,如井字游戏和拼图。这些指令通常包括对目标的描述、目标流程和目标结果的概述。机器人将这些指令内化并使用它们来计划自己的动作。然而,和以往一样,突破来得很慢,至少比莱尔德和他的同事们希望的要慢。
 
    “每一次我们取得进展,”他说,“我们也会对它的艰难有新的认识。”
 
    AGI真的是对人类生存的威胁吗?
 
    不止几个主要的人工智能人物(有些人比其他人更夸张)赞同一个噩梦场景,这个场景涉及到所谓的“奇点”,即超级智能机器接管并通过奴役或消灭永久改变人类的存在。
 
    已故的理论物理学家史蒂芬·霍金(StephenHawking)有一个著名的假设,即如果人工智能本身开始设计出比人类程序员更好的人工智能,结果可能是“智能超过我们如同人类超过蜗牛”。埃隆·马斯克(ElonMusk)相信并警告说,AGI是人类最大的生存威胁。他说,实现这一目标的努力就像是“召唤恶魔”。他甚至表示担心,他的朋友、谷歌联合创始人兼Alphabet首席执行官拉里?佩奇(LarryPage)可能会不顾自己的好意,意外地引导一些“邪恶”的东西存在。比如说,“一支人工智能增强型机器人舰队能够摧毁人类。”(你可能知道,马斯克有戏剧化的天赋。)即使是Onetrack的马克·琼吉希,在人工智能预测方面没有危言耸听,也不排除任何可能性。他说,在某个时刻,人类将不再需要训练系统;他们将自己学习和进化。
 
    “我不认为我们目前在这些地区使用的方法会导致机器决定杀死我们,”他说。“我认为,也许五年或十年后,我将不得不重新评估这一说法,因为我们将有不同的方法和不同的方法来处理这些事情。”
 
    虽然凶残的机器可能仍然是小说的素材,但许多人相信它们会以各种方式取代人类。
 
    去年春天,牛津大学人类未来研究所公布了一项人工智能调查的结果。人工智能何时能超越人类的表现?来自人工智能专家的证据,包含了352名机器学习研究人员对人工智能未来几年进化的估计。这群人中有许多乐观主义者。调查对象的中位数表示,到2026年,机器将能够撰写学校论文;到2027年,自动驾驶卡车将不再需要司机;到2031年,人工智能在零售业的表现将超过人类;到2049年,人工智能将成为下一个斯蒂芬·金,到2053年,人工智能将成为下一个查理·张。稍显刺耳的是:到2137年,所有人工工作将实现自动化。但是人类自己呢?毫无疑问,喝着机器人提供的遮阳伞饮料。
 
    DiegoKlabjan是西北大学教授,也是该校分析学硕士项目的创始董事,他认为自己是AGI怀疑论者。
 
    “目前,计算机可以处理一万多个字,”他解释说。“那么,有几百万个神经元。但是人类大脑有数十亿个神经元,它们以一种非常有趣和复杂的方式连接在一起,而目前最新的(技术)只是简单的连接,遵循非常简单的模式。所以,从几百万个神经元到数十亿个神经元,用当前的硬件和软件技术——我不认为会发生这种情况。”
 
    战争机器人与邪恶动机:人类如何使用AGI才是真正的威胁
 
    Klabjan更关心机器,例如战争机器人,被邪恶的人类错误的“刺激”喂养。正如麻省理工学院物理学教授、著名人工智能研究人员马克斯·泰格马克(MaxTegmark)在2018年的TED演讲中所言,“人工智能真正的威胁不是恶意,就像好莱坞愚蠢的电影中那样,而是能力——人工智能是否能实现与我们不一致的目标。”。
 
    他说:“我绝对看不出有什么东西醒来后决定要接管世界。”。“我认为这是科幻小说,不是人工智能将要上演的方式。”
 
    莱尔德最担心的不是邪恶的人工智能本身,而是“邪恶的人类利用人工智能作为一种武器”来进行银行抢劫和信用卡欺诈等罪行。因此,虽然他经常对AI进步的步伐感到沮丧,但AI的缓慢进展实际上可能是一种祝福。
 
    “是时候了解我们在创造什么了,以及我们将如何把它融入社会,”莱尔德说,“这也许正是我们真正需要的。”
 
    但没人能够确切知道。
 
    拉塞尔在威斯敏斯特的演讲中说:“必须要有几个重大突破,而且这些突破可能会很快实现。”。他提到了1917年英国物理学家欧内斯特·卢瑟福(ErnestRutherford)提出的核裂变(原子分裂)的快速转变效应,并补充道:“很难预测这些概念上的突破何时会发生。”
 
    但无论何时,如果他们这样做了,他都强调了准备的重要性。这意味着要开始或继续讨论在道德上使用转基因技术,以及是否应该对其进行监管。这意味着要努力消除数据偏差,因为数据偏差会对算法产生破坏性影响,目前是人工智能软膏中的一只大苍蝇。这意味着要努力发明和增强能够控制技术的安全措施。这意味着我们要谦虚地认识到,仅仅因为我们可以做,并不意味着我们应该做。
 
    泰格马克在TED演讲中说:“我们的技术状况很复杂,但整体相当简单。“大多数AGI研究人员预计AGI将在几十年内出现,如果我们只是毫无准备地进入这一阶段,这可能将是人类历史上最大的错误。它可能导致残酷的全球独裁,带来前所未有的不平等、监视、苦难,甚至可能导致人类灭绝。但是,如果我们小心驾驶,我们可能会在一个美好的未来结束,那里每个人都过得更好,穷人更富有,富人更富有,每个人都健康,都可以自由地实现自己的梦想。”
返回顶部

2010-2019 常山信息港 www.cscatv.comCo., Ltd. All Rights Reserved

郑重声明:网站资源摘自互联网,如有侵权,麻烦通知删除,谢谢!联系方式:vvv6666iii@gmail.com