现在电脑连接了我们所有人(现在电脑连接了我们所有人的热点)

小编:圣子 更新时间:2022-08-24

本文是在笔记本电脑上编写、编辑和设计的,这种可折叠、可移动的设备会让几十年前的计算机科学家们大吃一惊,简直就像魔术一样。这种机器包含数十亿个微小的计算单元,运行着由全球无数人共同编写的数百万行软件指令。无论点击、移动、打字或说话,结果都会无缝地显示在屏幕上。

现在电脑连接了我们所有人(现在电脑连接了我们所有人的热点)



计算机曾经大到塞满了整个房间,现在它们却无处不在,无处不见,如嵌入式手表、汽车引擎、相机、电视和玩具中,同时它们也管理着电网,分析科学数据,预测天气。可以这么说,如果没有计算机,现代世界的生活就不可能实现。现在科学家的目标是使计算机运行速度更快,程序更智能,而他们的努力建立在一个多世纪的创新之上。


计算机的历史

1833年,英国数学家查尔斯·巴贝奇设想了一种可编程机器,这种机器预见到了今天的计算结构,具有存储数字的“存储器”、操作数字的“处理器”、指令阅读器和打印机。这台可编程机器还有一些逻辑功能比如判断,“如果是X,那么是Y”。巴贝奇只构造了这个机器的一小部分,但通过巴贝奇的描述,他的朋友阿达·洛芙莱斯发现,洛芙莱斯是一位伯爵夫人而且还是诗人拜伦的女儿,她发现这种可编程机器操纵的数字可以代表任何东西。“一种新的、广泛的、强大的语言被开发出来,”她写道,洛夫莱斯成了这台机器操作的专家,在1842年她编写了人类史上第一个计算机程序,也经常被称为“第一个程序员”。

1936年,英国数学家艾伦·图灵提出了一种可以“重写它自己的指令”的计算机想法,即计算机可以不断地为自己自动更新程序,这使得计算机可以无限地编程,就像是计算机的套娃。艾伦·图灵的想法是,使用少量的操作词汇就可以模拟任何复杂的机器,因此这种机器被称为“通用图灵机”。

1943年,第一台可以真正意义上的电子数字计算机“巨像”(Colossus)问世,它的诞生是为了第二次世界大战期间用于英国破译战时密码。它使用了一种由英国物理学家弗莱明在1904年发明的真空电子管,这是一种控制电子流动的装置,用于替代可移动的机械部件。这使得“巨像”的运算速度很快,但工程师们每次想要执行新任务时,都必须手动重新接线。

也许是受到图灵关于更容易重新编程的计算机概念启发,创造了美国第一台电子数字计算机ENIAC的研究团队,准备为ENIAC的继任者EDVAC起草一个新的架构。作为20世纪最重要的数学家之一的冯·诺伊曼,在1945年最终确定了EDVAC的架构,他描述了一种将程序指令存储器和数据存储器合并在一起的存储器结构系统,这种设置现在被称为冯·诺伊曼架构,又称为普林斯顿架构,直到今天几乎所有的计算机都遵循这种模式。

1947年,贝尔电话实验室的肖克利、巴丁和布拉顿组成的研究小组发明了晶体管,这是一种通过施加电压或电流来控制两点之间电子流动的电路,它取代了速度慢、效率低的真空管。

1958年和1959年,德州仪器公司(TI)和仙童半导体公司(Fairchild Semiconductor)的基尔比和诺依斯各自独立发明了集成电路,在集成电路中,晶体管和它们的连接电路在一个芯片上加工完成。

很长一段时间,只有专家才能给计算机编程,在1957年,IBM发布了FORTRAN编程语言,这是一种更容易理解的编程语言,直到今天还在使用。1981年,该公司推出了IBM个人电脑,而微软则推出了名为MS-DOS的操作系统,这两家公司一起将电脑扩展到了家庭和办公室。

苹果在1982年推出了Lisa的操作系统,并紧接着1984年推出了Macintosh的操作系统,进一步实现了电脑的个性化。微软也不甘示弱,在1985年推出Windows 1.0版本操作系统一直更新至今。这两种系统都支持图形用户界面,为用户提供鼠标光标而不是命令行,这大大方便了普通人对计算机的应用。

现在电脑连接了我们所有人(现在电脑连接了我们所有人的热点)


“巨像”是世界上第一台可靠的可编程电子计算机,在第二次世界大战中帮助英国情报部队破译密码。

与此同时,研究人员一直在努力改变人们之间的交流方式。1948年,美国数学家克劳德·香农发表了《通信的数学理论》,使“比特(二进制) ”一词得到普及,奠定了现在信息论的基础。他的想法塑造了新的计算方法,特别是通过电线和无线电波共享数据。1969年,美国高级研究计划局创建了一个名为阿帕网(ARPANET)的计算机网络,后来与其他网络合并形成了互联网(Internet)。1990年,位于日内瓦附近的欧洲核子研究中心(CERN)的研究人员制定了数据传输规则,这些局部网络后来成为万维网(WWW)的基础。

这些计算机技术进步使人们工作、娱乐和交流的方式有可能继续以令人眼花缭乱的速度变化。但是处理器能有多好呢?算法能变得多智能?随着技术这些年的进步,我们应该看到哪些好处和危险?加州大学伯克利分校的计算机科学家斯图尔特•拉塞尔与人合写了一本很受欢迎的人工智能教科书,他认为计算机在“拓展艺术创造力、促进科学发展、充当个人助理、驾驶汽车等方面具有巨大潜力。”


追求速度

在很大程度上计算机说的是“比特语言”,它们以1和0组成的字符串存储信息,无论是文档、音乐、应用程序还是密码。同时它们还以二进制的方式处理信息,使晶体管在“开”和“关”状态之间切换。通常来说计算机中的晶体管越多,它处理比特的速度就越快。从更逼真的视频游戏到更安全的空中交通管制,让一切都有可能实现。

晶体管的组合构成电路的组成部分之一,称为逻辑门。例如,如果两个输入都为“开”,则逻辑门为“开”;如果至少有一个输入打开,则逻辑门为“开”。逻辑门一起组成了一个复杂的电子交通系统,这是计算机的物理实质,通常来说一个计算机芯片可以包含数百万个逻辑门。

逻辑门越多,晶体管越多,那么计算机就越强大。1965年,仙童半导体的联合创始人、后来的英特尔(Intel)的戈登·摩尔(Gordon Moore)写了一篇关于芯片未来的论文,题目为《将更多的组件塞进集成电路》(Cramming More Components to Integrated circuit)。他指出,从1959年到1965年,集成电路或者叫做芯片的晶体管数量每年翻倍,他预计这一趋势将继续下去。

在1975年的一次演讲中,摩尔指出了这种指数增长背后的三个重要因素:更小的晶体管、更大的芯片以及“设备和电路的智慧”,例如更少的空间浪费,他预计每两年翻一番。事实上他做到了,并且这一趋势持续了几十年,这就是芯片领域赫赫有名的“摩尔定律”

摩尔定律是经济学上的考量,因为总是会有让计算机更快、更便宜的动机。但在某个时刻,物理定律就会起到干扰作用,例如量子隧穿效应。芯片的发展不可能永远跟上摩尔定律,因为要使晶体管更小变得越来越困难。根据摩尔第二定律,芯片制造工厂的成本每隔几年就会翻一番。据报道,半导体公司台积电(TSMC)正在考虑建造一座耗资250亿美元的工厂。

如今,摩尔定律不再成立,晶体管数量翻倍的速度逐渐减缓。尽管我们继续在每一代芯片上添加更多的晶体管,但添加晶体管的速度却越来越低。英特尔晶体管设计负责人那塔金说:“我们相信,我们已经从目前被称为FinFET的晶体管结构中,挤出了所有你能挤出的东西”。在接下来的几年里,芯片制造商将开始生产新的晶体管结构,使设备速度更快,消耗的能源和空间更少。即使那塔金是对的,晶体管已经接近其最小尺寸的极限,但计算机仍然有很多需要改进的地方。通过摩尔的“设备和电路的智慧”,今天的电子设备可以包含许多种加速器,这些是为了特殊目的如人工智能、图形或通信等定制化设计的芯片,可以比通用处理单元更快、更有效地执行任务。

现在电脑连接了我们所有人(现在电脑连接了我们所有人的热点)


从1985年到2015年的计算机性能

直到大约2004年,晶体管的缩小伴随着计算机性能的提高(下面黑色表示行业基准)和时钟频率,即每秒运行的周期数(绿色),时钟频率越高,计算机性能越好。但2005年后,这种规律就不再适用,缩小的晶体管不再产生同样的好处。

未来某些类型的加速器可能有一天会使用量子计算,它利用了量子领域的两个特征。第一种是叠加,在叠加状态中,粒子不仅可以以一种或另一种状态存在,而是可以以某种状态的组合存在,直到这种状态被明确地测量出来。因此,量子系统不是以比特的形式来表示信息,而是以量子单元的形式来表示信息,量子单元在测量时可以保留为0或1的可能性。第二个是纠缠,即遥远的两个单元之间的相互依赖。这两个特征加在一起,意味着一个量子计算系统可以以指数方式表示比量子单元更多的可能性,包含所有1和0的同时组合。

量子计算可以有多种形式,但最普遍的一种形式是采用超导导线。这些导线必须保持在绝对零度以上几分之一的温度,即零下273摄氏度左右,以防止热的、抖动的原子干扰量子单元微妙的叠加和纠缠。

量子计算机有几个潜在的应用,例如机器学习,优化诸如火车调度,模拟真实世界的量子力学等。但它不太可能成为普通人的通用电脑,事实上我们不清楚如何使用它来运行文字处理器。

新芯片的概念

除了专业加速器外,还有许多新方法可以大幅提高通用芯片的速度。亚特兰大乔治亚理工学院的计算机科学家汤姆·孔特是IEEE重启计算倡议(IEEE Rebooting ComputingInitiative)的负责人,他指出了两种模式。第一种是超导,让芯片在足够低的温度下运行以消除电阻。

第二种模式是可逆计算,在这种模式中,比特被重复使用,而不是作为热量排出。1961年,IBM的物理学家罗尔夫·兰道尔将信息论和热力学结合起来,他注意到当一个逻辑门接收两个比特并输出一个比特时,它就会破坏一个比特,并以热量的形式将其以熵或其它随机性的形式排出。当数十亿个晶体管以每秒数十亿次的周期运行时,浪费的热量就会累积起来,这时机器就需要更多的电力来计算和冷却。阿尔伯克桑迪亚国家实验室(Sandia National Laboratories)从事可逆计算研究的计算机科学家迈克尔·弗兰克在2017年写道:“传统计算机本质上是一个昂贵的电加热器,它的一个副作用是恰好执行少量的计算。”

但在可逆计算中,逻辑门的输出和输入一样多。这意味着如果你反向运行逻辑门,你可以使用,比如说三个输出比特来获得三个输入比特。一些研究人员设想了一种可逆逻辑电路,它不仅可以节省那些多余的比特,还可以将它们循环用于其他计算。物理学家理查德·费曼得出的结论是,除了数据传输过程中的能量损失外,计算效率在理论上是没有限制的。

把可逆计算和超导计算结合起来,孔特说,“你会收到双重收益。”高效的计算机允许您在同一芯片上运行更多的操作,而无需担心电力使用或热量产生问题。最终其中一种或两种方法可能会成为超大规模计算的主干”。

软件改进

研究人员继续致力于晶体管、其他计算元件、芯片设计等硬件相关的新技术,如光子学、生物分子、碳纳米管。但是,仅仅通过优化软件代码,现在的计算机仍然可以从当前的硬件架构中获得更多改进

例如,在《科学》杂志2020年的一篇论文中,研究人员研究了两个矩阵相乘的简单问题,数学和机器学习中使用的数字网格。当团队选择了一种高效的编程语言并为底层硬件优化了代码时,计算的速度比Python语言的标准代码快了6万多倍,而Python语言目前被认为是用户友好且容易学习的。

麻省理工学院(MIT)的研究科学家尼尔•汤普森是《科学》(Science)杂志上这篇论文的合著者,他最近与人合作撰写了一篇论文,探讨算法的历史改进。算法是一组指令,根据人类设定的规则做出决策,用于排序数据等任务。“对于为数不多的算法来说,”他说,“它们的进展和摩尔定律一样快,甚至更快。”

几十年来,包括摩尔在内的人们一直预测摩尔定律的终结。进步可能放缓了,但人类的创新使技术保持快速发展。


追求智慧

从计算机科学的早期开始,研究人员就致力于让计算机复制人类的思维。艾伦·图灵在1950年发表了一篇题为《计算机器与智能》的论文,他在开篇写道:“我提议设想这样一个问题,‘机器能思考吗?’”他接着概述了一个测试,并称之为“模仿游戏”(现在称为图灵测试),在这个测试中,一个被测试者通过书写提问的方式同时与计算机和一个人交流,在这种交流过程中被测试者无法看见自己交流的对象是计算机还是人类,他必须通过书写的问题和相应回复来判断哪一个是人哪一个是计算机。如果这个被测试者无法判断差别,那么认为这台计算机是可以思考的。

“人工智能”一词最早出现在1955年达特茅斯学院(Dartmouth College) 夏季峰会的一项提案中。这个提案提出,“我们将进行一次尝试,寻找如何让机器使用语言、形成抽象和概念,解决目前留给人类的各种问题,并提高机器自身。” 峰会的组织者预计,在两个多月的时间里10个峰会的与会者将取得重大进展。

60多年过去了,现在还不清楚这些进展是否达到了当时夏季峰会上的预期。现在人工智能以各种方式围绕着我们:隐形的(例如过滤垃圾邮件)、值得关注的(例如自动驾驶汽车、在象棋或者围棋上打败人类),以及介于两者之间的(例如用智能手机聊天)。这些都是狭义的人工智能,能很好地完成一到两个任务,但是图灵的想法是一种“通用型人工智能”,根据需求可以完成大部分人类所做的工作。

现在电脑连接了我们所有人(现在电脑连接了我们所有人的热点)

世界国际象棋冠军加里·卡斯帕罗夫在1996年的一场比赛中击败了IBM的超级计算机“深蓝”。但在1997年的重赛中,电脑赢了

“我们可能永远无法实现通用型人工智能,但这条道路将引领许多有用的创新。”蒙特利尔麦吉尔大学(McGillUniversity)计算机科学家、人工智能公司DeepMind蒙特利尔研究团队负责人多伊娜•普莱普表示:“我认为我们已经取得了很大进展,但现在仍然缺乏的是对人类智力基本原理的理解。”

人工智能在过去十年中取得了巨大的进展,这在很大程度上归功于机器学习。此前计算机更多地依赖于符号化的人工智能,它使用基于人类设定规则的算法,然后机器学习程序通过处理数据来找到符合自己的模式。其中一种典型的模式是使用“人工神经网络”,人工神经网络是一种由简单计算元素组成的软件,可以模仿生物大脑的某些原理。具有几个或更多层次的神经网络共同构成了一种被称为“深度学习”的机器学习类型,这是目前很流行的一种机器学习模式。

深度学习系统现在可以比最优秀的象棋和围棋人类棋手玩得更好,它们可能比你更能从照片上辨认出狗的品种,他们可以把文本从一种语言翻译成另一种语言。它们可以控制机器人,作曲,预测蛋白质折叠的方式。但同时,他们也缺乏常识范畴内的许多东西,它们不了解世界运行的基本原理,无论是生理上还是社会上。例如,你我可能没有注意到的图像细微变化,可能会极大地影响计算机的识别能力。研究人员发现,在停车标志上粘贴一些无害的贴纸,会导致人工智能软件将该标志解读为限速标志,这对自动驾驶汽车来说是一个明显的问题。

现在电脑连接了我们所有人(现在电脑连接了我们所有人的热点)

即使有贴纸显示,人类也会认出这是一个停止标志,但经过测试自动驾驶汽车算法却没有认出


AI的前进方向

人工智能如何改进?计算机科学家正在利用多种形式的机器学习,不管这种学习是否“有深度”。

一种常见的形式是监督学习(supervised learning),在这种学习中,机器学习系统或模型会被提供标有标签的数据,比如狗的图像和它们的品种名称,但这需要大量的人类努力来给它们贴上标签。另一种方法是无监督学习,在这种学习中,计算机不依赖外部标签进行学习,就像我们在椅子周围走动时,从不同角度预测它会是什么样子一样。

另一种类型的机器学习是强化学习,即模型与环境相互作用,探索一系列行动以实现目标。强化学习使人工智能成为围棋等棋类游戏和《星际争霸2》等电子游戏的专家。

为了有效地学习,机器需要进行归纳,并可以从经验中得出抽象的原则。新墨西哥州圣达菲研究所(Santa Fe Institute)的计算机科学家梅勒妮·米切尔说:“智力的很大一部分,是能够将一个人的知识应用于不同的情况。”2019年,谷歌的人工智能研究人员弗朗索瓦·肖莱为机器创建了一种名为:“抽象和推理语料库”(简称ARC)的智商测试,在该测试中,计算机必须根据示例模式中演示的原则完成视觉模式。这些谜题对人类来说很简单,但到目前为止,对机器来说却很有挑战性。

讽刺的是,我们的许多抽象思维可能是基于我们的身体经验。我们使用概念隐喻,比如“重要=大”。GPT-3是研究实验室OpenAI于2020年发布的一种训练有素的语言模型,它表明,脱离实体的语言可能还不够。有了提示,它可以写出像人一样的新闻文章、短篇故事和诗歌。但在一个演示中,它写道:“需要两道彩虹才能从夏威夷跳跃到17岁。”“我玩了很多次,”米切尔说。“它能做不可思议的事情。但它也会犯一些非常愚蠢的错误。”

通用型人工智能可能还需要我们动物天性的其他方面,比如情感,尤其是当人类希望以自然的方式与机器互动时。情绪不仅仅是非理性的反应。我们已经进化了它们来指导我们的驱动力和行为。OpenAI的联合创始人兼首席科学家伊利亚·苏茨克弗表示,它们“给了我们这种额外的智慧活力”。即使AI没有和我们一样的意识感受,它也可能有近似于恐惧或愤怒的代码,事实上强化学习已经包含了类似于好奇心的探索元素。

现在电脑连接了我们所有人(现在电脑连接了我们所有人的热点)

仿人机器人iCub已经成为世界各国实验室研究人类认知和人工智能的研究工具

人类不是空白的石板。我们生来就具有识别人脸、学习语言和探索其它物体的特定倾向。机器学习系统也需要正确的固有结构来快速学习某些东西。采用什么样的结构是一个激烈争论的问题。苏茨克弗说,“我们想要最好的白板。”

人工智能的自我思考

人工智能本身可能会帮助我们发现新的人工智能形式。有一套称为AutoML的技术,其中的算法有助于优化神经网络架构或人工智能模型的其他方面。人工智能还帮助芯片架构师设计出更好的集成电路。去年,谷歌的研究人员在《自然》杂志上报道说,在他们设计的加速器芯片的某些方面,强化学习比他们的内部团队表现得更好。

通用型人工智能的到来可能还要几十年。“我们不了解我们自己的智力,”米切尔说,因为它的大部分是无意识的。“因此,我们不知道对人工智能来说什么是容易的,什么是困难的。”看似困难的事情往往容易,反之亦然——这一现象被称为“莫拉维克悖论”(Moravec's paradox),由机器人专家汉斯·莫拉维克提出。1988年,莫拉维克写道:“让计算机在解决智力测试问题或下棋方面表现出成人水平的表现相对容易,而让它们在感知和移动方面达到1岁儿童的水平则很难或不可能。”婴儿其实很聪明。普莱科普说,为了实现通用型人工智能的目标,“我们也对人类智力和一般智力有了更多的了解。”

图灵区分了一般智力和类人智力。在他1950年关于模仿游戏的论文中,他写道:“难道机器不会执行一些应该被描述为思考但与人类截然不同的事情吗?”他的观点是:你不需要像一个人一样思考就能拥有真正的智慧。

道德困境

在1942年的短篇小说《逃避》(Runaround)中,艾萨克·阿西莫夫(Isaac Asimov)笔下的一个角色列举了著名的“机器人三原则”:第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾;第三条: 机器人必须保护自己,除非这种保护与以上两条相矛盾。

我们可能会想象阿西莫夫的“正电子大脑”在对人类的伤害方面做出自主的决定,例如不再是类人机器人杀人。但这实际上不是电脑每天如何影响我们的表现,事实上人工智能是指“我们有了管理新闻推送的算法”类似的影响。随着计算机进一步渗透到我们的生活中,我们需要更加努力地思考要构建什么样的系统,以及如何部署它们这样的问题。

这是伦理学的领域,它似乎与数学、科学和工程的所谓客观性相距甚远。但是,决定对这个世界提出什么样的问题,建造什么样的工具,始终取决于我们的理想和顾虑。例如,研究像原子内部这样深奥的课题,对能源和武器都有明显的影响。哈佛大学的计算机科学家芭芭拉说:“有一个基本的事实,计算机系统不是价值中性的,当你设计它们的时候,你会把一些价值带入设计中。”

一个受到科学家和伦理学家大量关注的话题是公平和偏见。算法越来越多地为招聘、大学录取、贷款和假释等决策提供信息,甚至是发号施令。即使他们对某些群体的歧视比普通人要少,但他们仍然可能不公平地对待某些群体,不是故意的,而是经常因为他们接受的是有偏见的数据训练。例如,它们可以根据一个人之前的被捕情况来预测他未来的犯罪行为,即使不同群体因特定数量的犯罪而被捕的几率不同。

另一个问题是隐私和监控,因为电脑现在可以以一种以前无法想象的方式收集和分类信息。我们网络行为的数据可以帮助预测我们私人生活的各个方面,比如性行为。面部识别还可以在现实世界中跟随我们,帮助警察或威权政府。新兴的神经技术领域已经在测试将大脑直接连接到计算机的方法。与隐私相关的是安全——黑客可以访问被锁起来的数据,或者干扰心脏起搏器和自动驾驶汽车。

计算机也能使欺骗成为可能。人工智能可以生成看起来真实的内容。语言模型可能被用来为极端组织提供虚假新闻和招募材料。生成式对抗网络是一种深度学习,可以生成逼真的内容,可以帮助艺术家或创建深度伪造、图像或视频,显示人们在做他们从未做过的事情

在社交媒体上,我们也需要担心人们的社会、政治等观点的两极分化。一般来说,推荐算法优化用户参与度(平台通过广告盈利),而不是民间话语。算法还可以以其他方式操纵我们。机器人顾问——提供金融建议或客户支持的聊天机器人——可能会了解我们真正需要什么,或者按下我们的按钮,向我们推销无关的产品。

多个国家正在开发自主武器,机器人手中的枪支或导弹引发了科幻小说中终结者试图消灭人类的幽灵。他们甚至可能没有恶意,错误地认为他们正在通过消灭人类癌症来帮助人类。在更短的时间内,现实世界中的自动化系统已经造成了股市的闪电崩盘,例如量化交易。如果AI被要求做出生死攸关的决定,他们就会面临著名的电车问题,即在不是每个人都能获胜的情况下,决定牺牲谁或什么。

现在电脑连接了我们所有人(现在电脑连接了我们所有人的热点)

由于致命自主武器的存在,比如土耳其制造的STM无人机,专家们呼吁禁止那些可以在无需人工干预的情况下发动袭击的设备

还有关于如何在社会中管理技术的社会、政治和法律问题。当人工智能系统造成伤害时,谁应该承担责任?(例如,自动驾驶汽车已经导致了人员死亡。)我们如何才能确保更平等地获得人工智能工具及其好处,并确保它们不会歧视群体或个人?持续的工作自动化将如何影响就业?我们能管理数据中心对环境的影响吗?这些数据中心使用大量的电力。我们是否应该优先使用可解释的算法,而不是许多神经网络的黑盒以获得更大的信任和可调试性,即使这会使算法在预测方面更差?


我们能做些什么

宾夕法尼亚大学计算机科学家、2019年《道德算法》(the Ethical Algorithm)一书的合著者迈克尔·卡恩斯将这些问题置于可管理性的范围内。一方面是所谓的差异隐私,即向医疗记录数据集添加噪音的能力,这样它就可以与研究人员有效地共享,而无需透露太多的个人记录。我们现在可以用数学来保证个人数据应该如何保存。

介于两者之间的是机器学习的公平性。研究人员已经开发出一些方法,通过删除或改变有偏见的训练数据来增加公平性,或者最大化某些类型的平等——例如贷款——同时最小化利润的减少。某些类型的公平将永远处于相互冲突之中,数学无法告诉我们哪些是我们想要的。

另一端是可解释性。与公平性相反,公平性可以用多种数学方法进行分析,而解释的质量很难用数学术语来描述。“我觉得我还没有看到一个好的定义,”卡恩斯说。“你可以说,‘这是一个算法,它将使用一个训练有素的神经网络,试图解释它为什么拒绝你的贷款,’但(感觉不太有原则。”最终,如果受众不理解它,这就不是一个好的解释,衡量它的成功——无论你如何定义成功——都需要用户研究。

像阿西莫夫的三定律这样的东西不会把我们从试图帮助我们去伤害我们的机器人手中拯救出来。而且,即使这一列表扩大到一百万条法律,法律的文字与它的精神也不相同。一种可能的解决方案是所谓的反向强化学习,在这种学习中,计算机可能会根据我们的行为来解读我们真正看重的东西。



本文参考science news.文章,“Now that computers connect us all, for better and worse, what’s next?”,如有兴趣还可查阅原文。


如有侵犯版权还请告知,我们将在24小时内删除