LOADING...
LOADING...
LOADING...
当前位置: 玩币族首页 > 区块链资讯 > 比尔?盖茨:人工智能的风险真实存在,但也是可控的

比尔?盖茨:人工智能的风险真实存在,但也是可控的

2023-07-12 Yangz 来源:区块链网络

撰文:比尔?盖茨

来源:Gatesnotes

图片来源:由无界 AI工具生成

在处理突破性创新带来的问题方面,我们已经学到了很多。

人工智能带来的风险似乎难以承受。被智能机器夺走工作的人会怎样?人工智能会影响选举结果吗?如果未来的人工智能决定不再需要人类,并想要摆脱我们该怎么办?

这些都是合理的问题,它们所引发的担忧需要认真对待。但我们有充分的理由相信,我们能够解决这些问题:这并不是重大创新首次带来必须加以控制的新威胁,我们以前也遇到过。

无论是汽车的问世,还是个人电脑和互联网的兴起,人们都曾经历过其他变革时刻,尽管经历了许多动荡,但最终都获得了更好的发展。第一辆汽车上路后不久,就发生了第一起车祸。但我们并没有禁止汽车,而是采用了限速、安全标准、驾照要求、酒驾法以及其他道路规则。

现在的我们正处于另一场深刻变革的初期阶段,即人工智能时代。这类似于限速和安全带之前的不确定时代。人工智能的变化如此之快,我们还不清楚下一步会发生什么。我们正面临着由当前技术的工作方式、人们将如何恶意使用该技术以及人工智能将如何改变社会和个人所引发的重大问题。

在这样的时刻,感到不安是很自然的。但历史表明,解决新技术带来的挑战是可能的。

我曾经写过一篇文章,谈到人工智能将如何彻底改变我们的生活。它将帮助解决健康、教育、气候变化等方面的问题,而这些问题在过去似乎是难以解决的。盖茨基金会将其作为优先事项,我们的首席执行官 Mark Suzman 最近也分享了他对人工智能在减少不平等方面的作用的看法。

将来我会更多地谈论人工智能的好处,但在这篇文章中,我想谈谈我经常听到和读到的一些担忧,其中许多我也有同感,并解释一下我是如何看待这些担忧的。

到目前为止,从所有关于人工智能风险的文章可以清楚地看出一件事,那就是没有人知道所有答案。另一个清楚的点是,人工智能的未来并不像某些人想象的那样严峻,也不像其他人想象的那样美好。风险是真实存在的,但我乐观地认为这些风险是可以控制的。当我逐一阐述这些担忧时,我将回到以下几个主题:

人工智能引发的许多问题都有历史先例。例如,它将对教育产生巨大影响,但几十年前的手持计算器以及最近的允许计算机进入课堂也是如此。我们可以借鉴过去的成功经验。人工智能带来的许多问题也可以在人工智能的帮助下得到解决。我们需要调整旧的法律并采用新的法律 -- 就像现有的反欺诈法律必须适应网络世界一样。

在这篇文章中,我将重点关注已经存在或即将存在的风险。我不会讨论当我们开发一个可以学习任何主题或任务的人工智能时会发生什么,这与今天的专用人工智能不同。无论我们是在未来十年还是一个世纪内到达这一时刻,社会都需要考虑深刻的问题。如果超级人工智能设定了自己的目标怎么办?如果它们与人类发生冲突怎么办?我们是否应该制造一个超级人工智能?

然而,对这些长期风险的思考不应以眼前更直接的风险为代价。

AI 生成的深度造假和错误信息可能会破坏选举和民主

利用技术传播谎言和不实信息并不是什么新鲜事。几个世纪以来,人们一直通过书籍和传单这么做。随着文字处理器、激光打印机、电子邮件和社交网络的出现,这一切变得更加容易。

人工智能解决了伪造文本的问题,并对其进行了扩展,使几乎任何人都可以制作伪造的音频和视频,即所谓的深度伪造(Deepfake)。如果您收到一条语音消息,听起来像是您的孩子在说“我被绑架了,请在接下来的 10 分钟内向此银行帐户发送 1,000 美元,并且不要报警”,它所产生的可怕情感冲击力将远远超过一封说着同样内容的电子邮件。

从更大的范围看,人工智能生成的深度造假可能被用来试图影响选举。当然,对选举的合法获胜者产生怀疑并不需要复杂的技术,但人工智能将使其变得更加容易。

现在已经出现了伪造知名政客镜头的虚假视频。试想一下,在大选当天早上,一段显示某位候选人抢劫银行的视频在网上疯传。这是假的,但新闻机构和竞选团队花了几个小时才证明这一点。有多少人会看到这段视频并在最后一刻改变投票?这可能会使天平倾斜,尤其是在选情胶着的情况下。

最近,OpenAI 联合创始人 Sam Altman 在美国参议院委员会作证时,两党参议员都谈到了人工智能对选举和民主的影响。我希望这个话题能继续被提上每个人的议程。

我们当然还没有解决错误信息和深度造假的问题。但有两件事让我持谨慎乐观的态度。一是人们有能力学会不轻信一切表面价值。多年来,电子邮件用户深陷诈骗风波,有人会冒充尼日利亚王子许诺分享信用卡号码,以换取巨额回报。但最终,大多数人学会了三思而后行。随着诈骗手段越来越高明,许多目标也变得越来越狡猾。我们需要为深度伪造建立同样的能力。

另一件让我觉得充满希望的事情是,人工智能可以帮助识别深度伪造以及制造深度伪造。例如,英特尔已经开发出一种深度伪造检测器,而政府机构 DARPA 也正在研发识别视频或音频是否被篡改的技术。

这将是一个循环往复的过程:有人会找到检测造假的方法,有人会想出对付造假的办法,有人会开发出反制措施,如此循环往复。这不会是完美的,但我们也不至于束手无策。

AI 将使攻击人类和政府变得更加容易

如今,当黑客希望找到软件中的可利用漏洞时,他们会通过“蛮力”来实现 -- 编写代码,对潜在的弱点进行攻击,直到发现漏洞为止。这需要走很多弯路,因此需要时间和耐心。

想要对抗黑客的安全专家也必须这么做。您在手机或笔记本电脑上安装的每一个软件补丁,都象征着大量时间的搜索。

AI 模型将通过帮助黑客编写更有效的代码来加速这一过程。他们还能够利用个人的公共信息,如工作地点和朋友等,开发出比现在更先进的网络钓鱼攻击。

好消息是,人工智能是把双刃剑。政府和私营部门的安全团队需要拥有最新的工具,以便在犯罪分子利用安全漏洞之前发现并修复它们。我希望软件安全行业能够扩大他们在这方面已经开展的工作,这应该是他们最关心的问题。

当然,这也是为什么我们不应该像某些人建议的那样,试图暂时阻止人们实施人工智能的新发展。网络犯罪分子不会停止制造新工具。想要利用人工智能设计核武器和生物恐怖袭击的人也不会停止。阻止他们的努力需要以同样的速度继续下去。

在全球层面还有一个相关的风险:人工智能的军备竞赛,这种人工智能可以用来设计和发动针对其他国家的网络攻击。每个国家的政府都希望拥有最强大的技术,以阻止对手的攻击。这种“不让任何人抢先”的动机可能会引发一场制造日益危险的网络武器的竞赛。每个人的处境都会变得更糟。

这是一个可怕的想法,但我们有历史为鉴。尽管世界核不扩散机制存在缺陷,但它阻止了我们这一代人在成长过程中非常害怕的全面核战争。各国政府应考虑建立一个类似于国际原子能机构的全球人工智能机构。

AI 将夺走人们的工作

未来几年,人工智能对工作的主要影响将是帮助人们更高效地完成工作。无论是在工厂工作,还是在办公室处理销售电话和应付账款,都将如此。最终,人工智能将能够很好地表达自己的想法,为您撰写电子邮件并管理收件箱。通过简单的英语或任何其他语言撰写请求,你就可以得到你想要的 PPT。

正如我在二月份的文章中所说,生产力提高对社会有益。它让人们有更多的时间在工作和家庭中做其他事情。对助人为乐者的需求永远不会消失 -- 比如教书育人、照顾病人和赡养老人。但是,在我们向人工智能驱动的工作场所过渡的过程中,一些工人确实需要支持和再培训。这是政府和企业的职责所在,它们需要妥善管理,以免工人被抛在时代之后 -- 避免出现美国制造业工作岗位减少时发生的对人们生活的干扰。

此外,请记住,这并不是新技术第一次导致劳动力市场发生重大变化。我不认为人工智能的影响会像工业革命那样巨大,但它肯定与个人电脑引入时期的影响类似。文字处理应用软件并没有消除办公室工作,但却永远地改变了办公室工作。雇主和员工必须适应,他们也确实做到了。人工智能带来的转变将是一个崎岖的过渡,但我们完全有理由相信,我们能够减少对人们生活和生计的干扰。

AI 会继承我们的偏见,并胡编乱造

幻觉——指的是人工智能自信地提出一些根本不符合事实的主张——通常是因为机器不了解您的请求而发生的。让 AI 写一个去月球度假的小故事,它可能会给你一个富有想象力的答案。但如果让 AI 帮你撰写坦桑尼亚的旅行计划,它可能会把你送到一家根本不存在的酒店。

人工智能的另一个风险是,它反映甚至加剧了人们对某些性别、种族、民族等的偏见。

要理解为什么会出现幻觉和偏见,重要的是要知道当今最常见的人工智能模型是如何工作的。它们本质上是非常复杂的代码版本,可以让您的电子邮件应用程序预测您将要键入的下一个单词:它们扫描海量文本 -- 在某些情况下,几乎是网上所有可用的文本 -- 然后进行分析,找出人类语言中的模式。

当您向人工智能提出一个问题时,它会查看您使用的单词,然后搜索经常与这些单词相关联的文本块。如果你写下“列出煎饼的配料”,人工智能可能会注意到“面粉、糖、盐、发酵粉、牛奶和鸡蛋”等词经常与该短语一起出现。然后,根据它所知道的这些单词通常出现的顺序,它会生成一个答案。(以这种方式工作的人工智能模型使用了所谓的 Transformer。GPT-4 就是这样的模型之一)。

这个过程解释了为什么人工智能可能会产生幻觉或出现偏差。它没有你提出的问题或你所说的内容的上下文。如果你告诉 AI 它犯了一个错误,它可能会说“对不起,我打错了”。但这只是幻觉,实际上它什么也没输入。它之所以这么说,是因为它已经扫描了足够多的文本,知道“对不起,我打错了”是人们在别人纠正他们之后经常写的一句话。

同样,AI 模型也会继承它们所训练的文本中蕴含的偏见。如果一个人读了很多关于医生的文章,而文章大多提到男性医生,那么它的答案就会假定大多数医生都是男性。

尽管一些研究人员认为幻觉是一个固有的问题,但我并不同意。我很乐观地认为,随着时间的推移,AI 模型可以学会区分事实与虚构。例如,OpenAI 就在这方面做了很有前途的研究。

包括艾伦图灵研究所(Alan Turing Institute)和美国国家标准与技术研究院(National Institute of Standards and Technology)在内的其他组织也在致力于解决偏见问题。一种方法是在人工智能中构建人类价值观和更高层次的推理。这类似于有自我意识的人类的工作方式:也许你认为大多数医生都是男性,但你对这一假设有足够的意识,知道你必须有意识地与之斗争。人工智能也可以以类似的方式运行,特别是如果模型是由来自不同背景的人设计的。

最后,每个使用人工智能的人都需要意识到偏见问题,并成为知情的用户。你要求人工智能起草的论文可能会充满偏见和事实错误。你需要检查人工智能的偏见以及你自己的偏见。

学生不会学习写作,因为 AI 会替他们完成写作

许多教师担心 AI 会破坏他们与学生的合作。在一个只要能上网,任何人都能用 AI 写出一篇可圈可点的论文初稿的时代,有什么能阻止学生将其作为自己的作品上交呢?

已经有 AI 工具能够学会分辨文章是由人所写还是由电脑所写,这样教师就能分辨出学生是否在自己做作业。但一些老师并没有试图阻止学生在写作中使用人工智能——他们实际上鼓励这么做。

今年 1 月,一位名叫 Cherie Shields 的资深英语教师在《教育周刊》(Education Week)上撰文,介绍了她如何在课堂上使用 ChatGPT。ChatGPT 帮助她的学生完成了从开始写作到撰写提纲的所有任务,甚至还为他们的作业提供了反馈。

“教师必须接受人工智能技术,将其作为学生可以使用的另一种工具,”她写道。“就像我们曾经教学生如何进行正确的 Google 搜索一样,教师应该围绕 ChatGPT 机器人如何协助论文写作设计清晰的课程。承认人工智能的存在并帮助学生使用它可以彻底改变我们的教学方式。”并不是每位教师都有时间学习和使用新工具,但像 Cherie Shields 这样的教育工作者提出了一个很好的论点,即那些有时间的教师将受益匪浅。

这让我想起了上世纪七八十年代电子计算器开始普及的时候。一些数学老师担心学生会停止学习基本算术,但另一些老师则接受了这项新技术,并将重点放在了算术背后的思维能力上。

AI 还可以帮助写作和批判性思维。特别是在早期,当幻觉和偏见仍然是一个问题时,教育工作者可以让 AI 生成文章,然后与学生一起检查事实。我资助的可汗学院(Khan Academy)和开放教育资源项目(OER Project)等非营利性教育机构为教师和学生提供免费的在线工具,这些工具非常强调对论断的检验。没什么技能比知道如何辨别真假更重要了。

我们确实需要确保教育软件有助于缩小成绩差距,而不是使其变得更糟。如今的软件主要面向那些已经有学习动力的学生。它可以为你制定学习计划,为你指出好的资源,并测试你的知识。但是,它还不知道如何吸引你去学习你还不感兴趣的科目。这是开发人员需要解决的一个问题,以便让所有类型的学生都能从人工智能中受益。

下一步是什么?

我相信,我们有更多的理由乐观地认为,我们可以管理人工智能的风险,同时最大限度地发挥其效益。但我们需要快速行动。

各国政府需要积累人工智能方面的专业知识,以便制定应对这一新技术的知情法律法规。他们需要应对错误信息和深度伪造、安全威胁、就业市场的变化以及对教育的影响。仅举一例:法律需要明确哪些使用深度伪造是合法的,以及如何标注深度伪造,以便每个人都能了解他们所看到或听到的是假的。

政治领导人需要具备与选民进行知情的、深思熟虑的对话的能力。他们还需要决定在这些问题上与其他国家合作的程度,而不是单打独斗。

在私营领域,人工智能公司需要安全、负责任地开展工作。这包括保护人们的隐私,确保 AI 模型反映人类的基本价值观,最大限度地减少偏见,让尽可能多的人受益,并防止技术被犯罪分子或恐怖分子利用。许多经济领域的公司都需要帮助其员工过渡到以 AI 为中心的工作场所,这样就不会有人掉队。客户应始终知道他们是在与 AI 而非人类互动。

最后,我鼓励大家尽可能关注人工智能的发展。这是我们有生之年将看到的最具变革性的创新,健康的公共辩论将取决于每个人对这项技术、其好处和风险的了解。人工智能将带来巨大的效益,而相信我们能够控制风险的最好理由就是我们曾经做到过。

—-

编译者/作者:Yangz

玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。

LOADING...
LOADING...