LOADING...
LOADING...
LOADING...
当前位置: 玩币族首页 > 新闻观点 > 人工智能的伦理困境

人工智能的伦理困境

2021-04-23 wanbizu AI 来源:区块链网络

无论您阅读什么报纸,杂志或杂志,您都最有可能在人工智能(AI)上找到一篇文章,通常将其归咎于“机器人接管”,而这项神秘技术是自原子弹发明以来最大的威胁。对人类。

此外,本周新闻界对欧盟法案的要求很高,试图在世界范围内首次规范这一方面的技术。

同时,开发人工智能应用程序的公司正在评论他们在最高级技术方面的创新,解释其将如何改变人们的生活,同时掩盖在营销过剩迷雾笼罩下的真实价值。

然后是技术本身-数学,数据和计算机科学-在开发者世界之外,撒旦教徒似乎是外行。

难怪公司高管对MI可以为他们的业务做什么感到困惑。 MI到底是什么? 你能做什么? 对企业有什么好处? 从哪儿开始? 这些都是合法的问题,到目前为止,我们还没有收到答案。

广义上的人工智能将对业务产生根本影响。 这是毫无疑问的。 它将改变决策,使您能够创建全新的业务模型,并使我们以前从未想到过的事情变得可行。

如今,企业已经使用人工智能来补充,改进甚至改变其运营方式。 更加开明的企业领导者已经在研究人工智能如何为他们的业务增加价值,寻求了解不同类型的技术,以及研究如何降低不可避免地带来的风险。

这些愿望中有许多是隐藏的或保密的,这是因为他们不希望在其产品或服务中广泛应用人工智能的应用,或者只是不想透露其提供的竞争优势。

对于希望通过人工智能结识朋友的管理人员而言,要找到所有相关信息而又不求助于富有想象力的文章,听取制造商的夸大说法或试图理解算法,这一直是一个挑战。

人工智能显然是“有意识的未知数”之一-我们知道我们做不到。 人们通常会以消费者的身份体验人工智能。 无论是Siri,Cortana还是Google助手,每个智能手机都可以访问复杂的人工智能。 人工智能已经通过Amazon Alexa和Google Home出现在我们的家庭中。 据说所有这些都使我们的生活更加轻松,他们通常做得很好。 他们中的大多数依赖于将语音转换成单词并用含义填充这些单词的能力。

我们现在在哪里?

人工智能:

可以在几分钟内阅读成千上万的法律合同,并从中提取所有有用的信息 它能够比放射科医生更准确地识别癌性肿瘤 能够在欺诈性信用卡使用发生之前对其进行检测 能够在没有驾驶员的情况下驾驶汽车 能够比人类更有效地运营数据中心 能够预测客户(和员工)何时离开我们 能够根据自己的经验进行学习和发展。

但是,除非业务主管简单而充分地理解什么是MI,以及您如何帮助他们的业务,否则他们将永远无法发挥全部潜能。

但是,道德是一个非常重要的问题!

尽管人工智能正在改变企业的运营方式,但人们仍对人工智能如何影响我们的生活感到担忧。 这不仅是科学或社会问题,也是公司的声誉风险。 没有公司愿意卷入数据或MI道德丑闻。

人工智能的伦理困境是什么?
自动化决策

MI算法也可能像人类一样有偏见,因为它们也是由人类产生的。 这些偏差使MI系统无法做出公平的决定。 我们在MI系统中遇到偏差的原因有两个:

开发人员以这种方式进行编程根本不会引起注意。 教学MI算法的历史数据可能不足以代表整个人群。

有偏见的AI算法可能导致对少数群体的歧视。 例如,亚马逊在使用一年后关闭了MI的招聘工具,因为其开发人员声称它对女性产生了不利影响。 通过MI工具选择的候选人中,大约60%是男性,这是由于亚马逊以前的招聘数据中的模式所致。

自主的事情

自主事物(AuT)是在没有人工干预的情况下以自主方式执行特定任务的设备和机器。 这些机器包括自动驾驶汽车,无人机和机器人。

自动驾驶汽车

2019年,自动驾驶汽车市场价值540亿美元,预计到2026年将达到5570亿美元。 但是,对于自动驾驶汽车,车辆的责任和责任制可能会受到质疑。

例如,在2018年,Uber的自动驾驶汽车撞到了一名行人,该行人后来在医院死亡。 该事故被记录为第一起与自动驾驶汽车相关的死亡。 经过亚利桑那州警方和美国国家运输安全局(NTSB)的调查,检察官裁定该公司对行人的死亡不承担刑事责任。 这是因为安全驾驶者的注意力已被他的手机分散了,警察的报告将事故称为“完全不可避免”。

致命自主武器(LAW)

法律是人工智能军备竞赛的要素。 根据已编程的限制和描述,可以独立识别和攻击目标。 当然,关于军事使用武装人工智能的道德规范的辩论正在进行中,联合国也将于2018年开会讨论这一问题。 一个名为“制止杀手机器人运动”的社区在一封信中写道,警告说有人工智能军备竞赛的危险。 这封信也是由斯蒂芬·霍金,埃隆·马斯克,史蒂夫·沃兹尼亚克,诺姆·乔姆斯基,贾恩·塔林和黛米·哈萨比斯等知名人士签名的。

自动化导致的失业

当前,这是对人工智能的最大恐惧。 根据CNBC的一项调查,有27%的美国人认为MI将在五年内消除他们的工作。 在18至24岁的年轻人中,这一比例为37%。

麦肯锡(Mckinsey)估计,到2030年,智能代理和机器人可以取代目前全球30%的人力资源。 根据不同的招聘场景,自动化将取代400和8亿个工作岗位,需要多达3.75亿人选择完全不同的工作岗位。

但是,目前尚不知道有多少人为避免上述情况开始了再培训或学习,以及每个国家如何根据上述情况来制定其教育政策。

人工智能的滥用
隐私-限制性监视做法

“大哥正望着你。” 我想每个人都知道乔治·奥威尔(George Orwell)1984年的社会科幻小说的名言。 尽管以科幻形式编写,但它已成为现实(?),因为政府使用人工智能进行大规模监视。 将面部识别技术引入监视系统引起了人们对隐私权的关注。

根据AI全球监视(AIGS)指数,有176个国家使用基于人工智能的监视系统,而自由民主国家是基于人工智能的监视的主要用户。 同一项研究表明,发达民主国家中有51%使用基于人工智能的监视系统,而封闭式独裁者中只有37%。 但是,这可能是由于这两组国家之间的福利差异所致。

从伦理的角度来看,重要的问题是政府是在滥用技术还是合法使用技术。

操纵人类的判断力

人工智能支持的分析可以提供有关人类行为的有用见解,但是,滥用分析来操纵人类决策在道德上是不正确的。 分析滥用最著名的例子是Facebook和Cambridge Analytica的数据丑闻。

Cambridge Analytica将在Facebook上获得的美国选民的数据出售给了政治竞选活动,为特德·克鲁兹和唐纳德·特朗普2016年总统竞选活动提供了帮助和分析。 有关隐私事件的信息于2018年发布,联邦贸易委员会因侵犯隐私而对Facebook处以50亿美元的罚款。

Deepfake的传播

Deepfake是合成产生的图像或视频,可以用他人的图像代替媒体中的一个人。

尽管大约96%的Deepfake都是色情视频,但四个最大的Deepfake色情网站的观看次数均超过1.34亿。 社会对深造假的真正危险和道德关注是如何利用它来伪造政治领导人的言论。

借助伪造品制作虚假的叙述会损害人们对媒体的信任(目前这种媒体已经处于低谷)。 这种不信任对社会来说是危险的,因为大众媒体仍然是政府向人们通报紧急情况(例如大流行病)的第一工具。

新世界就在我们面前。 你有两难吗?

关于作者

我是Kata Stier,律师,数字创作者,博客。 技术的情人。 三年前,通过我的工作,我开始处理加密货币和区块链技术。 自2020年夏季以来,我一直在专门为女性运行博客,以拉近第四次工业革命的成就。 通过四十多岁的普通女性的眼睛,人工智能,“物联网”,未来和新兴技术。

Stier Kata和Blockchainter的进一步联系:

面子书:https://www.facebook.com/blockchainter
Pinterest:https://www.pinterest.com/blockchainter
领英(LinkedIn):https://mt.linkedin.com/in/kata-stier-1702a498

—-

原文链接:https://www.bitcoinbazis.hu/a-mesterseges-intelligencia-etikai-dilemai/

原文作者:Stier Kata

编译者/作者:wanbizu AI

玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。

LOADING...
LOADING...