咨询热线:021-80392549

为什么人工智能需要强大的道德指南针才能实现积极的未来

放大字体  缩小字体 发布日期:2022-11-15     来源:spiceworks     浏览次数:221
       2023 年,我们将开始看到一种提供数据、测试和监控结果的方法,以确保我们的算法具有道德指南针,就像阿西莫夫在 80 年前设想的机器人技术的三个基本定律一样。Macami.ai 的联合创始人兼首席执行官 Carlos Martin 强调,随着我们在合作中共同成长,需要在道德上合理的 AI 进化。

       1942 年,作家艾萨克·阿西莫夫(Isaac Asimov)在他的短篇小说《Runaround》中介绍了机器人三定律:

       第一定律:机器人不得伤害人类,或因不作为而让人类受到伤害。
       第二定律:机器人必须服从人类给它的命令,除非这些命令与第一定律相冲突。
       第三定律:机器人必须保护自己的存在,只要这种保护不与第一或第二定律相冲突。

       在这个故事以及随后的故事中,如我、机器人、二百周年纪念人或机器人系列,阿西莫夫描绘了一个人类在技术上远比我们先进的世界,智能机器人帮助完成家庭日常任务是一种商品,在那里他们是老人的陪伴,孩子的保姆,也是工人。这些机器人有所谓的正电子大脑,一种管理和处理它们的视觉、智能和运动功能的 CPU。

       在我们这个时代,可供企业和大众使用的是所谓的狭义人工智能;根据手头的任务,可以通过单独的渠道或 API 访问这种类型的人工智能。例如,对于自然语言处理,必须连接到一个或多个提供该类型 AI 的特定通道/API。对于计算机视觉,还必须连接到一个或多个特定通道/API。机器学习算法也是如此。除了实验性之外,我们今天还没有涵盖所有内容的人工智能。当然,有一些实验性的人工智能技术试图将其提升到一个新的水平,被称为通用人工智能,甚至更进一步,比如被称为 PLATO 的人工智能,

       人工智能对我们生活的深刻影响

       企业和公众使用的技术被认为是窄人工智能。即使人工智能处于真正的婴儿期,我们也看到了对我们生活的深刻影响。我们看到社交媒体正在为我们提供更多重申我们信念的内容,即使它们可能是错误的。如果你认为登月是假的,社交媒体的人工智能会发现更多内容让你感兴趣。很冷。它不在乎是否还有一百万个事实证明并非如此——它仍然会满足你的需求。为什么?很简单:钱。这些算法可以让你的眼球忙于那些内容,从而为你提供更多广告。干净利落。

       人工智能不会犯错:谁承担道德责任?

       我们有一些案例,人工智能错误地识别了一个感兴趣的人,或者人工智能视觉在识别有色人种方面存在更多问题,或者肯塔基州法院系统的案例,使用人工智能算法评估一个人的风险以确定保释的可能性只是后来才发现系统不成比例地将黑人确定为更高的风险,而以前几乎没有区别。我们已经看到人工智能算法会根据年龄丢弃人们的简历。还有微软的人工智能 Tay 的例子,在不到 16 小时的时间里,Twitter 被教导成为一个种族主义混蛋,它开始通过其 Twitter 账户发布煽动性和攻击性的推文,导致微软将其关闭。

       人工智能与以前的编码方法的区别在于,人工智能在很大程度上是一种统计算法,而以前的编码方法或语言是确定性的 if-then-else 流。传统上,我们已经看到编码实践演变为更严格的东西,并且演变了几种方法和实践:瀑布、敏捷、Scrum 等。实践和法规也演变为保护信息,例如 PCI(保护持卡人的信息) ),或 HIPAA(保护患者信息)等。

       这些方法和实践的目的正是为混乱的开发带来秩序,强制规划和设计实践,并为正在进行的任何开发带来严格的测试方法。最终目标是拥有可靠、有弹性的软件解决方案,既能解决需求,又能保护人们和企业的利益。

       如前所述,人工智能算法是不同的。华盛顿大学教授佩德罗·多明戈斯(Pedro Domingos)在他的《算法大师》一书中说得非常好:“学习算法是种子,数据是土壤,学习程序是种植的植物。机器学习专家就像农民一样,播种、灌溉和施肥,同时关注作物的健康状况,否则会置身事外。” 到目前为止,还没有普遍接受的方法可以将数据提供给当前的机器学习算法。在这些算法中也没有帮助确定是非的护栏。

       2022 年 10 月,白宫发布了《人工智能权利法案》的蓝图,其实质是试图确立人工智能系统必须安全、有效、无歧视、尊重数据隐私、公开使用并具有广泛人工监督的结构。在我看来,这是一个很好的开始尝试,然而,它并没有涵盖最尖锐和最明显的问题:它关注的是最终结果而不是开始。请允许我解释一下:要使 AI 系统符合 AI 权利法案的所有要求,它必须首先输入数据。干净利落。

       我相信在 2023 年,我们将开始看到新方法的扩散和成熟,以提供数据并测试 AI 算法的结果。在我看来,我们需要以类似的方式来考虑这些算法,就像我们认为人类需要有道德和价值观一样,重视公平和礼貌。很难认为它们需要道德指南针,但现实情况是这些算法会影响人类生活,这并不总是更好。

       携手共创未来

       当我们实施人工智能模型时,我们需要进行步骤、规划和设计。这些已经是传统软件开发过程中的常见做法。为什么不在人工智能中?我们需要问一些问题,例如这个模型是否适用于所有颜色和性别?这个模型是否被提供了等量的样本数据,这些数据公平地代表了它会影响的人?这种模式的结果是否平等地保护了公民的权利?这个算法有没有办法识别它不应该说的东西?

       简而言之,人工智能是一种比传统软件更先进的技术。为什么不采用一种方法来提供数据、测试和监控结果,以确保我们的算法具有道德指南针,就像阿西莫夫在 80 年前设想的机器人技术的三个基本定律一样? 
工博士工业品商城声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与商城(www.gongboshi.com)联系,本网站将迅速给您回应并做处理。
联系电话:021-31666777
新闻、技术文章投稿QQ:3267146135  投稿邮箱:syy@gongboshi.com
工业品代运营:您好,欢迎光临,我们将竭诚为您服务 广告业务:您好,欢迎光临,我们将竭诚为您服务 会员管理:您好,欢迎光临,我们将竭诚为您服务 售后服务:您好,欢迎光临,我们将竭诚为您服务 新闻投稿:您好,欢迎光临,我们将竭诚为您服务 战略合作:您好,欢迎光临,我们将竭诚为您服务 沪公网备31011402005898号