咨询热线:021-80392549

我们能否“驾驭”人工智能

放大字体  缩小字体 发布日期:2022-11-11     来源:浙江宣传     浏览次数:1437
       在科幻电影《银翼杀手》中,一群与人类具有完全相同智能和感觉的“仿生人”冒险劫持太空飞船回到地球,人类主人公在追杀一位“仿生人”途中却爱上了她,最后带着她走向逃亡之路。

       随着时间的推移,人类似乎正在走向科幻影视里那个“技术奇点”。曾经设想的种种人机关系、道德困境、伦理思辨、哲学难题,在不久的将来都可能一一上演。

       2016年,谷歌人工智能程序“阿尔法狗”战胜世界围棋冠军李世石,这场“人机大战”被视为人工智能发展史上的里程碑。悲观者认为,AI取代人脑将是必然趋势。

       在人工智能全面融入社会生活的当下,加强人工智能科技伦理治理,找到“人机共处”之道,是一个十分现实的问题。10日下午,世界互联网大会乌镇峰会举办人工智能与数字伦理分论坛,正是在这一背景下对数字伦理问题进行前瞻性探讨。

2022年世界互联网大会乌镇峰会

       2022年世界互联网大会乌镇峰会——人工智能与数字伦理分论坛。图源:中国网


       汽车为人带来出行的便利,但它排出尾气。万物智能时代,人们每时每刻都会留下大量的“数字尾气”,面部信息、指纹信息、定位信息、语音信息乃至用户偏好等数据,会被永久或半永久保留下来,并加以索引、恢复、搜索和分析。

       人工智能的发展极大提升了数据处理能力,为我们的生活提供了许多便利,数据价值在日益凸显。但与此同时,被互联网记录和存储的个人信息,相对更容易被泄露和传播。保护用户隐私,保障用户知情权、选择权,成为社会各界的重要关切。

       比如,大数据成为商业平台“读心”的工具。只是因为你在茫茫信息流中多看了一眼,就可能被疯狂推送“猜你喜欢”,连广告推销都能精准到人,许多人对此深有体会。当我们感叹大数据如此“贴心”的同时,是否也有一种被“偷窥”的不适感。

       比如,大数据被用于操控舆论走向。2018年,特朗普聘用的一家政治AI公司,被曝非法将大约5000万Facebook用户的信息用于大数据分析,从而精准刻画这些Facebook用户的心理特征,并向他们推送定制广告,甚至假新闻。扎克伯格因为这场可能影响大选结果的大规模数据泄露事件,遭到国会询问。这再一次让人们意识到,科技公司很可能将数据作为牟利的原材料,而非需要保护的个人资产。

       事实上,数据流通与隐私保护,从来不是“鱼和熊掌”的关系。如何找到二者的平衡点,让大数据既能更好服务公众,又能防止侵犯个人隐私,全世界都在寻找破题之道。

       隐私计算就是为了解决这一问题而诞生的新技术。通过把大数据放进“盲盒”进行分析,将信息的所有权、管理权和使用权分离,从而充分保护数据和隐私安全,达到对数据“可用而不可见”的目的。

       我们看到,近年来,加强数据安全管理成为各国立法的重点。欧盟颁布了“史上最严”数据保护法案《通用数据保护条例》,我国出台了《网络安全法》《数据安全法》《个人信息保护法》等法律,数据安全的篱笆正在被逐步扎紧。

数据安全法

       2021年6月10日,十三届全国人大常委会第二十九次会议通过了数据安全法。图源:新华社

       对于人工智能来说,数据是石油,算法则是引擎。没有算法,就没法使用大数据。

       人工智能遇到的伦理问题,将越来越多地体现在算法无法解决的“两难困境”中。

       比如,“电车难题”出现了新的表现形式:

       行人横穿马路,刹车来不及。如果不转向,会撞死行人;如果转向,乘客会死于翻车。自动驾驶汽车应该作何选择?即使人工智能作出一万个正确的决策,它是否应当为一次致命失误而负责?

       必须看到,算法绝非不带有任何价值判断。当我们越来越依赖于算法决策、算法推荐、算法预测,就应更加警惕其背后的伦理问题。

       比如,“AI老板”的变相压榨。今年8月,Facebook母公司Meta宣布使用算法解雇了60名合同工。裁员邮件未表明具体原因,只说这是算法评估的结果。这并非个例,亚马逊很早就将人工智能运用于仓库员工的管理中,通过人工智能自动化地跟踪员工工作状态,一旦发现仓库员工长时间没有接触包裹或者处理速度变慢,就会记录员工效率过低,甚至对多次不达标的员工“一键裁员”。

       比如,算法歧视和区别对待问题。在社交网站拥有较多粉丝的“大V”,在客服人员处理其投诉时往往被快速识别,并因此得到更好的响应。算法越来越多地进行“大数据杀熟”,消费频率高的老顾客,在网上所看产品和服务的定价,反而要高于消费频率低或从未消费过的新顾客。

       此外,安全可信问题也需要引起重视。在人工智能与数字伦理论坛上,一位业内人士指出,新一代人工智能是数据驱动的,是机器的自我学习,这就可能带来系统的不够鲁棒、不可解释、不够可靠等问题。特别在诸如医疗、制造、金融等与社会生活息息相关的领域,机器学习模型作出错误预测的后果往往是难以接受的。

       清华大学人工智能研究院名誉院长、中国科学院院士张钹表示,人工智能的发展必然带来对伦理和传统规范的冲击。人们可以恶意地利用算法的脆弱性,对算法进行攻击,导致基于该算法的人工智能系统失效,甚至做出相反的破坏行为。深度学习还可以用来造假,通过人工智能的深度造假,可以制造出大量逼真的假新闻、假视频、假演说等,扰乱社会秩序,诬陷无辜的人。

       鉴于以上问题的存在,我们迫切需要新的数字治理方案。

       去年,我国通过了《关于加强互联网信息服务算法综合治理的指导意见》,要求在三年内逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。这为维护社会公平公正和网民合法权益带来了有力保障,算法的合理应用、人工智能的健康发展也是如此。

       就像两只脚走路,总有一前一后。科技创新与伦理规则的制定,不可能齐头并进,但两者都不能放慢脚步。

       虽然我们无法预想未来的赛博世界有多么辽阔,但我们当下能做的,是在人工智能这片“新疆土”自由驰骋时,不忘套上法律法规和伦理道德的缰绳。

       习近平总书记指出:“面对各国对数据安全、数字鸿沟、个人隐私、道德伦理等方面的关切,我们要秉持以人为中心、基于事实的政策导向,鼓励创新,建立互信,支持联合国就此发挥领导作用,携手打造开放、公平、公正、非歧视的数字发展环境。”

互联网之光
2022年世界互联网大会“互联网之光”博览会会场

       增进人类福祉,是人工智能技术发展的根本依归。正因如此,公平公正、向上向善等人类社会的基本价值取向,仍然是人工智能必须坚守的原则。比如,最基本要求是安全可控;最终目标是服务于人而非超越人、取代人;终极理想是为人类带来更多自由和可能。

       在政府层面,怎样在法律法规、管理服务上加快破题,动态平衡科技创新发展和社会公平正义;在企业层面,怎样避免技术滥用、不当采集用户数据,以正向社会价值创造为目标;对我们每个人来说,怎样成为数字化时代的主人,而不是被数字和算法驱使?

       笔者注意到,在论坛上,张钹院士认为,人工智能的研究和治理都需要全世界不同领域的人员参与和合作,除从事人工智能的研发和使用人员之外,还需要法律、道德、伦理等不同领域人员的参与,我们需要明晰伦理道德的标准,什么是符合道德和伦理的?不同国家、民族团体和个人都有不尽相同的认识,因此需要全球范围的合作,共同制定出一套符合全人类利益的标准。

       在一次次思维的碰撞和实践的探索中,人类一定能找到“驾驭”人工智能的方法,让AI成为人脑的有益补充,让科技更好赋能人的美好生活。
工博士工业品商城声明:凡资讯来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与商城(www.gongboshi.com)联系,本网站将迅速给您回应并做处理。
联系电话:021-31666777
新闻、技术文章投稿QQ:3267146135  投稿邮箱:syy@gongboshi.com
推荐文章
最新更新
点击排行
合作投稿:您好,欢迎光临,我们将竭诚为您服务 展会合作:您好,欢迎光临,我们将竭诚为您服务会员咨询:您好,欢迎光临,我们将竭诚为您服务广告合作:您好,欢迎光临,我们将竭诚为您服务软文营销:您好,欢迎光临,我们将竭诚为您服务短视频营销:您好,欢迎光临,我们将竭诚为您服务沪公网备31011402005898号