当前位置:新店新闻>>科技>>张锐:人工智能的道德拷问与对标

张锐:人工智能的道德拷问与对标

来源:新店新闻 2019-11-10 18:03:19

新店新闻
内容提要:相比于企业对ai的自我审查而言,行业协会是把控人工智能的第一道外部道德关口。为此,有必要出台ai使用的道德与法律规则,并建立起可以监控的人工智能平台,对所有使用不道德ai产品的用户进行账号管制,以此倒

目前的人工智能道德准则更多的是针对技术公司和开发者的要求,但是人工智能用户不应该成为道德盲点。

张锐

鉴于智能机器人武器系统在美国、以色列、韩国、俄罗斯和英国的发展,微软总裁史密斯日前明确表示,“杀手机器人”的出现在未来是不可避免的,人类社会应该有一个新的“数字日内瓦公约”(digital Geneva Convention),即一套约束和指导人工智能(ai)发展的伦理标准。

史密斯的判断并不是危言耸听,人工智能引发的道德问题不仅存在于武器系统中,还辐射到公共社会生活的方方面面。然而,由于人工智能创新能量中存在的求新心理和“光环效应”,人们往往忽视人工智能道德的重要性。以赵亮不久前在世界人工智能大会上推出的“人工智能变脸应用”为例。用户只需要一张正面照片来代替电影和电视作品中的角色,并生成以自己为特色的视频剪辑。结果,这个应用一夜之间在网络上变得流行起来。在赢得用户尖叫的同时,支持应用的服务器瘫痪了。然而,在赢得片刻的兴奋和兴奋之后,我相信所有的用户都会对与他们自己相关的早协议感到紧张。

根据赵亮的用户协议,用户上传发布内容后,意味着“同意或确保肖像所有者授予‘ZAO’及其关联公司在全球范围内自由、不可撤销、永久、可转让和可再许可的权利”和“侵犯名人肖像”。如果对方提出投诉,最终责任在于用户”。在这方面,我们问用户以下问题:如果变脸的明星提起诉讼,你还会平静舒适吗?如果有人制作了一个假视频并把它栽赃给你,你会愤怒吗?如果你的脸被用来洗脸,你会感到不安甚至恐慌吗?如果这些问题得到积极的回答,我相信每个人都不会对人工智能道德问题视而不见。

事实上,“变脸应用”引发的人工智能道德折磨数不胜数。不久前,深裸推出了一款“一键式脱衣”软件。用户只需要在软件中添加一张照片,应用程序就可以自动“脱”女人的衣服。在这个软件中,女性无疑成为最大的受害者。例如,斯坦福大学使用人工智能算法通过照片识别同性恋者,黑色和灰色产品可以通过人工智能技术伪造记录场景,保险公司可以通过使用脸书数据预测事故率来拒绝用户投保等。人工智能突破了道德底线,成为邪恶的工具,超出了人们的想象。把人工智能描述为技术飞速发展和道德倒退并不算过分。

至于人工智能引发的道德问题,普遍的判断是,一定有一些人对技术是无辜的,但却能控制它。根据墨菲定理,如果一件事可能出错,它肯定会出错。换句话说,如果做某项工作有很多方法,其中一种不可避免地会导致错误,那么肯定有人会遵循这种方法。一项对1010名英国科技工作者的研究发现,90%的人认为科学技术是一种积极的能量,但59%在人工智能领域工作的人说他们的项目可能对社会有害,18%的人因伦理道德问题辞职。在这方面,我们要强调的是,虽然人工智能违反或践踏道德只是少数技术操作者的行为,即墨菲定律(Murphy's Law)中提到的个人错误,但这种错误很容易被更多人模仿,借助网络传播的力量,这种错误造成的社会危害程度是无法估量的。

然而,如何平衡人工智能创新和人工智能伦理的确是一个非常困难的问题。对于人类社会来说,我们不仅无法抵挡人工智能的诱惑,还需要更多的创新成果来提供贴近生产和生活的各种服务,这就要求企业不断寻求突破。然而,如果制定更多的规则,人工智能探索的速度和空间肯定会受到抑制和限制。以人工智能的基本数据为例,用户的身份、职业、年龄、阅读、购物等行为偏好是优化推荐算法的关键依据。企业获得的隐私数据技术越多,人工智能的服务就越能准确地满足公众需求,同时也有利于商业实体的准确权力。然而,如果注入道德元素,数据的限制和缺失不仅会大大降低人工智能的服务功能,还会面临资本的反应和抛弃,这正是事实。几乎没有一家技术公司希望在获取用户数据时受到限制。即便如此,我们仍然要强调,任何创新之门都是无法控制的。因为人类可以让机器变得非常智能,他们也可以让机器在指定的路径和定义的边界内行走,例如在哪些场景下可以使用人工智能,以及在跨越边界时的自动校正功能。这样,无论机器有什么样的学习天赋,我们都可以在像人类一样知道对错善恶的前提下,使它正确地做出决策。

显然,基于创新和发展的需要,人工智能不能简单而粗略地被控制甚至禁止,因为它有部分不道德之处。同时,为了引导人工智能成为道德的,技术公司必须首先成为道德的主体。对科技企业来说,科技好应该是他们遵守和实施的道德底线。为人类创造福祉和推动社会积极变革应该是人类生存和发展的最高标准。为此,所有人工智能企业都需要建立一个由工程师、科学家、律师和公司领导组成的监督组织,就像微软建立人工智能伦理委员会一样,负责每个人工智能产品的道德和伦理风险评估,以及运行的内部和外部审查和相应改进机制的实施,以确保产品在开发过程中具有高质量的伦理元素。

与企业对人工智能的自我审查相比,行业协会是控制人工智能的第一个外部道德障碍。目前,除了世界电气电子工程师学会(ieee)在《人工智能设计伦理指南》中提出的人权、福祉、问责和透明的伦理标准外,亚马逊、微软、谷歌和苹果等100多家全球科技巨头也在人工智能领域建立了非营利人工智能合作组织伙伴关系,提出了公平、无害、公开透明、问责等伦理道德框架。国家和行业可以以此为参考,建立自己的人工智能伦理评价矩阵和评价流程。与企业自我道德评价相比,作为第三方的行业道德评价可以有效克服前者在商业需求和道德需求中的角色冲突和结果倾向,同时过滤企业道德评价中的不合理因素,确保人工智能道德评价结论的公平性和可信度。值得强调的是,为了更广泛地反映不同社会群体对人工智能伦理的基本需求,行业伦理监督机构应最大限度地吸收更多的利益相关者。

当然,制定人工智能伦理道德标准也是各国政府的职责,衡量一个国家的人工智能水平不仅是一项技术指标,也是各国人工智能竞争的新制高点。根据最新数据,美国人工智能企业数量居世界第一,有2039家。中国(不包括香港、澳门和台湾)有1040个。这两个国家都占世界人工智能企业数量的一半以上,而世界36,524名顶尖人工智能人才中有一半以上在中国和美国。中国和美国在人工智能领域相互接近。相比之下,欧盟觉得自己落后很多,所以从伦理角度来看,它率先引入了人工智能伦理道德标准,涵盖七个内容,即人的主动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福利和问责机制。与欧盟相比,虽然中国有相关组织发布的《网络安全法》、《信息安全技术个人信息安全规范》和《人工智能北京共识》,但在人工智能的道德边界和道德标准的细化方面仍需细化和处理。因此,以“头脑风暴法”的形式邀请各界人士参与人工智能道德标准的补充和提高是绝对必要的。

最后,应该指出的是,目前的人工智能道德规范更多的是针对技术公司和开发者的要求,但人工智能用户也不应该成为道德盲点。从赵亮的“人工智能变脸应用”服务器的爆发到深裸“一键条”软件的掠夺,这足以表明用户在购买产品时不仅忽略了成本,而且有很强的超越道德门槛的动机。所有这些不仅构成了对开发者不道德行为的有力支持,也扭曲了互联网社会互动的健康身体。因此,有必要颁布人工智能使用的道德和法律规则,建立一个可以监控的人工智能平台,以控制所有使用不道德人工智能产品的用户的账号,从而迫使技术公司调整和校准他们的研发行为,从而使人工智能伦理演变成公众信任的基础。

(作者是中国市场学会理事兼经济学教授)

这篇文章来源于《证券时报》

欲了解更多激动人心的信息,请访问金融网站(www.jrj.com.cn)

广西快三投注 江苏快三 北京赛车pk10官网 陕西11选5 甘肃11选5

  • 上一篇:作为14亿票房的导演,阿米尔汗的家还没我家豪华?钱都
  • 下一篇:武汉这位校工组装了辆车,帮师生搬运桌椅,时速20公里
  • 栏目资讯


    Copyright 2018-2019 abeclan.com 新店新闻 Inc. All Rights Reserved.