元宇宙时代还没到来,一旦到来,它绝不会局限于某家公司控制的单一域名。
元宇宙并不是一个新概念。科幻小说家尼尔·斯蒂芬森在1992年出版的《雪崩》一书中创造了这个词。该书描述了一种超级资本主义的反乌托邦,在这种反乌托邦中,人类集体选择在虚拟环境中生活。到目前为止,人们在现实世界中的体验一点也不比反乌托邦少。大多数令人身临其境的数字环境都有霸凌、骚扰、虚拟性侵等元素,它们都与“发展迅速并试图打破陈规”的数字平台有关。这一切都不应让人感到意外。有关新技术的伦理道德规范始终落后于创新本身。这就是为什么应该有独立的机构针对虚拟世界制定管理规范的原因,而且越早越好。
在2012年人工智能图像识别技术取得重大突破后,企业和政府对该领域的兴趣激增,这也引起伦理学家的注意。他们不停发表文章,提醒人们关注利用带偏见的数据培训人工智能的危险。为此,人们开发了一种新语言,以便将我们希望维护的价值观纳入新人工智能的应用程序中。
由于有了这些提醒,我们才知道,正如纽约州立大学奥尔巴尼分校教授欧本克斯所指出的,人工智能实际上正在“使不平等自动化”,使执法过程中的种族偏见永久化。为了引起人们对这一问题的关注,麻省理工学院媒体实验室的计算机专家布拉姆韦尼在2016年启动了算法正义联盟。
这是第一波努力,旨在引起公众对人工智能道德行为的关注。但这一努力引起的关注很快就被人工智能行业内部提出的自我监管削弱了。人工智能开发人员推出了技术工具包,进行内部和第三方评估,希望借此缓解公众的担忧。然而事实并非如此,因为大多数人工智能公司的商业模式与公众希望它们维护的道德标准有明显冲突。
举个最常见的例子,推特和脸书网站不会真正防范用户滥用平台的各种不当行为,因为这样做会破坏所谓“接触”原则,当然也会影响平台收益。同样,这些公司和其他一些技术公司已经利用价值榨取和规模经济在各自的市场实现了近乎垄断的地位,它们现在不会心甘情愿放弃已经获得的权力。
最近,一些企业顾问和项目开始将人工智能的道德管理专业化,以解决名誉败坏和操作风险。大型科技公司的人工智能研发者将被迫考虑一些问题,比如某个功能是应该设为默认加入项还是退出项,将一项任务委托给人工智能是否合适,以及用于训练人工智能的应用程序是否可信等。为此,许多科技公司成立了所谓独立的道德委员会,然而,一旦关注人工智能伦理和社会影响的研究人员调职后,这种形式的道德自治的可靠性就会受到质疑。
要为元宇宙世界奠定良好的道德基础,就要在行业自律成为常态之前先行建立制度监管。我们还必须记住元宇宙与人工智能已经有很大程度的不同。人工智能主要围绕企业内部运营,而元宇宙注定会以消费者为中心,这意味着它将存在各种各样的行为风险,而且大多数人尚未考虑到这些风险。
美国电信法为规范社交媒体提供了依据,于是,社交媒体监管模式也被默认为元宇宙的管理模式。这应该让我们所有人都感到担忧。
尽管我们可以轻而易举地预见许多在数字环境中的侵害行为,但我们在社交媒体方面的经验表明,我们可能低估了这些行为的影响程度以及它们带来的连锁反应。
与其重复过去的错误,不如高估这些风险。一个完全数字化的环境为更穷尽地收集数据创造了可能性,这甚至包括个人生物特征数据。由于没有人真正知道如何应对数字环境中出现的这些问题,所以很有必要在允许一个程序大范围推广之前使用监管沙盒为运行中的程序提供隔离环境。
预测元宇宙会出现何种道德挑战仍是可能的,但时间在一分一秒流逝。如果没有有效的独立监督,这个新的数字世界几乎肯定会变得肆无忌惮,出现类似社交媒体和人工智能已经表现出来的各种被滥用和不公平现象,同时带来更多我们连想也没想到的风险。
文章来源:参考消息,题为《谁来确立元宇宙的伦理道德?》,作者是英国伦敦大学学院创新与公共用途研究所博士乔希·恩茨明格、美国赫尔特国际商学院教授马克·埃斯波西托以及美国赫尔特国际商学院教授特伦斯·伦敦。如有侵权,请联系删除。
|