自治和他律!人工智能会让现在的社会过时吗
本文系网易智能工作室(公众号 smartman 163)出品。聚焦AI,读懂下一个大时代!
【网易智能讯 8月19日消息】西方哲学家卡斯托里亚迪斯(Cornelius Castoriadis)认为,在绝大多数的社会中,人们不是自己制定自己的法律——即自治的。
相反,他认为法律是由超越自己的外部力量创造的,无论它是神、自然、历史还是理性——即他律(heteronomy)。作为一种对社会、选举和经济结果影响力越来越大的力量,算法也是现在的他律力量之一。2016年10月,白宫、欧洲议会和英国下议院各自独立探讨了如何为由算法驱动的人工智能(AI)的广泛使用提供社会准备。
综合这些政府报告,研究人员认为,“一个良好的人工智能社会”的设计应该基于“整体的尊重”,它考虑的是“人类繁荣的整个背景”,以及“将培养人格尊严作为建设一个更美好世界的基础”。然而,他们得出的结论是这三份报告都缺少对于技术将如何产生责任、合作及类似的价值观来推动发展以及描绘“良好人工智能社会”的理解。
‘Algorithm(算法)’一词来自于9世纪的波斯数学家Muammad ibn Musa al-Khwarizmi。在他的众多创新中,Muammad的研究成果促成了代数的诞生,并推动了我们今天使用的印度-阿拉伯计数系统的发展。结合希腊语中表示数字的词源将Muammad起的‘Algoritmi’翻译成希腊语,就得到了‘Algorithm’。
牛津大学计算机科学词典将算法定义为一组利用有限步骤解决问题的明确的规则或指令,比如计算。通俗来讲可以把算法看成食谱,例如煮意大利面:1.烧水,2.加面,3.搅拌。更确切地说,指令需要足够详细,来让电脑处理,比如玩井字游戏的规则:“如果你连续占据两个空间,就再占一个连成一条线。”
Muammad的工作为二次方程提出了解决方案。而如今,二次方程已经广泛应用于飞机起飞以及计算机和手机的电路系统中(还有别的用处)。除了那些创新,算法正在社会历史的创造中扮演新的角色,是他律(heteronomy)和自治之间的竞争。三本有趣且截然不同的书探讨了它们的各种潜在可能性,从统治人类到解放人类。
在《主算法》一书中,计算机科学和计算机工程学教授佩德罗·多明戈斯提出了五种与算法对立的方向:1)象征主义者:认为学习是反向进行的推理,是从哲学、心理学和逻辑学中汲取的灵感;2)联结主义者:希望将大脑逆工程化,受到神经科学和物理学的启发;3)进化主义者:在计算机上模拟进化并利用遗传学和进化生物学;4)类比主义者:通过相似性判断外推进行学习,受到心理学和数学优化的影响。在寻找主算法的过程中,多明戈说出了他的终极愿望:一种结合了他们所有关键特征的单一算法。他认为这很重要,因为如果这种算法存在,“那么主算法就可以从数据中获得世界上所有的知识——过去、现在和未来。”
这本书不仅揭示了亚马逊、Netflix、Facebook、谷歌和其他公司使用的用来形成他律的各种算法的内部技术原理,还提供了一种样本算法——“炼金术”——来进行测试。他提出,主算法应该来自于实战以及推动它们向前发展的想法。
数据科学家凯西·奥尼尔提出的“数学毁灭武器”算法提供了一种更加可疑的观点,即算法会把注意力集中在他们的负面社会成本和后果上。奥尼尔记录了算法——数学毁灭武器——如何惩罚穷人,并在一个恶性循环中提升特权阶层,从而加剧资本主义的阶级分化和种族差异。人们普遍认为,例如美国,来自贫困地区的非白人囚犯更有可能犯罪,并准备实施更多犯罪,将自己重新投入监狱。然而,对抽象模型的关注会减少人们对这一技术在真实世界的负面影响的讨论。例如,多明戈斯关于“过度拟合”的讨论,即一个算法“在真实世界中发现了一种其实并不真实的数据模式,承认了不负责任的算法,包括数据输入和代码,会导致危险的后果。它们会对人类及社群产生灾难性的影响,例如用你所在地区的邮政编码决定你的信用评分以及你是否有资格入学及进行住房贷款。这本书提供了一个窗口,让我们从总体上了解主算法的可行性,但它传达了一种技术乐观,即当今世界的巨大不平等和全球不稳定,迫切要求我们提出如何利用这一技术,为形成一个没有阶级的世界带来积极的社会变革。
追踪罪犯重新犯罪倾向的累犯表明,他们更有可能失业,没有高中文凭,而且之前同他们的朋友一起与警察发生过口角。然而,另一种看待相同数据的方式是,这些人来自贫困地区,学校糟糕,机会少。“因此,一个回到之前那个社区的前科犯再一次触犯法律的几率,无疑会比一个被释放到舒适郊区的税务诈骗犯更大。”在这个系统中,奥尼尔注意到,“穷人和非白人更多是因为他们本身以及他们所住的地方而遭受惩罚。”
“数学毁灭武器”提供了许多有见地的例子,说明了算法可以如何被作为一种无形的、强大的工具来支配人们的日常生活。这本书的文笔比你预期的要好。奥尼尔的人类资料提供了生动的素材,让人看到了算法驱动的信用公司的掠夺贷款策略使人类遭受的痛苦和苦难。
从她作为数据科学家的经验来看,她揭示了数据输入到算法中时可能存在的问题,并解释了这些问题是如何导致整个社群毁灭的,从教师资格评价到那些寻找工作的人。奥尼尔运用思维实验,设想算法如何在白人富裕社区中为警方提供信息打击白领犯罪,揭示了这将为这些社区带来特权,并使其免受他们带来的贫困的影响。她提出了一些对算法进行审核并建立责任标准的例子。奥尼尔的书很有力量,突出了算法作为一种技术的结构性问题,以及财富掌握在部分人手中的肮脏现实,而绝大多数人则越来越多地由机器来管理。
在更大的范围内,经济体都可以被视为数据处理中心,有收集关于愿望和能力的数据,并将这些数据转化为决策的机制。在进行历史比较时,他写道:“根据这种观点,强调市场自由的资本主义和强调国家控制的共产主义并不是相互竞争的意识形态、道德信条或政治制度。说到底,它们是相互竞争的数据处理系统。资本主义使用分布式处理,而共产主义使用的则是集中处理。”从更广泛的角度来看算法是如何影响社会的,历史学家尤瓦尔·赫拉利的《未来简史》提出了一种思维方式的转变:生存就是数据处理,所有的生物都是用来进行计算和决策的机器。在这个类比中,不仅是蜂房、细菌菌落和森林都是数据处理系统,个人和人类社会也是。通过镜头,你的算法会通过收集他面部特征的数据,如头发和眼睛的颜色,鼻子和颧骨的比例来处理他的形象,从产生好感、无感或反感。
讨论这一观点又要提到进行过关于技术和平等的古老争论了,比如20世纪20年代和30年代的“计算辩论”,社会主义者认为,权力集中有利于使用所有可用知识来制定出最好的经济计划,而那些自由市场主义者则反驳说,因为现代社会的问题如此复杂,经济规划是不可能的,只有市场才能协调经济活动。
尤瓦尔·赫拉利的书没有引起对于资本主义和共产主义基于它们的可取性、公平或阶级结构进行的对比和争论。它启发读者思考了一系列完全不同的问题:生物真的只是算法吗?生活真的只是数据处理吗?更广泛地说,尤瓦尔·赫拉利认为技术可能会取代现有的意识形态从而形成一个新的数据宗教。这种新的宗教把所有的权威都放在了数据驱动的决策中,而不像那些把所有的权威都置于上帝的宗教;不像自由的人文主义将权威置于个人和自由意志之中;不像国家共产主义将权威放置在党和国家以及工会中;也不像进化人文主义将权威置于最优者生存。
在这种观点中,数据是一种新的他律(heteronomy)力量和方法:特别是,算法以智能方式处理数据的能力,可能会使我们所熟知的社会的意识形态基础变得过时,不管我们怎么看待它们:“随着21世纪数据处理条件的再次改变,民主可能会衰落甚至消失。”随着数据的数量和处理速度的加快,像选举、政党和议会这样的机构可能会过时——不是因为它们不道德,而是因为它们无法有效地处理数据。这种观点提出了一个问题,科技在一个权力不平等、不道德的世界中所扮演的角色究竟是什么呢?对于这一点,尤瓦尔·赫拉利似乎选择了回避,因为那将意味着回到人道主义的讨论中去。但这项技术似乎带来了新的建立乌托邦的可能性。
不可思议的计算机处理能力正在应用于他律(heteronomy)管理。在2012年美国总统大选中,奥巴马竞选团队收集了大量数据,以建立选举模型,并利用这些模型,每晚进行66,000次模拟,以帮助确定最佳的竞选策略。许多人担心计算机处理能力与工作自动化的类似应用,将对工作和失业产生影响。所谓的“智能城市”和物联网预示着,数据处理能力和算法在我们看似危险的未来趋势中越来越受欢迎,但问题依然是,技术是会促进社会的自觉创造,从而产生公平的结果,还是会使旧的不公正变得更糟。
换个方面想象一下,技术通过帮助确定一个无阶级和生态友好型社会的最佳经济投入和产出,从而促进了自治的治理。尽管有关普遍基本收入的提议主导着左右两派的辩论,但已经没有更多的技术借口来限制自治、直接民主和可扩展的自治社会的革命性可能。像1957年的工人委员会这样的模型和提出了“计划工厂”,即依靠计算机来决定物质生活方式如何分配给经济生产和消费的自我管理型社会的经济学将不再需要经济规划者和管理者。
这样一个系统,以及其他类似的系统,可以让算法——以区块链式的分散自治组织(DAOs)以及“智能合同”的形式——来完成经济规划和其他机械的繁重工作,这样人们就可以享受自主社会所带来的自由和个人时间了。现在的问题是,算法驱动的人工智能是否会比我们了解自己以及更了解社会和人,或者是否会通过把人类繁荣和尊严视为一个更美好世界的基础来实现自治和直接民主?(选自:Le Monde diplomatique 作者:克里斯·斯潘诺斯 编译:网易见外智能编译平台 审校:杨越东)