ai programming monsitj/Getty Images

谎言、该死的谎言和人工智能

剑桥——算法和算法所依赖的数据一样带有偏见。而且一切数据都是带有偏见的。即使是“官方”统计数据也不能被认定代表客观永恒的“事实”。政府发布的数字代表着当前的社会状况,在那些搜集数据的人看来代表着重要性和相关性。被用于理解数据的范畴和分类并不是中立的。就像我们只衡量我们所看到的那样,我们往往会对衡量范畴以外的东西视而不见。

就像算法决策扩散到更大范围的决策领域一样,它正在刺眼地暴露出曾经藏在我们搜集数据阴影中的社会偏见。通过将现有结构和流程纳入其逻辑极值,人工智能(AI)正迫使我们正视我们所创造的社会。

问题不仅在于我在剑桥大学的同事詹妮·潘所提出的,设计计算机的初衷是让它像企业一样思考,而是计算机也在模仿经济学家的思考方式。毕竟,人工智能是人类想象范围内从不出错的经济人。它是一种能够合理计算、逻辑连贯并以目标为中心的代理,能够利用有限的计算资源实现其期望中的局面。如果说到“效用最大化”,它们的有效性超过任何人。

“效用”之于经济学就像是曾几何时“燃素”之于化学一般。早期的化学家们假设可燃物质含有一种隐蔽元素——也就是燃素——这就可以解释物质为什么在燃烧时会发生形式改变。但尽管竭尽全力,这一假设却永远无法被科学家们证实。化学家无法证明燃素的存在,同理今天的经济学家也无法测量实际效用。

经济学家利用效用的概念来解释人们作出选择的原因——买什么、投资什么,工作多努力:每个人都试图根据自身关于世界的偏好和信念来实现效用最大化,同时也要受到收入和资源稀缺所带来的局限。尽管并不存在,但效用却是一种强势结构。人们似乎自然而然地认为,每个人都在尽一切可能为自己的利益打算。

此外,经济学家的实用概念源于古典功利主义,而为最多人获取最大的利益是古典功利主义的目标。正如现代经济学家追随约翰·斯图尔特·密尔的脚步一样,绝大多数算法设计者都是功利主义者,他们相信如果知道有“好处”,那么就可以将好处最大化。

Subscribe to PS Digital
PS_Digital_1333x1000_Intro-Offer1

Subscribe to PS Digital

Access every new PS commentary, our entire On Point suite of subscriber-exclusive content – including Longer Reads, Insider Interviews, Big Picture/Big Question, and Say More – and the full PS archive.

Subscribe Now

但这种假设可能造成的结果却会令人不安。比如,假设使用算法来决定囚犯是否应当获得假释。2017年一项重要的研究发现,算法在预测累犯率方面的成效远远高于人类,并且可以用来将“监禁率”降低40%以上,同时“并不导致犯罪率的增加”。于是在美国,人工智能可以被用于改变黑人监禁人口不成比例的状况。但如果由人工智能接管假释程序后,非洲裔美国人的监禁比例仍然高于白人该怎么办?

高效的算法决策令这些问题脱颖而出,并迫使我们准确地决定究竟应当最大化哪些结果。我们是单纯地想要减少总体监禁人口,还是也应当对公平给予恰当的关注?尽管政治可以允许回避和妥协来隐藏这种权衡,但计算机代码却必须清晰明了。

这种对清晰的要求使得人们对社会不公平的结构性来源更加难以忽视。在人工智能时代,算法将迫使我们清晰地认识过往社会和政治冲突的结果如何能够通过我们对数据的利用而延续到现在。

多亏人工智能道德倡议人工智能合作伙伴等团体,关于人工智能道德更广泛的讨论已经开始出现。但人工智能算法当然仅仅是按照编码来工作。真正的问题不仅仅限于企业和政治治理领域对算法决策的运用,同时也在抨击我们社会的道德基础。

在我们当然要对通过人工智能实现效用“最大化”所需的实践和哲学权衡展开辩论的同时,我们也需要进行自我反思。算法正在提出迄今为止我们如何组织社会、政治和经济关系的根本性问题。我们现在必须决定,我们是否真的希望将现有的社会安排编入到未来的决策机制。鉴于目前世界各国正在发生的政治分裂,这似乎是开启全新篇章的最好时机。

https://prosyn.org/DuT2cyTzh