[关闭]
@Rays 2016-09-21T03:03:07.000000Z 字数 3255 阅读 1419

InfoQ播客:Cathy O'Neil谈论有害的机器学习算法及审计方法


摘要: 在《Weapons of Math Destruction》一书中,作者提出了存在一些有害的机器学习算法,这类算法正日益统治我们的社会。此博客是InfoQ就此书内容对作者的访谈,其中涉及了有缺陷的数据问题、数据科学及对算法的审计问题。

作者: Charles Humble

正文:

本周的InfoQ播客内容是InfoQ总编Charles Humble与数据科学家Cathy O’Neil之间的谈话。O’Neil是博客mathbabe.org的作者,曾担任哥伦比亚大学新闻学院Tow数字新闻中心(Tow Center)的莱德数据实践项目(Lede Program in Data Practices)主管,并曾作为数据科学家受聘于约翰逊实验室(Johnson Research Labs)。O’Neil在哈佛大学获得数学博士。谈话中涉及的话题包括:她所著的《Weapons of Math Destruction》一书、预测警务模型、教师附加值模型、对算法进行审计的方法、该领域的政府监管是否有必要等。

关键要点:

  • 一类有害的大数据算法正在日益控制我们的社会,但是这类算法并未公开地审查;
  • 有缺陷的数据可以导致算法成为种族主义者和性别歧视者。例如预测警务模型所使用的数据就是种族主义的。但是仅因为算法是数学上的东西,人们就易于对算法过分信任;
  • 即时数据科学家不承认,但是他们必须做出伦理决策。对责任的放弃常常是问题之源。
  • 算法审计仍是一个非常新兴领域,需继续进行学术研究以寻求实现方法;
  • 可能确需对工业界进行政府监管。

点击播客链接收听

关于《Weapons of Math Destruction》一书

大数据与法治间的关联

* 4分04秒:参与到警务、审判和假释等刑事司法体系中的算法,也在法律体系中发挥着作用。但是这些算法是专属的,并不对审查开放。
* 5分00秒:这些算法实际上成为了数字化的法律,所以应该与法律一样得到宪法保障。

预测警务模型

处理此类问题的方法

对算法的信任

数据科学与计算机科学之比较

教师附加值模型

算法审计的方法

政府监管对比自我监管

进一步阅读和资源

* Weapons of Math Destruction》书评
* Slate的文章: 《伦理数据科学家
* 《预测进入实战:对芝加哥预测警务的准实验性评估 》,Jessica Saunders等撰写。
* 《在线广告发布中的歧视问题》,Latanya Sweeney撰写,Harvard University出版 (PDF)。
* 纽约时报关于自我监管的文章

更多关于播客的信息

最新播客可通过我们的RSS feed更新,也可通过SoundCloudiTunes收听。本页所列出的播客摘要内容均附有可点击链接,点击后可直接切换到音频的相关部分。

查看英文原文:The InfoQ Podcast: Cathy O'Neil on Pernicious Machine Learning Algorithms and How to Audit Them

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注