跳过主要导航

AI如何做出决定?

它不仅涉及数据,数学和“黑匣子”模型。实际上,在开发过程中将做出各种价值判断。

在这里,我们讨论了AI系统如何做出决定。它不仅涉及数据,数学和“黑匣子”模型。实际上,在AI系统的开发和部署过程中将做出各种价值判断。

如何定义目标,相互排斥的类别和相关属性并不总是很简单。但是算法确实需要这个。此外,AI系统还需要能量,具有身体维度,涉及人类的劳动和政治。我们挑战您考虑做出哪种选择以及由谁做出选择。

在AI系统做出任何决定之前,已经做出许多决定。明确或隐式;系统打算做什么?谁能决定什么是可接受的错误率?谁的价值是为系统提供信息?它会影响谁?如何检查系统是否准确且公平?用户如何提出决定?该系统如何使用?如果我们改变了对系统基础的规格和价值的想法,该怎么办?

AI系统的用户可能倾向于“信任” AI系统做出“理性”或“客观”决策。由于其复杂性,审查AI做出的决定可能非常困难。此外,一旦您习惯了结果的便利性和准确性(其决策或建议),您可能会少于发现错误或不再热衷于批判性审查结果的警觉。

但是,我们仍然期望有人可以考虑AI的决定 - 我们可以去某个地方来解释系统为何得出某个决定。问责制是AI伦理学的主要主题。

阅读更多

  • Roos de Jong为Rathenau Instituut做出了贡献,解释了宪法问题是如何出现的,因为AI系统有时以非透明的方式运作,并冒着侵犯人权的风险。→抓地力algoritmische besluitVorming bij de overheid(仅荷兰人)。
  • 在本课程的背景下,另一个Rathenau-Reports也可能引起人们的关注。在紧急升级Rathenau Instituut表明,数字化(包括AI)可以导致广泛的社会和道德问题。除了隐私和安全外,诸如控制技术,正义,人类尊严和不平等权力关系之类的问题也是关键的。
  • 凯特·克劳福特(Kate Crawfort)解释了AI系统如何在她的著作《 AI的地图集》中反映和产生对世界的社会关系和理解。→Crawford,K。(2021)。AI的地图集。耶鲁大学出版社。
  • Maranke Wieringa对“算法问责制”领域所做的工作进行了系统的审查→Wieringa,M。(2020)。“考虑算法时要考虑什么。有关算法问责制的系统文献综述。”在2020年公平,问责制和透明性的会议论文集:1-18。
  • Barocas沙龙和Andrew D. Selbst解决了无意歧视的来源。→Barocas,S。En A. Selbst(2016)。“大数据的不同影响。”加利福尼亚法律评论104,671。
本文来自免费的在线免费

技术与设计哲学:塑造人与技术之间的关系

由...制作
FutureLearn-终身学习

我们的目的是改变接受教育的机会。

我们提供来自世界各地的大学和文化机构的各种课程。这些一次是一次交付的一步,并且可以在移动,平板电脑和台式机上访问,因此您可以适合自己的生活。

我们认为,学习应该是一种愉快的社交经验,因此我们的课程为您提供了与他人一起讨论的机会,帮助您做出新的发现并形成新的想法。
您可以通过订阅我们无限制的包裹来解锁新的机会,以无限制地访问数百种在线短课程。电竞博彩app有什么通过顶尖的大学和组织建立知识。dota2竞猜吧

了解有关FutureLearn如何转化接受教育的更多信息