跳过主要导航

什么是AI伦理?

有道德问题与AI系统自行做出决策或有助于塑造人类决策过程的方式有关。
带有键“查找作业”的键盘
©Twente大学

本文调查了与AI的两个例子相关的主要道德挑战:自动驾驶汽车和基于AI的招聘。在这两个示例中,道德问题都与AI系统自行做出决策或有助于塑造人类决策过程的方式有关。AI似乎带来了潜在的偏见,透明度和问责制的问题。

在调查了人工智能对人类和社会产生影响的各种方式之后,我们现在进行了对这些影响的道德分析。在关于如何以社会和道德负责的方式塑造我们的数字社会的讨论中,许多道德问题都起着作用,从隐私,自主权和安全到控制,人类尊严,公平和权力。在过去的几年中,“ AI伦理学”实际上已成为一个重要领域:许多公司和组织已经制定了有关AI的伦理代码或框架。让我们看一下两个示例,这些例子表明需要“道德AI”。

自动驾驶汽车和“手推车问题”

我们的第一个例子是自动驾驶汽车自动决策的伦理。在开发使自动驾驶汽车能够参与交通的人工智能时,不可避免地会在关键情况下对车辆的行为做出决定。这里的一个标准例子是虚构的情况,即汽车在非常狭窄的街道上高速弯曲,突然有人越过道路。对于自动驾驶汽车,“事故”不存在:它们运行的​​算法将对任何情况做出反应,并且不能“恐慌”行动。除非他们拒绝做出决定,并做出随机决定 - 但这也是设计汽车的人的故意行为。汽车应该决定做什么:避开行人并撞墙,冒着汽车中乘客的生命的风险,或挽救其乘客的生命,冒着穿越道路的人的生命的风险?

这种困境类似于伦理学的经典思想实验:所谓的“手推车困境”。想象一下五个被绑在铁轨上的人,而手推车正在接近,而您永远不会让手推车切换到只有一个人被绑住的一组轨道 - 在道德上是合理的杠杆?这样的困境没有一个答案:这取决于基本的道德信念和框架。一条论点是,只要牺牲一个人的生命就比允许五个人被杀死要好。另一个人是人类生命的价值不允许进行计算:每种生命本身都是有价值的,可能永远不会牺牲。第三行的重点更多地关注必须做出决定的个人的责任:不选择的决定也是一个决定,可以受到批评。手推车困境显示了在AI系统中安装道德决策的必要性和困难。

基于人工智能的招聘:良好的意图和持续偏见

另一个例子是开发基于AI的招聘工具。As the report “Valued at work – Limits to digital monitoring at the workplace using data, algorithms and AI” of the Rathenau Instituut explains, such tools can, in principle, pass fairer judgment than human beings: algorithms always ‘measure’ the same aspects and process all input the same way. AI systems can therefore not only ensure a fair procedure, but also fair outcomes. Yet, it appears quite hard to achieve this fairness, since the AI systems have to be trained with the help of datasets, and therefore the diversity of these datasets, and the training method to recognise suitable candidates, plays a key role in the output of the system. When a system uses as a benchmark the top-thirty employees in an organisation where women have long been underrepresented, it will keep repeating its discriminatory legacy. A concrete example here is Amazon, which had to suspend a system for selecting applicants automatically because it put women’s applications at the bottom of the pile, as a result of its training with historical data: more men than women work in the IT industry. Bias is a severe problem in AI systems. What if biases start to play a role in other domains, such as banking (getting a loan), or policing (profiling potential criminals), etc.

阅读更多

©Twente大学
本文来自免费的在线免费

技术与设计哲学:塑造人与技术之间的关系

由...制作
FutureLearn-终身学习

我们的目的是改变接受教育的机会。

我们提供来自世界各地的大学和文化机构的各种课程。这些一次是一次交付的一步,并且可以在移动,平板电脑和台式机上访问,因此您可以适合自己的生活。

我们认为,学习应该是一种愉快的社交经验,因此我们的课程为您提供了与他人一起讨论的机会,帮助您做出新的发现并形成新的想法。
您可以通过订阅我们无限制的包裹来解锁新的机会,以无限制地访问数百种在线短课程。电竞博彩app有什么通过顶尖的大学和组织建立知识。dota2竞猜吧

了解有关FutureLearn如何转化接受教育的更多信息