Machina Ventures是一家专注于早期阶段,人工智能和数据科学支持公司的投资公司。而Matthew Stepka曾在谷歌工作9年,曾任Google特别项目副总裁,负责领导和培育战略举措,尤其是具有高社会影响力的任务驱动型项目。
随着人工智能在全球商业格局中成为越来越重要的组成部分,使用及应用AI的道德问题也日益突出。Matthew Stepka则研究了许多此类问题。例如,员工数据是如何在外部被使用的?在日益普遍的零工经济中,契约工人与受薪雇员享有同样的隐私权吗?在这些情况下,谁是弱势群体?
在采访中Stepka先生谈到了机器学习和数据收集的本质及使用方式,以及在人工智能发展领域产生的更广泛的哲学和存在主义的问题。
AI的道德问题本质是数据使用问题
问:工作场所使用的人工智能有一种统一的道德准则吗?
Stepka:目前最大的问题其实是关于使用数据的道德问题。具体来说,在工作场所中可以使用哪些数据?一般情况下,员工没有太多权利。通常,雇主可以使用员工在其系统上创建的任何数据。
除此之外,我认为人们还没有一个统一的理解。我认为,消费者正在逐渐意识到数据是如何被越来越多地使用的。加州也提出了一些立法,当然欧洲也有,关于如何使用数据的问题。所以数据是AI唯一的燃料,是AI的唯一驱动力。我认为这才是大多数道德需要约束的地方。
问:这些公司是否在适应与以往不同的道德实践,试图解决这些问题?
Stepka:我听到过的关于这个话题的对话,都是这样开头的:“你在公司的设备上留下的所有数据,所有与你的工作相关的信息,公司在使用这些数据来保护自己的利益时都不会考虑太多。
如果你在工作的电脑上安装了Gmail,那么所有这些东西都是加密的,公司也无法访问这些数据。他们可能知道你在访问Gmail,但他们不知道你在做什么。即使通过人工智能技术,他们也无法获得这些数据。除此之外,他们知道你在做什么,你在使用你的公司电话,你所在的位置。
我认为公司更多的只是让员工注意到,机器上有人工智能,我们将用它来执行我们的政策。公司推出关于隐私、滥用等等的规定,以确保大家在我们的政策下成为优秀的管理者和优秀的员工。
如何对待员工数据
问:员工数据可以和应该被拿来做什么?
Stepka:员工与雇主的关系目前仍然是一个很开放的概念。关于公司和员工的整个概念都在发生改变。似乎Uber司机以及其他很多人都在争论:Uber司机是员工吗?如果你是一家与他们合作的合同公司,情况会与往常不同——通常是你和那家公司签订的合同,比如,像Uber司机的这种情况,他们不会称这些司机为员工,因为他们可能不是合法雇员。
这就变成了公众舆论法庭上的一个有趣的道德问题。显然,在大多数情况下,你可以签订任何合同。你可以说,“你想和我们一起工作吗?我们是一家大公司,你是一家小公司,或者个体,或者承包商。我们可以有效地延长这些数据,在某种程度上控制你。例如,可能要求你共享某个可视化文件或者地图等等。
问:监管是否应该在其中发挥作用?
Stepka:我认为有几件事可以作为很好的原则。我认为在一定程度上向员工披露你所做的事情可能是个好主意。员工是消费者,他们对隐私有一定的期望。在这种情况下他们可能没有意识到自己到底还拥有多少隐私。
尽管如此,公司并没有无限制地使用这些数据。例如,如果公司的业务与这些数据没有任何关系,那么就不会无限制地去使用。
另外,在员工和雇主之间存在利益冲突的情况下,雇主不能使用这些数据做不利于雇员的事情。
能否造出有道德准则的AI机器?
问:你认为随着技术的进步,有可能创造出道德的人工智能机器吗?
Stepka:实际上,有三件事可以控制AI。最简单的方法是通过数据,因为这是AI的驱动力。所以你可以知道它能访问哪些数据,不能访问哪些。
第二个是输出。也就是说,不管你有什么数据,你都不能做某些事情。我举一个自动驾驶汽车的例子。无论人工智能推荐什么,你都不能以超过每小时25英里的速度前进。你在输出端设定一些逻辑,所以它不能做某件事。这可能就像,在雇主或员工的情况下,你可能会说,“不管怎样,这些数据不能对外公开。”
第三种方法是一个更复杂的选项,但坦白讲,也是更微妙的,就是控制AI的过程以及如何使它更有效率,理解AI在做什么。这只能通过另一个机器人来完成,创建机器人来执行像我提到的政策规则。他们会监控系统以确保没有任何人工智能违反了这一规定。
问:你对这项技术是持乐观态度,还是认为它有可能造成巨大的伤害?
Stepka:我认为我们都应该保持乐观。我认为AI带来的巨大的价值所创造的巨大潜力,可以帮助人类和世界解决真正的问题。总的来说,很多伟大的事情都将来自于它。
在短期内,就像我们在这里说的,机器学习,以及5年、10年以内应用,我们应该保持警惕。我们必须找到一些事情的解决办法,但我们还没有找到。现在仍然有很多问题。我们如何确保它们做正确的事?我们到底应该给它们多少信息?我们有很多事情要弄清楚。