财新传媒 财新传媒

阅读:0
听报道

原文刊载于世界经济论坛,转载请标明来源并附上原文链接

研究人员正在努力创造一个“翻译官”。“翻译官”能够解释人工智能如何通过算法找到答案,并以此建立起人类与人工智能之间的信任关系。

在自动驾驶汽车和无人机的时代,人工智能对我们生活中来说越来越重要,它也正通过学习变得越来越聪明。今天,人工智能可以识别文字,区分人脸,甚至在一定程度上识别物体。但是,即便是最好的人工智能系统,很大机会仍会出错。

波士顿大学计算机科学助理教授Saenko表示,人工智能的错误率确实是一个大问题。

她是这么说的:“如果人工智能发生错误,人类用户对人工智能的信任很快就会大打折扣,并最终停止使用它。我认为,人类本质上不太可能只接受机器告诉他们的东西。”

她补充说,另一个复杂因素在于,随着人工智能变得更加强大,驱动它的算法对于人类用户来说也变得越来越不透明。信息进入算法“黑匣子”的一端,而后答案就出现在了另一端,但算法找寻答案的规则和推理对于人类来说却是模糊未知的。

Saenko的研究正在努力改变这种模糊关系,希望开发出新的方式进入人工智能的“头脑”,创建一个面向人类用户的翻译工具,解释人工智能的决策过程。

表面看来,这个目标可能听起来不是非常重要。谁在乎电脑是如何得到答案,只要答案正确不就行了?Saenko表示,让人类用户知道人工智能为何得出如此结论,或许是提高其准确率的“终极方法”。

在这个过程中,翻译工具也可以增加人们对机器的信任,让人工智能成为复杂工作中一个更好的合作者。 理想很丰满,但现实情况是,在如今的人工智能系统中实现算法过程的“开放化”并不容易。

**新型人工智能**

看清人工智能的“内心”,在过去并不是一件难事。 过去,许多人工智能系统(如面部识别)使用了程序员提前确定的编程规则,比如皮肤颜色的识别,鼻子形状的识别,光线和阴影的识别等等。 所有这些由用户创建的概念必须从一开始就编码进人工智能的核心程序,作为它的基本框架。

这种类型的编程方法很简单,那么相对应的,要弄清楚机器如何得出结论也很简单:只需确定相关结论所依赖的预编程规则即可。算法简单的同时,它也从根本上限制了人工智能的能力。毕竟,现实生活是非常复杂的,最好的人类程序员也无法为计算机设想出一套理解世界的完整规则。

Saenko说,“举例来说,我们不可能准确定义出狗在所有图片中的特征,所以如果我们有足够多的运算能力,足够多的数据,就可以让计算机去看成千上万张关于狗的图片,让计算机从数据中学习,自己找出一套编程规律。“

在过去五年左右的时间里,这种做法已经在人工智能的世界中得到了广泛应用。 这些新的人工智能系统不使用单一模板,而是采用迭代的方法,以神经系统的工作方式作为算法的基础。

这些新型人工智能系统被称为“深层神经网络”,它们使用大量互连的功能或节点,并将这些功能或是节点布置在庞大的运算网络中。 这些神经网络的每个部分都只负责解析少量信息,并逐渐在它之前节点的基础上继续进行工作。

这种增量过程在简单数据上逐层构建,形成”深层神经网络“的核心。 它使人工智能更加灵活、快速和强大。对于一些系统来说,它可以以超过95%的精度运行。 对于那些运行不精确的系统,”深层神经网络“的算法模型又使得程序员很难找出其中的原因。 神经网络创建了大量的宏观准则,导致现在也没有预设的编程模式可供备选了 。

加州大学伯克利分校的项目合作者Trevor Darrell说,“深度神经网络的算法模型擅长处理的是视觉和语言任务(如自动翻译),因为计算机能够从大量的数据中学习。正因为如此,我们也很难直接从中提取和解释算法结构。”

****创造一个人工智能“翻译官”****

Saenko和Darrell正在与荷兰阿姆斯特丹大学的同事Zeynep Akata,以及一家开源软件公司Kitware合作,深入“深层神经网络”的核心,并努力使其更易于理解。

研究人员表示,若想要求这样一个深层神经网络来向用户解释自己,可能会降低其运行的速度和效率,因此他们希望创建一种翻译工具,成为一个并行神经网络,实时向人类用户解释主网络上人工智能的选择。

Saenko表示,“主神经网络需要专注于自己的工作,它的所有计算能力都会被用于完成指派任务,例如在图像中查找门窗。 因此我们想要使用第二个并行的神经网络来访问机器,输入数据,并且从中学习,将所有这些神经网络的运算,翻译成人类可以理解的文本信息。”

Saenko表示,这个翻译过程非常重要,当“深层神经网络”确实犯了错误的时候,很有可能是因为它发现了一个与现实世界不符的数据模式。 例如,如果人工智能驱动着自动驾驶汽车沿着维护不良的道路行驶,那么它很可能会停在一片阴影前,误认为这是一个巨大的坑洞。

如果这种情况发生的话,作为“翻译官”的并行人工智能可以用简单的英文给予用户更多的信息。 “翻译官”可能会说:“我停下车来,是因为我不知道前方是一个坑洼还是阴影,所以请您告诉我,我应该如何选择?”

Saenko说到,“将来,我们将会利用人工智能作为人与电脑之间合作的媒介。 我们必须能够与之进行沟通,了解其优势,了解其擅长的领域,它才能帮助我们处理人类不擅长的事情,比如视频内容的分类识别。我认为这是在创造‘超级人类’, 这是在创造人与人工智能之间的协同合作。”

Saenko的研究由国防高级研究计划署(DARPA)资助。

作者:Boston University  (https://www.weforum.org/agenda/authors/boston-university), Futurity
以上仅代表作者个人观点
本文由世界经济论坛与Futurity (http://www.futurity.org/artificial-intelligence-trust-1477272/)联合发表,转载请注明来源并附上原文链接 (https://www.weforum.org/agenda/2017/07/why-we-might-need-an-interpreter-to-build-our-trust-in-ai)。
翻译:达沃斯博客翻译小组·陈达铿
责编:刘博睿
*世界经济论坛**·**达沃斯博客是一个独立且中立的平台,旨在集合各方观点讨论全球、区域及行业性重要话题。*

话题:



0

推荐

达沃斯博客

达沃斯博客

1014篇文章 5年前更新

本博客为世界经济论坛中文博客在财新网的镜像博客。这里是一个独立且中立的平台,旨在集合各方人士观点讨论全球、区域及行业性重要话题。

文章