Barbara Grosz:不做替代品!构建可实现高级人机协作的AI系统

2017-09-13 | 作者:微软亚洲研究院

编者按:未来的世界一定是人类与机器携手并进的时代,因此构建有意义、有价值的AI系统至关重要,它将能够帮助实现更加高级的人机协作。然而,AI系统的构建并不是一项简单的单系统任务,则需要考虑很多作用因素和边缘挑战。

在“2017微软教育峰会”上,哈佛大学工程与应用科学学院自然科学家希金斯教授Barbara Grosz与大家分享了AI系统与人类交互的基础和挑战,探讨了智能机器系统的未来可能性。

 


 

(以下为Barbara Grosz分享的精简版文字整理)

“人工智能之父”艾伦·麦席森·图灵在1950年时提出了他个人最著名的假设——图灵测试,用于判定机器是否具有智能。如果在多次试验后有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了图灵测试,并被认为具有人类智能。30%是图灵当时对2000年的机器思考能力的一个预测,然而现在我们还远远落后于这个预测。

未来,在与机器进行合作时,你可能不会意识到它不是人类,但这也并不是说AI系统和人类已经达到了难以辨别的层次。事实上,你仍然能够明确地知道你是在和机器进行工作,而机器堪比人类的出色表现,就性能而言足以乱真。

目前,AI正在快速地进入人们的日常生活,声名鹊起之余,它也有能够与热度所匹配的能力。AI时代已经来临,我们需要探索如何能够更好地构建AI系统,以实现更高级的人机协作。

AI:不做人类的替代品、复制品

图灵曾经提出一个颇具哲学意味的问题,为了让科幻电影中机器失控的场面永远只是科幻,我们需要考虑如何利用人工智能来增强人类的能力,而不是替代人类或者单纯复制人类的智慧。人工智能大势已至,我们必须充分利用智能系统的利好进行协调合作:

1. 时代已经产生了翻天覆地的变化,过去是一人一台电脑,各自独立进行工作。而现在的电脑完全能够实现互联共享,很多人可以在不同的地点和不同的系统内同时工作。

2. 认知科学提出两大论断:第一,协调合作能够促进大脑发展。如果一个新生儿在出生两年内没有参与任何社交活动,那么他的大脑体量将相较更小,且会严重影响大脑内产生的能量。第二,语言学习是在人与人之间的交流中发生的,一岁大的孩子能够识别出世界上所有语言的音素,但是之后这种能力会逐渐衰退。因此,协调合作是语言学习的“防腐剂”。

3. 系统设计和工程研究非常重要,相比无限期沉浸在系统成功部分的喜悦中,错误和不足之处更该引起重视。这些错误将能够帮助找出与人类期望不匹配的部分,并实现系统升级。

4. 伦理问题不容忽视。以自动驾驶为例,这确实是一个很美好的概念,但需要我们共同协作。目前利用真人去做自动驾驶实验的还很少,这其中,仍有很多非常现实的问题需要解决。

对话和语言领域:边缘挑战重重

人们可以通过语言的架构和组织进行交流,从中获取对话内容和信息,因此语言是人们参与对话的深层次意图,而非一串单词的简单堆砌,对话也不是简单的线性排序或者随机组合,其结构其实非常清晰。目前,我们处于对话和语言研究的边缘,有很多问题和挑战需要解决。

近年来,AI在医疗信息领域表现非常突出,不仅能够以极高的效率完成信息和数据收集工作,同时也正在发展一些过去只有医生才能掌握的高深专业技能,比如看X光影像等等。但是,AI也并非样样精通,它在理解感性世界、感知微小情绪变化等方面就相对落后。它不可能劝说一位拒绝医生治疗的患者“回心转意”,当然我们也无需AI如此。

越来越多领域普及AI并将AI应用于实际操作的同时,AI发展可能带来的伦理学问题也引发了人们的高度关注。我们以儿童玩具为例,曾经有一款专为3-8岁孩子量身打造的机器娃娃可以和孩子进行自由交流,这听起来非常美好。

但事实上,机器娃娃和孩子的对话往往只是单向的,娃娃无法真正理解孩子的语言,甚至会忽视孩子在交流过程中的心理活动。和机器娃娃的交流经常无法达到一些正常的谈话期望。如,当孩子流露出负面情绪时,机器娃娃难以即时调整对话情绪,反而是继续沉浸在无休止的兴奋互动中,这对孩子而言无疑是二次伤害。再比如,成人往往会以对话的形式教育孩子,“懂礼貌”、“不能对其他人过分刻薄”,但是机器娃娃的设计脚本中不会涉及这样的道德观,它只会自说自话,放任孩子的行为。

产生这种后果的原因之一是我们对人类对话的理解存在缺失。对话是由有目的性的参与者共同构造的,其中语音语调也不是无意义的对话元素,它们是对话整体不可忽视的一部分。对话也并不是相似内容的匹配,一个问题对应一个回答在现实世界中几乎是不存在的。因此,这些对话的特征也给未来AI系统的构建和聊天机器人的发展带来了一些挑战:开放领域(如:社交聊天机器人)将比封闭领域(如:旅行助手、客户服务)的应用更加困难,而一问一答的短对话将会比堪称全真的长对话容易操作得多。

哈佛大学工程与应用科学学院自然科学家希金斯教授Barbara Grosz

从设计之初就将AI可能带来的伦理问题纳入考虑范围之内对企业而言是至关重要的,它不只是会对个人产生影响,而是对整个社会、世界都会有所波及。我们很高兴地看到微软目前就在做这件事情——关注AI的隐私、安全等一系列潜在问题。除了必须注意AI将产生的负面伦理影响,如何充分利用AI、发挥正面引导作用同样是值得研究的。以下是我认为研发AI系统所需要遵循的几项基本原则:

1. 价值是由人类来决定的,而不是机器。

2. 过度关注AI威胁论可能会分散在重大问题研究方面的注意力,错失最佳时机。

3. 研究前路挑战重重,除了关注监管和隐私问题,设计不同领域的AI系统、嵌入伦理能力也同样重要。

标签