我们并不总是知道人工智能在想什么——这可能很可怕

“算法”可能是几乎没有人理解的最流行的术语之一。他们怎么可能?没有多少人拥有数据科学的博士学位,甚至那些专家也不总是知道发生了什么。IBM认知计算首席科学官Guruduth Banavar说:「即使从技术角度来看,人工智能算法的每一个方面都无法被人类理解。」

广告那是一个可怕的情况。人工智能正在通过审查人们在医院的体检、银行的信用记录、一些人力资源系统的工作申请,甚至司法系统中的犯罪风险因素来做出决定。然而,并不总是清楚计算机的想法。

「对于这些演算法是如何得出各种结论,以及受这些结论影响的人是否有权利,或许有能力找出演算法是如何得出这些结论,已经有相当多的讨论。」9月20日,Banavar发表了一篇名为“学会信任人工智能系统”的论文,阐述了算法责任的原则,确保人工智能在良好数据的基础上做出可理解的决策。9月,IBM与亚马逊、Facebook、Google deep mind和微软联手,在人工智能领域建立了合作伙伴关系。该组织将资助有关如何使人工智能在社会和技术上更负责任的研究和协作。

寻呼机器人博士:分析家说,未来的人工智能医疗保健业将在五年内增长十倍——从癌症诊断到饮食提示。

AIs快速增长使得问题难以发现。巴纳瓦说:「人们正在尝试许多想法,其中一些似乎运作良好。」“但我们无法准确解释内部系统是如何实现我们在结果中看到的一切的。“

他提供了一个简单的例子,说明了AI的深层学习方法。它使用神经网络,模仿大脑学习方式的推理系统,摄取和理解大量信息。例如,一个医学成像系统已经扫描了一百万个X射线,以便识别和分类阻塞动脉的迹象。当添加新的X射线时,即使是构建神经网络的人也未必能预测系统将如何对其进行分类。巴纳瓦说:「神经网路的内部运作非常复杂,如果你只要[检视]算法在任何时候的内部状态,对任何人来说都是毫无意义的。」

「即使从技术角度来看,人工智能演算法的每一个方面都无法被人类所理解。“还有一个挑战:机器学习基于输入的信息来理解世界。这符合计算的基本规则之一:垃圾输入、垃圾输出。例如,质量差或标记不正确的x射线不能教会医学人工智能系统如何准确地发现心血管疾病。

同样的弱点也适用于对人进行判断的系统。一个评估刑事罪犯重新犯罪可能性的人,如果其提供的信息基于人们行为方式的种族陈规定型观念,可能会发出种族主义的判刑呼吁。这不是假设: 5月,ProPublica发表了一份调查报告,内容涉及佛罗里达州布朗沃德县的刑事判决所依据的算法得出的风险分数。分数不是很准确:他们预测谁会再犯的概率只有60 %左右。黑人罪犯被错误地贴上未来犯罪的标签,几乎是白人错误贴上标签的两倍。

广告解释说明科技巨头对如何窥视人工智能的黑匣子只有一个大概的了解。Banavar说,一个建议是建立一个并行系统,跟踪算法的工作,并提供对其决策的审计跟踪。根据IBM的说法,它可能是以已经用于跟踪卫生、金融服务或法律领域中不太复杂的决策软件的系统为模型的。但是这种系统还没有被开发用于非常复杂的深度学习神经网络。它们是快速移动的目标。HBOs Westworld的创造者Lisa Joy和Jonah Nolan在一系列探索人工智能和人性阴暗面的节目中谈论人工智能、感知和监控,这部电影重新启动了1973年关于机器人主题公园失控的电影。

人工智能公司如果想在欧盟做生意,必须尽快弄清楚。4月份,该组织通过了一项新的数据保护指令,专家表示,该指令将给予人们要求解释算法如何处理信息并做出决定的权利。该法于2018年生效。IBMs的弗朗西丝卡·罗西说:“当然,不清楚他们的解释是什么意思。”欧洲人工智能伦理研究员。

这不可能是一份100页的报告。要使人工智能过程为大多数人所理解,还需要更多的人工智能。巴纳瓦说:「人与机器之间需要有一种对话,就像两个人之间需要对话一样。」每个问题和答案都可能导致另一个问题和答案,这将需要非常智能的语言界面。想象一下,问问Siri或Alexa,不是关于天气预报或电影时间,而是关于为什么你被拒绝抵押贷款。人工智能必须有条不紊地检查你的信用记录,并解释每个项目是如何发挥作用的。

技术还没有出现。IBM则一直与密歇根大学在对话式电脑界面上进行合作。Banavar说:「目的是让系统和使用者互动具有前后关联和长时间运作,并能了解交谈的意图。」它可能感觉像是在和Samantha说话,Samantha或HAL从2001年开始,但是机器不会有感情,只是一个非常好的说话者。Banavar指出,“我认为,在人们之间真正的自然用户交互水平上使用它还需要一些时间。“

相关视频: Facebook想赢得一切,包括人工智能

Copyright © 2017 时时彩平台 版权所有