如果不明白AI决策的依据,那就无从判断,只能全部交给AI决定

人工智能快速发展,产生许多不可思议的应用。不过,AI的决策过程如同黑箱作业,人类的未来真的要交给AI吗?日前日本东京的NEC iExpo 2017大会上,NEC社长新野隆就指出未来要打破黑箱,发展白箱技术。

什么是AI黑箱?新野隆解释道:一些深度学习的AI,把信息输入进去后,AI便会反馈一个结果。外人甚至是开发者都无法理解和说明决策的依据。就像AlphaGo下棋招数的确很妙,但人们对AlphaGo为何会下出此招一无所知。就像是黑箱作业。

AI能够像世界各种资讯数字化,排除干扰提升数据的品质。接着AI技术会对数据进行分析,并提出建议。AI提出的建议,最终都会交给人去决策。问题在于,如果把关的人都不知道AI建议的依据,那就无从判断,只能全部交给AI决定。

因此,新野隆表示NEC未来的开发方向,就是研究白箱的技术,AI提供建议的同时也会提供有效的证据,让人们理解进而去作出决策,不至于被AI牵着走。

声明:本站原创文章文字版权归电科技所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表电科技立场,图文版权归原作者所有。如有侵权,请联系我们删除。
分享到: