联想人工智能实验室负责人徐飞玉认为,可解释性的AI是重要的,研究人员不应该单纯追求模型的精确预测结果,而忽略了模型的可解释性;目前的深度神经网络对人类来说还是一个“黑盒子”,导致人类不敢用、不能用,阻碍了人工智能的落地和商业化;可解释性对机器学习,特别是深度学习是一个很大的挑战。

联想人工智能实验室负责人徐飞玉认为,可解释性的AI是重要的,研究人员不应该单纯追求模型的精确预测结果,而忽略了模型的可解释性;目前的深度神经网络对人类来说还是一个“黑盒子”,导致人类不敢用、不能用,阻碍了人工智能的落地和商业化;可解释性对机器学习,特别是深度学习是一个很大的挑战。