联想徐飞玉:可解释性对机器深度学习是很大的挑战-蜗牛派

联想徐飞玉:可解释性对机器深度学习是很大的挑战

联想人工智能实验室负责人徐飞玉认为,可解释性的AI是重要的,研究人员不应该单纯追求模型的精确预测结果,而忽略了模型的可解释性;目前的深度神经网络对人类来说还是一个“黑盒子”,导致人类不敢用、不能用,阻碍了人工智能的落地和商业化;可解释性对机器学习,特别是深度学习是一个很大的挑战。

分享到:更多 ()
Copyright © 2015-2025 woniupai.net 蜗牛派 版权所有
皖ICP备18016507号-1 | 本站内容采用创作共用版权 CC BY-NC-ND/2.5/CN 许可协议