联想徐飞玉:可解释性对机器深度学习是很大的挑战-蜗牛派

联想徐飞玉:可解释性对机器深度学习是很大的挑战

联想人工智能实验室负责人徐飞玉认为,可解释性的AI是重要的,研究人员不应该单纯追求模型的精确预测结果,而忽略了模型的可解释性;目前的深度神经网络对人类来说还是一个“黑盒子”,导致人类不敢用、不能用,阻碍了人工智能的落地和商业化;可解释性对机器学习,特别是深度学习是一个很大的挑战。

免责声明:本文版权归原作者所有,文章系作者个人观点不代表蜗牛派立场,如若转载请联系原作者;本站仅提供信息存储空间服务,内容仅为传递更多信息之目的,如涉及作品内容、版权等其它问题都请联系kefu@woniupai.net反馈!

分享到:更多 ()
Copyright © 2015-2025 woniupai.net 蜗牛派 版权所有
皖ICP备18016507号-1 | 本站内容采用创作共用版权 CC BY-NC-ND/2.5/CN 许可协议