联想人工智能实验室负责人徐飞玉认为,可解释性的AI是重要的,研究人员不应该单纯追求模型的精确预测结果,而忽略了模型的可解释性;目前的深度神经网络对人类来说还是一个“黑盒子”,导致人类不敢用、不能用,阻碍了人工智能的落地和商业化;可解释性对机器学习,特别是深度学习是一个很大的挑战。
免责声明:本文版权归原作者所有,文章系作者个人观点不代表蜗牛派立场,如若转载请联系原作者;本站仅提供信息存储空间服务,内容仅为传递更多信息之目的,如涉及作品内容、版权等其它问题都请联系kefu@woniupai.net反馈!
蜗牛派
科大讯飞首款立式大屏AI学习机LUMIE 10系列正式上市
傅利叶智能在2023世界人工智能大会上发布GR-1通用人形机器人
网易旗下游戏《永劫无间》将于7月14日转为免费游戏
蔚来等16家车企“握手言和”签署《汽车行业维护公平竞争市场秩序承诺书》
开发者知识分享社区“博客园”寻求商业化努力绝境求商开设捐助通道
软银旗下ARM寻求上市前提高芯片设计价格 已告知多家智能手机制造商
瑞萨电子发布全新工业用微处理器MPU—RZ/T2L
微软Bing在线绘图ImageCreator功能正式公测所有用户都可直接使用
引入OpenAI大型语言模型后 必应搜索引擎访问量增加15%
宝尊集团与阿里云达成战略合作,加速全面上云与数字化产品集成
网宿科技嘉定云计算数据中心入选“2022年上海市新型数据中心创新发展案例”
索尼中国新品发布会定档2022年3月29日 ZV-E1相机可能发布