要取信于人AI得打开决策黑箱
城市镜像.新闻汇总 2020-03-25
消息来源:新华网 如今,人工智能已经可以做决定,但我们仍不知道这个决定是如何做出的 人们需要了解人工智能如何得出某个结论背后的原因,而不是仅仅接受一个在没有上下文或解释的情况下输出的结果 近日,微软前全球执行副总裁沈向洋在接到清华大学续聘书时,通过直播方式分享了对AI可解释性与AI偏见相关问题的研究与看法 他提到,AI就像一个黑匣子,能自己做出决定,但是人们并不清楚其中缘由 因此,要打造负责任的人工智能,确保其决策透明,即我们能够理解并看到人工智能所做的决定,尤其需要开发可翻译、可解释的人工智能模型,以了解人工智能是如何做出这些决策的 特别是在事关重大的关键领域中,需要对模型全面理解,以此避免出现错误 。