12月10日上午,CCF YOCSEF西安在西北工业大学长安校区南山苑举办了探索机器推理未来发展方向的主题活动“机器推理,路在何方?”人工智能前沿技术论坛。CCF YOCSEF西安AC委员和来自西北工业大学、清华大学、西安交通大学、西北大学、陕西师范大学、西安理工大学等高校和企业共50余名代表参加。论坛由CCF YOCSEF西安分论坛的王鹏、马苗担任执行主席。
吴琦博士发言
首先,论坛由澳大利亚阿德莱德大学吴琦博士作题为“视觉-语言问题中的深层推理研究”的引导发言。吴琦介绍了视觉-语言交互任务中机器推理的研究现状,并结合近期工作分析了视觉—语言交互任务中的深层次推理所面临的挑战。
张含望博士发言
新加坡南洋理工大学张含望博士作了题为“The talk of why”的引导发言,张博士首先通过几个生动的例子引出了一个机器推理研究这普遍感到困惑的问题,那就是在模型回答了“什么”之后,再问一个“为什么”。接下来通过机器推理相关的4个经典任务,详细介绍了其团队关于“因果推理”的研究成果,对于机器推理中的可解释性给出了非常有启发性的见解。
刘偲博士发言
然后,北京航空航天大学副教授刘偲博士作了引导发言,刘博士从视觉推理中的一个问题“Referring Expression Comprehension”入手,对当前不同的推理模型的优缺点进行了探究,并提出若干改进策略。
讨论环节
引导发言结束后,论坛进入讨论环节,参会嘉宾围绕“机器推理,路在何方?”进行了深入的讨论。讨论的主要问题如下:
1. 作为被广泛使用的记录知识的两种方式,即知识图谱和预训练模型,各存在什么问题?
2. 如何看待神经网络的可解释性问题?
3. 如何看待符号主义方法和联结主义方法的结合问题?
执行主席王鹏作开场白,鼓励大家踊跃发言。除了几位引导发言嘉宾和执行主席,YOCSEF西安主席苏媛、西工大夏勇、西安理工黑新宏、西安理工王一川等多位来宾均参加了讨论。张含望博士认为transformer为代表的预训练模型还只是虚假的繁荣,将来会有真正的语言模型,张博士还认为真正的推理应该与模型无关,是一个范式。吴琦博士针对模型的可解释性阐述了自己的理解,他认为我们对可解释性的探究应该是循序渐进的,而不应该追求一步到位,现阶段还是要以能用为主,之后再去逐步提高可解释性。黑新宏从人工智能的最终目的是辅助人还是代替人的角度发表了对模型可解释性的看法,他认为如果AI最终是要辅助人的,是否一定要按照人类的思维模式去解释机器。王鹏则认为阻碍符号方法与联结方法结合的障碍之一是符号系统通常是不可微的,而联结系统则一般可微,两者的混合体会比较难以训练。
Panel嘉宾
分组讨论
参会学生提问
参会人员合影
经过一个半小时深入而热烈的讨论,论坛观点总结如下:
(1)知识图谱,具有结构化、可解释的优点,但是目前仍较多依赖于人工标注,尚无法做到从非结构化数据中完全自动地抽取知识。我们似乎还没有很好的办法建立一个包罗万象的结构化知识库,但是在医疗、法律等较为狭窄的专业领域,知识图谱应有很大的发展潜力和落地机会。预训练模型用向量作为知识的表示从而便于计算,其优势之一在于可以从非结构数据中自动的获取知识。在未来,预训练模型应将在CV、NLP等领域发挥更大的作用。但同时,也需要解决预训练模型的遗忘等问题。
(2)模型的可解释性在一些特定应用场景下是十分重要的,而且是从关联学习到因果推理的关键一环。然而,当前不是所有应用场景都需要强调可解释性,我们应该首先做到的是让模型达到“能用”的程度,然后再去追求可解释性。
(3)符号方法与联结方法的结合问题,是一个重要的有前景的研究方向。尽管当前已经有很多尝试的工作,但是还没能清晰地看到能够很好解决这一问题的思路。
所有评论仅代表网友意见