当前位置 : 首页  其他  学部新闻

人文与科学论坛(第三期)顺利举办

编辑: 时间:2023年09月20日

9月10日上午,浙江大学人文与科学论坛(第三期)在紫金港校区召开。本次论坛特邀了香港科技大学的林方真教授和北京大学的王彦晶教授作报告。该论坛由人文学部主办,浙江大学-卢森堡大学高等智能系统与推理联合实验室承办。论坛由哲学学院的廖备水教授主持,校内外参会代表共计40余人参加。




      首先,林方真教授作了题为“在自然语言推理问题中使用语言模型进行知识获取”的报告。林教授现为香港科技大学计算机科学与工程系教授。在此之前,他曾在斯坦福大学计算机科学系工作。林教授首先以“机器智能应与人类智能对齐”的整体目标为导向,介绍了人工智能领域各个分支的任务和目标,其可以分为以下三类:计算机视觉讨论机器如何感知和理解外在世界,自然语言处理讨论机器如何理解自然语言并与外界进行交流,知识的表示和推理讨论机器如何表征知识并对知识进行推理从而得到新的知识。他进而从人工智能的发展路径导向了当前人工智能处理的难点:知识表示与推理问题,尤其是涉及系统动态性和多主体系统中不同主体的知识交互的推理问题。该报告从逻辑与大语言模型的交叉视角出发,认为对于需要一些复杂推理来解决的自然语言问题,至少有两种方法可以使用大型语言模型(LLM)来解决:一种是要求它直接给出问题的回答;另一种是使用语言模型从问题文本中提取事实,继而使用定理证明器来解决问题。基于这两种方法,林教授展示了ChatGPT和GPT4在解决逻辑字谜上的表现,并得出结论:从问题文本中提取事实,继而使用定理证明器来解决问题是使用大型语言模型进行自然语言推理的正确方法。关于与会代表提出的“大语言模型当前采用何种方式进行复杂的逻辑推理,有何缺陷”的问题,林教授认为,大型语言模型通过递归神经网络(RNN)和变换器(Transformer)等策略和方法来解决复杂的逻辑推理问题。这种能力基于其强大的语言理解和生成能力,需要与搜索算法和其他深度学习模型的结合。采用以上方式尽管已经取得了一些进展,但准确率和精度依然不高,需要通过与逻辑相结合的方法进一步提高。


接下来,王彦晶教授作了“道义逻辑的打包算子进路”的报告。王教授现任北京大学逻辑学教授,哲学系副主任。他的报告是基于语言学、法学与哲学的研究视角,探讨了一种将量词和模态结合在一起道义逻辑的新语义方法,并引入了所“打包算子”的概念。这一创新方法解决了自然语言中模态词和逻辑连接词的复杂逻辑行为问题。例如,在认知逻辑中,“know-wh(知道什么/知道为何/知道是否/知道何时/知道如何)”模态经常隐含着x(存在x必然)结构,而该方法将允许视为x◇(所有x可能),从而得到一个满足大多数直观特性的理想的自由选择许可逻辑。此外,这一方法还预测了一些尚未在文献中讨论的新逻辑行为,例如,根据新的语义,一个在经典逻辑中有效的分布律是无效的,而这与人们的语言直觉相一致。此研究方法受直觉主义逻辑启发,将命题视为的行动类型,采用Brouwer-Heyting-Kolmogorov(BHK)方式处理,揭示了道义逻辑中否定、合取和蕴涵的微妙之处。最后,王教授还介绍了该新方法在人工智能应用领域的研究进展,这一研究不仅在理论上具有重要意义,还在人工智能应用领域具有广泛潜力可用于改进自然语言处理技术,提高智能系统对语言的理解和处理水平。关于与会代表提出的“这一新方法在人工智能应用领域有何具体的应用前景”这一问题,王教授认为,具有打包算子的道义逻辑可以被进一步地应用于智能决策和推理,特别是涉及伦理规范和法律推理方面的应用场景,例如:由于道义逻辑中的“义务”“允许”、“禁止”逻辑算子可以用来表达法律规范中的知识,因而可以作为人工智能推理的工具,开发法律领域的人工智能辅助系统,并实现对法律案件的分析和评估。此外,基于道德、行动相关的逻辑,可以为人工智能的道德决策提供一定的基础。



                                (文/姚泽来 黄旖妮    图/陈东恒)

                               2023.9.20