Top
首页 > 正文

王士泉:大语言模型与医学知识图谱构建

发布时间:2023-07-13 11:29 来源: 作者:

记者:韩丹

随着人工智能技术的不断发展,大语言模型成为了近年来研究的热点之一。医疗知识图谱是一个重要的研究领域,它可以帮助医疗专业人员更好地理解和应用医疗知识,而大语言模型的出现为医学领域的知识图谱构建提供了新的思路和方法。

近日,记者就此与国内医疗信息化专家王士泉进行了深入访谈,现将王士泉的观点及建议,整理归纳如下:

大语言模型对医学知识图谱的增强作用

医学知识图谱是将医学领域的知识以图谱的形式进行表示和组织的一种方法。它能够将医学知识中的实体、关系和属性进行结构化的描述,为医学研究和临床实践提供有力的支持。然而,传统的医学知识图谱构建方法存在着知识获取困难、知识更新滞后等问题,构建方法往往只利用了单一模态的数据,无法全面地表达医疗知识。大语言模型的出现为解决这些问题提供了新的思路。

首先,大语言模型能够通过学习大规模的医学文献和临床数据,自动提取医学知识中的实体和关系。以BERT为例,该模型通过预训练和微调的方式,能够对医学文本进行深度理解和语义分析。通过将BERT应用于医学知识图谱构建中,可以自动识别医学实体(如疾病、药物、症状等)以及它们之间的关系(如治疗、引起等),大大减轻了人工构建知识图谱的工作量。

其次,大语言模型能够帮助医学知识图谱的更新和扩展。由于医学知识的更新速度较快,传统的知识图谱构建方法往往难以及时跟进。而大语言模型可以通过不断学习新的医学文献和数据,自动更新和扩展知识图谱中的实体和关系。这种自动化的更新机制能够保证知识图谱的时效性和准确性。

然而,大语言模型在医学知识图谱构建中也存在一些挑战。首先,医学领域的知识具有复杂性和多样性,大语言模型在理解和处理这些知识时可能存在一定的局限性。其次,大语言模型的训练需要大量的医学文献和数据,而这些数据的质量和可靠性对于知识图谱的构建至关重要。因此,如何获取高质量的医学数据是普遍面临的问题。

利用大语言模型构建知识图谱的方法

方式一、在LLMs(Large Language Models)的基本结构中加入知识图谱(KG)的推理逻辑。

在Transformer的基本结构中直接实现对知识图谱的推理的整合比较复杂。要在Transformer内部与知识图谱进行交互,需要开发一个高度定制化的模型,并在模型的某个环节引入外部知识图谱的查询。这种做法的技术挑战较大,并需要深入了解Transformer的工作原理和知识图谱的查询机制。

可以采用下面的方式来整合知识图谱的推理到Transformer的结构中:

自定义注意力机制:修改Transformer的自注意力机制,使其能够在注意力计算的过程中访问外部知识图谱。这可能涉及到开发一个自定义的注意力层,该层不仅考虑输入序列的内部关系,而且还能够查询外部知识图谱,并将查询结果整合到注意力权重中。

中间表示的处理:在Transformer的某个层级,可以提取模型的中间表示,并基于这些表示生成知识图谱的查询。然后,你可以将知识图谱的查询结果整合回模型的中间表示。

定制的解码策略:如果你使用的是具有解码器的Transformer模型,可以考虑开发一个定制的解码策略,该策略在生成输出序列时考虑知识图谱的信息。

值得注意的是,这种在模型内部整合知识图谱的方法会极大地增加模型的复杂性,并可能对性能和可维护性产生影响。在许多实际应用中,更常见的做法是将Transformer模型和知识图谱作为两个独立的组件,然后在更高的应用层面上进行整合。这样可以使每个组件保持相对简单,并允许灵活地调整和优化整个系统。

方式二、增加融合层

在设计一个将LLM和知识图谱作为两个独立组件融合的技术方案时,采取模块化的方法。这种方法不仅使各个组件保持简单和独立,而且允许灵活地调整和优化整个系统。

知识图谱接口:为知识图谱创建一个清晰定义的API接口,允许查询和检索信息。这个接口能够接收查询,并以结构化的格式返回结果。

LLM模型接口:选择一个适当的LLM模型(例如,BERT、GPT或自定义模型),并为其创建一个接口,以接收输入并生成输出。根据应用需求,可以使用预训练的模型或在特定任务上进行微调。

融合层:创建一个单独的融合层,该层负责协调LLM模型和知识图谱的交互。这一层的工作包括:

1.接收原始输入。

2.通过LLM处理输入,并获取中间表示或初步输出。

3.基于LLM的输出或中间表示,生成知识图谱的查询。

4.使用知识图谱的API接口执行查询,并获取结果。

5.将知识图谱的结果整合到LLM的输出中,以生成最终输出。

6.反馈机制(可选):根据应用的需求,可能还需要一个反馈机制,使得知识图谱的结果可以反馈到LLM中,以便模型可以进行动态调整。

7.输出格式化:根据应用的需求,格式化和呈现最终的输出结果。

8.优化和调整:根据实际性能和需求,优化查询策略、模型参数、融合策略等。

利用大模型构建医学知识图谱系统的步骤

构建基于大模型的知识图谱系统主要包括数据采集、数据预处理、模型训练和知识图谱构建等步骤。首先,需要收集并汇聚大量的医疗数据,包括文本、图像和语音等多模态数据。然后,需要对这些数据进行预处理,包括数据清洗、质控、特征提取和数据集划分等。接下来,需要利用大模型进行训练,通过学习多模态数据之间的关联性,提取出医疗知识的特征表示。最后,系统根据训练得到的模型,构建了一个全面且准确的医疗知识图谱。

多模态数据的处理是该系统的关键步骤之一。系统通过将文本、图像和语音等多模态数据进行融合,提取出数据之间的关联性和特征表示。例如,在处理图像数据时,系统可以利用卷积神经网络提取图像的特征表示;在处理文本数据时,系统可以利用自然语言处理技术提取文本的语义信息。通过综合利用多模态数据,系统可以更全面地表达医疗知识。

大模型的训练是该系统的核心步骤之一。系统利用大模型,通过学习多模态数据之间的关联性,提取出医疗知识的特征表示。例如,在训练过程中,系统可以利用深度学习模型,如循环神经网络或变换器模型,对多模态数据进行建模和学习。通过大模型的训练,系统可以更准确地捕捉医疗知识的特征表示。

知识图谱的构建是系统的最终目标。系统根据训练得到的模型,将医疗知识转化为图谱的形式。例如,系统可以将医疗实体表示为图谱中的节点,将医疗关系表示为图谱中的边。通过构建知识图谱,系统可以更直观地展示医疗知识的关联性和层次结构。

王士泉最后总结道:大语言模型作为一种新兴的人工智能技术,为医学知识图谱的构建提供了新的思路和方法。通过学习大规模的医学文献和数据,大语言模型能够自动提取医学知识中的实体和关系,并帮助知识图谱的更新和扩展。然而,大语言模型在医学知识图谱构建中仍面临一些挑战,需要进一步研究和探索。相信随着技术的不断进步,大语言模型将在医学领域发挥越来越重要的作用。

注:王士泉,技术管理精英,中国HIT(Hospital information technology)技术创新探索者,深耕医疗健康领域信息化二十余年。

合作站点
stat
Baidu
map