Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.ufc.br/handle/riufc/78251
Tipo: Tese
Título : Um framework independente de domínio para knowledge graph question answering baseado em large language models
Título en inglés: A domain-independent framework for knowledge graph question answering based on large language models
Autor : Ávila, Caio Viktor da Silva
Tutor: Vidal, Vânia Maria Ponte
Co-asesor: Casanova, Marco Antonio
Palabras clave en portugués brasileño: Question answering;Knowledge graph;Large language model;RDF browser
Palabras clave en inglés: Question answering;Knowledge graph;Large language model;RDF browser
Áreas de Conocimiento - CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Fecha de publicación : 2024
Citación : ÁVILA, Caio Viktor da Silva. Um framework independente de domínio para knowledge graph question answering baseado em large language models. 2024. 134 f. Tese (Doutorado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2024.
Resumen en portugués brasileño: Os knowledge graph question answering (KGQA) são sistemas computacionais capazes de responder perguntas em linguagem natural utilizando um knowledge graph (KG) como fonte de conhecimento a ser consultada. Estes sistemas destacam-se por suas respostas curadas e profundas. Ao longo da história, diversas arquiteturas e abordagens foram propostas para sistemas de KGQA, com sistemas baseados em modelos fim-a-fim pré-treinados de aprendizado profundo vindo a se popularizar nos últimos anos. Atualmente, os large language models (LLMs) apresentam-se como o estado da arte para modelos de linguagem pré-treinados. Deste modo, surge a oportunidade do desenvolvimento de sistemas de KGQA baseados em LLMs. Com isto em vista, como principal contribuição, esta tese apresenta Auto-KGQA, um framework autônomo independente de domínio baseado em LLMs para KGQA. O framework seleciona automaticamente sub-grafos do KG que são relevantes para a questão, que o LLM utiliza como contexto para traduzir a pergunta em linguagem natural para uma consulta SPARQL sobre o KG. O framework é acessível através de sua API HTTP ou por meio de uma interface Web de Chat Messenger. Além disso, o framework é integrado ao RDF browser, LiRB, permitindo a navegação iterativa de recursos retornados em consultas. Experimentos preliminares com Auto-KGQA com o ChatGPT que indicam o framework reduziu substancialmente o número de tokens passados para o LLM sem sacrificar o desempenho. Por fim, a avaliação de Auto-KGQA em um benchmark com consultas empresariais no domínio de companhias de seguros mostrou que o framework é competitivo, alcançando uma melhoria de 13,2% na acurácia em relação ao estado da arte e uma de redução de 51,12% na quantidade de tokens repassados ao LLM. Experimentos revelaram que o uso de estratégias de few-shot learning em conjunto com o sub-grafo selecionado por Auto-KGQA geram sistemas de KGQA robustos e generalizáveis, superando seus competidores em cenários 0-shot learning e equiparando-se em cenários few-shot.
Abstract: Knowledge graph question answering (KGQA) systems are computational systems capable of answering questions in natural language using a knowledge graph (KG) as a source of knowledge to be consulted. These systems stand out for their curated and deep answers. Throughout history, several architectures and approaches have been proposed for KGQA systems, with systems based on pre-trained end-to-end deep learning models becoming popular in recent years. Currently, large language models (LLMs) are the state of the art for pre-trained language models. Thus, the opportunity arises to develop KGQA systems based on LLMs. With this in mind, as its main contribution, this thesis presents Auto-KGQA, a domain-independent autonomous framework based on LLMs for KGQA. The framework automatically selects fragments of the KG that are relevant to the question, which the LLM uses as context to translate the natural language question into a SPARQL query over the KG. The framework is accessible through its HTTP API or through a Chat Messenger Web interface. In addition, the framework is integrated with the RDF browser, LiRB, allowing iterative navigation of resources returned in queries. Preliminary experiments with Auto-KGQA with ChatGPT indicate that the framework substantially reduced the number of tokens passed to LLM without sacrificing performance. Finally, evaluation of Auto-KGQA on a benchmark with enterprise queries in the insurance companies domain showed that the framework is competitive, achieving a 13.2% improvement in accuracy over the state-of-the-art and a 51.12% reduction in the number of tokens passed to LLM. Experiments have revealed that the use of few-shot learning strategies together with the subgraph selected by Auto-KGQA generates robust and generalizable KGQA systems, outperforming their competitors in 0-shot learning scenarios and matching them in few-shot scenarios.
URI : http://repositorio.ufc.br/handle/riufc/78251
Lattes del autor: http://lattes.cnpq.br/0449925605343817
Lattes del tutor: http://lattes.cnpq.br/9431229866203038
Lattes del co-asesor: http://lattes.cnpq.br/0400232298849115
Derechos de acceso: Acesso Aberto
Aparece en las colecciones: DCOMP - Teses defendidas na UFC

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
2024_tese_cvsavila.pdf2 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.