Please use this identifier to cite or link to this item: http://repositorio.ufc.br/handle/riufc/78251
Type: Tese
Title: Um framework independente de domínio para knowledge graph question answering baseado em large language models
Title in English: A domain-independent framework for knowledge graph question answering based on large language models
Authors: Ávila, Caio Viktor da Silva
Advisor: Vidal, Vânia Maria Ponte
Co-advisor: Casanova, Marco Antonio
Keywords in Brazilian Portuguese : Question answering;Knowledge graph;Large language model;RDF browser
Keywords in English : Question answering;Knowledge graph;Large language model;RDF browser
Knowledge Areas - CNPq: CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO
Issue Date: 2024
Citation: ÁVILA, Caio Viktor da Silva. Um framework independente de domínio para knowledge graph question answering baseado em large language models. 2024. 134 f. Tese (Doutorado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2024.
Abstract in Brazilian Portuguese: Os knowledge graph question answering (KGQA) são sistemas computacionais capazes de responder perguntas em linguagem natural utilizando um knowledge graph (KG) como fonte de conhecimento a ser consultada. Estes sistemas destacam-se por suas respostas curadas e profundas. Ao longo da história, diversas arquiteturas e abordagens foram propostas para sistemas de KGQA, com sistemas baseados em modelos fim-a-fim pré-treinados de aprendizado profundo vindo a se popularizar nos últimos anos. Atualmente, os large language models (LLMs) apresentam-se como o estado da arte para modelos de linguagem pré-treinados. Deste modo, surge a oportunidade do desenvolvimento de sistemas de KGQA baseados em LLMs. Com isto em vista, como principal contribuição, esta tese apresenta Auto-KGQA, um framework autônomo independente de domínio baseado em LLMs para KGQA. O framework seleciona automaticamente sub-grafos do KG que são relevantes para a questão, que o LLM utiliza como contexto para traduzir a pergunta em linguagem natural para uma consulta SPARQL sobre o KG. O framework é acessível através de sua API HTTP ou por meio de uma interface Web de Chat Messenger. Além disso, o framework é integrado ao RDF browser, LiRB, permitindo a navegação iterativa de recursos retornados em consultas. Experimentos preliminares com Auto-KGQA com o ChatGPT que indicam o framework reduziu substancialmente o número de tokens passados para o LLM sem sacrificar o desempenho. Por fim, a avaliação de Auto-KGQA em um benchmark com consultas empresariais no domínio de companhias de seguros mostrou que o framework é competitivo, alcançando uma melhoria de 13,2% na acurácia em relação ao estado da arte e uma de redução de 51,12% na quantidade de tokens repassados ao LLM. Experimentos revelaram que o uso de estratégias de few-shot learning em conjunto com o sub-grafo selecionado por Auto-KGQA geram sistemas de KGQA robustos e generalizáveis, superando seus competidores em cenários 0-shot learning e equiparando-se em cenários few-shot.
Abstract: Knowledge graph question answering (KGQA) systems are computational systems capable of answering questions in natural language using a knowledge graph (KG) as a source of knowledge to be consulted. These systems stand out for their curated and deep answers. Throughout history, several architectures and approaches have been proposed for KGQA systems, with systems based on pre-trained end-to-end deep learning models becoming popular in recent years. Currently, large language models (LLMs) are the state of the art for pre-trained language models. Thus, the opportunity arises to develop KGQA systems based on LLMs. With this in mind, as its main contribution, this thesis presents Auto-KGQA, a domain-independent autonomous framework based on LLMs for KGQA. The framework automatically selects fragments of the KG that are relevant to the question, which the LLM uses as context to translate the natural language question into a SPARQL query over the KG. The framework is accessible through its HTTP API or through a Chat Messenger Web interface. In addition, the framework is integrated with the RDF browser, LiRB, allowing iterative navigation of resources returned in queries. Preliminary experiments with Auto-KGQA with ChatGPT indicate that the framework substantially reduced the number of tokens passed to LLM without sacrificing performance. Finally, evaluation of Auto-KGQA on a benchmark with enterprise queries in the insurance companies domain showed that the framework is competitive, achieving a 13.2% improvement in accuracy over the state-of-the-art and a 51.12% reduction in the number of tokens passed to LLM. Experiments have revealed that the use of few-shot learning strategies together with the subgraph selected by Auto-KGQA generates robust and generalizable KGQA systems, outperforming their competitors in 0-shot learning scenarios and matching them in few-shot scenarios.
URI: http://repositorio.ufc.br/handle/riufc/78251
Author's Lattes: http://lattes.cnpq.br/0449925605343817
Advisor's Lattes: http://lattes.cnpq.br/9431229866203038
Co-advisor's Lattes: http://lattes.cnpq.br/0400232298849115
Access Rights: Acesso Aberto
Appears in Collections:DCOMP - Teses defendidas na UFC

Files in This Item:
File Description SizeFormat 
2024_tese_cvsavila.pdf2 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.