Use este identificador para citar ou linkar para este item:
http://repositorio.ufc.br/handle/riufc/78251
Tipo: | Tese |
Título: | Um framework independente de domínio para knowledge graph question answering baseado em large language models |
Título em inglês: | A domain-independent framework for knowledge graph question answering based on large language models |
Autor(es): | Ávila, Caio Viktor da Silva |
Orientador: | Vidal, Vânia Maria Ponte |
Coorientador: | Casanova, Marco Antonio |
Palavras-chave em português: | Question answering;Knowledge graph;Large language model;RDF browser |
Palavras-chave em inglês: | Question answering;Knowledge graph;Large language model;RDF browser |
CNPq: | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO |
Data do documento: | 2024 |
Citação: | ÁVILA, Caio Viktor da Silva. Um framework independente de domínio para knowledge graph question answering baseado em large language models. 2024. 134 f. Tese (Doutorado em Ciência da Computação) - Universidade Federal do Ceará, Fortaleza, 2024. |
Resumo: | Os knowledge graph question answering (KGQA) são sistemas computacionais capazes de responder perguntas em linguagem natural utilizando um knowledge graph (KG) como fonte de conhecimento a ser consultada. Estes sistemas destacam-se por suas respostas curadas e profundas. Ao longo da história, diversas arquiteturas e abordagens foram propostas para sistemas de KGQA, com sistemas baseados em modelos fim-a-fim pré-treinados de aprendizado profundo vindo a se popularizar nos últimos anos. Atualmente, os large language models (LLMs) apresentam-se como o estado da arte para modelos de linguagem pré-treinados. Deste modo, surge a oportunidade do desenvolvimento de sistemas de KGQA baseados em LLMs. Com isto em vista, como principal contribuição, esta tese apresenta Auto-KGQA, um framework autônomo independente de domínio baseado em LLMs para KGQA. O framework seleciona automaticamente sub-grafos do KG que são relevantes para a questão, que o LLM utiliza como contexto para traduzir a pergunta em linguagem natural para uma consulta SPARQL sobre o KG. O framework é acessível através de sua API HTTP ou por meio de uma interface Web de Chat Messenger. Além disso, o framework é integrado ao RDF browser, LiRB, permitindo a navegação iterativa de recursos retornados em consultas. Experimentos preliminares com Auto-KGQA com o ChatGPT que indicam o framework reduziu substancialmente o número de tokens passados para o LLM sem sacrificar o desempenho. Por fim, a avaliação de Auto-KGQA em um benchmark com consultas empresariais no domínio de companhias de seguros mostrou que o framework é competitivo, alcançando uma melhoria de 13,2% na acurácia em relação ao estado da arte e uma de redução de 51,12% na quantidade de tokens repassados ao LLM. Experimentos revelaram que o uso de estratégias de few-shot learning em conjunto com o sub-grafo selecionado por Auto-KGQA geram sistemas de KGQA robustos e generalizáveis, superando seus competidores em cenários 0-shot learning e equiparando-se em cenários few-shot. |
Abstract: | Knowledge graph question answering (KGQA) systems are computational systems capable of answering questions in natural language using a knowledge graph (KG) as a source of knowledge to be consulted. These systems stand out for their curated and deep answers. Throughout history, several architectures and approaches have been proposed for KGQA systems, with systems based on pre-trained end-to-end deep learning models becoming popular in recent years. Currently, large language models (LLMs) are the state of the art for pre-trained language models. Thus, the opportunity arises to develop KGQA systems based on LLMs. With this in mind, as its main contribution, this thesis presents Auto-KGQA, a domain-independent autonomous framework based on LLMs for KGQA. The framework automatically selects fragments of the KG that are relevant to the question, which the LLM uses as context to translate the natural language question into a SPARQL query over the KG. The framework is accessible through its HTTP API or through a Chat Messenger Web interface. In addition, the framework is integrated with the RDF browser, LiRB, allowing iterative navigation of resources returned in queries. Preliminary experiments with Auto-KGQA with ChatGPT indicate that the framework substantially reduced the number of tokens passed to LLM without sacrificing performance. Finally, evaluation of Auto-KGQA on a benchmark with enterprise queries in the insurance companies domain showed that the framework is competitive, achieving a 13.2% improvement in accuracy over the state-of-the-art and a 51.12% reduction in the number of tokens passed to LLM. Experiments have revealed that the use of few-shot learning strategies together with the subgraph selected by Auto-KGQA generates robust and generalizable KGQA systems, outperforming their competitors in 0-shot learning scenarios and matching them in few-shot scenarios. |
URI: | http://repositorio.ufc.br/handle/riufc/78251 |
Currículo Lattes do(s) Autor(es): | http://lattes.cnpq.br/0449925605343817 |
Currículo Lattes do Orientador: | http://lattes.cnpq.br/9431229866203038 |
Currículo Lattes do Coorientador: | http://lattes.cnpq.br/0400232298849115 |
Tipo de Acesso: | Acesso Aberto |
Aparece nas coleções: | DCOMP - Teses defendidas na UFC |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
2024_tese_cvsavila.pdf | 2 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.