ExaRanker : synthetic explanations improve neural rankers
Fernando Ferraretto Silva
DISSERTAÇÃO
Inglês
T/UNICAMP Si38e
[ExaRanker]
Campinas, SP : [s.n.], 2024.
1 recurso online (50 p.) : il., digital, arquivo PDF.
Orientadores: Roberto de Alencar Lotufo, Rodrigo Frassetto Nogueira
Dissertação (mestrado) - Universidade Estadual de Campinas (UNICAMP), Faculdade de Engenharia Elétrica e de Computação
Resumo: Esta tese de mestrado investiga a aplicação inovadora de modelos de linguagem de grande escala (LLMs) em contextos de recuperação de informações (IR). Estudos recentes destacaram a eficácia da alavancagem de LLMs para gerar explicações em linguagem natural antes de fornecer respostas,...
Ver mais
Resumo: Esta tese de mestrado investiga a aplicação inovadora de modelos de linguagem de grande escala (LLMs) em contextos de recuperação de informações (IR). Estudos recentes destacaram a eficácia da alavancagem de LLMs para gerar explicações em linguagem natural antes de fornecer respostas, resultando em melhorias de desempenho em diversas tarefas. Baseando-se nessa premissa, este estudo explora o potencial impacto da integração de explicações em linguagem natural como dados suplementares para ranqueadores neurais. Por meio de uma experimentação abrangente que engloba diversos modelos de linguagem e tamanhos de conjunto de dados, esta pesquisa examina detalhadamente a dinâmica da ampliação de dados no domínio da IR. Os resultados demonstram os benefícios consistentes e tangíveis da incorporação de explicações no processo de treinamento. Além disso, o estudo revela que à medida que a escala dos modelos de linguagem aumenta, também aumentam os ganhos de desempenho, destacando o papel crucial da escala na eficácia do modelo. No entanto, também reconhece as considerações críticas em torno dos tamanhos destes modelos, incluindo o consumo de tempo e as implicações de custos, que são explorados minuciosamente em diferentes cenários. O método proposto para ampliação de dados apresenta uma solução alternativa ao enfrentar o desafio da escassez de dados, acelerando o processo de aprendizado e aplicando os benefícios da linguagem natural no treinamento de ranqueadores neurais. Ilustrados por resultados que ultrapassam as referências alvo em uma avaliação zero-shot, esses achados afirmam a eficácia da metodologia e defendem uma adoção mais ampla de técnicas de aumento de dados. Este estudo possibilita uma nova estratégia no campo da recuperação de informações, impulsionada pela integração de explicações em linguagem natural na utilização de ranqueadores neurais, além habilitar a aplicação deste método em diferentes problemas e contextos
Ver menos
Abstract: This master's thesis delves into the innovative application of large language models (LLMs) within information retrieval (IR) contexts. Recent studies have underscored the effectiveness of leveraging LLMs to generate natural language explanations before outputing answers, leading to...
Ver mais
Abstract: This master's thesis delves into the innovative application of large language models (LLMs) within information retrieval (IR) contexts. Recent studies have underscored the effectiveness of leveraging LLMs to generate natural language explanations before outputing answers, leading to performance improvements across diverse reasoning tasks. Building upon this foundation, the study explores the potential impact of integrating natural language explanations as supplementary labels within neural rankers. Through comprehensive experimentation encompassing diverse language models and dataset sizes, this research examines in details the intricate dynamics of data augmentation in the IR domain. The findings demonstrate the consistent and tangible benefits of incorporating explanations into the training process. Moreover, the study reveals that as the scale of language models expands, so too do the performance gains, highlighting the pivotal role of scale in model efficacy. However, it also acknowledges the critical considerations surrounding LLM sizes, including time consumption and cost implications, which are thoroughly explored in different scenarios. The proposed data augmentation approach presents an alternative solution to address the challenge of data scarcity, accelerating the learning process by leveraging natural language to finetune language models. Illustrated by results surpassing the target baseline in a zero-shot evaluation, these findings affirm the efficacy of the methodology and advocate for broader adoption of data augmentation techniques. This thesis enables a new strategy in the field of information retrieval, driven by the seamless integration of natural language explanations into neural rankers and also enabling the application of this method in different problems and contexts
Ver menos
Requisitos do sistema: Software para leitura de arquivo em PDF
Aberto
Lotufo, Roberto de Alencar, 1955-
Orientador
Nogueira, Rodrigo Frassetto, 1986-
Coorientador
Rahimi, Razieh Negin
Avaliador
Avila, Sandra Eliza Fontes de, 1982-
Avaliador
ExaRanker : synthetic explanations improve neural rankers
Fernando Ferraretto Silva
ExaRanker : synthetic explanations improve neural rankers
Fernando Ferraretto Silva