Glossário IA
O dicionário completo da Inteligência Artificial
Transferência Cross-Lingual
Técnica de aprendizagem onde os conhecimentos adquiridos por um modelo em uma língua de origem são transferidos para melhorar o desempenho em uma língua alvo, sem necessidade de dados de treinamento adicionais nesta última. Esta abordagem explora as similaridades linguísticas universais para generalizar os aprendizados entre diferentes línguas.
Transferência Cross-Lingual Zero-Shot
Capacidade de um modelo de realizar tarefas em uma língua alvo sem nenhum exemplo de treinamento nesta língua, baseando-se exclusivamente nos conhecimentos adquiridos durante o treinamento em línguas de origem. Este método maximiza a eficiência da transferência eliminando a necessidade de dados anotados multilíngues.
Transferência Cross-Lingual Few-Shot
Variante da transferência cross-lingual onde o modelo necessita apenas de muito poucos exemplos anotados na língua alvo para adaptar efetivamente os conhecimentos transferidos. Esta abordagem combina a eficiência da transferência com adaptação rápida às especificidades linguísticas da língua alvo.
Embeddings Multilíngues
Representações vetoriais densas projetadas para codificar palavras ou frases de várias línguas em um espaço semântico comum, permitindo comparações e transferências cross-linguais. Estes embeddings capturam as relações semânticas independentemente da língua de origem do texto.
Representações Agnósticas de Idioma
Representações internas de um modelo que capturam conceitos semânticos sem estarem vinculados a uma língua específica, facilitando assim a transferência de conhecimentos entre línguas. Estas representações abstratas permitem que o modelo generalize além das particularidades linguísticas superficiais.
Ajuste Fino Cross-Lingual
Processo de adaptação de um modelo pré-treinado multilíngue a uma tarefa específica utilizando dados de uma ou mais línguas de origem, seguido de aplicação direta a línguas alvo sem retreinamento. Esta técnica otimiza a transferência enquanto minimiza as necessidades de dados anotados.
Pré-treinamento Multilíngue
Fase de treinamento inicial onde um modelo aprende representações linguísticas a partir de vastos corpora textuais em várias línguas simultaneamente, estabelecendo as fundações para a transferência cross-lingual. Esta abordagem cria modelos intrinsecamente multilíngues capazes de compreender e gerar texto em diferentes línguas.
Adaptação de Modelo Cross-Lingual
Processo sistemático de ajuste dos parâmetros de um modelo para otimizar seu desempenho em línguas alvo específicas, enquanto preserva os conhecimentos adquiridos nas línguas de origem. A adaptação visa reduzir a lacuna de desempenho entre línguas de origem e alvo.
Modelo de Linguagem Universal
Arquitetura de modelo projetada para entender e processar eficientemente um grande número de línguas diferentes através de mecanismos de atenção multilíngues e representações compartilhadas. Esses modelos visam criar uma compreensão linguística universal que transcende as barreiras das línguas individuais.
Destilação de Conhecimento Multilíngue
Técnica onde um grande modelo professor multilíngue transfere seu conhecimento para um modelo aluno mais compacto, preservando as capacidades multilíngues enquanto reduz a complexidade computacional. Este método permite implantar eficientemente modelos multilíngues em recursos limitados.
Tokenização Multilíngue
Estratégia de segmentação de texto em unidades significativas que funciona de forma consistente através de múltiplas línguas, frequentemente utilizando vocabulários compartilhados como Byte-Pair Encodings multilíngues. Uma tokenização eficaz é crucial para o sucesso da transferência multilíngue.
Alinhamento Multilíngue
Processo de alinhamento semântico dos espaços de representação entre diferentes línguas, garantindo que conceitos similares ocupem posições similares no espaço vetorial compartilhado. O alinhamento é fundamental para permitir comparações e transferências significativas entre línguas.
Avaliação de Transferibilidade
Avaliação sistemática da capacidade de um modelo de transferir eficientemente seu conhecimento de uma língua fonte para uma língua alvo, frequentemente medindo a degradação de desempenho. Esta avaliação guia as decisões sobre estratégias de transferência ótimas para pares de línguas específicas.
Adaptação de Domínio Multilíngue
Adaptação simultânea de um modelo tanto para novas línguas quanto para novos domínios temáticos, combinando os desafios da transferência linguística e da adaptação de domínio. Esta abordagem é essencial para aplicações reais que exigem expertise multilíngue em setores especializados.
Transformer Multilíngue
Arquitetura baseada em mecanismos de atenção projetada especificamente para processar eficientemente múltiplas línguas em um modelo unificado, utilizando parâmetros compartilhados e embeddings multilíngues. Estes transformers constituem a base dos modelos modernos de transferência multilíngue.