Saltar ao contido

BERT (modelo de linguaxe)

Na Galipedia, a Wikipedia en galego.

BERT (Representacións de Codificador Bidireccional de Transformadores, en inglés, Bidirectional Encoder Representations from Transformers) é un modelo de linguaxe bidireccional introducido en outubro de 2018 por investigadores de Google.[1] Aprendeuse mediante a aprendizaxe supervisada a representar o texto como unha secuencia de vectores. Ten a arquitectura do codificador do transformador. Destaca pola súa dramática mellora con respecto aos modelos anteriores do estado da arte, e como un dos primeiros exemplos de gran modelo de linguaxe. A partir do ano 2020, BERT foi unha liña base omnipresente nos experimentos de procesamento da linguaxe natural (PLN).[2]

Diagrama esquemático de alto nivel de BERT. Dado un texto, divídeo nunha secuencia de porcións, engade unha porción opcional especial e aplica un codificador dun transformador. Os estados ocultos da última capa poden utilizarse como incrustacións de palabras contextuais.

BERT é adestrado pola predición de porcións enmascaradas e a predición da seguinte frase. Por mor deste proceso de adestramento, BERT aprende representacións contextuais latentes de porcións no seu contexto, similar a ELMo e GPT-2.[3] Atopáronse aplicacións para moitas tarefas de procesamento da linguaxe natural, como a resolución de correferencia e a resolución da polisemia.[4] É un paso evolutivo sobre ELMo e xerou o estudo de "BERToloxía", o cal tenta interpretar o que é aprendido por BERT.[2]

BERT implementouse orixinalmente en inglés en dous tamaños de modelos, BERTBASE (110 millóns de parámetros) e BERTLARGE (340 millóns de parámetros). Ambos foron adestrados no BookCorpus de Toronto (800 millóns de palabras) e na Wikipedia en inglés (2 500 millóns de palabras). Os pesos foron publicados en GitHub.[5] O 11 de marzo de 2020 lanzáronse 24 modelos máis pequenos, sendo o máis pequeno BERTTINY con só 4 millóns de parámetros.[5]

Arquitectura

[editar | editar a fonte]

BERT é unha arquitectura de transformador de "só-codificador". A alto nivel, BERT consta de 4 módulos:

  • Tokenizer: este módulo converte unha peza de texto en inglés nunha secuencia de números enteiros (porcións ou tokens, do inglés).
  • Incrustación: este módulo converte a secuencia de porcións nunha matriz de vectores con valores reais que representan as porcións. Representa a conversión de tipos de porcións discretas nun espazo euclidiano de dimensión inferior.
  • Codificador: unha pila de bloques de transformador con autoatención, pero sen enmascaramento causal.
  • Cabeza de tarefa: este módulo converte os vectores da representación final en porcións codificadas de novo, producindo unha distribución de probabilidade prevista sobre os tipos de porcións. Pódese ver como un descodificador simple, descodificando a representación latente en tipos de porcións ou como unha "capa de non incrustación".

A cabeza de tarefa é necesaria para o adestramento previo, pero adoita ser innecesaria para as chamadas tarefas posteriores, como a resposta a preguntas ou a clasificación de sentimentos . En vez diso, quita o cabezal de tarefa e substitúeo por un módulo que se acaba de inicializar adecuado para a tarefa, e fai un axuste fino do novo módulo. A representación vectorial latente do modelo introdúcese directamente neste novo módulo, o que permite unha aprendizaxe de transferencia de mostras eficiente.

Incrustación

[editar | editar a fonte]

Esta sección describe a incrustación utilizada no BERTBASE. O BERTLARGE é semellante pero máis grande.

O tokenizer de BERT é WordPiece, que é unha estratexia de subpalabras como a codificación de pares de bytes. O seu tamaño de vocabulario é de 30 000, e calquera porción que non apareza no seu vocabulario substitúese por [UNK] ("descoñecido").

Os tres tipos de incrustación que utiliza BERT: tipo de porción, posición e tipo de segmento.

A primeira capa é a capa de incrustación, que contén tres compoñentes: incrustacións de tipo porción, incrustacións de posición e incrustacións de tipo segmento.

  • Tipo de porción: o tipo de porción é unha capa de incrustación estándar, que traduce un vector con tódolos valores 0 salvo un, que vale 1, nun vector denso en función do seu tipo de porción.
  • Posición: as incrustacións de posición baséanse na posición dunha porción na secuencia. BERT usa incrustacións de posicións absolutas, onde cada posición da secuencia asígnase a un vector de valor real. Cada dimensión do vector consta dunha función sinusoidal que toma como entrada a posición na secuencia.
  • Tipo de segmento: usando un vocabulario de só 0 ou 1, esta capa de incrustación produce un vector denso en función de se o símbolo pertence ao primeiro ou segundo segmento de texto desa entrada. Noutras palabras, as porcións de tipo 1 son tódalas porcións que aparecen despois da porción especial [SEP]. Tódalas porcións anteriores son de tipo 0.

Os tres vectores de incrustación súmanse simbolizando a representación inicial da porción en función destas tres pezas de información. Despois da incrustación, a representación vectorial normalízase mediante unha capa de normalización, producindo un vector de 768 dimensións para cada porción de entrada. Despois disto, os vectores de representación pásanse cara adiante a través de 12 bloques codificador do transformador, e son descodificados de volta ao espazo de vocabulario de 30 000 dimensións usando unha capa de transformación afín básica.

Familia arquitectónica

[editar | editar a fonte]

A pila de codificador de BERT ten 2 parámetros libres: , o número de capas e , o tamaño oculto. Sempre hai cabezas de autoatención, e o tamaño de capa de avance/filtro é sempre . Variando estes dous números, obtense toda unha familia de modelos BERT.[6]

Para BERT, o tamaño da capa de avance e o tamaño do filtro son sinónimos. Ambos indican o número de dimensións na capa media da rede de avance. Tamén son sinónimos o tamaño oculto e o tamaño de incrustación. Ambos indican a cantidade de números reais utilizados para representar unha porción.

A notación para a pila de codificador escríbese como L/H. Por exemplo, BERTBASE escríbese como 12L/768H, BERTLARGE como 24L/1024H e BERTTINY como 2L/128H.

Adestramento

[editar | editar a fonte]

BERT foi adestrado previamente en dúas tarefas á vez.[7]

Modelado de linguaxe enmascarada

[editar | editar a fonte]
A tarefa de modelado de linguaxe enmascarada.
  • substitúese por [MASK] cunha probabilidade do 80%,
  • substitúese por unha porción de palabra aleatoria cunha probabilidade do 10%,
  • non se substitúe cunha probabilidade do 10%.

O motivo polo que non tódalas porcións seleccionadas están enmascaradas é para evitar o problema do cambio de conxunto de datos. O problema do cambio do conxunto de datos xorde cando a distribución de entradas observadas durante o adestramento difire de forma significativa da distribución atopada durante a inferencia. Pódese aplicar un modelo BERT adestrado á representación de palabras (como Word2Vec), onde se executaría sobre frases que non conteñan ningún símbolo [MASK]. Máis tarde compróbase que os obxectivos de adestramento máis diversos son xeralmente mellores.[8]

Como exemplo ilustrativo, considérese a oración "o meu can é bonito". Primeiro dividiríase en porcións como "o1 meu2 can3 é4 bonito5". Despois escolleríase unha porción aleatoria na oración, por exemplo, a quinta porción, "bonito5". A continuación, habería tres posibilidades:

  • cunha probabilidade do 80%, a ficha escollida está enmascarada, resultando "o1 meu2 can3 é4 [MASK]5";
  • cunha probabilidade do 10%, a ficha escollida substitúese por unha ficha aleatoria mostrada uniformemente, como feliz, o que resulta en "o1 meu2 can3 é4 feliz5";
  • cunha probabilidade do 10%, non se fai nada, o que resulta en "o1 meu2 can3 é4 bonito5".

Despois de procesar o texto de entrada, o 5º vector de saída do modelo pásase á súa capa de descodificador, o que produce unha distribución de probabilidade sobre o seu espazo de vocabulario de 30 000 dimensións.

Predición da seguinte frase

[editar | editar a fonte]
A tarefa de predición da seguinte frase.
  • Por exemplo, dado "[CLS] o meu can é bonito [SEP] gústalle xogar", o modelo debería mostrar o a porción [IsNext].
  • Dado "[CLS] o meu can é bonito [SEP] como funcionan os imáns", o modelo debería emitir a porción [NotNext].

Axuste fino

[editar | editar a fonte]

BERT está pensado como un modelo xeral adestrado previamente para varias aplicacións no procesamento da linguaxe natural. É dicir, despois do adestramento previo, BERT pódese perfeccionar con menos recursos en conxuntos de datos máis pequenos para optimizar o seu rendemento en tarefas específicas, como a inferencia da linguaxe natural e a clasificación de textos, e tarefas de xeración de linguaxe baseadas en secuencia a secuencia, como a resposta a preguntas e a xeración de resposta nunha conversación.[9]

O artigo orixinal de BERT publicou resultados que demostraban que unha pequena cantidade de axustes finos (para BERTLARGE, 1 hora en 1 Cloud TPU) permitiulle acadar un rendemento de última xeración nunha serie de tarefas de comprensión da linguaxe natural:

  • conxunto de tarefas GLUE (Avaliación Xeral da Comprensión da Linguaxe, polas súas siglas en inglés), composto por 9 tarefas;
  • SQuAD (Conxunto de resposta a preguntas de Stanford[10]) v1.1 e v2.0;
  • SWAG (Situacións con xeracións adversarias[11]).

BERT adestrouse no BookCorpus (800 millóns de palabras) e nunha versión filtrada da Wikipedia en inglés (2 500 millóns de palabras) sen listas, táboas e cabeceiras.

O adestramento de BERTBASE en 4 Cloud TPU (16 chips TPU en total) levou 4 días, cun custo estimado de 500 USD.[5] O adestramento de BERTLARGE en 16 Cloud TPU (64 chips TPU en total) levou tamén 4 días.[9]

Interpretación

[editar | editar a fonte]

Modelos lingüísticos como ELMo, GPT-2 e BERT xeraron o estudo da "BERToloxía", que intenta interpretar o que aprenden estes modelos. O seu desempeño nestas tarefas de comprensión da linguaxe natural aínda non se entende ben[2][12][13] Varias publicacións de investigación en 2018 e 2019 centráronse en investigar a relación detrás da saída de BERT como resultado de secuencias de entrada coidadosamente escollidas,[14][15] análise de representacións vectoriais internas mediante clasificadores de sondaxe,[16][17] e as relacións representadas por pesos de atención.[12][13]

Tamén se podería atribuír o alto rendemento do modelo BERT ao feito de que está adestrado de forma bidireccional. Isto significa que BERT, baseado na arquitectura dos transformadores, aplica o seu mecanismo de autoatención para aprender información dun texto dende o lado esquerdo e dereito durante o adestramento e, en consecuencia, adquire unha profunda comprensión do contexto. Por exemplo, a palabra fino pode ter dous significados diferentes dependendo do contexto ("Cortouse cun papel moi fino", "O seu mozo era moi fino"). BERT considera que as palabras que rodean á palabra obxectivo están ben dende o lado esquerdo e dereito.

Non obstante, ten un custo: debido a que a arquitectura só de codificador carece dun descodificador, BERT non pode ser inducido e non pode xerar texto, mentres que os modelos bidireccionais en xeral non funcionan de forma eficaz sen o lado dereito, polo que é difícil inducilos. Como exemplo ilustrativo, se se quere usar BERT para continuar un fragmento de frase "Hoxe fun a", entón inxenuamente enmascararía tódalas porcións como "Hoxe fun a [MASK] [MASK] [MASK] ... [MASK]." onde o número de [MASK] é a lonxitude da frase á que se desexa estender. Porén, isto constitúe un cambio de conxunto de datos, xa que durante o adestramento, BERT nunca viu frases con tantas porcións enmascaradas. En consecuencia, o seu rendemento degrada. As técnicas máis sofisticadas permiten a xeración de texto, pero cun alto custo de computación.[18]

BERT foi publicado orixinalmente polos investigadores de Google Jacob Devlin, Ming-Wei Chang, Kenton Lee e Kristina Toutanova. O deseño ten a súa orixe a partir de representacións contextuais previas ao adestramento, incluíndo a aprendizaxe de secuencias semi-supervisadas, formación previa xerativa, ELMo, e ULMFit. A diferenza dos modelos anteriores, BERT é unha representación lingüística profundamente bidireccional e non supervisada, adestrada previamente usando só un corpus de texto sinxelo. Os modelos sen contexto como word2vec ou GloVe xeran unha soa representación para cada palabra no vocabulario, mentres que BERT ten en conta o contexto para cada aparición dunha palabra determinada. Por exemplo, mentres que o vector para saltar terá a mesma representación vectorial word2vec para ambas as súas aparicións nas frases "Vai saltar este capítulo" e "Quere saltar a cancela", BERT proporcionará unha incorporación contextualizada que será diferente segundo a oración.[3]

O 25 de outubro de 2019, Google anunciou que comezara a aplicar modelos BERT para consultas de busca en inglés nos EUA.[19] O 9 de decembro de 2019, informouse de que BERT fora adoptado pola Busca de Google para máis de 70 idiomas.[20][21] En outubro de 2020, case todas as consultas baseadas en inglés foron procesadas por un modelo BERT.[22]

Variantes

[editar | editar a fonte]

Os modelos BERT foron influentes e inspiraron moitas variantes.

RoBERTa (2019)[23] conserva a arquitectura de BERT (un pouco máis grande, con 355 millóns de parámetros), pero mellora o seu adestramento, cambiando os hiperparámetros clave, eliminando a tarefa de predición da seguinte frase e utilizando tamaños de mini-lote moito maiores.

DistilBERT (2019) destila BERTBASE nun modelo con só o 60 % dos seus parámetros (66 millóns), á vez que conserva o 95 % das súas puntuacións de referencia.[24] Do mesmo xeito, TinyBERT (2019) é un modelo destilado con só o 28% dos seus parámetros.

ALBERT (2019)[25] utilizou parámetros compartidos entre capas e experimentou variando de forma independente o tamaño oculto e o tamaño de saída da capa de incrustación de palabras como dous hiperparámetros. Tamén substituíron a tarefa de predición da seguinte frase pola tarefa de predición de ordes de frases (SOP), onde o modelo debe distinguir a orde correcta de dous segmentos de texto consecutivos da súa orde inversa.

ELECTRA (2020)[26] aplicou a idea de redes adversarias xerativas á tarefa de modelos de linguaxe enmascarados. En lugar de enmascarar as porcións, un pequeno modelo de linguaxe xera substitucións plausibles aleatorias e unha rede máis grande identifica estas porcións substituídas. O modelo pequeno pretende enganar ao modelo grande.

DeBERTa (2020)[27] é unha variante arquitectónica significativa, cunha atención desenredada . A súa idea clave é tratar as codificacións posicionais e os símbolos por separado ao longo do mecanismo de atención. En lugar de combinar a codificación posicional () e codificación de porción () nun único vector de entrada (), DeBERTa mantenos separados como unha tupla: . Despois, en cada capa de autoatención, DeBERTa calcula tres matrices de atención distintas, en lugar da única matriz de atención usada en BERT:

Tipo de atención Tipo de consulta Tipo de clave Exemplo
Contido a contido Porción Porción "europeo"; "Unión", "continente"
Contido a posición Porción Posición [adxectivo]; +1, +2, +3
Posición a contido Posición Porción -1; "non", "moi"

As tres matrices de atención engádense por elementos, despois pásanse por unha capa softmax e multiplícanse por unha matriz de proxección.

A codificación de posición absoluta inclúese na capa de autoatención final como entrada adicional.

BERT multilingüe

[editar | editar a fonte]

Despois de ter o modelo BERT funcionando para o inglés, investigadores de Google preguntáronse se se podía utilizar este modelo de linguaxe con varias linguas. Así, en 2019 crearon o BERT multilingüe, ou M-BERT, un modelo BERT que traballa con varias linguas.[28]

En canto á súa arquitectura, M-BERT ten 12 capas de transformador, e o seu adestramento, a diferenza do BERT orixinal, fíxose con artigos da Wikipedia en 104 idiomas. No resto da súa construción e funcionamento, é semellante ao BERT orixinal. O seu refinamento baseouse no modelo de lingua cruzada, é dicir, facíase un axuste fino do modelo nunha lingua e logo avaliábase noutra diferente, para observar como o modelo relacionaba as diferentes linguas e era capaz xeneralizar. O rendemento foi impresionante, xa que o modelo daba moi bos resultados na lingua na que non foi adestrada. Mais isto non era sempre así, pois había algúns pares de linguas que non daban os números desexados, polo que non se pode usar sistematicamente para calquera idioma.[28] Ademais, algúns autores sospeitan que, incluso nas linguas que os resultados son bos, o seu rendemento non é tan robusto como os modelos monolingües.[29]

Destacar que ademais do M-BERT, tamén se creou a variante XLM-RoBERTa (modelo de linguaxe cruzada RoBERTa), que utiliza a filosofía de RoBERTa para adestrar ao modelo, utilizando múltiples linguas de diferentes corpus. Esta arquitectura mellorou ao BERT multilingüe.[30]

Bertinho: o BERT en galego

[editar | editar a fonte]

Dado que se demostrou que é posible crear modelos BERT monolingües para linguas con poucos recursos (collendo, ademais dos datos na propia lingua, datos doutras linguas traducidos, para ter desta forma moitos máis datos etiquetados[31]) que funcionan mellor que o BERT multilingüe, investigadores galegos fixeron en 2021 un modelo monolingüe para a lingua propia de Galicia.[29]

Crearon dous modelos Bertinho, un de 6 capas de transformadores (BertinhoSMALL) e outro de 12 (BertinhoBASE), adestrados cunha cantidade limitada de recursos (ao redor de 45 millóns de palabras sobre unha GPU de 24GB). Estes modelos adestráronse coa versión da Galipedia do 1 de febreiro de 2020, utilizando a ferramenta wikiextractor para poñer os artigos en texto plano. Esta ferramenta divide a saída en ficheiros de 1MB, onde escolleron o 95% para o conxunto de adestramento e o 5% restante para o conxunto de avaliación. Decidiron escoller a Galipedia por ter un formato de enciclopedia e non conter erros (como frases incompletas) como outros corpus de adestramento. O adestramento, salvando algúns detalles, foi similar ao do BERT orixinal.[29]

Nun dos experimentos que fixeron comparando o M-BERT co Bertinho, este último separa mellor as palabras en morfemas. Na frase Os nosos amigos dixéronnos que o camiño era este, o modelo multilingüe separa a palabra nosos como nos-os, onde se interpreta que o modelo cre que nosos é o plural masculino de nos. Outro erro que comete é separar camiño como cam-iño, como se se estivese tratando dun diminutivo dunha palabra con raíz cam. No caso do verbo dixéronnos, sepárao como dix-éro-nno-s, cando a separación correcta é dix-éron-nos, indicando a raíz; o tempo, número e persoa e o pronome. Nos 3 casos, o modelo Bertinho fai a separación correcta.[29]

Ademais de adestrar na Galipedia, utilizaron outros corpus en galego para avaliar diferentes características: o CTAG corpus, o CTG-UD e o Galician-TreeGal. Despois das numerosas probas, concluíron que o mellor modelo era o Bertinho de 12 capas. En calquera caso, ambos modelos melloraron os resultados do M-BERT na maior parte das tarefas.[29]

Estes modelos subíronos ao portal de Hugging Face,[32][33] quen tamén creou un RoBERTa en galego (RoBERTinha),[34] baseado na aproximación presentada por Pedro Javier Ortiz, Laurent Romary e Benoît Sagot.[35]

  1. "Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing". Google AI Blog (en inglés). 2 de novembro do 2018. Consultado o 27 de novembro do 2019. 
  2. 2,0 2,1 2,2 Rogers, Anna; Kovaleva, Olga; Rumshisky, Anna (2020). "A Primer in BERTology: What We Know About How BERT Works". Transactions of the Association for Computational Linguistics 8: 842–866. arXiv:2002.12327. doi:10.1162/tacl_a_00349. 
  3. 3,0 3,1 Ethayarajh, Kawin (1 de setembro do 2019). "How Contextual are Contextualized Word Representations? Comparing the Geometry of BERT, ELMo, and GPT-2 Embeddings". arXiv. doi:10.458550/arXiv.1909.00512. 
  4. Anderson, Dawn. "A deep dive into BERT: How BERT launched a rocket into natural language understanding". Search Engine Land (en inglés). Consultado o 6 de agosto do 2024. 
  5. 5,0 5,1 5,2 "BERT". GitHub. Consultado o 28 de marzo de 2023. 
  6. Turc, Iullia; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (25 de setembro do 2019). "Well-Read Students Learn Better: On the Importance of Pre-training Compact Models". arXiv. doi:10.48550/arXiv.1908.08962. 
  7. "Summary of the models - transformers 3.4.0 documentation". huggingface.co. Consultado o 16 de febreiro do 2023. 
  8. Tay, Yi; Dehghani, Mostafa; Tran, Vinh Q.; Garcia, Xavier; Wei, Jason; Wang, Xuezhi; Chung, Hyung Won; Shakeri, Siamak; Bahri, Dara (28 de febreiro do 2023). "UL2: Unifying Language Learning Paradigms". arXiv. doi:10.48550/arXiv.2205.05131. 
  9. 9,0 9,1 Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (11 de outubro do 2018). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding". arXiv. 
  10. Rajpurkar, Pranav; Zhang, Jian; Lopyrev, Konstantin; Liang, Percy (10 de outubro do 2016). "SQuAD: 100,000+ Questions for Machine Comprehension of Text". arXiv. 
  11. Zellers, Rowan; Bisk, Yonatan; Schwartz, Roy; Choi, Yejin (15 de agosto do 2018). "SWAG: A Large-Scale Adversarial Dataset for Grounded Commonsense Inference". arXiv. 
  12. 12,0 12,1 Kovaleva, Olga; Romanov, Alexey; Rogers, Anna; Rumshisky, Anna. Revealing the Dark Secrets of BERT. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP) (en inglés). pp. 4364–4373. doi:10.18653/v1/D19-1445. 
  13. 13,0 13,1 Clark, Kevin; Khandelwal, Urvashi; Levy, Omer; Manning, Christopher D. (1 de agosto do 2019). "What Does BERT Look at? An Analysis of BERT's Attention". Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (Stroudsburg, PA, USA: Association for Computational Linguistics): 276–286. arXiv:1906.04341. doi:10.18653/v1/w19-4828. Consultado o free. 
  14. Khandelwal, Urvashi; He, He; Qi, Peng; Jurafsky, Dan (12 de maio do 2018). "Sharp Nearby, Fuzzy Far Away: How Neural Language Models Use Context". Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (Stroudsburg, PA, USA: Association for Computational Linguistics): 284–294. arXiv:1805.04623. doi:10.18653/v1/p18-1027. 
  15. Gulordava, Kristina; Bojanowski, Piotr; Grave, Edouard; Linzen, Tal; Baroni, Marco. Colorless Green Recurrent Networks Dream Hierarchically. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Volume 1 (Long Papers). Stroudsburg, PA, USA: Association for Computational Linguistics. pp. 1195–1205. doi:10.18653/v1/n18-1108. 
  16. Giulianelli, Mario; Harding, Jack; Mohnert, Florian; Hupkes, Dieuwke; Zuidema, Willem (24 de agosto do 2018). "Under the Hood: Using Diagnostic Classifiers to Investigate and Improve how Language Models Track Agreement Information". Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (Stroudsburg, PA, USA: Association for Computational Linguistics): 240–248. arXiv:1808.08079. doi:10.18653/v1/w18-5426. 
  17. Zhang, Kelly; Bowman, Samuel (1 de novembro do 2018). "Language Modeling Teaches You More than Translation Does: Lessons Learned Through Auxiliary Syntactic Task Analysis". Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (Stroudsburg, PA, USA: Association for Computational Linguistics): 359–361. doi:10.18653/v1/w18-5448. 
  18. Patel, Ajay; Li, Bryan; Sadegh Rasooli, Mohammad; Constant, Noah; Raffel, Colin; Callison-Burch, Chris (22 de setembro do 2022). "Bidirectional Language Models Are Also Few-shot Learners". arXiv. arXiv:2209.14500. 
  19. Nayak, Pandu (25 de outubro do 2019). "Understanding searches better than ever before". Google Blog. Consultado o 10 de deecembro do 2019. 
  20. "Understanding searches better than ever before". Google (en inglés). 25 de outubro do 2019. Consultado o 6 de agosto do 2024. 
  21. Montti, Roger (10 de decembro do 2019). "Google's BERT Rolls Out Worldwide". Search Engine Journal. Consultado o 10 de decembro do 2019. 
  22. "Google: BERT now used on almost every English query". Search Engine Land. 15 de outubro do 2020. Consultado o 24 de novembro do 2020. 
  23. Liu, Yinhan; Ott, Myle; Goyal, Naman; Du, Jingfei; Joshi, Mandar; Chen, Danqi; Levy, Omer; Lewis, Mike; Zettlemoyer, Luke (26 de xullo do 2019). "RoBERTa: A Robustly Optimized BERT Pretraining Approach". arXiv. arXiv:1907.11692. 
  24. "DistillBERT". The Hugging Face. Consultado o 5 de agosto do 2024. 
  25. Lan, Zhenzhong; Chen, Mingda; Goodman, Sbastian; Gimpel, Kevin; Sharma, Piyush; Soricut, Radu (8 de febreiro do 2020). "ALBERT: A Lite BERT for Self-supervised Learning of Language Representations". arXiv. doi:10.48550/arXiv.1909.11942. 
  26. Clark, Kevin; Luong, Minh-Thang; Le, Quoc V.; Manning, Christopher D. (23 de marzo do 2020). "ELECTRA: Pre-training Text Encoders as Discriminators Rather Than Generators". arXiv. doi:10.48550/arXiv.2003.10555. 
  27. He, Pengcheng; Liu, Xiaodong; Gao, Jianfeng; Chen, Weizhu (6 de outubro do 2021). "DeBERTa: Decoding-enhanced BERT with Disentangled Attention". arXiv. doi:10.48550/arXiv.2006.03654. 
  28. 28,0 28,1 Pires, Telmo; Schlinger, Eva; Garrette, Dan (4 de xuño do 2019). "How multilingual is Multilingual BERT?". arXiv. 
  29. 29,0 29,1 29,2 29,3 29,4 Vilares, David; García, Marcos; Gómez-Rodríguez, Carlos (02-03-2021). "Bertinho: Galician BERT Representations". Sociedad Española para el Procesamiento del Lenguaje Natural (en castelán) 66 (0): 13–26. ISSN 1989-7553. 
  30. Conneau, Alexis; Khandelwal, Kartikay; Goyal, Naman; Chaudhary, Vishrav; Wenzek, Guillaume; Guzmán, Francisco; Grave, Edouard; Ott, Myle; Zettlemoyer, Luke (8 de abril do 2020). "Unsupervised Cross-lingual Representation Learning at Scale". arXiv. 
  31. ChrisMcCormickAI (06-10-2020). "Multilingual BERT - Part 1 - Intro and Concepts". YouTube. Consultado o 04-09-2024. 
  32. "dvilares/bertinho-gl-base-cased · Hugging Face". huggingface.co. Consultado o 04-09-2024. 
  33. "dvilares/bertinho-gl-small-cased · Hugging Face". huggingface.co. Consultado o 04-09-2024. 
  34. "mrm8488/RoBERTinha · Hugging Face". huggingface.co. Consultado o 04-09-2024. 
  35. Ortiz Suárez, Pedro Javier; Romary, Laurent; Sagot, Benoît (2020-07). Jurafsky, Dan; Chai, Joyce; Schluter, Natalie; Tetreault, Joel, eds. "A Monolingual Approach to Contextualized Word Embeddings for Mid-Resource Languages". Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (Online: Association for Computational Linguistics): 1703–1714. doi:10.18653/v1/2020.acl-main.156. 

Véxase tamén

[editar | editar a fonte]

Outros artigos

[editar | editar a fonte]