Skip to content

Latest commit

 

History

History
6 lines (4 loc) · 262 Bytes

DistilBERT.md

File metadata and controls

6 lines (4 loc) · 262 Bytes

12. [[DistilBERT]] (Distilled BERT)

  • Um modelo de processamento de linguagem natural que utiliza a arquitetura Transformer, mas com uma estrutura mais leve e eficiente.
  • Desenvolvido originalmente para tarefas de classificação e análise de sentimento.