Inproceedings,

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding.

, , , and .
NAACL-HLT (1), page 4171-4186. Association for Computational Linguistics, (2019)

Meta data

Tags

Users

  • @mnoukhov
  • @lea-w
  • @tobias.koopmann
  • @lepsky
  • @jonaskaiser
  • @michan
  • @hotho
  • @nosebrain
  • @parismic
  • @dblp

Comments and Reviewsshow / hide

  • @michan
    @michan 3 years ago
    BLP, ein in der Ausarbeitung im Detail erklärtes Modell, nutzt BERT als Text-Encoder.
  • @jonaskaiser
    4 years ago (last updated 4 years ago)
    In die Ausarbeitung aufgenommen, da BERT als zweites Hauptthema gewählt wurde.
Please log in to take part in the discussion (add own reviews or comments).