Article,

Bert: Pre-training of deep bidirectional transformers for language understanding

, , , and .
arXiv preprint arXiv:1810.04805, (2018)

Meta data

Tags

Users

  • @schwemmlein
  • @ghagerer
  • @ruben_hussong
  • @msteininger
  • @albinzehe
  • @annakrause
  • @stdiff
  • @simonh
  • @dblp
  • @marjaw
  • @andolab
  • @jan_seidlein
  • @postylem
  • @fabianmetzner
  • @vsathish
  • @s363405
  • @mcreinhardt
  • @festplatte

Comments and Reviewsshow / hide

  • @ruben_hussong
    3 years ago
    Meantime basiert auf bert4Rec basiert auf BERT.
  • @s363405
    @s363405 4 years ago
    Predecessor of the Bert4Rec model
  • @fabianmetzner
    @fabianmetzner 5 years ago
    Diese Arbeit stellt ein Anwendungsbeispiel des Transformers dar.
Please log in to take part in the discussion (add own reviews or comments).