Artikel,

Bert: Pre-training of deep bidirectional transformers for language understanding

, , , und .
arXiv preprint arXiv:1810.04805, (2018)

Metadaten

Tags

Nutzer

  • @schwemmlein
  • @ghagerer
  • @ruben_hussong
  • @msteininger
  • @albinzehe
  • @annakrause
  • @stdiff
  • @simonh
  • @dblp
  • @marjaw
  • @andolab
  • @jan_seidlein
  • @postylem
  • @fabianmetzner
  • @vsathish
  • @s363405
  • @mcreinhardt
  • @festplatte

Kommentare und Rezensionenanzeigen / verbergen

  • @ruben_hussong
    vor 3 Jahren
    Meantime basiert auf bert4Rec basiert auf BERT.
  • @s363405
    @s363405 vor 4 Jahren
    Predecessor of the Bert4Rec model
  • @fabianmetzner
    @fabianmetzner vor 5 Jahren
    Diese Arbeit stellt ein Anwendungsbeispiel des Transformers dar.
Bitte melden Sie sich an um selbst Rezensionen oder Kommentare zu erstellen.