,

Attention is all you need

, , , , , , , и .
Advances in neural information processing systems, стр. 5998--6008. (2017)

Метаданные

тэги

Пользователи данного ресурса

  • @oriolc
  • @louissf
  • @ruben_hussong
  • @jonaskaiser
  • @albinzehe
  • @nosebrain
  • @annakrause
  • @stdiff
  • @jil
  • @dblp
  • @stefan.ernst
  • @aerover
  • @andolab
  • @qilinw
  • @dallmann
  • @habereder
  • @tobias.koopmann
  • @lautenschlager
  • @s363405
  • @analyst
  • @chiir_demo
  • @lanteunis
  • @festplatte

Комментарии и рецензиипоказать / перейти в невидимый режим

  • @ruben_hussong
    @ruben_hussong 3 лет назад
    Führte Self-Attention in Machine Translation ein. Ist die Grundlage von SASRec.
  • @jonaskaiser
    4 лет назад (последнее обновление4 лет назад)
    Wurde in der Ausarbeitung genutzt, da es das Hauptpaper des Themas ist.
  • @s363405
    @s363405 4 лет назад
    Introduces the transformer model which is adapted by SASRec for the task of sequential recommendation.
Пожалуйста, войдите в систему, чтобы принять участие в дискуссии (добавить собственные рецензию, или комментарий)