,

ScaLA: Accelerating Adaptation of Pre-Trained Transformer-Based Language Models via Efficient Large-Batch Adversarial Noise.

, , и .
CoRR, (2022)

Метаданные

тэги

Пользователи данного ресурса

  • @dblp

Комментарии и рецензии