Autor der Publikation

Do Transformers Really Perform Badly for Graph Representation?

, , , , , , , und . Advances in Neural Information Processing Systems 34: Annual Conference on Neural Information Processing Systems 2021, NeurIPS 2021, December 6-14, 2021, virtual, Seite 28877--28888. (2021)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Do Deep Learning Models Really Outperform Traditional Approaches in Molecular Docking?, , , , und . CoRR, (2023)Less is More: Pretrain a Strong Siamese Encoder for Dense Text Retrieval Using a Weak Decoder., , , , , , , , und . EMNLP (1), Seite 2780-2791. Association for Computational Linguistics, (2021)Do Transformers Really Perform Badly for Graph Representation?, , , , , , , und . NeurIPS, Seite 28877-28888. (2021)Taking Notes on the Fly Helps Language Pre-Training., , , , , und . ICLR, OpenReview.net, (2021)How could Neural Networks understand Programs?, , , , , und . ICML, Volume 139 von Proceedings of Machine Learning Research, Seite 8476-8486. PMLR, (2021)LightGBM: A Highly Efficient Gradient Boosting Decision Tree., , , , , , , und . NIPS, Seite 3146-3154. (2017)Uni-SMART: Universal Science Multimodal Analysis and Research Transformer., , , , , , , , , und 7 andere Autor(en). CoRR, (2024)Uni-Mol Docking V2: Towards Realistic and Accurate Binding Pose Prediction., , , , , , und . CoRR, (2024)Uni-Mol2: Exploring Molecular Pretraining Model at Scale., , , , , , und . CoRR, (2024)Benchmarking Graphormer on Large-Scale Molecular Modeling Datasets, , , , , , , , , und . CoRR, (2022)