End-to-end transformer-based models in textual-based NLP
A Rahali, MA Akhloufi - AI, 2023 - mdpi.com
Transformer architectures are highly expressive because they use self-attention
mechanisms to encode long-range dependencies in the input sequences. In this paper, we …
mechanisms to encode long-range dependencies in the input sequences. In this paper, we …
[HTML][HTML] Summarization of financial reports with tiber
This paper reports an approach for summarizing financial texts that combine several
techniques for sentence representation and neural document modeling. Our approach is …
techniques for sentence representation and neural document modeling. Our approach is …
Apprentissage Profond Pour la Détection des Menaces et des Contenus Toxiques Dans les Cyberenvironnements
A Rahali - 2023 - search.proquest.com
L'apprentissage profond est un outil prometteur pour détecter les menaces et les contenus
toxiques sur les plateformes en ligne. Ses capacités d'apprentissage automatique …
toxiques sur les plateformes en ligne. Ses capacités d'apprentissage automatique …