Étude sur le résumé comparatif grâce aux plongements de mots



Étude sur le résumé comparatif grâce aux plongements de mots
Valentin Nyzam and Aurélien Bossard
Dans cet article, nous présentons une nouvelle méthode de résumé automatique comparatif. Ce type de résumé a pour objectif de permettre de saisir rapidement les différences d’information entre deux jeux de documents. En raison de l’absence de ressources disponibles pour cette tâche, nous avons composé un corpus d’évaluation. Sur ce corpus, notre méthode est comparable en termes de qualité de résultats à une méthode de l’état de l’art, tout en réduisant d’un facteur dix le temps de calcul.





Étude des variations sémantiques à travers plusieurs dimensions



Étude des variations sémantiques à travers plusieurs dimensions
Syrielle Montariol and Alexandre Allauzen
Au sein d’une langue, l’usage des mots varie selon deux axes: diachronique (dimension temporelle) et synchronique (variation selon l’auteur, la communauté, la zone géographique… ).
Dans ces travaux, nous proposons une méthode de détection et d’interprétation des variations d’usages des mots à travers ces différentes dimensions. Pour cela, nous exploitons les capacités d’une nouvelle ligne de plongements lexicaux contextualisés, en particulier le modèle BERT. Nous expérimentons sur un corpus de rapports financiers d’entreprises françaises, pour appréhender les enjeux et préoccupations propres à certaines périodes, acteurs et secteurs d’activités.



Approche de génération de réponse à base de transformers



Approche de génération de réponse à base de transformers
Imen Akermi, Johannes Heinecke and Frédéric Herledan
Cet article présente une approche non-supervisée basée sur les modèles Transformer pour la génération du langage naturel dans le cadre des systèmes de question-réponse. Cette approche permettrait de remédier à la problématique de génération de réponse trop courte ou trop longue sans avoir recours à des données annotées.

Génération automatique de définitions pour le français

Génération automatique de définitions pour le français
Timothee Mickus, Mathieu Constant and Denis Paperno
La génération de définitions est une tâche récente qui vise à produire des définitions lexicographiques à partir de plongements lexicaux. Nous remarquons deux lacunes : (i) l’état de l’art actuel ne s’est penché que sur l’anglais et le chinois, et (ii) l’usabilité escomptée en tant que méthode d’évaluation des plongements lexicaux doit encore être vérifiée. Pour y remédier, nous proposons un jeu de données pour la génération de définitions en français, ainsi qu’une évaluation des performances d’un modèle de génération de définition simple selon les plongements lexicaux fournis en entrée.

Analyse de sentiments des vidéos en dialecte algérien



Analyse de sentiments des vidéos en dialecte algérien
Mohamed Amine Menacer, Karima Abidi, Nouha Othman and Kamel Smaïli
La plupart des travaux existant sur l’analyse de sentiments traitent uniquement l’arabe standard moderne, et ne prennent pas en compte les dialectes. Cet article présente un système d’analyse de sentiments des vidéos en dialecte algérien.
Dans ce travail, nous avons deux défis à surmonter, la reconnaissance automatique de la parole pour le dialecte algérien et l’analyse de sentiments du texte reconnu. Le développement du système de reconnaissance automatique de la parole est basé sur un corpus oral restreint. Ce système est amélioré en tirant profit de données acoustiques ayant un impact sur le dialecte algérien, à savoir le l’arabe standard et le français. L’analyse de sentiments est basée sur la détection automatique de la polarité des mots en fonction de leur proximité sémantique avec d’autres mots ayant une polarité prédéterminée.



Représentation dynamique et spécifique du contexte textuel pour l’extraction d’événements

Représentation dynamique et spécifique du contexte textuel pour l’extraction d’événements
Dorian Kodelja, Romaric Besançon and Olivier Ferret
Dans cet article, focalisé sur la détection supervisée de mentions d’événements dans les textes, nous proposons d’étendre un modèle opérant au niveau phrastique et reposant sur une architecture neuronale de convolution de graphe exploitant les dépendances syntaxiques. Nous y intégrons pour ce faire un contexte plus large au travers de la représentation de phrases distantes sélectionnées sur la base de relations de coréférence entre entités. En outre, nous montrons l’intérêt d’une telle intégration au travers d’évaluations menées sur le corpus de référence TAC Event 2015.