Articles TALN

TALN 2020

Articles longs

  • Imen Akermi, Johannes Heinecke et Frédéric Herledan : Approche de Génération de Réponse à base de Transformers
  • Maxime Amblard, Chloé Braud, Chuyuan Li, Michel Musiol, Caroline Demily et Nicolas Franck : Vers une identification automatique de patients schizophrènes dans des conversations contrôlées
  • Hadjer Khaldi, Amine Abdaoui, Farah Benamara, Grégoire Sigel et Nathalie Aussenac-Gilles : Classification de Relations pour l’Intelligence Économique et Concurrentielle
  • Dorian Kodelja, Romaric Besançon et Olivier Ferret : Représentation dynamique et spécifique du contexte textuel pour l’extraction d’événements
  • Louis Martin, Benjamin Muller, Pedro Javier Ortiz Suárez, Yoan Dupont, Laurent Romary, Eric Villemonte de la Clergerie, Benoît Sagot et Djamé Seddah : Les modèles de langue contextuels Camembert pour le Français : impact de la taille et de l’hétérogénéité des données d’entrainement
  • Timothee Mickus, Matthieu Constant et Denis Paperno : Génération Automatique de Définition pour le Français
  • Elham Mohammadi, Louis Marceau, Eric Charton, Leila Kosseim, Luka Nerima et Marie-Jean Meurs : Du bon usage d’ingrédients linguistiques spéciaux pour classer des recettes exceptionnelles
  • Valentin Nyzam et Aurélien Bossard : Étude sur le résumé comparatif grâce aux plongements de mots.
  • Valentin Taillandier, Liyan Wang et Yves Lepage : Réseaux de neurones pour la résolution d’analogies entre phrases en traduction automatique par l’exemple
  • Ludovic Tanguy, Cécile Fabre et Yoann Bard : Impact de la structure logique des documents sur les modèles distributionnels : expérimentations sur le corpus TALN

Articles courts (présentation orale)

  • Nadia Bebeshina et Mathieu Lafourcade : Réduire l’effort humain d’amélioration des ressources lexicales grâce aux inférences
  • Alexis Blandin, Gwénolé Lecorvé, Delphine Battistelli et Aline Étienne : Recommandation d’âge pour des textes
  • Mokhtar Boumedyen Billami, Christophe Bortolaso et Mustapha Derras : Extraction de thèmes d’un corpus de demandes de support pour un logiciel de relation citoyen
  • Vincent Claveau : Construction de plongements de concepts médicaux sans textes
  • Maximin Coavoux : Qu’apporte BERT à l’analyse syntaxique en constituants discontinus ? Une suite de tests pour évaluer les prédictions de structures syntaxiques discontinues en anglais.
  • Caio Corro : Sur l’impact des contraintes structurelles pour l’analyse en dépendances profondes fondée sur les graphes
  • Aline Étienne, Delphine Battistelli et Gwénolé Lecorvé : L’expression des émotions dans les textes pour enfants : constitution d’un corpus annoté sous Glozz
  • Simon Gabay et Loïc Barrault : Traduction automatique pour la normalisation du français du XVIIè siècle
  • Natalia Grabar, Thierry Hamon, Bert Cappelle, Cyril Grandin, Benoît Leclercq et Ilse Depraetere : Prédire le niveau de langue d’apprenants d’anglais
  • Natalia Kalashnikova, Iris Eshkol-Taravella, Loïc Grobol et François Delafontaine : Segmentation automatique en périodes pour le français parlé
  • Hang Le, Loïc Vial, Benjamin Lecouteux, Jibril Frej, Didier Schwab, Besacier Laurent, Vincent Segonne, Benoît Crabbé et Allauzen Alexandre : FlauBERT : des modèles de langue contextualisés pré-entraînés pour le français
  • Cyrielle Mallart, Michel Le Nouy, Guillaume Gravier et Pascale Sébillot : Relation, es-tu là ? Détection de relations par LSTM pour améliorer l’extraction de relations
  • Gabriel Marzinotto, Delphine Charlet, Géraldine Damnati et Frédéric Béchet : Analyse automatique en cadres sémantiques pour l’apprentissage de modèles de compréhension de texte
  • Mohamed Amine Menacer, Karima Abidi, Nouha Othman et Kamel Smaili : Analyse de sentiments des vidéos en dialecte algérien
  • Alice Missud, Pascal Amsili et Florence Villoing : VerNom : une base de paires morphologiques acquise sur très gros corpus
  • Syrielle Montariol et Alexandre Allauzen : Étude des variations sémantiques à travers plusieurs dimensions
  • Blin Raoul : Traduire des corpus pour construire des modèles de traduction neuronaux: une solution pour toutes les langues peu dotées ?
  • Daniele Sanacore, Nabil Hathout et Fiammetta Namer : Représentation sémantique des familles dérivationnelles aumoyen de frames morphosémantiques
  • Julien Tourille, Olivier Ferret, Aurélie Névéol et Xavier Tannier : Modèle neuronal pour la résolution de la coréférence dans les dossiers médicaux électroniques
  • Rodrigo Wilkens et Amalia Todirascu : Un corpus d’évaluation pour un système de simplification discursive

Articles courts (présentation poster)

  • Angèle Barbedette et Iris Eshkol-Taravella : Prédire automatiquement les intentions du locuteur dans des questions issues du discours oral spontané
  • Elisa Gugliotta et Marco Dinarelli : TArC Un corpus d’Arabish tunisien
  • Hyun Jung Kang et Iris Eshkol-Taravella : Les avis sur les restaurants à l’épreuve de l’apprentissage automatique
  • Tsanta Randriatsitohaina et Thierry Hamon : Identification des problèmes d’annotation pour l’extraction de relations
  • Sadaf Abdul Rauf, Anne-Laure Ligozat, Francois Yvon, Gabriel Illouz et Thierry Hamon : Simplification automatique de texte dans un contexte de faibles ressources
  • Noémie-Fleur Sandillon-Rezer et Mathieu Lafourcade : Recherche de similarité thématique en temps réel au sein d’un débat en ligne
  • Yuming Zhai, Gabriel Illouz et Anne Vilnat : La réécriture monolingue ou bilingue facilite-t-elle la compréhension ?