Aller au contenu principal
TALN 2020
Articles longs
- Imen Akermi, Johannes Heinecke et Frédéric Herledan : Approche de génération de réponse à base de transformers
- Maxime Amblard, Chloé Braud, Chuyuan Li, Caroline Demily, Nicolas Franck et Michel Musiol : Investigation par méthodes d’apprentissage des spécificités langagières propres aux personnes avec schizophrénie
- Hadjer Khaldi, Amine Abdaoui, Farah Benamara, Grégoire Sigel et Nathalie Aussenac-Gilles : Classification de relations pour l’intelligence économique et concurrentielle
- Dorian Kodelja, Romaric Besançon et Olivier Ferret : Représentation dynamique et spécifique du contexte textuel pour l’extraction d’événements
- Louis Martin, Benjamin Muller, Pedro Javier Ortiz Suárez, Yoann Dupont, Laurent Romary, Éric Villemonte de la Clergerie, Benoît Sagot et Djamé Seddah : Les modèles de langue contextuels Camembert pour le français : impact de la taille et de l’hétérogénéité des données d’entrainement
- Timothee Mickus, Mathieu Constant et Denis Paperno : Génération automatique de définitions pour le français
- Elham Mohammadi, Louis Marceau, Eric Charton, Leila Kosseim, Luka Nerima et Marie-Jean Meurs : Du bon usage d’ingrédients linguistiques spéciaux pour classer des recettes exceptionnelles
- Valentin Nyzam et Aurélien Bossard : Étude sur le résumé comparatif grâce aux plongements de mots
- Valentin Taillandier, Liyan Wang et Yves Lepage : Réseaux de neurones pour la résolution d’analogies entre phrases en traduction automatique par l’exemple
- Ludovic Tanguy, Cécile Fabre et Yoann Bard : Impact de la structure logique des documents sur les modèles distributionnels : expérimentations sur le corpus TALN
Articles courts
- Sadaf Abdul Rauf, Anne-Laure Ligozat, Francois Yvon, Gabriel Illouz et Thierry Hamon : Simplification automatique de texte dans un contexte de faibles ressources
- Angèle Barbedette et Iris Eshkol-Taravella : Prédire automatiquement les intentions du locuteur dans des questions issues du discours oral spontané
- Nadia Bebeshina et Mathieu Lafourcade : Réduire l’effort humain d’amélioration des ressources lexicales grâce aux inférences
- Mokhtar Boumedyen Billami, Christophe Bortolaso et Mustapha Derras : Extraction de thèmes d’un corpus de demandes de support pour un logiciel de relation citoyen
- Alexis Blandin, Gwénolé Lecorvé, Delphine Battistelli et Aline Étienne : Recommandation d’âge pour des textes
- Raoul Blin : Traduire des corpus pour construire des modèles de traduction neuronaux : une solution pour toutes les langues peu dotées ?
- Vincent Claveau : Construction de plongements de concepts médicaux sans textes
- Maximin Coavoux : Qu’apporte BERT à l’analyse syntaxique en constituants discontinus ? Une suite de tests pour évaluer les prédictions de structures syntaxiques discontinues en anglais
- Caio Corro : Sur l’impact des contraintes structurelles pour l’analyse en dépendances profondes fondée sur les graphes
- Aline Étienne, Delphine Battistelli et Gwénolé Lecorvé : L’expression des émotions dans les textes pour enfants : constitution d’un corpus annoté
- Simon Gabay et Loïc Barrault : Traduction automatique pour la normalisation du français du XVIIe siècle
- Natalia Grabar, Thierry Hamon, Bert Cappelle, Cyril Grandin, Benoît Leclercq et Ilse Depraetere : Prédire le niveau de langue d’apprenants d’anglais
- Elisa Gugliotta et Marco Dinarelli : TArC. Un corpus d’arabish tunisien
- Natalia Kalashnikova, Iris Eshkol-Taravella, Loïc Grobol et François Delafontaine : Segmentation automatique en périodes pour le français parlé
- Hyun Jung Kang et Iris Eshkol-Taravella : Les avis sur les restaurants à l’épreuve de l’apprentissage automatique
- Mathieu Lafourcade et Noémie-Fleur Sandillon-Rezer : Recherche de similarité thématique en temps réel au sein d’un débat en ligne
- Hang Le, Loïc Vial, Jibril Frej, Vincent Segonne, Maximin Coavoux, Benjamin Lecouteux, Alexandre Allauzen, Benoît Crabbé, Laurent Besacier et Didier Schwab : FlauBERT : des modèles de langue contextualisés pré-entraînés pour le français
- Cyrielle Mallart, Michel Le Nouy, Guillaume Gravier et Pascale Sébillot : Relation, es-tu là ? Détection de relations par LSTM pour améliorer l’extraction de relations
- Gabriel Marzinotto, Delphine Charlet, Géraldine Damnati et Frédéric Béchet : Analyse automatique en cadres sémantiques pour l’apprentissage de modèles de compréhension de texte
- Mohamed Amine Menacer, Karima Abidi, Nouha Othman et Kamel Smaïli : Analyse de sentiments des vidéos en dialecte algérien
- Alice Missud, Pascal Amsili et Florence Villoing : VerNom : une base de paires morphologiques acquise sur très gros corpus
- Syrielle Montariol et Alexandre Allauzen : Étude des variations sémantiques à travers plusieurs dimensions
- Tsanta Randriatsitohaina et Thierry Hamon : Identification des problèmes d’annotation pour l’extraction de relations
- Daniele Sanacore, Nabil Hathout et Fiammetta Namer : Représentation sémantique des familles dérivationnelles au moyen de frames morphosémantiques
- Julien Tourille, Olivier Ferret, Aurélie Névéol et Xavier Tannier : Modèle neuronal pour la résolution de la coréférence dans les dossiers médicaux électroniques
- Rodrigo Wilkens et Amalia Todirascu : Un corpus d’évaluation pour un système de simplification discursive
- Yuming Zhai, Gabriel Illouz et Anne Vilnat : La réécriture monolingue ou bilingue facilite-t-elle la compréhension ?