University Sétif 1 FERHAT ABBAS Faculty of Sciences
Détail de l'auteur
Auteur Diafat ,Mohamed Mokhtar |
Documents disponibles écrits par cet auteur



Une architecture hybride neuronale probabiliste pour les modeles de langage / Diafat ,Mohamed Mokhtar
![]()
Titre : Une architecture hybride neuronale probabiliste pour les modeles de langage Type de document : texte imprimé Auteurs : Diafat ,Mohamed Mokhtar, Auteur ; Lakhfif ,Abdelaziz, Directeur de thèse Editeur : Setif:UFA Année de publication : 2020 Importance : 1 vol (50 f .) Format : 29 cm Langues : Français (fre) Catégories : Thèses & Mémoires:Informatique Mots-clés : Traitement Automatique des Langues
Deep learning
Traduction Automatique StatistiqueIndex. décimale : 004 - Informatique Résumé :
La representation vectorielle (word embeddings) qui consiste a representer
le sens des mots sous forme de vecteurs (une liste de nombres) a contribue
ecacement a la modelisation des langues et au traitement automatique des
langues. Cette representation a permis de capturer les relations syntaxiques et
semantiques entre les mots. Dans ce memoire de MASTER, nous proposons la
construction des representations distribuees bilingues (Anglais-Arabe et Anglais
Francais) de mots an de les utiliser dans des systemes de traduction automatique.
Les modeles de langages construits ont ete entra^nes sur deux corpus paralleles
des phrases alignees (Anglais-Arabe et Anglais Francais) dans les deux paires de
langues. Dans l'implementation de notre systeme, nous avons opte pour une architecture
a base de reseau de neurone recurrent RNR en exploitant un ensemble de
librairies (Pytorch, Sickit-learn, Cuda. etc.), an de modeliser le processus de
codage-encodage utilise dans la traduction automatique statistique. Nos modeles
de langages ont ete evalues en se basant sur les mesures BLEU, TER, METEOR.Côte titre : MAI/0436 En ligne : https://drive.google.com/file/d/1OOChHR0J9lGaEqR0-6CVo4acZ4hGjIr5/view?usp=shari [...] Format de la ressource électronique : Une architecture hybride neuronale probabiliste pour les modeles de langage [texte imprimé] / Diafat ,Mohamed Mokhtar, Auteur ; Lakhfif ,Abdelaziz, Directeur de thèse . - [S.l.] : Setif:UFA, 2020 . - 1 vol (50 f .) ; 29 cm.
Langues : Français (fre)
Catégories : Thèses & Mémoires:Informatique Mots-clés : Traitement Automatique des Langues
Deep learning
Traduction Automatique StatistiqueIndex. décimale : 004 - Informatique Résumé :
La representation vectorielle (word embeddings) qui consiste a representer
le sens des mots sous forme de vecteurs (une liste de nombres) a contribue
ecacement a la modelisation des langues et au traitement automatique des
langues. Cette representation a permis de capturer les relations syntaxiques et
semantiques entre les mots. Dans ce memoire de MASTER, nous proposons la
construction des representations distribuees bilingues (Anglais-Arabe et Anglais
Francais) de mots an de les utiliser dans des systemes de traduction automatique.
Les modeles de langages construits ont ete entra^nes sur deux corpus paralleles
des phrases alignees (Anglais-Arabe et Anglais Francais) dans les deux paires de
langues. Dans l'implementation de notre systeme, nous avons opte pour une architecture
a base de reseau de neurone recurrent RNR en exploitant un ensemble de
librairies (Pytorch, Sickit-learn, Cuda. etc.), an de modeliser le processus de
codage-encodage utilise dans la traduction automatique statistique. Nos modeles
de langages ont ete evalues en se basant sur les mesures BLEU, TER, METEOR.Côte titre : MAI/0436 En ligne : https://drive.google.com/file/d/1OOChHR0J9lGaEqR0-6CVo4acZ4hGjIr5/view?usp=shari [...] Format de la ressource électronique : Exemplaires (1)
Code-barres Cote Support Localisation Section Disponibilité MAI/0436 MAI/0436 Mémoire Bibliothéque des sciences Français Disponible
Disponible