Précédent : Stratégies d'exploitation
Remonter : Résultats nouveaux Suivant :
Contrats industriels
(nationaux, européens et
Participants : Frédéric Alexandre, Yann Boniface, Bernard
Girau, Dominique Martinez, Stéphane Vialle.
Dans le domaine de la parallélisation à grain fin, les contraintes de taille et de topologie des supports matériels programmables nous ont amenés notamment à proposer une nouvelle approche de réalisation des connexions neuronales, au moyen d'un protocole de partage des connexions disponibles par un nombre important de connexions virtuelles. Nous en avons fait une étude à la fois théorique et appliquée : modèle général, principes de calculs, conditions de terminaison et de non-interblocage, déterminisme, apprentissage, initialisation, schémas d'implantation avec ou sans apprentissage, implantation avec pipeline, application à différents benchmarks. L'intérêt principal de cette approche est de permettre une gestion des graphes de connexions des modèles neuronaux compatibles avec les contraintes des implantations matérielles. Ce travail peut donc être appliqué à une grande variété de modèles neuronaux.
Pour ce qui concerne la parallélisation à gros grain, nous avons développé un outil d'aide à la parallélisation des réseaux de neurones, en collaboration avec Supélec. Aprés les tentatives menées avec le langage ParCeL-1, dont le bilan a été fait cette année dans [], nous avons développé une bibliothèque permettant d'implanter en threads des réseaux de neurones sur architecture SMP (SGI-PowerChallenge) et DSM (SGI-Origin2000). Cet outil permet d'exprimer des réseaux neuronaux dans leur formalisme naturel : l'entité manipulée par la bibliothèque reste le neurone, et le programmeur les connecte afin qu'ils échangent des données. Cette bibliothèque est en cours d'implantation sur Origin2000, une première version est opérationnelle et a déjà permis d'implanter des cartes auto-organisatrices de Kohonen et des réseaux de classificateurs.