Offres de Thèses, Stages et Post-docs

nombre d'offres : 1

Transformation d’espace pour simplification de fonctions de classification

Mail Sélection

Date de début : 12 mars 2020

Offre n° SL-DRT-20-0871

De nombreux problèmes traités par l’Intelligence Artificielle sont des problèmes de classification de données d’entrées complexes qui doivent être séparées en différentes classes. Les fonctions transformant l’espace complexe des valeurs d’entrées en un espace plus simple, linéairement séparable, se font soit par apprentissage (réseaux convolutionels profonds), soit par projection dans un espace de haute dimension afin d’obtenir une représentation non-linéaire « riche » des entrées, puis un appariement linaire entre l’espace de haute dimension et les unités de sortie, c’est l’approche dit du « réservoir computing ». Ces concepts sont aussi liés à celui des Support Vector Machines (travaux de Vapnik 1966-1995). L’objectif de la thèse est d’étudier ce type de transformation applicable dans des applications réelles, et de définir une architecture optimisée, générique dans un domaine d’application donné, permettant de pré-traiter des données afin de les préparer pour une classification liée à une application précise, cette classification demandant un minimum d’opérations et pouvant, par exemple, se faire au vol (apprentissage continu).

Les avancées visées sont de multiples ordres:

– Du point de vue théorique, une approche tendant d’unifier les transformations effectuées par les réseaux d’apprentissage profond, du « réservoir computing » et des approches de transformation d’un espace d’entrée complexe en un espace essentiellement linéairement séparable.

– Définir quelle sont les transformations à faire en pratique pour une classe de problèmes donnée (par exemple la reconnaissance d’objets) en les simplifiant au maximum (en fonction du taux d’erreurs, de faux positifs, etc).

– Proposer des architectures optimisées, utilisant au mieux les technologies avancées (semi-conducteur, empilement 3D, photonique, etc).

Le résultat final serait la proposition d’un module optimisé, qui pourrait être utilisé en amont d’un système programmable, permettant de réaliser efficacement des fonctions de « transfer learning », « one shot learning » et d’apprentissage continu.

  • Mots clés : Défis technologiques, Sciences pour l'ingénieur, Data intelligence dont Intelligence Artificielle, Informatique et logiciels, DACLE, Leti
  • Laboratoire : DACLE / Leti
  • Code CEA : SL-DRT-20-0871
  • Contact : marc.duranton@cea.fr
En naviguant sur notre site, vous acceptez que des cookies soient utilisés pour vous proposer des contenus et services adaptés à vos centres d’intérêts. En savoir plus
X