Trois questions aux partenaires du projet IICT

Trois questions aux partenaires du projet IICT

Dans le cadre de sa nouvelle initiative Flagship, l’agence suisse pour l’encouragement de l’innovation (Innosuisse) a approuvé le projet «Inclusive Information and Communication Technologies» (IICT), un projet de grande envergure qui sera mené sur quatre ans. Nous avons posé trois questions aux partenaires du projet.

Ce projet se concentre sur cinq applications du domaine de l’accessibilité: simplification textuelle, traduction en langue des signes, évaluation de la langue des signes, audiodescription et sous-titres parlés.

Dans cette série d’interviews, nous avons posé trois questions sur le projet IICT d’Innosuisse à nos principaux partenaires.

Sarah Ebling, responsable du groupe «Technologie linguistique pour l’accessibilité» au département de linguistique informatique de l’Université de Zurich (UZH) et professeure d’études sur l’accessibilité à la Haute École des Sciences Appliquées de Zurich (ZHAW)

Sur quels sujets/domaines travaillez-vous dans le cadre du projet IICT?

Je suis l’investigatrice principale de l’ensemble du projet. Avec mes équipes de l’UZH et du ZHAW, je participe aux sous-projets de simplification textuelle, de traduction en langue des signes, d’évaluation de la langue des signes et d’audiodescription.

Quels résultats attendez-vous à la fin du projet?

Pour chacun des sous-projets, nous avons tenté de définir à la fois une innovation immédiate et une innovation plus visionnaire. Par exemple, pour la traduction en langue des signes, nous serons bientôt en mesure d’afficher des messages d’alerte à l’aide d’un signeur numérique, en nous appuyant sur le paradigme de la traduction automatique à base de règles et sur le travail de production de la langue des signes. La traduction automatique en langue des signes basée sur l’apprentissage profond entre également dans le champ d’application du projet; cet axe de recherche est beaucoup plus difficile à mettre en œuvre.

Quels sont pour vous les plus grands défis?

Tous les sous-projets font appel, dans une certaine mesure, à des techniques de deep learning, de grandes quantités de données sont donc nécessaires pour chacun d’entre eux. Obtenir ces données ou créer des données artificielles dans le cadre de l’augmentation des données est un défi.

Julien Torrent,
responsable de l’innovation à l’institut Icare

Sur quels sujets/domaines l’institut Icare travaille-t-il dans le cadre du projet IICT?

Dans le cadre du Flagship IICT, l’institut de recherche Icare travaille sur le sous-projet 1, concernant la simplification des textes, et sur le sous-projet 4, sur l’audiodescription et la L2V.

Pour la simplification textuelle, l’objectif est de créer un ensemble d’algorithmes permettant de réduire la complexité d’un texte afin de le rendre compréhensible par un maximum de personnes, notamment les personnes souffrant d’un handicap cognitif. Afin de diffuser plus largement cette pratique, d’un point de vue pédagogique, ce système de règles permettra d’effectuer des corrections manuelles mais aussi semi-automatiques. L’utilisateur apprendra ainsi à simplifier un texte pour qu’il devienne une norme dans sa rédaction quotidienne.

Concernant l’audiodescription et la L2V, l’idée est de rendre le contenu visuel accessible aux personnes malvoyantes ou aveugles. Nous travaillons ici avec des technologies avancées d’intelligence artificielle telles que les transformers qui, dans ce cas, permettent d’extraire les informations visuelles des vidéos et de transcrire le contenu en texte, qui peut ensuite être prononcé à l’aide d’une synthèse vocale. Pour le processus d’audiodescription, un flux d’activité dynamique est mis en place, qui permet à l’opérateur de sélectionner les modules qu’il souhaite activer en fonction des résultats qu’il veut obtenir (description du contexte, des scènes et/ou des expressions faciales).

Quels résultats attendez-vous à la fin du projet?

L’institut Icare, spécialisé dans la recherche appliquée, vise à intégrer des technologies avancées dans ses deux projets en cours afin de résoudre les problèmes d’accessibilité à l’échelle nationale. L’objectif est de créer des solutions pratiques pour les professionnels et les consommateurs finaux. Les résultats devraient être suffisamment pertinents pour être mis en pratique dans la vie de tous les jours.

Quels sont pour vous les plus grands défis?

L’un des plus grands défis auxquels nous sommes confrontés est de trouver des moyens d’intégrer les technologies d’IA avancées dans des applications pratiques accessibles aux utilisateurs finaux. Il est essentiel de trouver le bon compromis entre précision et convivialité, ce qui n’est pas toujours évident. En outre, nous devons veiller à ce que l’utilisation des technologies d’IA n’aille pas à l’encontre des principes éthiques, en particulier quant à la protection des données et la vie privée des utilisateurs. Dans le sous-projet 4, une analyse approfondie des besoins des utilisateurs montre que ces derniers attendent une description émotionnelle des expressions faciales et des scènes. Pour répondre à cette demande, une approche innovante a été mise en œuvre et a déjà donné des résultats prometteurs, avec une amélioration de 15 % par rapport aux modèles de pointe. Ces résultats doivent encore être améliorés et consolidés, mais les perspectives sont très encourageantes.

Paul Anton Mayer,
Chief Digital Officer chez capito

Sur quels sujets/domaines capito travaille-t-elle dans le cadre du projet IICT?

capito simplifie l’information grâce à l’intelligence artificielle, afin que tout le monde puisse la comprendre. Il s’agit d’un travail de fond dans le sous-projet 1, qui constitue la base de nombreuses autres solutions.

Quels résultats attendez-vous à la fin du projet?

Des solutions pour une société inclusive.
Je n’attends pas seulement des informations perceptibles et compréhensibles dans les services de

  • la radiodiffusion publique,
  • l’administration publique,
  • des banques et des assurances,

je l’exige. Notre société a besoin de ce type de solutions.

Quels sont pour vous les plus grands défis?

La gestion et l’intégration des données. Nous travaillons avec l’intelligence artificielle, nous avons donc besoin de données. Les chaînes de valeur des données sont souvent difficiles à maintenir et à contrôler. L’intégration, parce que les gros services évolutifs sont souvent complexes à intégrer dans les infrastructures existantes, et c’est un défi de se conformer aux réglementations données dans nos domaines d’action. Mais heureusement, nous avons des stratégies pour surmonter ces défis!

Dr. Mathew Magimai Doss,
Senior Researcher chez idiap Research Institute

Sur quels sujets/domaines l’Idiap travaille-t-il dans le cadre du projet IICT?

Dans le cadre du projet IICT, l’Idiap est impliqué dans deux sous-projets, à savoir,

  1. le sous-projet 3: évaluation de la langue des signes avec la HfH, l’Idiap, l’Université de Surrey comme partenaires de recherche et la Fédération suisse des sourds (SGB-FSS) comme partenaire de mise en œuvre. Ce sous-projet s’intéresse au traitement de la langue des signes, avec pour objectif de développer et d’intégrer dans la plateforme Signwise de la SGB-FSS un système d’évaluation de la langue des signes qui fournit un feed-back automatique aux apprenants. La R&D se concentre sur la langue des signes suisse-allemande (DSGS) et la langue des signes isolée.
  2. le sous-projet 5: sous-titres parlés avec l’Idiap comme partenaire de recherche et SWISS TXT comme partenaire de mise en œuvre. Ce sous-projet s’intéresse au traitement de la parole, avec pour objectif de développer une technologie complémentaire produisant une parole expressive et naturelle pour les sous-titres générés par SWISS TXT. La R&D se concentre sur le développement de systèmes de synthèse et de conversion vocale pour l’anglais, l’allemand, le français et l’italien.

 

Quels résultats attendez-vous à la fin du projet?

Dans le sous-projet 3, sur la plateforme Signwise, nous prévoyons d’automatiser l’évaluation des productions en langue des signes au niveau des signes individuels et d’intégrer des essais adaptatifs dans un test de langue des signes réceptive. Dans le sous-projet 5, nous prévoyons d’intégrer une technologie de synthèse vocale expressive dans Swissinfo (SWI), www.swissinfo.ch, où les contributions vidéo de swissinfo.ch (SWI), qui ne sont souvent disponibles que dans la langue d’origine, seront accessibles dans d’autres langues majeures. Une application secondaire vise à synthétiser des articles d’actualité sur SWI. Ces deux applications ont pour objectif de diffuser efficacement les informations relatives à la Suisse et contribuent à améliorer la réceptivité des gens aux diverses cultures en brisant les barrières linguistiques.

Quels sont pour vous les plus grands défis?

Dans le sous-projet 3, nous valorisons une technologie de langue des signes qui a été développée dans le cadre des projets SMILE et SMILE-II du programme Sinergia du Fonds national suisse. Le plus grand défi consiste à faire passer la technologie d’un environnement contrôlé en laboratoire à un environnement réel où le contrôle du matériel et de l’environnement est réduit et à créer une technologie acceptable pour les apprenants et les enseignants.

Aujourd’hui, grâce aux progrès de l’apprentissage profond, la synthèse de la parole à l’image de l’être humain n’est plus un défi. Le principal challenge consiste à rendre les résultats de ces systèmes de synthèse vocale aussi expressifs que la parole humaine. Pour cela, nous avons besoin d’une technologie de synthèse vocale qui peut être contrôlée de manière très précise et qui est acceptée par des auditeurs humains naïfs. Le défi du sous-projet 5 est d’atteindre cet objectif.

Pour en savoir plus sur les 15 Flagships d’Innosuisse, cliquez ici.

 

Robin Ribback

Robin Ribback

Innovation Manager
+41 58 136 40 32

Florian Maillard

Florian Maillard

Junior Project Coordinator
+41 58 136 43 05