La lingua dei segni incontra la tecnologia e l’intelligenza artificiale, grazie all’impegno di Fincons Group, che per questa attività è stata anche insignita di un prestigioso riconoscimento.

Infatti, il system integrator internazionale ha lavorato ad un brillante progetto finalizzato all’interpretazione in automatico della lingua dei segni con l’utilizzo di nuove tecnologie e algoritmi AI.

Il progetto CONTENT4ALL  è finanziato dal programma Horizon 2020 della Commissione Europea con concessione n. 762021 e ha vinto il prestigioso NAB Technology Innovation Award.

Il National Association of Broadcasting con il Technology Innovation Award premia le organizzazioni che sviluppano, tramite la ricerca, tecnologie avanzate con progetti di sviluppo pre-commerciale in ambito ICT.

Fincons Group svolge il ruolo di system integrator e coordinatore di CONTENT4ALL  per il consorzio di progetto che include: due istituti di ricerca, la University of Surrey (UK) e il Fraunhofer HHI Research center (DE), due organizzazioni end-user, VRT (BE) e Swiss TXT (CH), e Human Factors Consult (DE).

credit: Swiss txt

Oltre ad essere un progetto all’avanguardia, CONTENT4ALL ha l’importante obiettivo di supportare i broadcaster che desiderano rendere disponibili il maggior numero di contenuti possibile nella lingua dei segni, raggiungendo un’audience più vasta e inclusiva a bassi costi di produzione. La soluzione dunque permette ai broadcaster di adempire alle crescenti richieste normative, come quelle delineate nell’ l’Art.30, 21 della Convenzione delle Nazioni Unite sui diritti delle persone con disabilità.

Per raggiungere questi obiettivi ambiziosi, il team ha sviluppato un workflow integrato all’interno di un ambiente broadcast che riproduce, in tempo reale, l’interprete della lingua dei segni come essere umano realistico virtuale. L’interprete della lingua dei segni può trovarsi in uno studio remoto, mentre la lingua dei segni anima l’essere umano virtuale generato presso il broadcaster.

La tecnologia si basa su algoritmi di advanced Deep Learning che tracciano i movimenti del corpo, viso e mani derivandone i parametri necessari per animare l’essere umano virtuale. Il risultato finale è un avatar 3D fotorealistico, soprannominato “realatar”, per la sua corrispondenza con la persona reale

 

Newsletter