IA Disney è il riconoscimento facciale

IA Disney è il riconoscimento facciale

         
Iscriviti al Feed di Webmagazine24.it intopic.it feedelissimo.com Segnala a Zazoom - Blog Directory
 

L’enorme archivio Disney si estende su quasi un secolo di contenuti. Questo può trasformare qualsiasi ricerca di personaggi specifici, scene o oggetti sullo schermo all’interno di esso in un’impresa significativa. Tuttavia, un team di ricercatori della Direct-to-Consumer & International Organization (DTCI) della Disney ha creato una piattaforma di apprendimento automatico per aiutare ad automatizzare l’archiviazione digitale di tutto quel contenuto. Lo chiamano Content Genome. Dunque la nuova IA Disney è il riconoscimento facciale.

La piattaforma CG è costruita per popolare grafici della conoscenza con metadati dei contenuti, simili a quelli che vedi nei risultati di Google se cerchi un qualunque personaggio famoso. Da lì, le applicazioni AI possono quindi sfruttare quei dati per migliorare le funzionalità di ricerca, scoperta e personalizzazione. Oppure, come ha detto Anthony Accardo, direttore della ricerca e sviluppo di DTCI, aiutare gli animatori a trovare scatti e sequenze specifiche all’interno dell’archivio Disney.

Quindi, se un animatore che sta lavorando a una nuova stagione di Clone Wars vuole trovare un tipo specifico di sequenza fatta tre stagioni fa o un riferimento per fare qualcosa su questa stagione in corso, quella persona ha dovuto passare ore su YouTube a guardare video perché non puoi trovarlo guardando solo i titoli degli episodi“. Ma con l’aiuto di questa piattaforma, l’animatore sarà in grado di cercare semplicemente i metadati richiesti.

Il progetto è iniziato sul serio nel 2016 dopo alcuni anni di indagini, ha affermato Accardo. “Si trattava davvero di preparare un’azienda come la Disney, che operava in senso tradizionale per la distribuzione e la distribuzione di video domestici, per ciò di cui avremmo bisogno per sfruttare le differenze tra una piattaforma di video digitale con accesso diretto ai consumatori e il metodi di distribuzione tradizionali“.

IA Disney è il riconoscimento facciale: come funziona?

Costruire un tale sistema da zero non è un’impresa facile. Lo sviluppo di una tassonomia funzionale e solida risulta vitale, ha continuato Accardo. “Specialmente se hai intenzione di generare molti metadati diversi per molti attributi diversi. Devi iniziare a pensare a come gestirai quei termini e quelle etichette. Se lasci che queste tassonomie sfuggano al controllo, i dati risultanti che genererai saranno difficili da sfruttare in qualsiasi modo sofisticato e scalato.

Il team ha quindi creato quella che descrive come “la prima pipeline di tagging automatizzata“, secondo un post pubblicato pubblicato giovedì. “La codifica dei contenuti è un componente importante dell’uso dell’apprendimento supervisionato di DTCI, che viene regolarmente impiegato in casi d’uso personalizzati che richiedono un rilevamento specifico”, ha scritto il team DTCI. “Il tagging è anche l’unico modo per identificare molte informazioni sulla storia e sui personaggi altamente contestuali da dati strutturati, come trame, archetipi dei personaggi o motivazioni“.

La pipeline ha sfruttato il software di riconoscimento facciale esistente. Il team DTCI ha quindi applicato ciò al suo catalogo di film e programmi TV. Il modulo è stato in grado di rilevare e riconoscere con successo i volti umani dall’azione sullo schermo. Dopo quel successo iniziale, il team è stato in grado di addestrare il sistema per rilevare anche posizioni specifiche. Ma riconoscere il volto di un essere umano dal video dal vivo è un compito molto diverso rispetto all’insegnamento di un’intelligenza artificiale per individuare i volti animati.

Le difficoltà della nuova IA Disney

Il volto di un personaggio di Cars ha proprietà umane ma non sembra un volto umano“, ha affermato Miquel Àngel Farré, direttore della ricerca e sviluppo di DTCI. “Pertanto, abbiamo bisogno di qualcosa che possa imparare il concetto astratto di “faccia” e con l’apprendimento automatico tradizionale, è stato molto complicato. Ma grazie all’apprendimento approfondito siamo riusciti a raggiungere questo obiettivo“.

Il team ha cercato di applicare il modello di riconoscimento facciale live-action ai contenuti animati ma con risultati contrastanti. I metodi di apprendimento automatico che hanno utilizzato, come HOG + SVM, funzionano bene nel rilevare i cambiamenti di colore, luminosità e trama. Però, potevano solo individuare le caratteristiche umane – due occhi, un naso e bocca – se fossero nelle proporzioni umane generali. Pertanto, l’utilizzo di questo sistema per etichettare Monsters Inc. è stato subito chiaro.

 

Fonte immagine copertina: Pixabay

Autore dell'articolo: Francesco Menna

Mi chiamo Francesco, classe 96. Laureato in Ingegneria Meccanica e studente alla magistrale di Ingegneria Meccanica per l'Energia e l'Ambiente alla Federico II di Napoli. Passione sfrenata per tutto ciò che ha un motore e va veloce. Per info e collaborazioni inviare una mail a framenna96@gmail.com