Il traduttore AI di Meta può interpretare le lingue non scritte

Quasi la metà delle circa 7.000 lingue conosciute al mondo, quattro su dieci esistono senza una componente scritta di accompagnamento. Queste lingue non scritte rappresentano un problema unico per i moderni sistemi di traduzione di apprendimento automatico, poiché in genere hanno bisogno di convertire il discorso verbale in parole scritte prima di tradurre nella nuova lingua e riportare il testo al parlato, ma secondo quanto riferito Meta ha affrontato con il suo ultimo open -Avanzamento dell’IA nella lingua di origine.

Come parte del programma Universal Speech Translator (UST) di Meta, che sta lavorando per sviluppare la traduzione vocale in tempo reale in modo che può interagire più facilmente (leggi: ). Nell’ambito di questo progetto, i ricercatori di Meta hanno esaminato l’hokkien, una lingua non scritta parlata in tutta la diaspora asiatica e una delle lingue ufficiali di Taiwan.

I sistemi di traduzione di apprendimento automatico in genere richiedono ampi esempi etichettabili della lingua, sia scritta che parlata, su cui allenarsi, esattamente ciò che le lingue non scritte come l’hokkien non hanno. Per ovviare a questo problema, “abbiamo utilizzato la traduzione vocale in unità (S2UT) per convertire il parlato in ingresso in una sequenza di unità acustiche direttamente nel percorso precedentemente sperimentato da Meta”, ha spiegato il CEO Mark Zuckerberg in un post sul blog di mercoledì. “Quindi, abbiamo generato forme d’onda dalle unità. Inoltre, UnitY è stato adottato per un meccanismo di decodifica a due passaggi in cui il decodificatore di primo passaggio genera testo in una lingua correlata (mandarino) e il decodificatore di secondo passaggio crea unità.

“Abbiamo sfruttato il mandarino come lingua intermedia per creare pseudo-etichette, dove abbiamo prima tradotto il discorso dall’inglese (o hokkien) al testo mandarino, quindi lo abbiamo tradotto in hokkien (o inglese) e l’abbiamo aggiunto ai dati di formazione”, ha continuato. Attualmente, il sistema consente a qualcuno che parla hokkien di conversare con qualcuno che parla inglese, anche se in modo artificioso. Il modello può tradurre solo un’intera frase alla volta, ma Zuckerberg è fiducioso che la tecnica potrà eventualmente essere applicata a più lingue e migliorerà al punto da offrire una traduzione in tempo reale.

Oltre ai modelli e ai dati di formazione che Meta sta già fornendo open source da questo progetto, l’azienda sta anche rilasciando un sistema di benchmarking della traduzione vocale primo nel suo genere basato su un corpus vocale hokkien chiamato Taiwanese Across Taiwan , così come “la matrice vocale, un ampio corpus di traduzioni da discorso a voce estratte con l’innovativa tecnica di data mining di Meta chiamata LASER”, ha annunciato Zuckerberg. Questo sistema consentirà ai ricercatori di creare propri sistemi di traduzione vocale (S2ST).

Tutti i prodotti consigliati da Engadget sono selezionati dalla nostra redazione, indipendente dalla nostra casa madre. Alcune delle nostre storie includono link di affiliazione. Se acquisti qualcosa tramite uno di questi link, potremmo guadagnare una commissione di affiliazione. Tutti i prezzi sono corretti al momento della pubblicazione.

Leave a Comment