Meta ha annunciato nuove tecnologie nel campo dell’intelligenza artificiale generativa sviluppate dal team MetaFAIR, mirate a migliorare l’autenticità dei contenuti digitali, il realismo del movimento umano e la robustezza dei modelli di apprendimento automatico.
Tra queste spicca VideoSeal, un sistema avanzato di watermarking che integra nei video generati dall’IA una filigrana invisibile all’occhio umano. Questa tecnologia funziona come un “messaggio nascosto”, progettato per resistere all’editing e alla compressione video tipici delle piattaforme online. L’obiettivo principale è combattere la diffusione dei deepfake e garantire l’autenticità dei contenuti.
Ad accompagnare Video Seal, Meta ha lanciato MetaOmniSealBench, una piattaforma dedicata alla valutazione comparativa delle tecniche di watermarking. Parallelamente, l’azienda ha introdotto CLIP1.2, un modello avanzato per la codifica linguistica e visiva, progettato per migliorare l’elaborazione dei contenuti multimediali e garantire un’elevata efficienza.
Un’altra novità è Motivo, un modello sviluppato per simulare comportamenti e movimenti umani realistici nei personaggi virtuali, come i non-player characters nei videogiochi. Grazie all’utilizzo di dati di movimento non etichettati e all’apprendimento di rinforzo non supervisionato, Motivo consente agli agenti virtuali di adattarsi dinamicamente a cambiamenti ambientali senza bisogno di programmazioni specifiche.
Per il metaverso, Meta ha presentato uno strumento chiamato MetaMotivo, con l’obiettivo di rendere gli avatar digitali più dinamici, realistici e immersivi, avvicinandoli ulteriormente al comportamento umano nel mondo virtuale.
In un post ufficiale, Meta ha sottolineato l’importanza di adottare misure di sicurezza per contrastare l’uso improprio delle tecnologie IA. “È essenziale garantire che i benefici dell’intelligenza artificiale siano protetti e accessibili a tutti, mitigando rischi di manipolazione e imitazione”, ha dichiarato l’azienda.










