videoEffect.duration
videoEffect.resolution
videoEffect.ratio
Wan 2.2 : Comment accéder en ligne et exécuter Wan 2.2 localement
L'open source rencontre la précision cinématographique avec la puissance de Wan 2.2.
Qu'est-ce que Wan 2.2 ?
Qu'est-ce qui différencie Wan 2.2 de Wan 2.1 ?
Wan 2.2 est un générateur vidéo IA de nouvelle génération développé par Wan AI, une équipe de recherche d'Alibaba. Conçu pour les tâches de génération vidéo à partir de texte et d'images, il produit des vidéos cinématographiques de haute qualité, avec une vitesse accrue et des mouvements plus naturels. Par rapport à Wan 2.1, cette version présente une architecture Mixture of Experts (MoE) puissante, permettant une génération plus fluide, une meilleure correspondance avec les demandes, et un meilleur contrôle visuel.
Générateur de vidéos open-source Wan 2.2
Wan 2.2 d'Alibaba est totalement open-source sous la licence Apache 2.0. Les développeurs peuvent librement télécharger, utiliser et modifier le générateur vidéo IA Wan 2.2 pour des projets de recherche et commerciaux. Cette approche ouverte offre aux créateurs et ingénieurs une flexibilité totale. Ils peuvent ainsi construire des pipelines vidéo personnalisés Wan et intégrer le modèle dans leurs propres outils.
Explorez les exemples de Wan 2.2
Exemple de source lumineuse
Exemple d'émotion d'un personnage
Exemple de stylisation
Exemple de gestion du mouvement
Modèles vidéo IA Wan 2.2
Wan 2.2-T2V-A14B : Modèle texte-vers-vidéo
Ce modèle transforme des invites de texte en vidéos de 5 secondes en 480P et 720P. Avec une bonne compréhension des invites et un contrôle du mouvement précis, il offre des résultats plus définis et expressifs que les versions précédentes de Wan ou d'autres outils IA concurrents.
Wan 2.2-I2V-A14B : Modèle image-à-vidéo
Conçu pour convertir des images statiques en clips dynamiques, ce modèle prend en charge des vidéos en 480P et 720P. Il réduit les tremblements de caméra et prend en charge divers styles, ce qui le rend idéal pour des applications artistiques ou de storyboard.
Wan 2.2-TI2V-5B : Générateur vidéo hybride de nouvelle génération
The TI2V-5B model supports both text-to-video and image-to-video generation in a single pipeline. It uses a high-compression VAE for fast 720P@24fps video generation, and runs efficiently on a single consumer GPU like an RTX 4090—suitable for research or production.
Fonctionnalités clés de Wan 2.2
Architecture Mixture-of-Experts (MoE)
Wan 2.2 intègre une puissante architecture Mixture-of-Experts (MoE) qui optimise les capacités du modèle sans augmenter le coût computationnel. Cela permet une génération vidéo plus rapide et de meilleure qualité à chaque phase, établissant Wan 2.2 comme une référence technique dans les modèles de diffusion open-source.
Données d'entraînement à grande échelle
L'entraînement de Wan 2.2 a utilisé 65,6 % d'images et 83,2 % de vidéos en plus que sonRe-éditer copie traduite prédécesseur, Wan 2.1. Cette augmentation substantielle des données d'entraînement assure un meilleur traitement du mouvement, une cohérence sémantique et une cohérence esthétique dans les vidéos générées.
Esthétique cinématographique améliorée
Avec des ensembles de données soigneusement étiquetées pour l'éclairage, la composition et l'étalonnage des couleurs, Wan 2.2 excelle dans la production de vidéos d'une qualité cinématographique impressionnante, offrant aux créateurs un contrôle précis sur leurs préférences artistiques.
Générateur hybride TI2V haute définition et efficace
Le modèle Wan 2.2 TI2V-5B prend en charge la génération vidéo en 720P à 24 fps, grâce à une compression VAE avancée (16×16×4). Conçu pour être efficace, il fonctionne sur des GPU grand public comme le RTX 4090, rendant la génération de vidéos de haute qualité accessible à un plus grand nombre d'utilisateurs.
Comment utiliser Wan 2.2 en ligne ?
Essayez Wan 2.2 TI2V-5B via Hugging Face Space
Explorez le générateur vidéo IA Wan 2.2 directement sur Hugging Face Space. Le modèle TI2V-5B prend en charge à la fois la génération vidéo à partir de texte et d'images en résolution 720p à 24fps.
_blank
Visitez le site officiel de Wan AI pour accéder à Wan 2.2 Plus, une version plus avancée offrant des outils améliorés et des modèles de flux de travail. Elle est conçue pour ceux qui recherchent plus de contrôle et des résultats plus rapides. Notez que Wan 2.2 Plus est actuellement un service payant.
Comment installer et utiliser Wan 2.2 localement
Step 1: Clone the Repository
Clonez le dépôt officiel Wan 2.2 GitHub. Il contient tout ce dont vous avez besoin pour exécuter le modèle localement.
Étape 2 : Installer les dépendances
Vérifiez que votre environnement est compatible. Installez les packages Python indiqués dans le dépôt et assurez-vous d’avoir PyTorch en version 2.4.0 ou supérieure pour garantir la compatibilité avec Wan 2.2.
Étape 3 : Télécharger le modèle
Choisissez le modèle correspondant à votre besoin : T2V-A14B pour texte-à-vidéo I2V-A14B pour image-à-vidéo TI2V-5B pour entrée hybride texte+image, prenant en charge la résolution 720p à 24fps Téléchargez et découvrez chaque modèle sur Hugging Face et ModelScope.
Étape 4 : Lancer la génération de vidéos
Une fois la configuration terminée, vous pouvez commencer à générer des vidéos à partir d'une invite texte ou image. Le modèle traitera votre demande et créera une vidéo de haute qualité en 720p, tout en offrant un contrôle total sur le style visuel, les mouvements et le timing, le tout sur votre machine locale.
Téléchargez le flux de travail Wan 2.2 ComfyUI
Flux de travail Wan 2.2 TI2V-5B sur ComfyUI
Vous pouvez explorer un flux de travail visuel pour générer des vidéos en utilisant Wan 2.2 TI2V-5B directement dans ComfyUI. Cette configuration permet de générer des vidéos à partir de texte ou d'images. Pour commencer, consultez le guide Wan 2.2 ComfyUI, qui explique les étapes pour charger les modèles et exécuter le flux de travail en toute simplicité.
Exigences système et configuration
Pour exécuter Wan 2.2 dans ComfyUI, vous devez installer manuellement les fichiers modèles nécessaires : le modèle de diffusion, le VAE et l'encodeur de texte. Une carte graphique avec au moins 8 Go de VRAM est recommandée pour une génération fluide.
Sélectionnez parmi trois types de flux de travail
ComfyUI prend actuellement en charge trois flux de travail du générateur de vidéos IA Wan 2.2 : T2V pour texte-à-vidéo I2V pour image-à-vidéo TI2V pour entrée hybride Chaque version peut être ajustée selon vos préférences de texte, résolution et durée, offrant ainsi une grande flexibilité pour les créateurs, chercheurs et développeurs.
Comment fonctionne Wan 2.2 ?
1
Architecture MoE optimisée
Wan 2.2 utilise une architecture Mixture of Experts (MoE) pour combiner génération de haute qualité et efficacité en calcul. Pendant le débruitage, il alterne dynamiquement entre deux modèles experts—l'un pour les phases à fort bruit, l'autre pour le raffinement à faible bruit. Cette structure en couches permet à Wan 2.2 de produire des résultats plus détaillés et stables tout en optimisant l'utilisation de la mémoire par rapport à Wan 2.1.
2
TI2V-5B, léger et rapide pour une génération fluide
Pour les utilisateurs recherchant des performances plus rapides sur des ordinateurs grand public, Wan 2.2 inclut le modèle TI2V-5B. Il compresse les représentations vidéo à l'aide d'un VAE (Auto-encodeur Variationnel) haute efficacité, permettant une génération en 720p à 24fps en moins de 9 minutes sur un seul GPU. Ce modèle prend en charge à la fois les tâches texte-à-vidéo et image-à-vidéo dans une configuration unifiée.
3
Performances par rapport à d'autres modèles de vidéo en intelligence artificielle
Dans les comparaisons de performances, Wan 2.2 offre une précision nettement améliorée en matière de mouvement, de structure et d'alignement des requêtes. Il surpasse régulièrement les modèles vidéo commerciaux leaders selon les principaux critères d'évaluation, offrant ainsi une sortie plus réaliste et cohérente.
Bientôt disponible : Intégration du générateur de vidéos IA Wan
Vous pouvez désormais essayer gratuitement notre générateur de vidéos IA en ligne sur Vidful.ai, sans nécessiter d'inscription. L'intégration complète avec le générateur de vidéos IA Wan 2.2 arrive bientôt, vous permettant d'accéder aux modèles avancés de Wan AI pour la création de vidéos de haute qualité, cinématographiques, avec des performances rapides et efficaces.
Foire aux questions sur Wan 2.2
Qu'est-ce que Wan 2.2 ?
Wan 2.2 est un générateur de vidéos IA open source, doté d'une architecture Mixture-of-Experts et d’un rendu cinématographique de qualité supérieure.
Wan 2.2 est-il vraiment en open source ?
Oui, Wan 2.2 est entièrement open source, y compris le modèle TI2V-5B et les modules pour la génération vidéo à partir de texte et à partir d'images.
Quel est le matériel minimum nécessaire pour faire fonctionner Wan 2.2 ?
Wan 2.2 est optimisé pour fonctionner sur des cartes graphiques grand public comme le NVIDIA RTX 4090, offrant la génération de vidéos en 720p à 24 images par seconde.
Quelle est la différence entre T2V, I2V et TI2V dans Wan 2.2 ?
T2V génère des vidéos à partir de texte, I2V à partir d’images statiques, et TI2V combine les deux pour offrir plus de flexibilité dans la génération de contenu vidéo.
Est-il possible d'utiliser Wan 2.2 pour des projets commerciaux ?
Oui. La licence open source autorise une utilisation académique et industrielle. Veuillez consulter le fichier de licence pour plus de détails.
Comment Wan 2.2 se compare-t-il aux modèles commerciaux ?
Wan 2.2 surpasse les modèles commerciaux leaders dans des benchmarks comme Wan-Bench 2.0, avec une transparence totale et des résultats de qualité industrielle.
Quelles résolutions sont prises en charge par Wan 2.2 ?
Wan 2.2 prend actuellement en charge la génération vidéo en 480p et 720p, avec la possibilité d'augmenter la résolution à l'avenir.