videoEffect.duration
videoEffect.resolution
videoEffect.ratio
Wan 2.2: So greifen Sie online auf Wan 2.2 zu und führen es lokal aus
Open Source trifft auf kinoreife Präzision mit der Leistung von Wan 2.2.
Was genau ist Wan 2.2?
Wie unterscheidet sich Wan 2.2 von Wan 2.1?
Wan 2.2 ist der KI-Video-Generator der nächsten Generation, entwickelt von Wan AI, einem Team von Alibaba. Er ist für Text-zu-Video- und Bild-zu-Video-Aufgaben konzipiert und erzeugt hochwertige, cineastische Videos mit schnellerer Erstellung und authentischeren Bewegungen. Im Vergleich zu Wan 2.1 bietet diese Version eine leistungsstarke Mixture of Experts (MoE)-Architektur, die eine schnellere Generierung, bessere Übereinstimmung mit den Eingabeaufforderungen und verbesserte visuelle Steuerung ermöglicht.
Wan2.2 Open-Source-Video-Generator
Wan 2.2 von Alibaba ist vollständig Open Source und unter der Apache 2.0 Lizenz verfügbar. Entwickler können den Wan 2.2 KI-Video-Generator frei herunterladen, verwenden und für Forschungs- sowie kommerzielle Projekte nutzen und anpassen. Dieser offene Ansatz ermöglicht es Kreativen und Ingenieuren, ihre eigenen Wan-Video-Pipelines zu erstellen und das Modell in ihre eigenen Tools zu integrieren.
Erkunde Beispiele von Wan 2.2
Beispiel für Lichtquelle
Beispiel für Charakteremotionen
Beispiel für Stilistik
Beispiel für Bewegungskontrolle
Wan 2.2 KI-Video-Generatoren
Wan2.2-T2V-A14B: Text-zu-Video-Modell
Dieses Modell verwandelt Texteingaben in 5-Sekunden-Videos in 480P und 720P. Mit einer besseren Erkennung von Texteingaben und präziser Bewegungssteuerung liefert es genauere und ausdrucksstärkere Ergebnisse als frühere Wan-Versionen oder konkurrierende KI-Tools.
Wan2.2-I2V-A14B: Bild-zu-Video-Modell
Dieses Modell wurde entwickelt, um statische Bilder in lebendige Clips umzuwandeln, mit Ausgaben in 480P und 720P. Es reduziert Kamerawackeln und ermöglicht eine Vielzahl von Stilen, wodurch es sich besonders für künstlerische und storyboard-basierte Anwendungen eignet.
Wan 2.2-TI2V-5B: Hybrider KI-Video-Generator
Das TI2V-5B-Modell ermöglicht sowohl Text-zu-Video- als auch Bild-zu-Video-Generierung in einer einzigen Pipeline. Es verwendet eine hochkomprimierte VAE für eine schnelle Videoerstellung in 720P bei 24fps und arbeitet effizient auf einer handelsüblichen GPU wie der RTX 4090 – ideal für Forschung oder Produktion.
Hauptfunktionen von Wan 2.2
Mixture-of-Experts-Architektur (MoE)
Wan 2.2 integriert eine leistungsstarke Mixture-of-Experts (MoE)-Architektur, die die Kapazität des Modells steigert, ohne die Rechenkosten zu erhöhen. Dies ermöglicht eine schnellere und qualitativ hochwertigere Videoerstellung über verschiedene Zeitschritte hinweg und etabliert Wan 2.2 als technischen Maßstab unter den Open-Source-Diffusionsmodellen.
Groß angelegte Trainingsdaten
Wan 2.2 wurde mit 65,6 % mehr Bildern und 83,2 % mehr Videos trainiert als sein VorgängerRe-editierte Übersetzung prüfen, Wan 2.1. Der signifikante Anstieg der Trainingsdaten verbessert die Bewegungsdarstellung, semantische Kohärenz und ästhetische Konsistenz in den generierten Videos.
Optimierte cineastische Ästhetik
Mit kuratierten Datensätzen, die für Beleuchtung, Komposition und Farbkorrektur etikettiert sind, überzeugt Wan 2.2 bei der Erstellung visuell beeindruckender, cineastischer Videos und bietet Kreativen präzise Kontrolle über ihre künstlerischen Präferenzen.
Effizienter Hybrid TI2V mit hoher Auflösung
Das Wan 2.2 TI2V-5B-Modell ermöglicht die Erstellung von Videos in 720P bei 24fps und nutzt eine fortschrittliche VAE-Kompression (16×16×4). Es wurde für Effizienz entwickelt und funktioniert auf handelsüblichen GPUs wie der RTX 4090, was hochwertige Videoerstellung für eine breitere Nutzerbasis zugänglich macht.
So greifen Sie online auf Wan 2.2 zu?
Wan 2.2 TI2V-5B über Hugging Face Space ausprobieren
Sie können den Wan 2.2 KI-Video-Generator direkt auf Hugging Face Space erkunden. Das TI2V-5B-Modell unterstützt sowohl Text-zu-Video- als auch Bild-zu-Video-Generierung in 720p-Auflösung und 24fps.
_blank
Besuchen Sie die offizielle Wan AI-Website, um auf Wan 2.2 Plus zuzugreifen, eine erweiterte Version mit verbesserten Tools und voreingestellten Workflows. Sie wurde für Nutzer entwickelt, die mehr Kontrolle und schnellere Ergebnisse benötigen. Beachten Sie, dass Wan 2.2 Plus derzeit ein kostenpflichtiger Service ist.
So richten Sie Wan 2.2 lokal ein und führen es aus
Step 1: Clone the Repository
Beginnen Sie damit, das offizielle Wan 2.2 GitHub-Repository zu klonen. Es enthält alles, was Sie benötigen, um das Modell lokal auszuführen.
Schritt 2: Abhängigkeiten installieren
Vergewissern Sie sich, dass Ihre Umgebung die Anforderungen erfüllt. Installieren Sie die im Repository aufgeführten Python-Pakete und stellen Sie sicher, dass PyTorch in Version 2.4.0 oder höher vorliegt, um mit Wan 2.2 kompatibel zu sein.
Schritt 3: Modell herunterladen
Wählen Sie das richtige Modell für Ihren Anwendungsfall: T2V-A14B für Text-zu-Video I2V-A14B für Bild-zu-Video TI2V-5B für hybrides Text- und Bild-Input, unterstützt 720p bei 24fps Sie können jedes Modell herunterladen und mehr Informationen dazu finden auf Hugging Face und ModelScope.
Schritt 4: Videoerstellung ausführen
Nach der Einrichtung können Sie Videos durch Eingabe von Text oder Bild generieren. Das Modell verarbeitet Ihre Eingabe und erstellt ein hochwertiges 720p-Video – alles auf Ihrem lokalen Gerät, mit voller Kontrolle über Stil, Bewegung und Timing.
Wan 2.2 ComfyUI-Workflow herunterladen
Wan 2.2 TI2V-5B Workflow für ComfyUI
Sie können einen visuellen Workflow erkunden und Videos direkt in ComfyUI mit Wan 2.2 TI2V-5B erstellen. Diese Einrichtung unterstützt sowohl Text-zu-Video- als auch Bild-zu-Video-Generierung. Um loszulegen, lesen Sie die Wan 2.2 ComfyUI-Anleitung, die die Schritte zum Laden von Modellen und einen reibungslosen Ablauf des Workflows erklärt.
Systemanforderungen und Einrichtung
Das Ausführen von Wan 2.2 in ComfyUI erfordert die manuelle Installation spezifischer Modell-Dateien: das Diffusionsmodell, VAE und Text-Encoder. Eine GPU mit mindestens 8 GB VRAM wird empfohlen, um eine reibungslose Generierung zu gewährleisten.
Wählen Sie aus drei Workflow-Typen
ComfyUI unterstützt derzeit drei Workflow-Typen für den KI-Video-Generator Wan 2.2: T2V für Text-zu-Video I2V für Bild-zu-Video TI2V für hybrides Input-Format Jede Version lässt sich an Ihre Eingabeaufforderung, Auflösung und Bildrate anpassen, was sie für Kreative, Forscher und Entwickler gleichermaßen flexibel macht.
Wie funktioniert Wan 2.2?
1
Effiziente MoE-Architektur
Wan 2.2 verwendet ein Mixture of Experts (MoE)-Architektur, um eine hohe Generierungsqualität bei gleichzeitig effizienter Rechenleistung zu gewährleisten. Während des Entrauschungsprozesses wechselt es dynamisch zwischen zwei Expertenmodellen – eines für hohem Rauschen und eines für die präzise Nachbearbeitung bei geringem Rauschen. Diese strukturierte Herangehensweise ermöglicht es Wan 2.2, detailliertere und stabilere Ergebnisse zu liefern, ohne den Speicherbedarf im Vergleich zu Wan 2.1 zu steigern.
2
Leistungsstarkes TI2V-5B für schnelle Generierung
Für Nutzer, die nach einer schnelleren Leistung auf Consumer-Hardware suchen, enthält Wan 2.2 das TI2V-5B Modell. Es komprimiert Video-Inhalte mithilfe eines hocheffizienten VAEs und ermöglicht die Erstellung von 720p-Videos mit 24 fps in weniger als 9 Minuten auf einer einzigen GPU. Das Modell unterstützt sowohl Text-zu-Video- als auch Bild-zu-Video-Aufgaben in einer einheitlichen Konfiguration.
3
Leistungsvergleich mit anderen KI-Video-Modellen
Im Vergleich von Benchmarks liefert Wan 2.2 deutlich verbesserte Genauigkeit in Bewegung, Struktur und Prompt-Alignment. Es übertrifft konsequent führende kommerzielle Videomodelle in allen wichtigen Bewertungsmetriken und bietet realistischere und kohärentere Ausgabeergebnisse.
Bald verfügbar: Integration des Wan KI-Video-Generators
Probieren Sie jetzt unseren kostenlosen KI-Video-Generator online auf Vidful.ai – keine Registrierung erforderlich. Die vollständige Integration des Wan 2.2 KI-Video-Generators wird bald verfügbar sein und ermöglicht Ihnen den Zugang zu fortschrittlichen Wan KI-Modellen für die Erstellung hochwertiger, kinoreifer Videos mit schneller und effizienter Leistung.
Häufig gestellte Fragen zu Wan 2.2
Was ist Wan 2.2?
Wan 2.2 ist ein Open-Source-Video-Generator-Modell mit erweiterten Funktionen wie der Architektur mit Mischmodellen und filmischen Ästhetiken.
Ist Wan 2.2 wirklich Open-Source?
Ja, Wan 2.2 ist Open Source, einschließlich des TI2V-5B-Modells und unterstützender Komponenten für die Text-zu-Video- und Bild-zu-Video-Generierung.
Welche Hardware benötige ich, um Wan 2.2 auszuführen?
Wan 2.2 ist optimiert für den Betrieb auf Consumer-GPUs wie der NVIDIA RTX 4090 und ermöglicht eine hochqualitative Videoerstellung in 720P@24fps.
Was ist der Unterschied zwischen T2V, I2V und TI2V in Wan 2.2?
T2V erstellt Videos aus Textaufforderungen, I2V aus statischen Bildern, und TI2V unterstützt kombinierte Eingaben für erweiterte Flexibilität.
Kann ich Wan 2.2 für kommerzielle Projekte verwenden?
Ja. Die Open-Source-Lizenz erlaubt die Nutzung in akademischen und industriellen Projekten. Überprüfen Sie immer die Lizenzdatei für genaue Lizenzbestimmungen.
Wie schneidet Wan 2.2 im Vergleich zu kommerziellen Modellen ab?
Wan 2.2 übertrifft führende kommerzielle Modelle in wichtigen Benchmarks wie Wan-Bench 2.0 und bietet leistungsstarke Ergebnisse mit voller Transparenz.
Welche Auflösungen unterstützt Wan 2.2?
Derzeit unterstützt Wan 2.2 die Videoerstellung in 480P und 720P, mit Plänen für eine zukünftige Erweiterung der Auflösungen.