Skip to main content
đŸ”„5 Tage 07:32:09
Unbegrenzt GPT Image 2 bei mittlerer QualitÀt, 1 Bild pro Durchlauf, mit Business oder EnterpriseUnbegrenztes GPT Image 2 · Nur mittelUnlimited erhalten
LogoSeedance 2.0
  • Bild zu Video
  • Anleitung
  • Preise
  • Meine Kreationen
Seedance 2.0 Prompts: das komplette Schreib-Handbuch
2026/05/07

Seedance 2.0 Prompts: das komplette Schreib-Handbuch

Beherrsche Seedance 2.0 Prompts mit der offiziellen Drei-Teil-Formel, Multi-Modal-Referenzsyntax (@image, @video, @audio) und Mode-spezifischen Templates.

Die meisten "KI-Video-Prompt"-Artikel, die du online findest, sind von Leuten geschrieben, die "cinematischer Shot eines Wolfes im Schnee" tippen und das als Tutorial bezeichnen. So sehen Seedance 2.0 Prompts in der Praxis nicht aus. Das Modell hat eine spezifische Multi-Modal-Grammatik (@image1, @video2, @audio1, @character:<id>), und Volcengine, das EigentĂŒmer des Modells, bietet einen offiziellen Prompt-Guide strukturiert um fĂŒnf unterschiedliche Kategorien[1]. Wenn deine Prompts diese Struktur nicht einhalten, wirst du Credits beim Neu-Generieren verschwenden.

Das ist der ausfĂŒhrliche Seedance 2.0 Prompts-Guide, den ich mir gewĂŒnscht hĂ€tte, als ich anfing. Er behandelt die offizielle Text-Formel, die Referenzsyntax, die Multi-Image und Multi-Video-LĂ€ufe steuert, Mode-spezifische Templates fĂŒr die vier echten Generierungswege (Text-zu-Video, Bild-zu-Video, Referenz-zu-Video, Video-Bearbeitung) und die Fehlermuster, die AnfĂ€nger zurĂŒck in die Queue schicken. ÜberprĂŒft gegen die ByteDance/Volcengine API-Spezifikation und die Live-Konfiguration des seedance2.so Studios.

TL;DR

  • Seedance 2.0 Prompts folgen einer Drei-Teil-Formel: Subjekt + Aktion, dann Umgebung / Beleuchtung / Stil, dann Kamera- oder Audio-Hinweise[1].
  • Das Modell akzeptiert bis zu 9 Referenzbilder, 3 Referenzvideos und 3 Audiodateien in einer einzigen Anfrage[2]. Referenziere sie inline als ć›Ÿç‰‡1 / è§†éą‘2 / 音鱑1 (Chinesisch) oder @image1 / @video2 / @audio1 (die seedance2.so Kurzform)[3].
  • Prompt-LĂ€ngenbegrenzung: ≀ 500 chinesische Zeichen oder ≀ 1.000 englische Wörter. Alles darĂŒber hinaus schwĂ€cht die Aufmerksamkeit und das Modell fĂ€ngt an, Details zu ignorieren[2].
  • Seedance 2.0 unterstĂŒtzt Prompts in Englisch, Chinesisch, Japanisch, Indonesisch, Spanisch und Portugiesisch, Ă€ltere Seedance-Varianten unterstĂŒtzen nur Englisch und Chinesisch[2].
  • Upstream gibt es nur drei echte Modi: Text-zu-Video, Bild-zu-Video (erstes Bild oder erstes+letztes Bild) und Multi-Modal-Referenz. "Video-Bearbeitung" und "Video-Erweiterung" sind Referenz-zu-Video-Nutzungsmuster, keine separaten Modelle[2].
  • Seedance 2.0 wird echte menschliche Gesichtsreferenzen ablehnen, es erwartet entweder ein generiertes PortrĂ€t, ein vorab genehmigtes Asset oder einen der von der Plattform bereitgestellten virtuellen Avatare[2].

Die Drei-Teil-Seedance 2.0 Prompt-Formel

Der offizielle Prompt-Guide von Volcengine legt die Struktur als drei kombinierbare Blöcke dar[1]. Du musst nicht jeden Block jedes Mal ausfĂŒllen, aber das Stapeln in dieser Reihenfolge gibt dem Modell das sauberste Signal.

Block 1: Subjekt und Aktion. Wer ist in der Szene und was tun sie. Das ist der logische Anker. "Eine Frau" sagt dem Modell nichts. "Eine große Frau in einem langen Anthrazit-Mantel, die ĂŒber eine nasse SteinbrĂŒcke schreitet" gibt ihm ein Subjekt, eine Körperhaltung und einen Bewegungsvektor.

Block 2: Umgebung, Beleuchtung, Stil. Wo es passiert, wie das Licht aussieht und das visuelle Register. "Bei Einbruch der DĂ€mmerung, Straßenlaternen spiegeln sich auf regennassen Kopfsteinpflastern, entsĂ€ttigte BlaugrĂŒn-Bernstein-Farbabstufung" leistet echte Arbeit. Lass diesen Block weg und das Modell wĂ€hlt standardmĂ€ĂŸig eine mittlere Einstellung mit neutraler Beleuchtung und null stilistischen Standpunkt.

Block 3: Kamerasprache und Audio-Hinweise. Wie die Kamera bewegt sich und was du hörst. "Langsamer Dolly vorwÀrts, geringe SchÀrfentiefe, Ambient-Klavier im Hintergrund" verwandelt einen generischen Shot in einen inszenierten. Seedance 2.0 generiert natives Audio mit lippensynchronisiertem Dialog in 8+ Sprachen, also gehören Audio-Hinweise in den Prompt, nicht als Nachgedanke.

Ein sauberer Drei-Block-Prompt:

A tall woman in a charcoal coat strides across a rain-slick stone bridge.
Dusk light, streetlights reflecting on cobblestones, desaturated teal-and-amber grade.
Slow dolly forward following the subject. Distant traffic and soft rain on stone.

Das sind drei SÀtze und sie decken alle drei Blöcke ab. Das Modell hat alles, was es braucht.

Hochwertige Wörter an den Anfang

Seedance 2.0 liest von links nach rechts mit schwindender Aufmerksamkeit. Der erste Satz trĂ€gt das meiste Gewicht, der zweite wird darum herum ausgefĂŒllt, und alles nach dem dritten ist "Details, die zu verwenden sind, wenn Platz vorhanden ist." Stelle deine hĂ€rtesten EinschrĂ€nkungen, SubjektidentitĂ€t, SchlĂŒsselaktion, primĂ€ren Ort im eröffnenden Satz an den Anfang. Stilistische BlĂŒten kommen spĂ€ter.

Das ist keine Stimmung. Es entspricht der Art, wie das Modell Prompt-Token gegen Aufmerksamkeitsbudget unter den dokumentierten LĂ€ngenbegrenzungen ausgleicht (500 chinesische Zeichen / 1.000 englische Wörter)[2]. Über dem Limit hinaus werden Prompts intern aggressiv zusammengefasst, und "zusammengefasst" bedeutet normalerweise, die Details zu verlieren, die dir wichtig waren.

WĂ€hle einen Stil und committe ihn

Das Mischen von "Pixar 3D-Animation, körniger 35-mm-Filmkorn, AquarellwĂ€sche" in einem einzigen Prompt ist der schnellste Weg zu visuellem Brei. Das Modell muss drei widersprĂŒchliche Ă€sthetische Signale abstimmen und das Ergebnis ist normalerweise ein flacher Standard. WĂ€hle einen (z.B. Pixar 3D-Animation oder körniger 35-mm-Film, schwerer Körnung oder lockere AquarellwĂ€sche) und lehne dich rein.

Besonders bei Text-zu-Video Arbeiten ist StilkohĂ€renz das, was "tatsĂ€chlich fĂŒr eine Kampagne nutzbar" von "macht Spaß, einmal anzuschauen" unterscheidet.

Die Referenzsyntax, die niemand klar dokumentiert

Hier ist der Teil, den die meisten Drittanbieter-Guides falsch machen. Seedance 2.0s Referenz-zu-Video-Modus (Volcengine nennt es ć€šæšĄæ€ć‚è€ƒç”Ÿè§†éą‘, "Multi-Modal-Referenz-Video-Generierung") verwendet ein explizites numerisches Zeigersystem im Prompt selbst[3].

Die offizielle Volcengine-Syntax ist chinesische Klammer-Nummerierung: ć›Ÿç‰‡1, ć›Ÿç‰‡2, ..., ć›Ÿç‰‡9 fĂŒr Bilder; è§†éą‘1, è§†éą‘2, è§†éą‘3 fĂŒr Videos[3]. Auf seedance2.so bietet das Studio eine englische Kurzform, die auf den gleichen Upstream-Vertrag abgebildet ist, @image1 bis @image9, @video1 bis @video3 und @audio1 bis @audio3[4]. Sie produzieren identische Ausgaben; wĂ€hle, was fĂŒr dich sauberer lesbar ist.

Der Punkt: Referenz-zu-Video ohne explizite Zeiger ist nur ein vager Hinweis an das Modell. Mit Zeigern sagst du ihm genau, welcher Eingabe-Slot welcher Idee im Prompt entspricht.

Multi-Bild-Referenzen: das Einkaufslisten-Muster

Das von Volcengine empfohlene Template fĂŒr Multi-Bild-Referenzen[3]:

Reference @image1, @image2, @image3 (the camera), put it on a white desk.
Slowly orbit the camera, showing front, side, and back. White seamless backdrop.

Die Zahl-zu-Eingabe-Zuordnung ist positionell. Das erste hochgeladene Bild ist @image1, das zweite ist @image2 und so weiter. Das ist nicht verhandelbar, es gibt kein "Name"-Feld beim Hochladen, nur Reihenfolge. Wenn du das gleiche Bild zweites statt erstes hochlÀdst, verweist dein @image1 jetzt auf ein anderes Bild und der Prompt bricht stumm.

Der offizielle Volcengine-Guide gibt dieses zusammengesetzte Beispiel fĂŒr die Verwendung von drei Bildeingaben zur Definition von Subjekt, Outfit und Produkt[3]:

A boy wearing glasses and a blue T-shirt next to a corgi puppy, sitting on a lawn,
3D cartoon style.

versus die strukturierte Version:

[image 1] a boy wearing glasses and a blue T-shirt and [image 2] the corgi puppy,
sitting on [image 3] the lawn, 3D cartoon style.

Beide funktionieren. Die zweite ergibt messbar engere Einhaltung der Eingabebilder. Wenn du kommerzielle Treue, Produktfotografie, CharakterkontinuitĂ€t ĂŒber Aufnahmen hinweg brauchst, verwende die explizite Zeiger-Form jedes Mal.

Video-Referenzen: Aktion, Kamera, Effekte

Das gleiche Muster gilt fĂŒr Video-Eingaben[3]. Volcengine dokumentiert drei unterschiedliche Wege, ein Referenzvideo zu verwenden:

Was du vom Referenzvideo brauchstPrompt-Template
Borge die Aktion (Bewegung, Choreografie)Reference the action in @video1, generate <new scene description>, keep action details consistent.
Borge die Kamerabewegung (Dolly, Orbit, Push-in)Reference the camera language in @video1, generate <new scene description>, keep the camera move consistent.
Borge den VFX oder Partikel-EffektReference the gold particle effect in @video1, apply the same effect to <subject in image2>.

Das ist ehrlich eine Superkraft, wenn du eine Serie produzierst. Drehe einen Referenz-Clip mit der Kamerabewegung, die du willst, Handheld-Push-in, geschmeidiger Orbit, Vertigo-Zoom, und wiederverwendbare ĂŒber zehn Variationen von Subjekt und Umgebung. Du erhĂ€ltst visuelle KontinuitĂ€t ohne das Neuschreiben von Filmografie von Grund auf.

Audio-Referenzen und Beat-Sync

Audio-Eingaben funktionieren gleich: bis zu drei Audiodateien, referenziert als @audio1, @audio2, @audio3[4]. Die hĂ€ufigste Verwendung ist Beat-Sync-Video, pin die generierte Bewegung an ein MusikstĂŒck, sodass Schnitte und Bewegungen auf dem Downbeat landen.

Ein funktionierender Beat-Sync-Prompt:

Reference the rhythm of @audio1. A skateboarder cuts through a Tokyo alley at night,
neon reflections in puddles. Camera tracks alongside at hip height. Each turn lands
on the kick drum. Dynamic editing, fast cuts on the beat.

Das Modell fĂŒhrt keine wörtliche Audioanalyse zu jedem Trommelhieb durch, aber es produziert konsistent Bewegung, die sich synchronisiert zur Quell-Audio anfĂŒhlt, wenn du es sagst.

Mode-fĂŒr-Mode Prompt-Templates

Seedance 2.0 hat drei echte Upstream-Generierungsmodi, plus mehrere Referenz-zu-Video-Nutzungsmuster, die die API als unterschiedliche Workflows bietet[2]. Hier ist, wie sich Prompts ĂŒber sie unterscheiden.

Text-zu-Video (T2V)

Der einfachste Modus. Nur dein Prompt treibt die Ausgabe an. Die volle Drei-Block-Formel trÀgt die ganze Last. SeitenverhÀltnis (16:9, 9:16, 4:3, 3:4) und Dauer (5, 10 oder 15 Sekunden) kommen von Anfrageparametern, nicht vom Prompt, verschwende keine Token beim Schreiben "in 16:9-Format"[4].

Muster:

<Subject + action, one sentence>.
<Environment + lighting + style, one sentence>.
<Camera move + audio cue, one sentence>.

FĂŒhre es auf seedance2.so/text-to-video aus, wenn du keine Referenzeingaben hast.

Bild-zu-Video (I2V), erstes-Bild-Modus

Du lĂ€dst ein Bild hoch; es wird zum eröffnenden Bild. Dein Prompt beschreibt nur die Bewegung und Fortsetzung, nicht das Subjekt, da das Subjekt bereits im Bild ist. Das Neu-Beschreiben, was das Bild zeigt, fĂŒhrt normalerweise dazu, dass das Modell das Subjekt "neu zeichnet" und vom Original abdriftet.

Muster:

<Animation cue: how should the subject move?>
<Camera cue: how should the camera move?>
<Atmosphere cue: ambient sound, light shifts.>

Schlechter I2V-Prompt:

A blonde woman in a red dress walks through a market.

(Das Bild zeigt es bereits. Du kÀmpfst gegen das Modell.)

Guter I2V-Prompt:

She turns slowly toward the camera and lifts her hand to brush hair from her face.
Slow dolly in. Distant market chatter, soft afternoon breeze.

Bild-zu-Video (I2V), erstes+letztes-Bild-Modus

Lade zwei Bilder hoch. Das Modell interpoliert zwischen ihnen und dein Prompt beschreibt den Übergangspfad. Das ist der sauberste Weg, um einen deterministischen narrativen Bogen in 5 Sekunden zu bekommen.

Muster:

Transition from <description of first frame> to <description of last frame>.
<Movement style during transition: smooth, snappy, dreamy.>
<Camera cue.>

Hinweis: die ersten und letzten Bilder sollten nahezu SeitenverhÀltnis-angepasst sein. Das Modell schneidet die zweite automatisch zu, um sich auszurichten, wenn sie unterscheiden, aber schweres Zuschneiden beeintrÀchtigt das Ergebnis[2].

Referenz-zu-Video / Multi-Modal-Referenz (R2V)

Das ist Seedance 2.0s hervorragender Modus und derjenige, der den Großteil dieses Handbuchs rechtfertigt. Du kannst Bilder, Videos und Audio in einer einzigen Anfrage mischen, bis zu 9 + 3 + 3, und sie im Prompt mit den expliziten Zeigern oben verflechten[2].

Die offizielle Template-Struktur[3]:

Reference / extract / combine + [ć›Ÿç‰‡n / @imageN] of <referenced element>,
generate <full scene description>, keep <referenced element> consistent.

Beispiel aus dem offiziellen Guide[3]:

The scene is set inside @image4 (the restaurant). The girl from @image1 is wearing
the outfit from @image2 and tidying items at the counter. The boy from @image3 is
a customer who walks up to ask for her contact. The logo from @image5 stays in the
bottom-right corner throughout.

FĂŒnf Bildeingaben, fĂŒnf explizite Rollen, eine kohĂ€sive ErzĂ€hlung. Diese Art strukturierter Prompt ist das, was Referenz-zu-Video mit ProduktionsqualitĂ€t ermöglicht. Ohne die Zeiger-Disziplin wird das Modell vage und die Elemente verschwimmen.

Video-Bearbeitung durch R2V

Volcengine behandelt Video-Bearbeitung (hinzufĂŒgen / löschen / Ă€ndern von Elementen) als R2V-Nutzungsmuster, nicht als separater Modus[3]. Templates aus dem offiziellen Guide:

OperationTemplate
Element hinzufĂŒgenIn @video1, at <time/space position>, add <element description>.
Element löschenDelete <element> from @video1, keep everything else unchanged.
Element ersetzenReplace <original> in @video1 with <new>, keep motion and camera unchanged.

Der "Bewegung und Kamera unverÀndert halten" Schwanz leistet wichtige Arbeit, ohne ihn regeneriert das Modell oft die Szene von Grund auf. Versuche es auf Video-Bearbeitung.

Video-Erweiterung (vorwĂ€rts/rĂŒckwĂ€rts)

Derselbe R2V-Mechanismus. Zwei Templates[3]:

Extend @video1 backward + <description of pre-segment>.
Extend @video1 forward + <description of post-segment>.

Das Modell schneidet die Nahtstellen-Frames automatisch von deiner Eingabe, es regeneriert die OriginalitÀt nicht, und synthetisiert nur den neuen Schwanz oder Kopf. Sende deine Erweiterungsabsicht auf Video-Erweiterung.

Track-Zusammenstellung (3-Clip-Komposition)

Wenn du mehrere Videos zum Zusammensetzen hochlĂ€dst, ist die EinschrĂ€nkung hart: maximal 3 Video-Eingaben, Gesamtdauer ≀ 15 Sekunden[3].

Template:

@video1 + <transition description> + connects to @video2 + <transition description>
+ connects to @video3.

Bearbeitetes Beispiel aus dem offiziellen Guide[3]:

@video1, the moment a leaf hits the ground, gold particles burst, a gust of wind
blows through, connects to @video2.

Das Modell erfindet nur die Übergangsbild-Frames; die Quellclips bleiben intakt.

Kamerasprache, die Seedance 2.0 wirklich versteht

Das Modell wurde auf Filmografie-Beschreibungen trainiert, daher ĂŒbertrifft professionelles Shot-Vokabular beilĂ€ufige Sprache. Die folgenden Begriffe sind diejenigen, die ich konsistente Ausgabe produzieren sehe, gezogen aus ProduktionslĂ€ufen ĂŒber seedance2.so und kreuzgeprĂŒft gegen Volcengine-Referenzbeispiele[3].

Bewegung:

  • slow dolly forward (physische Kamera, die sich zum Subjekt bewegt) ĂŒbertrifft zoom in (Linseneinstellung) jedes Mal
  • tracking shot following subject from left to right
  • orbiting around subject at eye level
  • crane shot ascending over <location>
  • steady push-in toward <subject>
  • handheld, slight shake fĂŒr Dokumentar-GefĂŒhl
  • whip pan to <new subject> fĂŒr schnelle ÜbergĂ€nge

Winkel:

  • low angle looking up at subject macht Subjekte mĂ€chtig aussehen
  • overhead establishing shot fĂŒr rĂ€umliche VerhĂ€ltnisse
  • dutch tilt fĂŒr Unbehagen
  • extreme close-up on hands lenkt Aufmerksamkeit auf Details
  • eye-level medium shot fĂŒr neutrale GesprĂ€chs-Framing

Linse:

  • shallow depth of field, subject in focus, background blurred
  • rack focus from foreground object to subject
  • anamorphic lens flare
  • wide-angle distortion at the edges

Das Muster: Verwende die Wörter, die ein arbeitender Kameramann verwenden wĂŒrde. "Kinematisch" ist zu vage; "anamorphisch 2.39:1, Lens-Flare auf Höhepunkten, flache SchĂ€rfentiefe bei f/1,8" ist etwas, worauf das Modell reagieren kann.

Stil- und Beleuchtungsdeskriptoren, die wirklich bewegen

Stil ist, wo Block 2 der Formel sein Geld verdient. Ein paar Kategorien, die es wert sind, auswendig gelernt zu werden.

Beleuchtung: golden hour, blue hour, harsh midday sun, soft window light, single key light from screen-left, practical neon underlighting, silhouette against sunset, volumetric god rays through fog.

Farbe: desaturated teal-and-amber grade, high-contrast monochrome, pastel washed-out palette, saturated tropical color, cool moonlit blues, warm tungsten interiors.

Lager / Format: 35mm film, fine grain, 16mm film, heavy grain, digital cinema, clean, VHS, scan lines, color bleed, super-8 home movie, polaroid faded edges.

Genre: Wes Anderson symmetry, pastel, David Fincher cool palette, low-key, Studio Ghibli watercolor backgrounds, '80s sci-fi, neon and chrome, noir, deep shadows, venetian blind patterns.

Je nÀher dein Deskriptor an einer echten filmografischen oder Produktionsreferenz ist, desto besser das Ergebnis. "Kinematisch und dramatisch" sagt dem Modell nichts. "Roger Deakins goldene Stunde, niedriger Kontrast, subtiler Dunst" sagt ihm viel.

HĂ€ufige Fehlermuster und wie man sie behebt

Nach der ÜberprĂŒfung von Hunderten von Generierungen ĂŒber seedance2.so und dem Lesen von Benutzerberichten sind die gleichen fĂŒnf Fehlermuster verantwortlich fĂŒr die meisten "das sieht schlecht aus" RĂŒckmeldungen. Hier ist die diagnostische Nachschlagwerk.

"Die Ausgabe hat die HĂ€lfte meines Prompts ignoriert"

Fast immer ein LĂ€ngenproblem. Dein Prompt ist wahrscheinlich ĂŒber dem Limit (500 chinesische Zeichen / 1.000 englische Wörter)[2], oder du hast zu viele Ideen in einen Shot gepackt. Faustregel: 1–2 Subjekte pro Prompt, 2–4 SĂ€tze insgesamt. Wenn du drei Subjekte brauchst, die drei verschiedene Dinge in drei Orten tun, sind das drei separate Generierungen zusammengeklebt in Post, nicht ein Prompt.

"Das Referenzbild wurde ĂŒbermalt"

Im I2V-Modus hast du das beschrieben, was im Bild war, statt was danach passieren sollte. Schreibe den Prompt neu, um nur Bewegung zu beschreiben, nicht Subjekt. Im R2V-Modus hast du den expliziten @imageN Zeiger vergessen, also behandelte das Modell die Hochladung als vagen Àsthetischen Hinweis statt einer harten EinschrÀnkung.

"Es weigert sich, mit meinem Referenzfoto zu generieren"

Seedance 2.0 akzeptiert explizit keine echten menschlichen Gesichtsreferenzen, Hochladungen mit erkennbaren echten menschlichen Gesichtern werden auf der Sicherheitsebene abgelehnt[2]. Drei Workarounds: Verwende ein Seedream-generiertes PortrĂ€t einer fiktiven Person als deine Referenz, verwende einen von Volcengines vorgegebenen virtuellen Avataren, oder liefere dokumentierte Genehmigung fĂŒr die abgebildete echte Person. Es gibt keinen "diese Filter ausschalten" Schalter.

"Die Bewegung ist ruckelig / das Subjekt morphed"

Du bist wahrscheinlich zu lang gegangen. Generiere zuerst bei 5 Sekunden, um zu ĂŒberprĂŒfen, dass der Prompt zusammenhĂ€lt, dann committan 10 oder 15 Sekunden. QualitĂ€t bei 15s unterscheidet sich sinnvoll von QualitĂ€t bei 5s, nicht weil das Modell schlechter ist, sondern weil mehr passiert, und jede Prompt-Mehrdeutigkeit wird ĂŒber 25–35 Bilder pro Sekunde zusĂ€tzlichen Inhalts verstĂ€rkt.

"Audio ist aus der Synchronisation mit den Visionen"

Entweder hast du das Audio nicht explizit mit @audio1 referenziert, oder dein Prompt beschrieb visuellen Rhythmus, der das tatsÀchliche Audio widerlegt. Wenn das Audio eine 110 BPM Spur ist und dein Prompt sagt "langsame kontemplate Schrittgeschwindigkeit," muss das Modell eine wÀhlen. Sagde es explizit: match cuts to the kick drum of @audio1 ist eindeutig.

Iterations-Workflow, der keine Credits verbrennt

Einen 10-sekĂŒndigen hochwertigen Seedance 2.0 Video auf der Standard-Tier zu generieren kostet etwa 7 Credits pro Sekunde, etwa 70 Credits pro Generierung, oder ungefĂ€hr $2,80 zur Eintritts-Tier-Kreditrate[5]. Verschwendete LĂ€ufe summieren sich. Der Workflow, der Verschwendung minimiert:

  1. Entwurf zuerst auf dem schnellen/Basic-Tier. Derselbe Prompt, dieselben Parameter, niedrigere Kreditkosten. Wenn die Komposition auf Basic falsch ist, wird sie auch auf High falsch sein, behebe sie vor der Bezahlung fĂŒr High. Siehe Preisgestaltung fĂŒr aktuelle Tier-Raten.
  2. Generiere zuerst bei 5 Sekunden, auch wenn du letztendlich 15 willst. Ein 5-sekĂŒndiger Test kostet ein Drittel eines 15-sekĂŒndigen Laufes. Wenn der Prompt bei 5 hĂ€lt, skaliere hoch.
  3. Eine Variable auf einmal. Ändere nicht das Subjekt, die Kamera und den Stil in einem einzigen Neu-Roll. Du wirst nicht wissen, welche Änderung die Nadel bewegte.
  4. Speichere deine Samenbild. Wenn ein Seedream-generiertes PortrĂ€t als Referenz funktioniert, behalte dieses genaue Bild, das Neu-AusfĂŒhren desselben R2V-Prompts mit derselben Referenz ist das nĂ€chste zu einem deterministischen Neu-Roll.
  5. Verwende den Prompt-Enhancement-Schalter wenn du von einer spĂ€rlichen Idee anfĂ€ngst. Der Studio-Web-Such-erweiterte Modus schreibt deinen Prompt mit abruftem Kontext neu, bevor er ihn an das Modell sendet[4]. NĂŒtzlich fĂŒr Anfragen wie "Was sieht ein authentisches Seoul-Jjajangmyeon-Shop-Interieur um 23 Uhr an einem Wochentag aus", da das Modell jetzt abruftem Kontext zum Zeichnen hat.

Multi-Sprachen-Prompts und wann man wechselt

Seedance 2.0 wurde auf einem mehrsprachigen Korpus trainiert und unterstĂŒtzt Prompts in Englisch, Chinesisch, Japanisch, Indonesisch, Spanisch und Portugiesisch[2]. Die Ă€lteren Seedance-Varianten (1.5 Pro, 1.0 Pro) unterstĂŒtzen nur Englisch und Chinesisch. Dies ist wichtig in zwei Szenarien:

  • Lokalisierter Dialog. Wenn das generierte Video spanischsprechende Charaktere oder koreanische Untertitel braucht, schreibe den Dialog direkt in der Zielsprache. Schreibe nicht auf Englisch und bitte das Modell, "sie sprechen Spanisch", es funktioniert, aber die QualitĂ€t ist schlechter als nur das Schreiben der Linie auf Spanisch.
  • Kulturelle SpezifitĂ€t. Ein Prompt wie "ein typisches mexikanisches FrĂŒhstĂŒck auf einem Holztisch" auf Spanisch (un desayuno mexicano tĂ­pico sobre una mesa de madera) produziert hĂ€ufig kulturell genauere Ausgabe als das englische Äquivalent. Die Trainings-Daten-Gewichtung unterscheidet sich.

FĂŒr alles andere ist Englisch die Standardsprache und funktioniert einwandfrei. Chinesische Prompts sind pro Token etwas prĂ€gnanter (≀ 500 Zeichen versus ≀ 1.000 englische Wörter), produzieren aber Ă€quivalente Ausgabe.

FAQ

Wie lang sollte ein Seedance 2.0 Prompt sein?

Ziele auf 2–4 SĂ€tze, ungefĂ€hr 60–200 englische Wörter. Die harte Kappe ist 1.000 englische Wörter / 500 chinesische Zeichen[2], aber du wirst lange vor dieser abnehmen RĂŒckkehr treffen. Über ~250 Wörter hinaus fĂ€ngt das Modell an, deinen Prompt intern zu komprimieren und du verlierst Spezifika.

UnterstĂŒtzt Seedance 2.0 negative Prompts?

Nicht als dedizierter Parameter. Es gibt kein "negative_prompt" Feld im API-Vertrag[2]. Du kannst EinschrĂ€nkungen inline hinzufĂŒgen, no on-screen text, no logos, no people in the background, und das Modell ehrt sie mit angemessener Konsistenz. Es ist nicht so deterministisch wie ein echter negativer Prompt-Slot in Bildmodellen wie Stable Diffusion, aber es funktioniert.

Kann ich 9 Bilder und 3 Videos und 3 Audiodateien im gleichen Prompt referenzieren?

Ja, das ist die maximale Multi-Modal-R2V-Last: bis zu 9 Bilder, 3 Videos, 3 Audio-Eingaben in einer einzigen Anfrage[2]. Die API erzwingt diese Grenzen. Praktisch sind Prompts mit so vielen Referenzen sehr schwer kohĂ€rent zu halten, die meiste Produktions-R2V-Arbeit verwendet 2–5 Bildreferenzen und höchstens eine Video- oder Audio-Referenz.

Warum schlÀgt meine Generierung mit "real face not allowed" fehl?

Seedance 2.0 weigert sich, Referenzen mit erkennbaren echten menschlichen Gesichtern zu akzeptieren[2]. Verwende ein fiktionales generiertes PortrĂ€t, einen vorgenehmigten virtuellen Avatar, oder lade eine explizite Genehmigung fĂŒr die abgebildete echte Person hoch. Die ÜberprĂŒfung lĂ€uft Upstream auf der Modellebene, es gibt keinen Plattform-Ebene-Überschreitung.

Was ist der Unterschied zwischen Seedance 2.0 und Seedance 2.0 Fast fĂŒr Prompts?

Derselbe Prompt-Grammatik, derselbe Referenzsyntax, derselbe LÀngenbegrenzungen. Fast ist die niedrigere Kosten-Basic-QualitÀts-Tier; Preview ist HochqualitÀt. Ein Prompt, der auf Fast funktioniert, funktioniert auf Preview identisch, nur mit höherer visueller Treue und ungefÀhr 1,7x der Kreditkosten auf den meisten Anbietern[5]. Iteriere auf Fast, finalisiere auf Preview.

Kann ich Prompts auf Chinesisch fĂŒr Englische Ausgabe schreiben, oder umgekehrt?

Ja. Prompt-Sprache und Ausgangssprache sind unabhĂ€ngig. Schreibe in welcher Sprache du am klarsten denkst, das Modell fĂŒhrt die sprachĂŒbergreifende Übersetzung intern durch. Die Ausnahme ist auf Bildtext und Dialog: diese werden in der Sprache erscheinen, in der du sie schriebst.

Ist die Prompt-Reihenfolge innerhalb eines Satzes wichtig?

Ja, materiell. FrĂŒhere Token erhalten mehr Aufmerksamkeitsbudget. FĂŒhre mit den hĂ€rtesten EinschrĂ€nkungen (SubjektidentitĂ€t, primĂ€re Aktion, SchlĂŒsselort) an und lass stilistische BlĂŒten folgen. "Ein roter Sportwagen bei Sonnenuntergang, kinematisch" verspricht das Modell, auf "roten Sportwagen" zu optimieren; "Kinematischer Shot eines roten Sportwagens bei Sonnenuntergang" gewichtet "kinematischen Shot" zuerst und das Auto wird sekundĂ€r.

Gibt es eine offizielle Seedance 2.0 Prompt-Bibliothek?

Volcengine bietet einen offiziellen Prompt-Guide mit bearbeiteten Beispielen fĂŒr Slogans, Untertitel, Sprechblasen-Dialog, Multi-Bild-Referenzen, Aktions-Referenzen, Kamerabewegung-Referenzen, VFX-Referenzen und Video-Bearbeitung[1][3]. Es ist die kanonische Quelle. Das Studio auf seedance2.so/text-to-video bildet die gleichen Muster auf eine UI ab; wenn du die Prompt-Struktur in entweder ausdrĂŒcken kannst, kannst du die andere verwenden.

Prompts, die versenden: die Zusammenfassung

Das Schreiben von Seedance 2.0 Prompts gut lĂ€uft auf drei Gewohnheiten herunter. Erstens, folge der Drei-Block-Formel, Subjekt und Aktion, dann Umgebung und Stil, dann Kamera und Audio-Hinweise, und leite deine hĂ€rtesten EinschrĂ€nkungen im eröffnenden Satz an. Zweitens, verwende die explizite Referenzsyntax (@image1 durch @image9, @video1 durch @video3, @audio1 durch @audio3) jedes einzelne Mal, wenn du Multi-Modal-Eingaben hast; der Unterschied zwischen vaguer Referenz und Zeiger-Referenz ist der Unterschied zwischen "funktioniert irgendwie" und "versand." Drittens, respektiere die EinschrĂ€nkungen, die das Modell dokumentiert, 2–4 Satz-Prompts, 1–2 Subjekte, keine echten menschlichen Gesichter, LĂ€nge unter 1.000 englische Wörter, und iteriere gĂŒnstig auf der Fast-Tier, bevor Credits auf Preview ausgibt. Tue diese drei Dinge und deine Seedance 2.0 Prompts produzieren Schiffs-QualitĂ€ts-Ausgabe beim ersten oder zweiten Roll, nicht beim fĂŒnften oder sechsten.

Referenzen

  1. Volcengine ArkClaw. Doubao Seedance 2.0 çł»ćˆ—æç€șèŻæŒ‡ć—, Section 1: æ€»äœ“èŠéą†. Retrieved May 2026 from volcengine.com/docs/82379/2222480
  2. Volcengine ArkClaw. 戛ć»șè§†éą‘ç”Ÿæˆä»»ćŠĄ API, Seedance 2.0 model capability spec, prompt language and length, input limits. Retrieved May 2026 from volcengine.com/docs/82379/1520757
  3. Volcengine ArkClaw. Doubao Seedance 2.0 çł»ćˆ—æç€șèŻæŒ‡ć—, Sections 3–5: image / video reference and editing templates. Retrieved May 2026 from volcengine.com/docs/82379/2222480
  4. Seedance2.so. Studio reference syntax and parameter helpText for omni-reference generation. Retrieved May 2026 from seedance2.so/reference-to-video
  5. Seedance2.so. Pricing and credit-per-second rates by tier. Retrieved May 2026 from seedance2.so/pricing

Weitere LektĂŒre

  • BytePlus ModelArk. Product updates, Dreamina Seedance 2.0 API release. docs.byteplus.com/en/docs/ModelArk
  • ByteDance Seed. Seedance technical report and benchmark results. seed.bytedance.com/seedance
Alle BeitrÀge

Autor

avatar for Seedance Team
Seedance Team

Kategorien

  • Prompts
TL;DRDie Drei-Teil-Seedance 2.0 Prompt-FormelHochwertige Wörter an den AnfangWĂ€hle einen Stil und committe ihnDie Referenzsyntax, die niemand klar dokumentiertMulti-Bild-Referenzen: das Einkaufslisten-MusterVideo-Referenzen: Aktion, Kamera, EffekteAudio-Referenzen und Beat-SyncMode-fĂŒr-Mode Prompt-TemplatesText-zu-Video (T2V)Bild-zu-Video (I2V), erstes-Bild-ModusBild-zu-Video (I2V), erstes+letztes-Bild-ModusReferenz-zu-Video / Multi-Modal-Referenz (R2V)Video-Bearbeitung durch R2VVideo-Erweiterung (vorwĂ€rts/rĂŒckwĂ€rts)Track-Zusammenstellung (3-Clip-Komposition)Kamerasprache, die Seedance 2.0 wirklich verstehtStil- und Beleuchtungsdeskriptoren, die wirklich bewegenHĂ€ufige Fehlermuster und wie man sie behebt"Die Ausgabe hat die HĂ€lfte meines Prompts ignoriert""Das Referenzbild wurde ĂŒbermalt""Es weigert sich, mit meinem Referenzfoto zu generieren""Die Bewegung ist ruckelig / das Subjekt morphed""Audio ist aus der Synchronisation mit den Visionen"Iterations-Workflow, der keine Credits verbrenntMulti-Sprachen-Prompts und wann man wechseltFAQWie lang sollte ein Seedance 2.0 Prompt sein?UnterstĂŒtzt Seedance 2.0 negative Prompts?Kann ich 9 Bilder und 3 Videos und 3 Audiodateien im gleichen Prompt referenzieren?Warum schlĂ€gt meine Generierung mit "real face not allowed" fehl?Was ist der Unterschied zwischen Seedance 2.0 und Seedance 2.0 Fast fĂŒr Prompts?Kann ich Prompts auf Chinesisch fĂŒr Englische Ausgabe schreiben, oder umgekehrt?Ist die Prompt-Reihenfolge innerhalb eines Satzes wichtig?Gibt es eine offizielle Seedance 2.0 Prompt-Bibliothek?Prompts, die versenden: die ZusammenfassungReferenzenWeitere LektĂŒre

Weitere BeitrÀge

Seedance 2.0 kostenlos: Was funktioniert, was nicht
Tutorial

Seedance 2.0 kostenlos: Was funktioniert, was nicht

Echte kostenlose Seedance 2.0 Optionen 2026: 3 Registrierungsguthaben, Third-Party-Tests, warum alle unbegrenzten Seiten BetrĂŒger sind. Mit Kostenrechnung.

avatar for Seedance Team
Seedance Team
2026/05/08
Bilder animieren mit KI – So erstellst du Videos in Sekunden
Tutorial

Bilder animieren mit KI – So erstellst du Videos in Sekunden

Erfahre wie du statische Bilder mit KI-Tools in bewegte Videos verwandelst. Praktische Anleitung fĂŒr Photo-to-Video, Bild-zu-Bild-Animationen und AI-Kunstwerke mit kostenlosen Credits.

avatar for Seedance Team
Seedance Team
2026/03/15
LogoSeedance 2.0

Seedance 2.0 — der kostenlose KI-Videogenerator fĂŒr Text-zu-Video, Bild-zu-Video, Videobearbeitung und mehr. 1080p-Ausgabe mit nativem Audio.

Email
Built withLogo of seedance2seedance2
KI-Videomodelle
  • Vidu Q3 Videogenerator
  • Seedance 2 Fast
  • Seedance 2.0 API
  • Seedance 1.5 Pro
  • Veo 3
  • Kling V3
  • Grok Video
  • PixVerse AI
  • Happy Horse AI
  • Seedance 2.5
Videogeneratoren
  • TikTok Video Generator
  • UGC-Videogenerator
  • Kurzvideo-Generator
  • Kinematischer Videogenerator
KI-Bild
  • Seedream 5.0
  • Seedream 4.5
  • Seedream 4.0
  • Nano Banana Pro
  • GPT Image 2
  • Grok Imagine
  • Nano Banana 2
KI-Tools
  • KI-Video-Prompt-Generator
  • Seedance 2 Prompt-Generator
  • Nano Banana Prompt-Generator
  • KI-Bildanalysator
  • KI-Video-Analysator
  • Seedance 2.0 Prompts
  • Nano Banana Pro Prompts
  • Video Watermark Remover
Ressourcen und Rechtliches
  • Preise
  • Blog
  • Über uns
  • Kontakt
  • Datenschutzrichtlinie
  • Nutzungsbedingungen
  • RĂŒckerstattungsrichtlinie
© 2026 Seedance 2.0 All Rights Reserved.
ai tools code.marketFeatured on findly.toolsFeatured on ShowMeBestAIMossAI ToolsDang.aiFeatured on Twelve ToolsIAListé sur IA-Insights