Skip to main content
🔥5 dagen 07:31:20
Onbeperkte GPT Image 2 met gemiddelde kwaliteit, 1 afbeelding per run, met Business of EnterpriseOnbeperkt GPT Image 2 · alleen middelUnlimited ophalen
LogoSeedance 2.0
  • Afbeelding naar video
  • Gids
  • Prijzen
  • Mijn Creaties
Seedance 2.0 prompts: een compleet schrijfgids voor makers
2026/05/07

Seedance 2.0 prompts: een compleet schrijfgids voor makers

Beheers Seedance 2.0 prompts met de officiële driedelige formule, multi-modale referentiesyntax (@image, @video, @audio) en gepatenteerde templates.

De meeste 'AI-videoprompt'-artikelen die je online vindt, zijn geschreven door mensen die "cinematic shot of a wolf in the snow" intypen en dit een tutorial noemen. Dat is niet hoe Seedance 2.0-prompts in de praktijk eruit zien. Het model heeft een specifieke multi-modale grammatica (@image1, @video2, @audio1, @character:<id>), en Volcengine, eigenaar van het model, publiceert een officiële promptgids met structuur rond vijf verschillende categorieën[1]. Als je prompts niet aan deze structuur voldoen, zul je credits verbranden met hergenereringen die bijna goed zijn.

Dit is de uitgebreide Seedance 2.0-promptsgids die ik graag had gehad toen ik begon. Het behandelt de officiële tekstformule, de referentiesyntax die multi-afbeeldings- en multi-videonummers controleert, templates per modus voor de vier echte generatiepaden (tekst-naar-video, afbeelding-naar-video, referentie-naar-video, videobewerkingeen), en de foutmodus die beginners terugstuurt naar de wachtrij. Geverifieerd tegen ByteDance/Volcengine's API-spec en de live seedance2.so studioconfiguratie.

TL;DR

  • Seedance 2.0-prompts volgen een driedelige formule: onderwerp + actie, dan omgeving / verlichting / stijl, dan camera of audio-aanwijzingen[1].
  • Het model accepteert tot 9 referentieafbeeldingen, 3 referentievideo's en 3 audiobestanden in één aanvraag[2]. Verwijs ernaar inline als 图片1 / 视频2 / 音频1 (Chinees) of @image1 / @video2 / @audio1 (de seedance2.so afkorting)[3].
  • Promptlengtebegrensing: ≤ 500 Chinese karakters of ≤ 1.000 Engelse woorden. Alles langer verwateren de aandacht en het model begint details te negeren[2].
  • Seedance 2.0 ondersteunt prompts in Engels, Chinees, Japans, Indonesisch, Spaans en Portugees, oudere Seedance-varianten ondersteunen alleen Engels en Chinees[2].
  • Upstream zijn er slechts drie echte modi: tekst-naar-video, afbeelding-naar-video (eerste frame of eerste + laatste frame), en multi-modale referentie. "Videobewerkingen" en "videouitbreiding" zijn gebruikspatronen van referentie-naar-video, geen aparte modellen[2].
  • Seedance 2.0 zal echte mensengezichten weigeren als referentie, het verwacht ofwel een gegenereerd portret, een voorgeautoriseerd middel, of een van de door het platform gegeven virtuele avatars[2].

De driedelige Seedance 2.0-promptformule

De officiële promptgids van Volcengine schetst de structuur als drie samenstelbare blokken[1]. Je hoeft niet elke keer elk blok in te vullen, maar ze in deze volgorde stapelen geeft het model het schoonste signaal.

Blok 1: onderwerp en actie. Wie is in de scène en wat doen ze. Dit is het logische anker. "Een vrouw" vertelt het model niets. "Een lange vrouw in een lange antracietjas die over een natte stenen brug stapt" geeft het een onderwerp, een houding en een bewegingsvector.

Blok 2: omgeving, verlichting, stijl. Waar het gebeurt, hoe het licht eruitziet, en het visuele register. "Bij schemering, straatlantaarns die op natte kasseien weerspiegelen, gedesatureerde teal-en-amber-kleurgraad" doet echt werk. Sla dit blok over en het model valt terug naar een gemiddelde opname met neutrale verlichting en nul stijlvolle standpunt.

Blok 3: cameragesteld en audio-aanwijzingen. Hoe de camera beweegt en wat je hoort. "Langzaam dolly naar voren, ondiepte van veld, ambient pianomuziek" verandert een generieke opname in een geleide. Seedance 2.0 genereert native audio met lipsync dialoog in meer dan 8 talen, dus audio-aanwijzingen horen in de prompt, niet als een nagedachte.

Een schone drieblokprompt:

A tall woman in a charcoal coat strides across a rain-slick stone bridge.
Dusk light, streetlights reflecting on cobblestones, desaturated teal-and-amber grade.
Slow dolly forward following the subject. Distant traffic and soft rain on stone.

Dat zijn drie zinnen en het dekt alle drie de blokken af. Het model heeft alles wat het nodig heeft.

Plaats de informatie-rijke woorden vooraan

Seedance 2.0 leest van links naar rechts met afnemende aandacht. De eerste zin draagt het meeste gewicht, de tweede wordt eromheen ingevuld, en alles na de derde is "details om te gebruiken als er ruimte is." Zet je hardste beperkingen, onderwerpidentiteit, primaire actie, primaire locatie, in de openingszin. Stilistische bloemen komen later.

Dit is geen stemming. Het kaart af hoe het model prompttokens tegen aandachtsbudget balanceert onder de gedocumenteerde lengtegrenzen (500 Chinese karakters / 1.000 Engelse woorden)[2]. Voorbij de grens worden prompts aggressief samengevat intern, en "samengevat" betekent meestal dat je de specifieke details verliest waar je om gaf.

Kies één stijl en stel je eraan vast

Het mengen van "Pixar 3D-animatie, grijze 35 mm filmkorrel, aquarelverwassing" binnen een enkele prompt is de snelste manier om visueel brij te krijgen. Het model moet drie tegengestelde esthetische signalen verzoenen en het resultaat is meestal een vlakke standaard. Kies één (zeg, Pixar 3D-animatie of grijze 35 mm-film, zware korrel of losse aquarelverwassing) en leun erop.

Voor tekst-naar-video werk in het bijzonder is stijlcoherentie wat "echt bruikbaar voor een campagne" van "leuk om één keer naar te kijken" onderscheidt.

De referentiesyntax die niemand duidelijk documenteert

Dit is het gedeelte waar de meeste third-party gidsen fout gaan. Seedance 2.0's referentie-naar-video-modus (Volcengine noemt het 多模态参考生视频, "multi-modale referentie videogeneratie") gebruikt een expliciet numeriek aanwijzersysteem in de prompt zelf[3].

De officiële Volcengine-syntaxis is Chinees vierkante haakjes nummering: 图片1, 图片2, ..., 图片9 voor afbeeldingen; 视频1, 视频2, 视频3 voor video's[3]. Op seedance2.so toont de studio een Engelse-vriendelijke afkorting die aan hetzelfde upstream-contract is toegewezen, @image1 tot @image9, @video1 tot @video3, en @audio1 tot @audio3[4]. Ze produceren identieke outputs; kies welke het schoonste voor je leest.

Het punt: referentie-naar-video zonder expliciete aanwijzers is slechts een vaag hint naar het model. Met aanwijzers, vertel je het exact welke invoerslot aan welk idee in de prompt is gekoppeld.

Multi-afbeeldingreferenties: het winkellijstpatroon

De aanbevolen sjabloon van Volcengine voor multi-afbeeldingreferenties[3]:

Reference @image1, @image2, @image3 (the camera), put it on a white desk.
Slowly orbit the camera, showing front, side, and back. White seamless backdrop.

De getal-naar-invoermapping is positioneel. De eerste afbeelding die je uploadt is @image1, de tweede is @image2, enzovoort. Dit is niet onderhandelbaar, er is geen "naam" veld bij uploads, alleen volgorde. Als je dezelfde afbeelding als tweede in plaats van eerst opnieuw uploadt, wijst je @image1-referentie nu naar een ander beeld en breekt de prompt stilzwijgend.

De officiële Volcengine-gids geeft dit samengestelde voorbeeld voor het gebruik van drie afbeeldingsinvoeren om respectievelijk onderwerp, outfit en product te definiëren[3]:

A boy wearing glasses and a blue T-shirt next to a corgi puppy, sitting on a lawn,
3D cartoon style.

versus de gestructureerde versie:

[image 1] a boy wearing glasses and a blue T-shirt and [image 2] the corgi puppy,
sitting on [image 3] the lawn, 3D cartoon style.

Beide werken. De tweede geeft aantoonbaar sterkere naleving van de invoefafbeeldingen. Als je om commerciële getrouwheid geeft, productfotografie, karaktercontinuïteit over shots, gebruik elk moment de expliciete aanwijzervorm.

Videoreferenties: actie, camera, FX

Hetzelfde patroon geldt voor videoinvoeren[3]. Volcengine documenteert drie verschillende manieren om een referentievideo te gebruiken:

Wat je van de referentie wiltPromptsjabloon
Leen de actie (beweging, choreografie)Reference the action in @video1, generate <new scene description>, keep action details consistent.
Leen de camerabewegingen (dolly, baan, push-in)Reference the camera language in @video1, generate <new scene description>, keep the camera move consistent.
Leen de VFX of deeltjeseffectReference the gold particle effect in @video1, apply the same effect to <subject in image2>.

Dit is echt een superkracht als je een serie produceert. Schiet één referentieclip op met de camerabewegingen die je wilt, handheld push-in, soepele baan, vertigo zoom, en hergebruik het in tien variaties van onderwerp en omgeving. Je krijgt visuele continuïteit zonder cinematografische heropposering.

Audio-referenties en beat-sync

Audio-invoeren werken op dezelfde manier: tot drie audiobestanden, aangeduid als @audio1, @audio2, @audio3[4]. Het meest voorkomende gebruik is beat-sync video, pin de gegenereerde beweging aan een muziektrack zodat sneden en bewegingen op de downbeat landen.

Een werkende beat-sync-prompt:

Reference the rhythm of @audio1. A skateboarder cuts through a Tokyo alley at night,
neon reflections in puddles. Camera tracks alongside at hip height. Each turn lands
on the kick drum. Dynamic editing, fast cuts on the beat.

Het model doet geen letterlijke audio-analyse op elke drumslag, maar het produceert consistent beweging die voelt gesynchroniseerd met de bronnaudio wanneer je het zegt.

Modus-voor-modus promptsjablonen

Seedance 2.0 heeft drie echte upstream-generatiemodi, plus verschillende referentie-naar-video gebruikspatronen die de API als verschillende workflows oppervlakt[2]. Hier is hoe prompts ertussen verschillen.

Tekst-naar-video (T2V)

De eenvoudigste modus. Alleen je prompt stuurt de output. De volledige drieblokformule draagt de volledige belasting. Beeldverhouding (16:9, 9:16, 4:3, 3:4) en duur (5, 10 of 15 seconden) komen van aanvraagparameters, niet van de prompt, verspil geen tokens door "in 16:9-indeling" te schrijven[4].

Patroon:

<Subject + action, one sentence>.
<Environment + lighting + style, one sentence>.
<Camera move + audio cue, one sentence>.

Voer het uit op seedance2.so/text-to-video als je geen referentie-invoeren hebt.

Afbeelding-naar-video (I2V), eerste-frame-modus

Je uploadt één afbeelding; het wordt het openingsframe. Je prompt beschrijft alleen de beweging en voortzetting, niet het onderwerp, omdat het onderwerp al in de afbeelding staat. Het opnieuw beschrijven van wat de afbeelding toont, veroorzaakt meestal dat het model het onderwerp "hertrekt" en van de bron afwijkt.

Patroon:

<Animation cue: how should the subject move?>
<Camera cue: how should the camera move?>
<Atmosphere cue: ambient sound, light shifts.>

Slechte I2V-prompt:

A blonde woman in a red dress walks through a market.

(De afbeelding toont haar al. Je vecht tegen het model.)

Goede I2V-prompt:

She turns slowly toward the camera and lifts her hand to brush hair from her face.
Slow dolly in. Distant market chatter, soft afternoon breeze.

Afbeelding-naar-video (I2V), eerste+laatste-frame-modus

Upload twee afbeeldingen. Het model interpolateert ertussen en je prompt beschrijft het overgangspath. Dit is de schoonste manier om in 5 seconden een deterministische narratieve boog te krijgen.

Patroon:

Transition from <description of first frame> to <description of last frame>.
<Movement style during transition: smooth, snappy, dreamy.>
<Camera cue.>

Opmerking: de eerste en laatste afbeeldingen zouden dicht bij beeldverhoudingsuitlijning moeten zijn. Het model autosnijdt de tweede om af te stemmen als ze verschillen, maar zwaar snijden verslechtert het resultaat[2].

Referentie-naar-video / multi-modale referentie (R2V)

Dit is Seedance 2.0's uitstekende modus en degene die het meeste van deze gids rechtvaardigt. Je kunt afbeeldingen, video's en audio in één aanvraag mengen, tot 9 + 3 + 3, en ze in de prompt weven met de expliciete aanwijzers hierboven besproken[2].

De officiële sjabloonstructuur[3]:

Reference / extract / combine + [图片n / @imageN] of <referenced element>,
generate <full scene description>, keep <referenced element> consistent.

Voorbeeld uit de officiële gids[3]:

The scene is set inside @image4 (the restaurant). The girl from @image1 is wearing
the outfit from @image2 and tidying items at the counter. The boy from @image3 is
a customer who walks up to ask for her contact. The logo from @image5 stays in the
bottom-right corner throughout.

Vijf afbeeldinginvoeren, vijf expliciete rollen, één samenhangende narratief. Dit soort gestructureerde prompt is wat referentie-naar-video op productkwaliteit mogelijk maakt. Zonder de aanwijzerdiscipline, wordt het model vaag en vervagen de elementen.

Videobewerkingen via R2V

Volcengine behandelt videobewerkingen (toevoegen / verwijderen / wijzigen van elementen) als een R2V gebruikspatroon, niet als een aparte modus[3]. Sjablonen uit de officiële gids:

OperatiePromptsjabloon
Element toevoegenIn @video1, at <time/space position>, add <element description>.
Element verwijderenDelete <element> from @video1, keep everything else unchanged.
Element vervangenReplace <original> in @video1 with <new>, keep motion and camera unchanged.

De staart "keep motion and camera unchanged" doet belangrijk werk, zonder het regenereert het model vaak de scene helemaal opnieuw. Probeer het op videobewerkingen.

Videouitbreiding (vooruit/achteruit)

Hetzelfde R2V-mechanisme. Twee sjablonen[3]:

Extend @video1 backward + <description of pre-segment>.
Extend @video1 forward + <description of post-segment>.

Het model knipt automatisch de naadfames uit je invoer, het regenereert niet het origineel, en synthetiseert alleen de nieuwe staart of hoofd. Dien je uitbreidingsintent in op videouitbreiding.

Spoor stitching (3-clip compositie)

Als je meerdere video's voor naden uploadt, is de beperking hard: maximum 3 videoinvoeren, totale duur ≤ 15 seconden[3].

Sjabloon:

@video1 + <transition description> + connects to @video2 + <transition description>
+ connects to @video3.

Uitgewerkt voorbeeld uit de officiële gids[3]:

@video1, the moment a leaf hits the ground, gold particles burst, a gust of wind
blows through, connects to @video2.

Het model vindt alleen de overgangsframes uit; de bronclips blijven intact.

Cameragesteld die Seedance 2.0 echt begrijpt

Het model is getraind op cinematografie beschrijvingen, dus professionele shotwoordenschat presteert beter dan informeel taalgebruik. De onderstaande termen zijn degenen waarvan ik heb gezien dat ze betrouwbare output opleveren, gehaald van productieruns over seedance2.so en kruisgecontroleerd tegen Volcengine's referentievoorbeelden[3].

Beweging:

  • slow dolly forward (fysieke camera die naar onderwerp beweegt) wint altijd van zoom in (lensaanpassing)
  • tracking shot following subject from left to right
  • orbiting around subject at eye level
  • crane shot ascending over <location>
  • steady push-in toward <subject>
  • handheld, slight shake voor documentaire voelen
  • whip pan to <new subject> voor snelle overgangen

Hoek:

  • low angle looking up at subject maakt onderwerpen krachtig overkomen
  • overhead establishing shot voor ruimtelijke relaties
  • dutch tilt voor onrust
  • extreme close-up on hands stuur aandacht naar detail
  • eye-level medium shot voor neutrale conversatieframing

Lens:

  • shallow depth of field, subject in focus, background blurred
  • rack focus from foreground object to subject
  • anamorphic lens flare
  • wide-angle distortion at the edges

Het patroon: gebruik de woorden die een werkende cinematograaf zou gebruiken. "Cinematic" is te vaag; "anamorphic 2.39:1, lens flare op highlights, ondiepe DoF op f/1.8" is iets waar het model aan kan werken.

Stijl- en verlichtingsbeschrijvingen die echt verschil maken

Stijl is waar Blok 2 van de formule zijn geld verdient. Een paar categorieën die het waard zijn om te onthouden.

Verlichting: golden hour, blue hour, harsh midday sun, soft window light, single key light from screen-left, practical neon underlighting, silhouette against sunset, volumetric god rays through fog.

Kleur: desaturated teal-and-amber grade, high-contrast monochrome, pastel washed-out palette, saturated tropical color, cool moonlit blues, warm tungsten interiors.

Voorraad / indeling: 35mm film, fine grain, 16mm film, heavy grain, digital cinema, clean, VHS, scan lines, color bleed, super-8 home movie, polaroid faded edges.

Genre: Wes Anderson symmetry, pastel, David Fincher cool palette, low-key, Studio Ghibli watercolor backgrounds, '80s sci-fi, neon and chrome, noir, deep shadows, venetian blind patterns.

Hoe dichter je descriptor bij een echte cinematografische of productiereferentie ligt, hoe beter het resultaat. "Cinematic and dramatic" vertelt het model niets. "Roger Deakins golden hour, low contrast, subtle haze" vertelt het veel.

Veel voorkomende foutmodi en hoe ze op te lossen

Na het herzien van honderden generaties over seedance2.so en het lezen van gebruikersrapporten, maken dezelfde vijf foutmodi de meeste "dit ziet er slecht uit" feedback uit. Hier is de diagnostische opzoektabel.

"De output negeerde de helft van mijn prompt"

Bijna altijd een lengteprobleem. Je prompt is waarschijnlijk over de grens (500 Chinese karakters / 1.000 Engelse woorden)[2], of je hebt te veel ideeën in één opname gestopt. Vuistregel: 1–2 onderwerpen per prompt, 2–4 zinnen totaal. Als je drie onderwerpen nodig hebt die drie verschillende dingen doen op drie locaties, dat zijn drie afzonderlijke generaties genaaid in post, niet één prompt.

"De referentieafbeelding werd overheen getekend"

In I2V-modus beschreef je wat in de afbeelding stond in plaats van wat daarna zou moeten gebeuren. Herschrijf de prompt om alleen beweging te beschrijven, niet onderwerp. In R2V-modus, je bent de expliciete @imageN aanwijzer vergeten, dus het model behandelde de upload als een vaag esthetisch hint in plaats van een harde beperking.

"Het weigert te genereren met mijn referentiefoto"

Seedance 2.0 accepteert expliciet niet echte mensengezichten als referentie, uploads met detecteerbare echte mensengezichten worden geweigerd op de veiligheidslag[2]. Drie workarounds: gebruik een Seedream-gegenereerd portret van een fictief persoon als je referentie, gebruik een van Volcengine's vooraf ingestelde virtuele avatars, of lever gedocumenteerde autorisatie in voor de afgebeelde echte persoon. Er is geen toggle "zet dit filter uit".

"De beweging is instabiel / het onderwerp morfeert"

Je bent waarschijnlijk te lang gegaan. Genereer eerst op 5 seconden om te verifiëren dat de prompt samenhangend blijft, commit dan op 10 of 15 seconden. Kwaliteit bij 15s verschilt aantoonbaar van kwaliteit bij 5s, niet omdat het model erger is, maar omdat er meer gebeurt, en elke promptambiguïteit wordt versterkt over 25–35 frames per seconde van aanvullende inhoud.

"Audio is niet gesynchroniseerd met de beelden"

Je hebt de audio niet expliciet verwezen met @audio1, of je prompt beschreef visueel ritme dat tegenstrijdig is met de werkelijke audio. Als de audio een 110 BPM-track is en je prompt zegt "slow contemplative pacing," het model moet één kiezen. Zeg het expliciet: match cuts to the kick drum of @audio1 is ondubbelzinnig.

Iteratieworkflow die credits niet verbrandt

Een 10-seconden Seedance 2.0-video genereren van hoge kwaliteit kost ongeveer 7 credits per seconde op de standaardtier, ongeveer 70 credits per generatie, of ongeveer $2,80 tegen het ingangs-credit tarief[5]. Verspilde runs tellen op. De workflow die verspilling minimaliseert:

  1. Ontwerp eerst op de fast/basic tier. Dezelfde prompt, dezelfde parameters, lagere creditkosten. Als de compositie op basis fout is, zal het ook fout zijn op high, repareer het voordat je voor high betaalt. Zie pricing voor huidige tiertariev.
  2. Genereer eerst op 5 seconden, zelfs als je uiteindelijk 15 wilt. Een 5-secondentest kost een derde van een 15-secondenrun. Als de prompt op 5 vasthoudt, schaal omhoog.
  3. Één variabele tegelijk. Verander niet het onderwerp, de camera en de stijl in een enkele re-roll. Je zult niet weten welke verandering de naald verplaatste.
  4. Bewaar je seedafbeeldingen. Wanneer een Seedream-gegenereerd portret als referentie werkt, bewaar je exact die afbeelding, het opnieuw draaien van dezelfde R2V-prompt met dezelfde referentie is het dichtst in de buurt van een deterministische re-roll.
  5. Gebruik de promptverbeteringstoggle bij het starten vanuit een schaarse idee. De webzoekverbeterde modus van de studio herschrijft je prompt met opgehaalde context voordat het naar het model wordt verzonden[4]. Nuttig voor vragen zoals "wat doet een authentieke Seoul jjajangmyeon winkelbinnenkant om 23:00 op een werkdag", omdat het model nu opgehaalde context heeft om uit te putten.

Multi-taal prompts en wanneer je wilt wisselen

Seedance 2.0 is getraind op een meertalige corpus en ondersteunt prompts in Engels, Chinees, Japans, Indonesisch, Spaans en Portugees[2]. De oudere Seedance-varianten (1.5 Pro, 1.0 Pro) ondersteunen alleen Engels en Chinees. Dit maakt uit in twee scenario's:

  • Gelokaliseerde dialoog. Als de gegenereerde video Spaans sprekende karakters of Koreaanse ondertitels nodig heeft, schrijf je de dialoog in de doeltaal direct. Schrijf niet Engels en vraag het model om "ze Spaans te laten spreken", het werkt, maar de kwaliteit is slechter dan gewoon de lijn in het Spaans te schrijven.
  • Culturele specificiteit. Een prompt als "a typical Mexican breakfast on a wooden table" geschreven in het Spaans (un desayuno mexicano típico sobre una mesa de madera) geeft vaak cultureel nauwkeurigere output dan het Engelse equivalent. De trainingsgegevenswegering verschilt.

Voor alles anders is Engels de standaard en werkt het prima. Chinese prompts zijn iets beknopter per token (≤ 500 karakters versus ≤ 1.000 Engelse woorden) maar produceren equivalente output.

FAQ

Hoe lang zou een Seedance 2.0-prompt moeten zijn?

Streef naar 2–4 zinnen, ongeveer 60–200 Engelse woorden. De harde grens is 1.000 Engelse woorden / 500 Chinese karakters[2], maar je zult afnemende opbrengsten veel eerder bereiken. Voorbij ~ 250 woorden begint het model je prompt intern samen te drukken en verlies je specifieke dingen.

Ondersteunt Seedance 2.0 negatieve prompts?

Niet als een specifieke parameter. Er is geen "negative_prompt" veld in het API-contract[2]. Je kunt inline beperkingen toevoegen, no on-screen text, no logos, no people in the background, en het model eert ze met redelijke consistentie. Het is niet zo deterministisch als een echte negatieve-promptvlak in afbeeldingsmodellen als Stable Diffusion, maar het werkt.

Kan ik 9 afbeeldingen en 3 video's en 3 audiobestanden in dezelfde prompt referentie?

Ja, dat is de maximale multi-modale R2V-belasting: tot 9 afbeeldingen, 3 video's, 3 audio-invoeren in één aanvraag[2]. De API handhaaft deze grenzen. Praktisch, prompts met zoveel referenties zijn erg moeilijk samenhangend te houden, meeste productie R2V-werk gebruikt 2–5 afbeeldingreferenties en hooguit één video of audio-referentie.

Waarom mislukt mijn generatie met "real face not allowed"?

Seedance 2.0 weigert referenties met detecteerbare echte mensengezichten[2]. Gebruik een fictief gegenereerd portret, een voorgeautoriseerde virtuele avatar, of upload een expliciete autorisatie voor de afgebeelde echte persoon. De controle vindt upstream plaats op modelniveau, er is geen override op platformniveau.

Wat is het verschil tussen Seedance 2.0 en Seedance 2.0 Fast voor prompts?

Dezelfde promptgrammatica, dezelfde referentiesyntax, dezelfde lengtegrenzen. Fast is de goedkopere basic-kwaliteit tier; Preview is hoge kwaliteit. Een prompt die op Fast werkt, werkt identiek op Preview, gewoon op hogere visuele getrouwheid en ongeveer 1,7× de creditkosten op de meeste providers[5]. Herhaal op Fast, finaliseer op Preview.

Kan ik prompts in het Chinees schrijven voor Engelse output, of omgekeerd?

Ja. Prompttaal en outputtaal zijn onafhankelijk. Schrijf in welke taal je het schoonste denkt, het model handelt de cross-taal vertaling intern af. De uitzondering is op-schermtekst en dialoog: die zullen in de taal verschijnen waarin je ze hebt geschreven.

Speelt promptvolgorde binnen een zin ertoe?

Ja, aantoonbaar. Eerdere tokens krijgen meer aandachtsbudget. Begin met de hardste beperkingen (onderwerpidentiteit, primaire actie, sleutellocatie) en laat stilistische bloemen volgen. "A red sports car at sunset, cinematic" stelt het model in staat om te optimaliseren voor "rode sportwagen"; "Cinematic shot of a red sports car at sunset" wegen "cinematic shot" eerst en de auto wordt secundair.

Is er een officiële Seedance 2.0 promptbibliotheek?

Volcengine verzendt een officiële promptgids met uitgewerkte voorbeelden voor slogans, ondertitels, bellendialoog, multi-afbeeldingreferenties, actiegerefenties, camerabewegingsreferenties, VFX-referenties en videobewerkingen[1][3]. Het is de canonieke bron. De studio op seedance2.so/text-to-video kaart dezelfde patronen toe aan een UI; als je de promptstructuur in beide kunt uitdrukken, kun je de ander gebruiken.

Prompts die leveren: de recap

Het goed schrijven van Seedance 2.0-prompts komt neer op drie gewoonten. Ten eerste, volgt u de driedelige formule, onderwerp en actie, dan omgeving en stijl, dan camera en audio-aanwijzingen, en plaats u uw hardste beperkingen vooraan in de openingszin. Ten tweede, gebruik je de expliciete referentiesyntax (@image1 tot @image9, @video1 tot @video3, @audio1 tot @audio3) altijd wanneer je multi-modale invoeren hebt; het verschil tussen vaag referentie en aangewezen referentie is het verschil tussen "soort werken" en "schepen." Ten derde, respecteer je de beperkingen die het model documenteert, 2–4 zinsaanwijzingen, 1–2 onderwerpen, geen echte mensengezichten, lengte onder 1.000 Engelse woorden, en herhaal je goedkoop op de Fast tier voordat je credits aan Preview toewijd. Doe die drie dingen en je Seedance 2.0-prompts zullen op de eerste of tweede roll op leverskwaliteitoutput produceren, niet de vijfde of zesde.

Referenties

  1. Volcengine ArkClaw. Doubao Seedance 2.0 系列提示词指南, Section 1: 总体要领. Retrieved May 2026 from volcengine.com/docs/82379/2222480
  2. Volcengine ArkClaw. 创建视频生成任务 API, Seedance 2.0 model capability spec, prompt language and length, input limits. Retrieved May 2026 from volcengine.com/docs/82379/1520757
  3. Volcengine ArkClaw. Doubao Seedance 2.0 系列提示词指南, Sections 3–5: image / video reference and editing templates. Retrieved May 2026 from volcengine.com/docs/82379/2222480
  4. Seedance2.so. Studio reference syntax and parameter helpText for omni-reference generation. Retrieved May 2026 from seedance2.so/reference-to-video
  5. Seedance2.so. Pricing and credit-per-second rates by tier. Retrieved May 2026 from seedance2.so/pricing

Verder lezen

  • BytePlus ModelArk. Product updates, Dreamina Seedance 2.0 API release. docs.byteplus.com/en/docs/ModelArk
  • ByteDance Seed. Seedance technical report and benchmark results. seed.bytedance.com/seedance
Alle berichten

Auteur

avatar for Seedance Team
Seedance Team

Categorieën

  • Prompts
TL;DRDe driedelige Seedance 2.0-promptformulePlaats de informatie-rijke woorden vooraanKies één stijl en stel je eraan vastDe referentiesyntax die niemand duidelijk documenteertMulti-afbeeldingreferenties: het winkellijstpatroonVideoreferenties: actie, camera, FXAudio-referenties en beat-syncModus-voor-modus promptsjablonenTekst-naar-video (T2V)Afbeelding-naar-video (I2V), eerste-frame-modusAfbeelding-naar-video (I2V), eerste+laatste-frame-modusReferentie-naar-video / multi-modale referentie (R2V)Videobewerkingen via R2VVideouitbreiding (vooruit/achteruit)Spoor stitching (3-clip compositie)Cameragesteld die Seedance 2.0 echt begrijptStijl- en verlichtingsbeschrijvingen die echt verschil makenVeel voorkomende foutmodi en hoe ze op te lossen"De output negeerde de helft van mijn prompt""De referentieafbeelding werd overheen getekend""Het weigert te genereren met mijn referentiefoto""De beweging is instabiel / het onderwerp morfeert""Audio is niet gesynchroniseerd met de beelden"Iteratieworkflow die credits niet verbrandtMulti-taal prompts en wanneer je wilt wisselenFAQHoe lang zou een Seedance 2.0-prompt moeten zijn?Ondersteunt Seedance 2.0 negatieve prompts?Kan ik 9 afbeeldingen en 3 video's en 3 audiobestanden in dezelfde prompt referentie?Waarom mislukt mijn generatie met "real face not allowed"?Wat is het verschil tussen Seedance 2.0 en Seedance 2.0 Fast voor prompts?Kan ik prompts in het Chinees schrijven voor Engelse output, of omgekeerd?Speelt promptvolgorde binnen een zin ertoe?Is er een officiële Seedance 2.0 promptbibliotheek?Prompts die leveren: de recapReferentiesVerder lezen

Meer berichten

AI Filmpje Maken: De Complete Gids voor Iedereen
Tutorial

AI Filmpje Maken: De Complete Gids voor Iedereen

Leer hoe je professionele filmpjes maakt met AI-tools. Geen videografi-ervaring nodig. Stap-voor-stap handleiding met praktische tips voor text-to-video en image-to-video.

avatar for Seedance Team
Seedance Team
2026/03/15
LogoSeedance 2.0

Seedance 2.0 — de gratis AI-videogenerator voor tekst-naar-video, afbeelding-naar-video, videobewerking en meer. 1080p-uitvoer met native audio.

Email
Built withLogo of seedance2seedance2
AI-videomodellen
  • Vidu Q3 videogenerator
  • Seedance 2 Fast
  • Seedance 2.0 API
  • Seedance 1.5 Pro
  • Veo 3
  • Kling V3
  • Grok Video
  • PixVerse AI
  • Happy Horse AI
  • Seedance 2.5
Videogeneratoren
  • TikTok Video Generator
  • UGC-videogenerator
  • Video-generator voor korte video's
  • Cinematic Video Generator
AI-afbeelding
  • Seedream 5.0
  • Seedream 4.5
  • Seedream 4.0
  • Nano Banana Pro
  • GPT Image 2
  • Grok Imagine
  • Nano Banana 2
AI-tools
  • AI-videopromptgenerator
  • Seedance 2-promptgenerator
  • Nano Banana-promptgenerator
  • AI-beeldanalysator
  • AI-video-analysator
  • Seedance 2.0-prompts
  • Nano Banana Pro-prompts
  • Video Watermark Remover
Bronnen en juridisch
  • Prijzen
  • Blog
  • Over ons
  • Contact
  • Privacybeleid
  • Gebruiksvoorwaarden
  • Terugbetalingsbeleid
© 2026 Seedance 2.0 All Rights Reserved.
ai tools code.marketFeatured on findly.toolsFeatured on ShowMeBestAIMossAI ToolsDang.aiFeatured on Twelve ToolsIAListé sur IA-Insights