A
A
  • Angol
  • Magyar
  • 12 perc

Új szintre lépnek a kínai AI videómodellek: Seedance 2.0 és Cling 3.0 bemutatkozása

Két vadonatúj kínai AI videómodell dönti meg a megszokott szabályokat, radikálisan új szintre emelve a generatív videók minőségét és integrációs lehetőségeit.

Kína egyidejűleg két új, fejlett AI videómodellt mutatott be, amelyek teljesen új szintre emelik a generatív videókészítést. Miközben a nyugati cégek, mint a Google vagy az OpenAI, a következő modellek bevezetésén dolgoznak, addig Kínából egyszerre két érett, a gyakorlatban használható megoldás érkezett.

A Seedance 2.0 multimodális bemenettel működik: szöveget, képet, hangot, sőt videót is képes értelmezni, mindez elképesztő pontossággal jelenik meg a kész videókban. Új referenciarendszere révén az eszköz kiemelkedő kontrollt nyújt a karakterek megjelenése, az eszközök elhelyezése és a mozgóképi elemek irányítása felett, ezzel együtt pedig az anime és motion graphics stílusokat is új szintre emeli.

Kiemelten erős pontja, hogy pillanatok alatt egyesít különböző médiatartalmakat, így hamarosan akár egy startup vagy bármelyik UI/UX designer is egyszerűen, gyorsan készíthet termékbemutatókat. Az olyan filmes műfajok, mint az akció vagy animáció, robbanások, lassítások, realisztikus kameramozgások és részletesen kidolgozott jelenetek is könnyedén generálhatók, túlszárnyalva a korábbi modellek lehetőségeit.

Szó esik a Cling 3.0 modellről is, amely kiemelkedő 4K minőséget és többszörös kameraállást kínál, amellyel a tartalom konzisztenciája növelhető, illetve természetesebb hangszintézis érhető el. Az összehasonlítások révén érdekes kérdések merülnek fel: vajon minek köszönhető Kína előnye a videó AI-modellek terén, és hogyan hat ez a globális versenyhelyzetre? Továbbá kérdésként merül fel: a nyugati cégek hogyan tudnak lépést tartani ezekkel a fejlesztésekkel?