Synopsis.
Le film a été entièrement réalisé à l’aide d’outils d’IA disponibles à l’été 2024. Chaque plan a d’abord été généré sous forme d’image fixe en haute définition, puis animé — principalement via Runway. Le choix créatif a été d’assumer pleinement l’usage de l’IA, sans chercher à le masquer par des effets ou des artifices de post-production. Les séquences ont été conservées quasi brutes, unifiées uniquement par un léger étalonnage colorimétrique afin de préserver une cohérence visuelle.
Bien que totalement synthétique, le film puise ses racines dans une recherche ancrée dans le réel : des photographies prises dans des lieux spécifiques ont inspiré certaines scènes et accessoires — comme des masques basés sur des modèles traditionnels coréens découverts dans un musée isolé. L’IA devient ici non seulement un outil, mais le langage même du film.
Outils utilisés : Runway (Gen-2 & Gen-3), ComfyUI, Stable Diffusion, Midjourney, InvokeAI, Photoshop AI, Luma Dream Machine, Topaz Video AI, Magnific AI