Vida artificial y música generativa
Simulación audiovisual de vida artificial con comportamiento emergente y música generativa en tiempo real.

LIFESWARM es un experimento audiovisual desarrollado desde el laboratorio de investigación de Artefacto Films como parte de una exploración estética en torno a la vida artificial y su potencial cinematográfico. Parte de la siguiente pregunta: ¿qué ocurre cuando organismos artificiales aprenden a comportarse colectivamente, y cómo puede ese comportamiento generar una experiencia sensorial autónoma? El sistema pone en movimiento miles de entidades digitales que siguen reglas simples pero producen patrones visuales y sonoros de una complejidad que ninguna entidad individual podría anticipar. La pieza funciona como campo de observación para el tipo de inteligencia colectiva que el cine ha intentado representar históricamente mediante multitudes, bandadas o enjambres.

El núcleo del sistema implementa el algoritmo Boids formulado por Craig Reynolds en 1986, un modelo de comportamiento emergente basado en tres reglas que cada agente aplica de forma autónoma. La primera es la separación, que evita la colisión con entidades vecinas. La segunda es la alineación, que orienta a cada boid hacia la dirección media del grupo al que pertenece. La tercera es la cohesión, que atrae a cada entidad hacia el centro de su grupo. A estas tres reglas el prototipo añade dos variables propias, un campo de fase individual que introduce variaciones orgánicas en el movimiento mediante funciones sinusoidales personalizadas, y un nivel de energía que modula la intensidad de cada entidad a lo largo del tiempo. El conjunto está construido en TypeScript con React y renderizado sobre canvas, lo que permite simular hasta cinco mil agentes simultáneos a velocidad de fotograma completa. El sistema incluye además seguimiento de manos por cámara, de modo que gestos físicos como abrir la palma o realizar un pellizco repelen o atraen a las entidades en tiempo real.

La dimensión sonora del proyecto activa una síntesis de audio en tiempo real que responde directamente al estado colectivo de la simulación. El motor de audio utiliza la Web Audio API para generar música procedural mediante varios modos de síntesis seleccionables: granular, FM, aditiva, ruido filtrado, acid, pad y síntesis espectral. Los patrones rítmicos se organizan en estilos que abarcan desde estructuras casi silenciosas de textura granular hasta polirritmos con sensibilidad de cumbia psicodélica. La densidad visual de los boids afecta la intensidad rítmica; su grado de alineación desencadena patrones melódicos; y la posición del cursor o la mano controla filtros de audio y altura tonal. Esta relación entre movimiento y sonido convierte a cada estado de la simulación en una partitura visual irrepetible.

Desde el punto de vista crítico, LIFESWARM interroga los límites entre lo orgánico y lo construido en el contexto del cine digital. El uso de paletas cromáticas diferenciadas para grupos de boids que se atraen internamente y se repelen entre sí plantea preguntas sobre la representación visual de dinámicas sociales, segregación y comportamiento colectivo.
El experimento también opera como herramienta de investigación sobre la percepción de la audiencia, estudiando cómo patrones visuales emergentes afectan la respuesta emocional cuando van acompañados de música generada por el propio sistema.
Aplicación: https://lifeswarm-boids-simulation-231178493219.us-west1.run.app/