O~A seleccionada para participar en el espacio Miercoles Sónicos – Bogotá – Noviembre 3 de 2010

El proximo 3 de Noviembre se presentará en Bogotá la puesta en escena de O~A:Body Loops dentro del marco del festival Miercoles S[onicos, programado por el teatro Jorge Eliecer Gaitan de Bogotá.

Miércoles Sónicos es un programa creado por el Teatro Municipal Jorge Eliécer Gaitán que fusiona lo que hasta el cierre temporal del Teatro se conoció como ‘Miércoles Virtual’ y ‘Jueves Sónico’. Dichos programas buscaban fortalecer el quehacer de los artistas interdisciplinarios con énfasis en video y artistas dedicados a la experimentación audiovisual.

Ahora, «Miércoles Sónicos» busca ser una plataforma de visibilización de ejercicios, experiencias y proyectos relacionados con la aplicación de las nuevas tecnologías al arte y a las expresiones urbanas contemporáneas. En esta nueva etapa, los «Miércoles Sónicos» fomentarán la difusión y la reflexión sobre temas relacionados con la creación de soportes electrónicos que interactúen con manifestaciones artísticas. Este año se presentarán performances, trabajos enfocados al video experimental, streaming audiovisual, intervenciones multimediales, experimentación sonora y audiovisual, animación, entre otros.

A partir del 18 de agosto, este espacio tendrá lugar los dos últimos miércoles de cada mes en el Teatrino del Jorge Eliécer Gaitán a las 6:30 pm con entrada libre hasta completar el aforo.

MAs informacion en: http://www.culturarecreacionydeporte.gov.co/portal/node/3852

Imagenes y videos de la Noche de los Museos en Barcelona

imagenes

O~A participa en la Nit dels Museus

Lugar: CosmoCaixa, Barcelona

Fecha y hora: Mayo 15, 20h

Los esperamos a todos!!!

Version para Instalación Open-formance CosmoCaixa

Generalidades.
+ No dar una duracion minima de intaraccion, pero limitar a 5 minutos la más larga.
+ Grabar las interpretaciones como archivo nuestro, pero no reproducirlas para no hacer confuso el sonido.
+ Las grabaciones hacerlas cuando un mismo usuario ha estado al menos 1 minuto.
+ Tomar caracteristicas del nuevo usuario los primeros 5 segundos desde que entra para usarlas como su «huella» con la cual se esogen sonidos y colores.
+ A partir del segundo 5 empezar el sonido y las graficas.
+ Usar siempre un sintetizador con un filtro aplicado para darle mas textura al audio; no dejarlo nunca tan crudo.

0. El espacio vacio
Se resetea el sistema
OF. Blob = 0, señales = 0, escena = 0
PD. Silencio, esperando.
P55: Negro total o con las particulas orbitando libremente.

1. Entra una persona . duracion 5 segundos
Se despierta el sistema. En esta escena se seleccionan los parametros para la experiencia de la nueva persona. Se pueden tomar variables tanto globales como gestuales de esta en los primeros 5 segundo para seleccionar sintetizador, filtro y colores.
OF. particulas = blob. Señales OK, escena = 1, Contando 5 segundos
PD. Silencio, lee señales.
P55: Se ve la silueta del usuario sin efectos para que se ubique en el espacio y sepa que es su cuerpo el que esta hay pintado.
2. Etapa de reconocimiento del espacio. duracion 30 segundos
Empieza el sonido y las graficas se ponen «guaiiis».
OF: OK
PD: Suenan un primer sinthe y filtros muy faciles de reconocer.
P55: El primer Efecto es muy sencillo y solo ayuda a que la persona sepa cual es el territorio en el que puede moverse. La idea es que su silueta sea como un borrador del fondo negro que lo va dejando blanco a su paso.
3. Climax. duracion maxima 5 minutos
Segun la actividad del usuario se podria generer que la cosa se vuelva mas intensa o mas relajada.
OF: Periodicamente manda una señal de cambio a PD y P55. Indica si esta crechendo o decrechendo.
PD: Suena un sinthe y filtro mas completos que toman algunos parametros de los leidos en la escena 1.
P55: hace igual con los efectos de visualizacion.
4. Final
Se da por dos motivos, A. la persona sale o B. se mantiene por 5 minutos.
A. Si sale en cualquier momento entonces se hace un fade out y se vuelve a 0.
B. Se entra la etapa final del sistema, donde se ponen un efecto con menor interaccion que se va a pagando y el sonido tambien se vuelve menos intenso. Esto haria que la persona salga y entonces A.
OF. A. Reset . B OK.
PD: A o B
P55. A o B

Memoria – Dosier

Descargar

Indice:

Referentes

Antecedentes y experiencia ganada con WAW

Motivaciones e inquietudes

Espectativas

Areas  en las que queremos influir y contribuir

Planteamiento del problema

Delimitacion del objetivo

Desarrollo del concepto

Como encararmos el problema

Eleccion de las herramientas

Puesta en marcha

Toma de decisiones

Problemas encontrados

Produccion y montaje.

Alcances y logros

Descripcion del sotware desarrollado

Potenciales y limitaciones del software

Futuro del proyecto

Conclusiones

Agradecimientos a nuestros padres, parejas, amigos, profesores y a Oscar.

Un Modo de Composicion – Un ideal

El sistema tiene la capacidad de componer por capas (layers) o canales de mezcla. Se a decidido limitarlo a un total de 8 capas.

—- Existen 4 posturas predefinidas para controlar el sistema. Estas posturas son asumidas como señales de control cuando se han mantenido fijas por al menos 5 segundos. Las posturas pueden variar de significado si se realizan en diferentes lugares del escenario. Las posturas predefinidas se realizan de forma frontal a la camara. Las posturas definidas son:

Postura 0: Hacerce bola. Acurrucado o enrroscado en si mismo. Esta postura de la menor lectura que el sistema puede detectar. Es el punto de partida para empezar un proceso.

Postura 1: Neutro. Parado con los brazos pegados al cuerpo y las piernas juntas. Genera un esqueleto de una linea vertical con solo dos extremidades.

Postura 2: No existe.

Postura 3: Parado con los brazos en la cabeza.

Postura 4: Parado con los brazos hacia arriba. Expresion de alcanzar algo que se encuentra arriba.

—- El espacio esta dividido en 3 zonas que representan los 3 modulos de composicion.

Zona 1: Modulo de sintesis.

Zona 2: Modulo de Efectos

Zona 3: Modulo de Secuencia

—-Procedimiento.

1. Se activa el sistema, el cual esta vacio y preparado. Se encuentra en Silencio pero reproduciondo el timeLine. Se ha determinado previamente un tempo y una logitud de compas. Las grabaciones que se realizen se crean dentro de estos compaces.

2. Entrar al espacio. Esta en estado «libre». Se puede recorrer sin afectarlo.

3. Para empezar se debe realizar la postura «0» durante 5 segundos sobre alguna de las 3 zonas. El sistema entra en estado de «control». Es recomendable empezar por la zona 1 paracrear un sonido, pero es posible empezar por un modificador que se aplicara al sonido cuando este aparezca.

4. Explorar con los movimientos los cambios que se producen en el sonido, hasta encontrar una pequeña accion que sea interesante para el interprete.

5. Una vez encontrada la accion se puede decidir grabarla dentro de un numero entero de compaces. Para esto se debe realizar una postura cualquiera, diferente a las preestablecidas, y mantenerla por 5 segundos. Esto activa el Pre-recorder, que esperara la grabacion justo al inicio del siguiente compas.

6. Aqui se debe realizar la accion lo mas nitidamente, segun lo planeado y ensayado previamente.

7. Al decidir que se ha terminado la ejecución se debe realizar otra postura y mantenerla por 5 segundos. Esto provocara que se cree la grabacion, recortada en el ultimo compas completo.

8. El sistema vuelve al estado «libre». Donde los movimientos no repercuten en el sonido.

9. En este punto se tienen tres opciones:

9.1 Realizar la postura «0» sobre cualquiera de las zonas para continuar modificando el sonido repitiendo los pasos del 3 al 9.

9.2 Realizar la postura «3» para borrar la ultima grabacion realizada sobre la capa.

9.3 Realizar la postura «1» para Renderizar la capa. Al realizar la postura 1 se activa entonces la mezcla de la capa, la cual indica el volumen final al cual se desea dejar la capa sonando. La capa se encuentra en su volumen maximo. Para disminuir el volumen se debe recogerse hasta un nivel deseado entre la postura «1» y la postura «0». Si por el contrario se realiza la postura 3 despues de la postura 1 la capa es eliminada. Al finalizar se debe realizar una detencion con lo cual se termina el proceso de esta capa. La capa que ha sido creada se visualiza en pantalla como un punto en la parte superior.

En un modo avanzado:

10. Si se desea retomar alguna capa ya creada se puede realizar el gesto 4, parado debajo del punto correspondiente de la capa. Se puede continues modificando o añadiendo sonidos con los pasos 3 a 9, o mezclarla o borrarla con el paso 9 directamente.

 

 

openFrameworks – Imagen

http://www.openframeworks.cc/forum/viewtopic.php?p=14301

http://memo.tv/realtime_gpu_based_depth_of_field_backlight_in_processing_with_glsl_v0_1

http://www.openframeworks.cc/forum/viewtopic.php?f=9&t=2729&p=14809&hilit=glow#p14809

Grabar vídeo con openFrameworks

http://www.openframeworks.cc/forum/viewtopic.php?f=9&t=775

http://openframeworks.info/prog_tech/creating-hd-video-from-application-for-vimeo-(and-others)/30

~o~n~a~ /// first tests

Primer vídeo de los tests de ona. En este caso se trata de lo que será el motor de síntesis, también se podría interpretar como el motor de filtrado…

http://vimeo.com/7192448

Bibliografía y referencias

Artistas / Proyectos / Herramientas


Gestural Interactions for Multi-Parameter Audio Control and Audification.


Maping the musicla commons

This essay is a speculation on how recent digitization and simulation technologies are providing a means of mapping cultural processes that may contribute to new ways of enclosing the musical commons. Three broad, shifting, and interwoven themes permeate this speculation: contested concepts of ownership between a disorganized and reorganized capitalism; blurred distinctions between cultural products and human processes; living beings between the convergence of technologies for mapping and simulation. By outlining a potential paradigm shift in how people understand music, the essay suggests some new directions for ownership and control of primary cultural resources, especially with respect to embodied and simulated musical processes.


MOPRIM -Laboratory of COmputer vision and Motion Capture

The general vision is effective Human-Computer-Interaction (HCI), which operates as natural and intuitive as do Human-Human-Interaction. The more specific vision for this project is that visual cues become available for this purpose in a manner similar to that of speech, where speech technology now allows natural languages to play an operational and important


Cornelius Pöpel

Cornelius Pöpel is professor for audio producing at the University of Applied Sciences Ansbach and working on a part-time dissertation at the University of Birmingham. He is supervised by Dr. Scott D. Wilson and co-supervised by Prof. Dr. Jan Borchers. His research interests lie in music, in general aspects of the relation between men and machines, in sound synthesis, sound processing, and in creating new stringplayer based interfaces for musical expression.


ANVIL – The video annotation research tool

Anvil is a free video annotation tool, used at research institutes world-wide (see the Anvil User Web). It offers frame-accurate, hierarchical multi-layered annotation driven by user-defined annotation schemes. The intuitive annotation board shows color-coded elements on multiple tracks in time-alignment. Special features are cross-level links, non-temporal objects and a project tool for managing multiple annotations. Originally developed for Gesture Research, Anvil has also proved suitable for research in Human-Computer Interaction, Linguistics, Ethology, Anthropology, Psychotherapy, Embodied Agents, Computer Animation and many other fields.


ConGAS – Gesture controlled audio systems

The Cost287-ConGAS Action intends to contribute to the advancement and to the development of musical gesture data analysis and to capture aspects connected to the control of digital sound and music processing. Cost287-ConGAS is a COST-TIST action.


Workshop on Motion Capture for Music Performance

The workshop Motion Capture for Music Performance is intended as an event to exchange results by researchers carrying on projects related to movement analysis in music, including video analysis and annotation, MoCap using 3D trackers or sensor-based data acquisition.

The Musical Gestures Project
Proyecto ya finalizado cuyo objetivo es encontrar una teoría coherente de relación entre sonidos musicales, gestos humanos y conceptos musicales.
Interesante esta tesis: Correspondences between music and human body movement. De E.Haga.
o esta: Action – Sound: Developing Methods and Tools to Study Music-related Body Movement, de A.R. Jensenius
Actualmente existe un proyecto de continuación llamado fourMs.

motion-e

Proyecto universitario sobre la motion capture y la danza.

BIPED
Proyecto de Merce Cunningham y openended group con vídeo creado a partir de motion capture

Didascalie.net
Compañía francesa que integra nuevas tecnologías en la escena. Un ejemplo: el control de sonido de la obra «Révélations d’une ombre»
Además, han colaborado en el desarrollo de tapemovie, entorno de desarrollo de audio y vídeo en tiempo real.

Jamoma
Plataforma de investigación y performances basadas en arte interactivo

Plateforme Virage

Plataforma de investigación para el estudio y el desarrollo de nuevas interfaces de control y escritura para la creación artística y las industrias culturales.

HOEReographics
Obra de danza interactiva del Theater der Klänge.

GDIF – Gesture Description Interchange Format
Herramienta para el streaming y almacenamiento de información relacionada con movimientos musicales, acciones o gestos.

Speak
Obra multimedia interactiva de
Alejandra Ceriani, Fabricio Costa y Fabian Kesler

BigEye – STEIM

Herramienta para transformar información visual en mensajes MIDI (proyecto abandonado)

Music via Motion
Framework para la captura de movimiento y su traducción ene eventos musicales (muy antiguo)

EyeCon
Herramienta de visión artificial que permite lanzar eventos en función de ciertas restricciones visuales. Se ha utilizado en trabajos de la compañía Palindrome.

Mapping is not Music – IRCAM
Librerías de Max / MSP para reconocimiento y catalogación de movimiento, música y datos.

SoftVNS – David Rokeby
Librerías de Max de visión artificial (tracking de cabeza, tracking de colores, etc)

Mudanx – Stan Wijnans
Laboratorio de danza interactiva.

DanceSpace
Instalación/Herramienta de visión y mapeo a parámetros sonoros

ShapeSynth,

utiliza métodos de síntesis de sonido para ser aplicados a estructuras en 3D

Papers/Tesis

Making Motion Musical – Tedd Winkler

Contrôles Gestuels Bimanuels de Processus Sonores – Loïc Kessous

Human Movement Tracking – Axel Mulder

Virtual Musical Instruments – Accesing the Sound Synthesis Universe as a Performer – Axel Mulder (antiguo)

Monalisa: “see the sound, hear the image” – Kazuhiro Jo, Norihisa Nagano

Golan Levin, en todo su trabajo se encuentran referencias muy interesantes a las asociaciones que se pueden establecer entre la información visual y la sonora. Las que más pueden aportar al proyecto ONA son Yellowtail, Floo o Messa di Voce.
Textos interesantes:
Computer Vision for Artists and Designers: Pedagogic Tools and Techniques for Novice Programmers
Su tesis, «Painterly Interfaces for Audiovisual Preformance«.
A personal Chronology of Audiovisual Systems Research