Castro : Heliotropika


Diennet : Stars Peace 2 (Cosmophone)


Goudarzi : Klima-anlage

 

Malt / Brohon : Parcours

 

Mihalic :Terra


Minciacchi : Taked from WFDD 'nd WAWD

 

Munakata : Guardian of Genome

 

Parker : Supernova Sonata

 

Risset : Electron-Positron

 

Saariaho / Barrière : Nox Boréalis

 

Strauch : Aurores Boréals

 

 

 

 

 

 

Liste de participants :

Guido Bologna - Senior Lecturer, University of Applied Science, Geneva, Computer Vision and MultiMedia Lab, University of Geneva, Suisse;

Juan Manuel Castro - Chercheur et artiste (art hybride) en résidence à l’IMéRA (AMU), Université de Waseda, Tokyo, Japon;

Jacques Diennet - Compositeur et directeur musical de la Compagnie UBRIS STUDIO, Marseille, France;

Jacques Dudon - Chercheur sonore, Saint-Affrique, France;

Alexandre Escarguel - Maître de Conférence, Laboratoire PIIM Universite d'Aix-Marseille, CNRS, Equipes Turbulence plasma, Marseille, France;

Visda Goudarzi - Phd. candidate in Sonification and Audio Engineering, Institute of Electronic Music and Acoustics (IEM), University of Music and Performing Arts, Graz, Autriche;

Jean Lilensten - Astronome au CNRS, Institut de Planétologie et d'Astrophysique de Grenoble (IPAG), Grenoble, France;

Juan Antonio Martínez Rojas - Associate Professor, Department of Signal Theory and Communications, Radiation and Sensing Group, Polytechnic School, University of Alcalá, Espagne;

Alexander Mihalic - Compositeur et musicologue, résident à l’IMéRA, réalisateur en informatique musicale chargé d’enseignement, IRCAM, Paris, France;

Diego Minciacchi - Professor of Theory and Techniques for Motor and Sport Activities, Department of Experimental and Clinical Medicine, Physiological Sciences Section, Biomedical Area, University of Florence, Florence Italie;

Nicolas Misdariis - Chargé de Recherche & Développement, Equipe Perception et Design Sonores, STMS Ircam-CNRS-UPMC, Paris, France;

Jean-Claude Risset - Directeur de recherche émérite, compositeur, Laboratoire de Mécanique et d’Acoustique, Université d’Aix-Marseille / CNRS, Marseille, France;

Olivier Strauch - Compositeur, marionnettiste, professeur de musique au CNR de Grenoble, France;

 

 

Présentations des participants :


Bologna, Guido

Senior Lecturer, University of Applied Science, Geneva, Computer Vision and MultiMedia Lab, University of Geneva, Suisse

Guido Bologna is Senior Lecturer at the University of Applied Sciences of Western Switzerland and Senior Scientist at the Computer Vision and Multi Media Lab (CVML) of the University of  Geneva. His research interests include computer vision, multimodal interfaces for blind people, machine learning and bioinformatics. In 1998 he obtained a Ph.D. in Artificial Intelligence from the University of Geneva. Afterwards, he has been researcher at the Queensland University of Technology, at the National University of Singapore and at the Swiss Institute of Bioinformatics. He has authored or co-authored more than 70 papers in referred journals, books and conferences.


Castro, Juan Manuel

Chercheur et artiste (art hybride) en résidence à l’IMéRA (AMU), Université de Waseda, Tokyo, Japon

Juan M. Castro has been involved in interdisciplinary work practices traded between the fields of media art, neuroscience, microbiology and biochemistry. He has created artworks that range from topographic maps of oxygen in the brain, a 3-D architecture of neural activity, to the conception of an interface between people and cyanobacteria. He was born in Bogota (Colombia) and is currently living and working in Tokyo (Japan). As a postdoctoral research fellow (JSPS), he is investigating the potential of artificial membranes upon artistic practice.


Diennet, Jacques

Compositeur et directeur musical de la Compagnie UBRIS STUDIO, Marseille, France

Jacques Diennet a été, en France, l’un des pionniers de la synthèse numérique « live ». En complicité de l’univers d’un Bob Ashley, d’un Harold Budd, il donne à sa musique, fréquemment ouverte aux instrumentistes et parfois à la voix, les meilleures chances d’installation dans des climats de captation douce – séduction étirée où, sans ostentation, la mélodie toujours imprime le mouvement. Non-vouloir actif, calme exigence des déports (Diennet sait quel beau ferment est l’improvisation ; sait ménager sa place dans les récits qu’il fomente), sa voix est celle d’un élégant et tendre flâneur du jardin sec.


Dudon, Jacques

Chercheur sonore, Saint-Affrique, France

Compositeur microtonaliste, chercheur, luthier, multi-instrumentiste, directeur de l’Atelier d’Exploration Harmonique, Jacques Dudon est l’inventeur de plus de 500 instruments, à eau, à vent, à lames, à cordes, electroniques, otpiques, avec lesquels il cherche à mettre en situation d’écoute les qualités acoustiques propres à chaque matériau. Inventée par Jacques Dudon en 1972, puis brevetée en 1985, la synthèse photosonique, procédé de génération optique des sons, a d'abord utilisé des disques découpés manuellement dans des feuilles de carton. Ils ont ensuite été créés par ordinateur à l’aide d’une table traçante, puis sous forme d’images numériques directement imprimées sur supports transparents.


Escarguel, Alexandre

Maître de Conférence, Laboratoire PIIM Universite d'Aix-Marseille, CNRS, Equipes Turbulence plasma, Marseille, France

Alexandre Escarguel est physicien au laboratoire de physique des interactions ioniques et moléculaires (PIIM). Il est responsable de l’expérience MISTRAL qui permet d’étudier la physique fondamentale des instabilités des plasmas magnétisés. Spécialisé dans les diagnostics optiques (spectroscopie, caméras rapides…), il a entamé depuis plusieurs années un rapprochement avec le milieu artistique par le biais de la sonification, notamment en collaborant avec Scott Gresham Lancaster (professor of sound art with ATEC at the Univ. of Texas at Dallas, USA) ou Tim Perkis (artiste spécialiste en musique électronique live, USA) lors de leurs résidence à l’IMERA. Ce projet vient à maturité avec la collaboration avec Alexander Mihalic (compositeur, spécialiste en sonification) résident à l’IMERA en 2014.

 


Goudarzi, Visda

Phd. candidate in Sonification and Audio Engineering, Institute of Electronic Music and Acoustics (IEM), University of Music and Performing Arts, Graz, Autriche

I am currently a Phd. candidate in Sonification and Audio Engineering. My research interests are in Human Computer Interaction (HCI), Auditory Interfaces, Sonic Interaction Design, and Data Sonification. I have a MA in "Music, Science, and Technology" from CCRMA (Center for Computer Research in Music and Acoustics) at Stanford University and a MSc. in Computer Science from Vienna University of Technology. Besides research, I curate Open CUBE concert series at IEM, and teach Live Electronics and Sonification at IEM.


Lilensten, Jean

Astronome au CNRS, Institut de Planétologie et d'Astrophysique de Grenoble (IPAG), Grenoble, France 

Directeur de recherche au CNRS, Jean Lilensten est spécialisé dans l’activité solaire et son impact sur les planètes du système solaire. Ses dernières découvertes portent sur la caractérisation du flux ultraviolet solaire, sur l’échappement de l’atmosphère martienne, et sur le caractère polarisé des aurores boréales. Très impliqué dans la médiation scientifique, il a écrit 11 livres. Il a reçu le prix européen Europlanet en 2010 et le prix « Le goût des Sciences » du Ministère de la Recherche en 2012 pour son simulateur auroral la Planeterrella (http://planeterrella.osug.fr/).


Martínez Rojas, Juan Antonio

Associate Professor, Department of Signal Theory and Communications, Radiation and Sensing Group, Polytechnic School, University of Alcalá, Espagne

Juan Antonio Martínez Rojas graduated in Astrophysics at the Complutense University of Madrid and has a PhD in Atomic, Molecular and Nuclear Physics. He is mainly interested in Biophysics and his research focus on the propagation of waves in biological materials and organisms. He is exploring the enhancement and limitations of mechanosensing in humans, for example, developing new techniques to improve human echolocation.


Mihalic, Alexander

Compositeur et musicologue, résident à l’IMéRA, réalisateur en informatique musicale chargé d’enseignement, IRCAM, Paris, France

Alexander Mihalic travaille dans deux domaines distincts et complémentaires. Tout d’abord il s’intéresse au lien entre l’exploration du réel à travers le son et l’acoustique – la sonification – en se basant sur le fond des relations entre les sciences et les arts dans leur histoire et leur état actuel. Dans ce cadre, il crée et développe des projets interdisciplinaires entre art et science, comme le projet de sonification des spectres lumineux en collaboration avec l’Université de Marseille, et il enseigne en parallèle l’informatique musicale et le multimédia à l’Université Paris 8 et l’acoustique et la sonification à l’IUT de Bourges.


Minciacchi, Diego

Professor of Theory and Techniques for Motor and Sport Activities, Department of Experimental and Clinical Medicine, Physiological Sciences Section, Biomedical Area, University of Florence, Florence Italie

Diego Minciacchi studied Medicine and Music. He graduated in Piano at the Conservatorio di Perugia, graduated in Medicine and specialized in Neurology at Catholic University of Rome. He's active in the fields of music composition and neuroscience (neuro-scientific research). His contacts with K. Stockhausen, G. Giuliano, H. P. Haller, L. Nono, E. Nunes, H. Radulescu, and C. Roads had great meaning for his musical and human formation. Since the 90s he has been interested in converting music data deriving from scientific research. He composed more than sixty works for conventional instruments and for instrument(s) and electronics or live electronics.


Misdariis, Nicolas

Chargé de Recherche & Développement, Equipe Perception et Design Sonores, STMS Ircam-CNRS-UPMC, Paris, France

Nicolas Misdariis est chargé de recherche et responsable-adjoint de l’équipe Perception et Design Sonores de l’Ircam. Il est diplômé, en 1993, d'une école d'ingénieur à composante mécanique (CESTI-SupMeca), puis d'un DEA d'acoustique au Laboratoire d'Acoustique de l'Université du Maine (LAUM, Le Mans). A l'Ircam depuis 1995, il prend part uccessivement à plusieurs projets dans différents domaines de recherche en sciences et technologies du son. En 1999, il contribue à la constitution de l'équipe Design Sonore de l'Ircam où il met en oeuvre successivement, des travaux relatifs à la synthèse sonore, aux technologies de diffusion, à la perception des sons environnementaux et des environnements sonores, aux interfaces homme/machine (IHM) sonores ainsi qu'a la sonification interactive. Il enseigne depuis 2010 au Master Design Sonore de l'Ecole Superieure des Beaux-Arts du Mans.


Risset, Jean-Claude

Directeur de recherche émérite, compositeur, Laboratoire de Mécanique et d’Acoustique, Université d’Aix-Marseille / CNRS, Marseille, France

Pionnier dans l’aventure de l’informatique musicale commencée aux États-Unis, J.-C. Risset a contribué par la suite à l’introduction de l’ordinateur en France (dans des institutions comme l’IRCAM ou les universités d’Orsay et de Marseille-Luminy). Il a été, de par sa double formation, scientifique et artistique, le premier compositeur français à ouvrir la voie aux sons synthétisés par ordinateur. Il incarne aujourd'hui une figure majeure de la création musicale contemporaine et, en même temps, de la recherche sur la musique dite électronique. Ses contributions marquent de son empreinte l’esthétique des années 1970-1990


Strauch, Olivier

Compositeur, marionnettiste, professeur de musique au CNR de Grenoble, France

Avec une approche de la marionnette proche du théâtre d'objet ou s'inscrivant dans une démarche entièrement plasticienne, Olivier Strauch explore cet art comme il explore la musique. C'est en effet toujours sur des éléments tirés du réel que sa démarche artistique prend source. Algoritmes chaotiques, mesures physique d'aurores boréales, assonances de mots, analyses spectrales ou synthèses croisées seront autant de piliers pour ses œuvres, de genres très différents : musique instrumentale, vocale, électroacoustique, ou pour instruments rares : carillon ambulant, lithophones… Projets actuels : Opéra baroque "jazzéifié" interprété par des marionnettes, ou analyse/resynthèse de pièces musicales pour créer des chants d'oiseaux imaginaires.

Moment musical & Illustrations sonores

IMéRA, MusInfo, Planétarium Marseille

 programme

 

partie I (cca 20 minutes)

Dudon : Synthèse photosonique - performance

 

------- pause -------

 

partie II (cca 30 minutes)

Castro : Heliotropika

Diennet : Stars Peace 2 (Cosmophone)

Goudarzi : Klima-anlage

Malt / Brohon : Parcours

Mihalic :Terra

Minciacchi : Taked from WFDD 'nd WAWD

Munakata : Guardian of Genome

Parker : Supernova Sonata

Risset : Electron-Positron

Saariaho / Barrière : Nox Boréalis

Strauch : Aurores Boréals

 

Post-traitement des images pour la diffusion dans le dôme par Lionel Ruiz (Association Andromède Marseille)

Numérisation de la VHS Electron-Positron par Fabien Cothenet (Mémoire Magnétique)

 

------------------------

 
installation
au 1er étage de la Maison des Astronomes
 


Brohon / Malt : Parcours

 

 


Juan Manuel Castro

Juan M. Castro has been involved in interdisciplinary work practices traded between the fields of media art, neuroscience, microbiology and biochemistry. He has created artworks that range from topographic maps of oxygen in the brain, a 3-D architecture of neural activity, to the conception of an interface between people and cyanobacteria. He was born in Bogota (Colombia) and is currently living and working in Tokyo (Japan). As a postdoctoral research fellow (JSPS), he is investigating the potential of artificial membranes upon artistic practice.

Heliotropika

Heliotropika is a hybrid installation focusing on the interactions between microorganisms, humans and light. The project creates an interface between people and cyanobacteria by integrating the photosynthetic activity of these cells, the dynamics of environmental light and the bioelectrical activity of the participants.

Using cell culture and computer vision, this work renders the photosynthetic activity of cyanobacteria in the form of an organic structure. It also produces soundscapes and dynamic geometries of light by analyzing environmental data. Simultaneously, this work transforms the activity of the nervous system of each participant into light a source to stimulate the cells. As a result, the visitors and cyanobacteria influence each other giving rise to a dynamic feedback system.

 

Jacques Diennet

Jacques Diennet a été, en France, l’un des pionniers de la synthèse numérique « live ». En complicité de l’univers d’un Bob Ashley, d’un Harold Budd, il donne à sa musique, fréquemment ouverte aux instrumentistes et parfois à la voix, les meilleures chances d’installation dans des climats de captation douce – séduction étirée où, sans ostentation, la mélodie toujours imprime le mouvement. Non-vouloir actif, calme exigence des déports (Diennet sait quel beau ferment est l’improvisation ; sait ménager sa place dans les récits qu’il fomente), sa voix est celle d’un élégant et tendre flâneur du jardin sec.

Stars Peace 2 (Cosmophone)

Le Cosmophone se situe au confluent des sciences fondamentales de pointe (astrophysique et physique des particules), des nouvelles technologies (synthèse sonore numérique en temps réel et spatialisation du son) et de l’art contemporain (musique et installations environnementales), domaines dont la fertilisation mutuelle peut être source de développements originaux.

En plaçant le spectateur à la croisée de l’infiniment petit (les particules élémentaires qui le transpercent) et de l’infiniment grand (le cosmos dont elles proviennent), le cosmophone met l’auditeur en contact direct avec l’ensemble de notre galaxie et les phénomènes violents qui s’y produisent, stimulant tout un imaginaire qui peut offrir un nouveau champ d’action à la création artistique.

 

Visda Goudarzi

I am currently a Phd. candidate in Sonification and Audio Engineering. My research interests are in Human Computer Interaction (HCI), Auditory Interfaces, Sonic Interaction Design, and Data Sonification. I have a MA in "Music, Science, and Technology" from CCRMA (Center for Computer Research in Music and Acoustics) at Stanford University and a MSc. in Computer Science from Vienna University of Technology. Besides research, I curate Open CUBE concert series at IEM, and teach Live Electronics and Sonification at IEM.

Klima-anlage

Klima-anlage is a sound installation on climate model data. The Earth's climate is driven by two factors: the sun, which follows an 11-year cycle, and the human impact of greenhouse gases, their future increase is assumed here as "medium scenario", which starts to oscillate in about 2100 . Influenced by several factors: we hear precipitation as a rhythmic pattern and temperature as a harmonious sound element, each represent a small part of the earth. (Only for three specific locations: Austria, Chad, and Quebec)

The Klimaanlage is an ensemble of drum (precipitation), water polo (sunlight), Box (greenhouse gases), and loudspeaker transmitters (temperature).

Time: 1850 -2300 in 400 seconds

This sound installation was implemented by two sonification students at IEM.

 

Damien Brohon / Mikhail Malt

Damien Brohon utilise surtout le dessin et la peinture, parfois la photographie. Son travail plastique trouve dans la vidéo la possibilité d’un rapport avec la musique lors de ses collaborations avec Mikhaïl Malt (compositeur de musique contemporaine). Il considère que l’art (tant sa production que sa contemplation) est l’occasion d’une spiritualité mise en action. En effet, ses oeuvres se veulent proposition d’un espace imaginaire (ou imaginal) où le regard peut prendre conscience de lui même et retrouver son ouverture première.

Il expose réguliérement à la galerie (rajouter le nom de ta galerie) et à la galerie Métanoïa. Il participe  à deux groupes d’artistes : le Clear Light Collective et le Groupe SoleLuna. 

Damien Brohon est agrégé d’Arts Plastiques et enseigne au lycée. Il enseigne également sur la philosophie Bouddhiste et donne des conférences sur le thème  « Bouddhisme et Art moderne ». 

 

Mikhail Malt a une double formation, scientifique et musicale (ingénierie, composition et direction d’orchestre). Il est l’auteur d’une thèse à l’École des Hautes Études en Sciences Sociales sur l’utilisation de modèles mathématiques dans la composition assistée par ordinateur, et il a été professeur associé à la Sorbonne – Paris IV. Actuellement il est chercheur dans l’IReMus (Institut de Recherche en Musicologie) - UMR 8223 – de Paris IV dans le groupe « Musicologie, informatique et nouvelles technologies » (MINT), et réalisateur en informatique musicale chargé de l’enseignement au sein du département de la pédagogie de l’Ircam. Mikhail Malt poursuit ses activités de composition et de recherche sur les sujets de la modélisation, de la représentation musicale et de l’épistémologie de la composition.

Parcours

 

Alexander Mihalic

Alexander Mihalic travaille dans deux domaines distincts et complémentaires. Tout d’abord il s’intéresse au lien entre l’exploration du réel à travers le son et l’acoustique – la sonification – en se basant sur le fond des relations entre les sciences et les arts dans leur histoire et leur état actuel. Dans ce cadre, il crée et développe des projets interdisciplinaires entre art et science, comme le projet de sonification des spectres lumineux en collaboration avec l’Université de Marseille, et il enseigne en parallèle l’informatique musicale et le multimédia à l’Université Paris 8 et l’acoustique et la sonification à l’IUT de Bourges.

Enfin, et en plus de son activité de compositeur, il s’applique tout particulièrement au développement de solutions pour les musiques « temps réel » (travail à l’IRCAM et à l’IMEB) en développant des solutions logicielles pour interfaces gestuelles et en créant notamment un nouvel instrument électroacoustique – extension pour un instrument acoustique - joué par de nombreux interprètes dans plusieurs festivals et concerts dans le monde (USA, Espagne, Allemagne, France, Japon, etc).

Terra

La pièce Terra inclus dans son processus compositionel les données qui ont le rapport avec la Terre et les observations des objets célestes vu à partir de la Terre. Ces données sont « transcrites » suivant les différentes applications et transformations dans les paramètres musicaux. Les paramètres musicaux vont donc être modifiés en fonction des changements des variables comme par exemple le temps et la position de l'observation du ciel, ou le mouvement apparent des objets célestes. La transformation des données s'applique ensuite directement à l'écriture ou sur les paramètres de la synthèse.

 

Diego Minciacchi

Diego Minciacchi studied Medicine and Music (piano and composition). He graduated in Piano at the Conservatorio di Perugia, graduated in Medicine and specialized in Neurology at Catholic University of Rome. He's active in the fields of music composition and neuroscience (neuro-scientific research). His contacts with K. Stockhausen, G. Giuliano, H. P. Haller, L. Nono, E. Nunes, H. Radulescu, and C. Roads had great meaning for his musical and human formation. His first work goes back to 1977 (Op. '76-'77 for piano and analogical electronics). Since the 90s he has been interested in converting music data deriving from scientific research. He composed more than sixty works for conventional instruments (e.g. "Costa Contigua", for two violas, two cellos and double bass, Paris, Lucero, 1994; "La Discipline de la crise", for Orchestre Français de Flûtes, two percussion, and three speakers, Salle Alfred Cortot, Paris, 2009) and for instrument(s) and electronics or live electronics, (Vae Victis, for piano, electronics and live electronics, Donaueschingen 1997; Quintum Desertum for three pianos and electronics, Darmstadt Ferienkurse 2000, Heilbronn, biennale "...antasten...", 2001).

His longstanding friendship with H. Radulescu led him to work often with natural sound and the harmonic micro and macroformal relationships, which have lots of unexplored potentialities. His friendship with C. Roads allowed him to give sensitive importance to the presence of sound sculpture in his works.

He realized the movie "What a Wonderday Day", Conservatorio G. Verdi, Milano, 2007.

He has collaborated since the beginning of his carrier with M. Andersson, P. Y. Artaud, M. Barbetti, A. Brett, J. Burns, J. Clapperton, P. Geiss, R. Fabbriciani, F. Grillo, K. Han, N. Isherwood, D. Kientzy, J. Luc Mas, I. Matuz, F. Mondelci, A. Peacoch, J. Pilch, O. Stürmer, B. Webb. He realized works with electronics in several studios: "Heinrich-Strobel-Stiftung Experimentalstudio", SWR, Freiburg (since 1987); IRCAM, Paris; Electronic Music Studio Institute for Electro-Acoustic Music in Stockholm, Sweden; MEDIA Lab, Boston, Massachusetts, USA. He composed works on texts by Italian authors of the 20th century like E. Cacciatore, E. Villa, M. Bàino, A. Anedda; he has been working on a poetic experimentation paying attention to the plurality of the phonetic and expressional solutions edging sometimes the sound/voice/linguistic expressionism. CD issues: 25 Years Experimentalstudio Freiburg, col legno ed., (1998); The Aforesaid, col legno ed., (2001); Electroacoustic Music, Volume VIII, Electroshock Records, ELCD 036 (2003); Piano Works 1, col legno ed., (2005).

 

taked from WFDD 'nd WAWD

taked from WFDD 'nd WAWD has been expecially post-produced for the "Séminaire : le son de la lumière et de l'invisible, 2-3 April 2014, IMéRA, Marseille, France".

taked from WFDD 'nd WAWD is conceived as short audio-video sampler for sonification experiences. It starts with two excerpts from "Westbau" from "Der Dom" (bass voice Nicolas Isherwood, contrabass Stefano Scodanibbio, trombone Barrie Webb, and electronics; Diego Minciacchi, THE AFORESAID, col legno), an early 1992 work where sonification procedures have been used extensively to produce the electronic part. The third excerpt is the video "6. Zwei: Break Ciphers" from the 2008 movie "WHAT A WONDERDAY DAY - Body Count Version", where sonification procedures have been used to construct first the audio and then the visual part of the movie.

 

Nobuo Munakata

Born in 1942 in Tokyo, graduated from Tokyo University in 1964. After finishing the Ph. D. theses in the Department of Biopysics, worked as a molecular geneticist in Universities in US and Canada and in the National Cancer Center of Japan. In 1984, I proposed and started to compose “Gene Music”. My major interests after retirement is the study and composition of shamisen music, gardening and watching little grebe’s parenting in nearby ponds.

Guardian of Genome : P53 Tumor-suppressor Protein

Mutations in P53 tumor suppressor are the commonest in human cancer. The protein controls various cellular processes such as DNA repair and apoptosis, and functions as the guardian against genomic instability. The three types of interactions are shown; sequence-specific DNA binding through the core region (1TUP.pdb, Gorina et al. Science vol. 265, 346), binding with 53BP1 BRCT domains (1GZH.pdb, Derbyshire et al. EMBOJ vol. 21, 3863) and a tetramer of the c-terminal oligomerization domain (1SAE.pdb, Clore et al. NatStrBio vol. 2, 321).

 

Alex Parker

Astronomer / Planetary scientist at the University of California at Berkeley researching the outer fringes of our Solar System.

I also make music out of things.

Supernova Sonata

From April, 2003 until August, 2006, the Canada-France-Hawaii Telescope watched four parts of the sky as often as possible. Armed with the largest digital camera in the known universe, CFHT monitored these four fields for a special type of supernova (called Type Ia) which are created by the thermonuclear detonation of one or more white-dwarf stars. These explosions are extremely energetic, and can be seen across vast distances in space.

These four fields covered roughly 16 times the area of the full Moon on the sky, or roughly 1/10,000 of the entire sky. Even though such a small fraction of the sky was monitored, 241 Type Ia supernovae were seen during the period of observation.

This video is a compilation of the 241 Type Ia supernovae seen in these fields during the CFHT Legacy Survey. The four Deep Fields are shown in color, and the positions of all the supernova are illustrated as time progresses. The animation is rendered at 15 frames per second, and each frame corresponds to just under a single day (one second in the animation corresponds to roughly two weeks of real time).

Each supernova is assigned a note to be played:

The volume of the note is determined by the distance to the supernova, with more distant supernova being quieter and fainter.

The pitch of the note was determined by the supernova's "stretch," a property of how the supernova brightens and fades. Higher stretch values played higher notes. The pitches were drawn from a Phrygian dominant scale.

The instrument the note was played on was determined by the properties of the galaxy which hosted each supernova. Supernovae hosted by massive galaxies are played with a stand-up bass, while supernovae hosted by less massive galaxies are played with a grand piano.

Note that the brightness of the supernovae as illustrated in the video are not to scale - because they are so distant, even these extremely powerful explosions appear very faint once their light reaches us here on Earth.

Created by Alex H. Parker (University of Victoria) and Melissa L. Graham (University of California Santa Barbara / LCOGT).

Source of images: Stephen Gwyn's CFHTLS pages - .cadc-ccda.hia-iha.nrc-cnrc.gc.ca/community/CFHTLS-SG/docs/cfhtls.html

Source of SNe data:

(Conley et al. 2011) adsabs.harvard.edu/cgi-bin/bib_query?arXiv:1104.1443

(Sulivan et al. 2011) adsabs.harvard.edu/cgi-bin/bib_query?arXiv:1104.1444

 

Jean-Claude Risset

Pionnier dans l’aventure de l’informatique musicale commencée aux États-Unis, J.-C. Risset a contribué par la suite à l’introduction de l’ordinateur en France (dans des institutions comme l’IRCAM ou les universités d’Orsay et de Marseille-Luminy). Il a été, de par sa double formation, scientifique et artistique, le premier compositeur français à ouvrir la voie aux sons synthétisés par ordinateur. Il incarne aujourd'hui une figure majeure de la création musicale contemporaine et, en même temps, de la recherche sur la musique dite électronique. Ses contributions marquent de son empreinte l’esthétique des années 1970-1990

Electron-Positron

pour bande 8 pistes, (1989)

Electron-Positron a été réalisée à la demande du CERN (Centre Européen de Recherche Nucléaire) en vue de "l'acte inaugural" du LEP, le grand collisionneur européen à électrons et positons inauguré à Genève le 13 novembre 1989.

L’acte inaugural devait comporter un “ spectacle métaphorique ” de 3 minutes évoquant l’activité autour du LEP : le spectacle consistait d’images animées projetées sur un écran circulaire géant d’une circonférence de 135 m – à l’échelle 1/200e du LEP – accompagnées d’une composition sonore (Electron-Positron) pour bande 8 pistes diffusée par un réseau de haut-parleurs situés au voisinage de l’écran. La partie visuelle a été réalisée par Richard Beaudemont. Une première séquence, d’une durée de 2 minutes, suggère la mise en route et l’accélération des faisceaux d’électrons et de positrons par des mouvements autour des auditeurs de sons rythmés qui accélèrent pour aboutir à l’événement de collisions. La seconde séquence, qui dure une minute, est plus libre dans son programme : elle doit suggérer l’intervention humaine. Electron-Positron est une évocation métaphorique et non une traduction rigoureuse de ce qui se passe physiquement.

Cette illustration sonore fait appel à des techniques de pointe : synthèse par ordinateur de sons paradoxaux (paraissant monter sans fin ou accélérer sans fin), spatialisation numérique des sons en temps réel, ralentissement de la parole sans transposition à l’aide de l’analyse-synthèse par décomposition en “ grains de Gabor ” (sur le mot Gira – ça tourne – prononcé par Alex Grossmann, un des pères fondateurs des ondelettes : ce ralenti est une réalisation de Daniel Arfib à l’aide de son logiciel Sound Mutations). Au début, on peut entendre le “ son du LEP ”, un son obtenu par démodulation, qui correspond à l’oscillation de phase des paquets de particules par rapport à la fréquence accélératrice. Cette oscillation se retrouve dans le domaine audible, autour d’un sol dièze. Ce son est graduellement affecté de glissements en ‘vis sans fin’ obtenus grâce à des filtres numériques dont les fréquences centrales sont modulées en temps réel en restant à intervalle d’octaves. Les montées ou accélérations indéfinies ont été réalisées par synthèse additive à l’aide du logiciel Music V. Il faut mentionner la collaboration de l’Equipe d’Informatique Musicale du Laboratoire de Mécanique et d’Acoustique

du CNRS et de la Faculté des Sciences de Luminy, Université d’Aix- Marseille II, et notamment de Pierre Dutilleux.

(Durée 3 mn)

 

Kaija Saariaho / Jean-Baptiste Barrière

Kaija Saariaho is a prominent member of a group of Finnish composers and performers who are now, in mid-career, making a worldwide impact. She studied composition in Helsinki, Freiburg and Paris, where she has lived since 1982. Her studies and research at IRCAM have had a major influence on her music and her characteristically luxuriant and mysterious textures are often created by combining live music and electronics. Although much of her catalogue comprises chamber works, from the mid-nineties she has turned increasingly to larger forces and broader structures, such as the operas L’Amour de loin and Adriana Mater and the oratorio La Passion de Simone.

Nox Boréalis

General Conception: Jean-Baptiste Barrière

Music: Kaija Saariaho

Realization of the electronic part: Jean-Baptiste Barrière

Visual part conception: Jean-Baptiste Barrière

Images realization: François Galard

"Nox Borealis" is a musical and visual installation which finds its inspiration in two very different sources: one musical, the piece "Lichtbogen" by Kaija Saariaho, the other sonic, the recordings realized during aurora borealis by professor Unto K. Laine (Helsinki University of Technology).

"Lichtbogen"(1986), arches of light in german, is a piece for instrumental ensemble (9 musicians) and live-electronics, that Kaija Saariaho composed after a journey, in 1986, beyond the polar circle, where she could witness with Jean-Baptiste Barrière, the magical and enigmatic spectacle of aurora borealis unfolding in the sky.

For "Nox Borealis",  from a multitracks studio recording of Lichbogen, which they have remixed, processed and spatialized on eight tracks around the audience, Saariaho and Barrière have imagined a visual dimension, with synthesis of abstract images.

These images are inspired by the music as well as aurora borealis, and projected on a as large as possible screen on the ceiling of a hall, the spectators lying comfortably on the ground, immersed in sound and image in a situation evocating the one of the spectactorss of these natural phenomenons, lying in the snow and scanning the vast movements of lights which furrow the Nordic winter skies.

Starting from this reflexion on aurora borealis and from the analysis of musical forms and more specifically of timbres in “Lichtbogen”, this visual part sketches a speculative work about the exploration of crossed relations of music and image, through an exploration of light and color.

 

Olivier Strauch

Avec une approche de la marionnette proche du théâtre d'objet ou s'inscrivant dans une démarche entièrement plasticienne, Olivier Strauch explore cet art comme il explore la musique. C'est en effet toujours sur des éléments tirés du réel que sa démarche artistique prend source. Algoritmes chaotiques, mesures physique d'aurores boréales, assonances de mots, analyses spectrales ou synthèses croisées seront autant de piliers pour ses œuvres, de genres très différents : musique instrumentale, vocale, électroacoustique, ou pour instruments rares : carillon ambulant, lithophones… Projets actuels : Opéra baroque "jazzéifié" interprété par des marionnettes, ou analyse/resynthèse de pièces musicales pour créer des chants d'oiseaux imaginaires.

Aurores Boréals

Les aurores polaires sont les manifestations les plus spectaculaires de l'impact de l'activité solaire sur l'atmosphère terrestre. Outre de la lumière, elles produisent des variations du champ magnétique local, mesurées par un réseau de magnétomètres qui s'étend de l'Arctique au sud de la Norvège.

En novembre 2000, nous avons unis nos connaissances scientifiques et artistiques pour rapatrier les données des aurores boréales en temps quasi réel, puis les interpréter en musique. La musique était à la fois electroacoustique, automatiquement déclenchée, et interprétée par un choeur de chanteurs en fonction du signal auroral. Ainsi, chaque concert était différent, comme le sont les aurores elles-mêmes.

Une mini conférence mettait le public en situation de comprendre la démarche, de réaliser que, par la musique, il allait être à proprement parler en connexion avec le Soleil, via des particules qui en avaient été éjectées quelques heures plus tôt. Une connexion donc physique et non ésotérique, mais une connexion sensible et émotionnelle.

Le spectacle a été créé pour le festival des 38èmes Rugissants en novembre 2000 et rejoué en juin 2002 dans le cadre du festival Foliephonies, en agglomération grenobloise.

à venir...

Abstracts :

(Dans l'ordre chronologique)
 

Re-sensing light and biosignals

Juan Manuel Castro

Postdoctoral research fellow

Waseda University, Department of Electric Engineering and Bioscience. Laboratory for Molecular Cell Network & Biomedia Art

 

Heliotropika is an installation that creates an interface between people and cyanobacteria mediated by light. The project integrates the photosynthetic activity of these microorganisms, the dynamics of environmental light and the bioelectrical activity of the participants. The result is a series of interfaces, soundscapes and visualizations, creating a dynamic feedback system between the two species. By linking physiological processes between humans and cyanobacteria this system stands as means to explore sounds and patterns of coexistence, and study innovate interfaces centered on microcellular activity. It also serves as an approach to look the aesthetics of biological processes beyond human control and the future interplay among organisms.

 


SysSon: A Sonification platform for Climate Data

Visda Goudarzi

Phd. candidate in Sonification and Audio Engineering

Institute of Electronic Music and Acoustics (IEM), University of Music and Performing Arts Graz

 

Climate data provide a good working basis for sonifications. Both model data and measured data are assessed in collaboration with the Wegener Center for Climate and Global Change. The multi dimensionality and multi variety of climate data has a great potential for auditory displays. Furthermore, there is consensus on global climate change and the necessity of intensified climate research today in the scientific community and general public. Sonification provides a new means to communicate scientific results and inform a wider audience. SysSon is a user centered auditory platform for climate scientists to analyze data. It gives scientists broader insights by extracting hidden patterns and features from data that is not possible using a single modal visual interface. The platform is an interactive sonification tool which gives the scientists the choice of interacting with the user interface and adjusting the sonification designs and sounds dynamically while analyzing data. There's also a variety of soundscapes to chose from to avoid the fatigue by listening to the long streams of data. The initial needs assessments and user tests made the work process and the terminology of climate scientists clear. Furthermore, experiments evaluated the sound design which led to a more advanced soundscape and improvement of the auditory display.

 


Pétillements d'Aurores

Jean Lilensten

astronome au CNRS

Institut de Planétologie et d'Astrophysique de Grenoble

&

Olivier Strauch

compositeur, marionnettiste

professeur de musique au CNR de Grenoble

 

Les aurores polaires sont les manifestations les plus spectaculaires de l'impact de l'activité solaire sur l'atmosphère terrestre. Outre de la lumière, elles produisent des variations du champ magnétique local, mesurées par un réseau de magnétomètres qui s'étend de l'Arctique au sud de la Norvège. En novembre 2000, nous avons unis nos connaissances scientifiques et artistiques pour rapatrier les données des aurores boréales en temps quasi réel, puis les interpréter en musique. La musique était à la fois électroacoustique, automatiquement déclenchée, et interprétée par un choeur de chanteurs en fonction du signal auroral. Ainsi, chaque concert était différent, comme le sont les aurores elles-mêmes. Une mini conférence mettait le public en situation de comprendre la démarche, de réaliser que, par la musique, il allait être à proprement parler en connexion avec le Soleil, via des particules qui en avaient été éjectées quelques heures plus tôt. Une connexion donc physique et non ésotérique, mais une connexion sensible et émotionnelle. Le spectacle a été créé pour le festival des 38èmes Rugissants en novembre 2000 et rejoué en juin 2002 dans le cadre du festival Foliephonies, en agglomération grenobloise. 

 


Synthèse photosonique

Jacques Dudon

chercheur sonore

 

Les formes créent des sons. Les disques photosoniques sont des "palettes sonores" déployant des ondes conçues géométriquement qu'un musicien va pouvoir interpréter au moyen de sources lumineuses déplacées au-devant d'un instrument lecteur mettant ces disques en rotation, et de divers filtres optiques contrôlés manuellement. Les modulations apportées à la lumière sont captées par des cellules photovoltaïques qui les transforment en signaux électriques directement amplifiables. La création des disques photosoniques passe ainsi par une géométrisation du son : échelles musicales, rythmes, timbres, bruits, mélodies, échelles musicales... et réalise une "sonification" purement analogique de formes imaginaires ou empruntant leurs  données à différents domaines spatio-temporels de la nature et de l'univers, des cultures musicales et de l'harmonie des nombres. 

 


Sonification of a navigation process within a hierarchical structure

Nicolas Misdariis

Chargé de Recherche & Développement

Equipe Perception et Design Sonores, IRCAM 

 

Sonification of a tree‐like hierarchical structure has been investigated in numerous previous research studies and software development works in the field of Human-Computer Interface (HCI). The ground principles used for these works – basically dealing with the transformation of one system data set into auditory informations – can be grouped in three main categories: « earcon », synthetic sound for which the sound/meaning relationship is arbitrary, or symbolic, and then needs to be learnt by the user [BSG89]; « auditory icon » that builds a direct, or metaphoric, link between one object and its underlying concept, by refering to a sound derived from our daily environment [Gav86]; « spearcon » (« speech » and « earcon » contraction), sound based on a time-stretched vocal synthesis which produces an unequivocal sonic print of a word, or a group of words, even if some syllables are note identifiable or missing [PW07]. In a real context, this navigation paradigm is often performed in a double-task situation in terms of cognitive attention: vision being hogged by a primary task and audition being requested for fulfilling the main tracking functions in a secondary task. From this point of view, and on the basis of a set of works achieved in the automotive domain, we will present, first, the several sonification strategies imagined and designed by the composer Andrea Cera, and secondly, we will point out the added value of the sonic component, especially in terms of performance for the visual attention.

 


Le projet See ColOr

Guido Bologna

Senior Lecturer (University of Applied Science, Geneva) 

Computer Vision and Multi Media Lab, University of Geneva, Switzerland.

 

"See ColOr " est une aide à la mobilité qui a pour but d'aider les personnes aveugles à percevoir l'environnement dans lequel elles se trouvent. L'idée de base de cette interface est d'associer des sons d'instruments de musique aux couleurs, ainsi que de représenter la distance par le rythme. Spécifiquement, la sonification des couleurs et des distances de l'environnement proche est réalisée par un petit orchestre, dont les sons émis sont spatialisés latéralement. Nous présenterons plusieurs expériences qui ont été accomplies par le passé à l'aide d'un prototype, ainsi que quelques résultats plus récents. Les expériences que nous avons réalisé avec un certain nombre de participants sont: l'appariement de chaussettes colorées ; le suivi d'un parcours coloré sur le sol ; la localisation d'un objet coloré dans une salle ; la localisation d'obstacles et la reconnaissance d'objets.

 


The Unexplored Human Potential: Perspective in Training Uncommon Sensory Abilities

Juan Antonio Martínez Rojas

Associate Professor,

Department of Signal Theory and Communications, Radiation and Sensing Group, University of Alcalá

 

Humans have many sensoy systems to perceive the world, but, until recently, only vision and hearing have been systematically studied. The potential of many of these sensing abilities remains almost unexplored, but could be essential to improve the quality of life of disabled people, among other applications. We'll explore the most promising senses and we'll try to describe new training methodologies to develop these abilities, explaining their strengths and weaknesses. As a special case, we'll study human echolocation and we'll show how new research could change "our vision" about human perception. Actually, our most recent results show that human echolocation is a much more complex phenomenon than previously anticipated, to the point that a completely new sense, not directly related with hearing, could exist.

 


Musical Representation of Physical Brain Quantities: Sonification versus Biotic Composition

Diego Minciacchi

Professor of Theory and Techniques for Motor and Sport Activities

Department of Experimental and Clinical Medicine, Physiological Sciences Section, Biomedical Area, University of Florence, Italy

 

My contribution will redraw the theoretical foundations, the essential results, and the possible perspectives, of my research/experience on the relations between the structure and functions of the brain and the processes of musical composition. I will first point up on data and views in support of the notion that music cannot be represented in terms of unambiguous universals. Music is not the exclusive privilege of mankind and its perception is result of a very early chain of events in everyone's life. Besides, for perception and production of music, we use complex and huge cerebral networks, which are largely mixed. Secondly, I will illustrate the process of composition by concentrating on sonification and biotic music procedures as they derive their information from neurosciences and possibly link it to musical parameters. Sonification is the use of a sound structure devoid of linguistic elements to transmit an informative content originated by biological data. Conversely, biotic music can be considered as a musical production where the data of origin are biological. Theoretical stakes and examples of strategies to convert brain data into sound objects are presented. The biotic method here described can contribute to a unitary view of the different sound parameters and of the micro- and macro-formal aspects of music composition.

 


Entendre la lumière - à l’écoute de l’inaudible

Alexander Mihalic

compositeur, musicologue

résident à l'IMéRA, réalisateur en informatique musicale chargé d'enseignement IRCAM

&

Alexandre Escarguel

MCF

laboratoire PIIM - UMR 7345 Universite d'Aix-Marseille / CNRS, Equipes Turbulence plasma / Diagnostic dans les gaz et les plasmas

 

Le projet Sonification des spectres lumineux propose de « transformer » les informations visuelles en informations auditives et donner ainsi une nouvelle perspective et une autre dimension à la perception d’un phénomène physique. La sonification des données de spectromètre permet l’observation auditive des informations d’origine visuelle ne pouvant pas être perçues par l’homme ainsi que des spectres de plasma. Le spectromètre analyse la lumière captée en temps réel et la représente à l’écran sous forme d’un graphique fréquences/amplitudes. La sonification des spectres lumineux se fait avec un logiciel crée spécialement pour cette occasion et qui est une variante du logiciel que nous avons créé pour la sonification des données de diffractomètre. Le logiciel récupère les données issues de spectromètre et les transforme en signal audio en agissant sur les paramètres de la synthèse additive.

 


Cosmophonie@infinie

Jacques Diennet

compositeur

 

Le Cosmophone se situe au confluent des sciences fondamentales de pointe (astrophysique et physique des particules), des nouvelles technologies (synthèse sonore numérique en temps réel et spatialisation du son) et de l’art contemporain (musique et installations environnementales), domaines dont la fertilisation mutuelle peut être source de développements originaux. En plaçant le spectateur à la croisée de l’infiniment petit (les particules élémentaires qui le transpercent) et de l’infiniment grand (le cosmos dont elles proviennent), le cosmophone met l’auditeur en contact direct avec l’ensemble de notre galaxie et les phénomènes violents qui s’y produisent, stimulant tout un imaginaire qui peut offrir un nouveau champ d’action à la création artistique.

 


Son musical et sonification : quelques exemples 

Jean-Claude Risset

Directeur de recherche émérite, compositeur

Laboratoire de Mécanique et d’Acoustique, Université d’Aix-Marseille / CNRS

 

On peut parler de sonification lorsqu’un son est structuré par des informations ou des modèles non sonores (compteur Geiger, cordes de piano indiquant la tension dans les barrages). L’exposé évoquera nombre d’exemples originaires ou récents de structuration des sons musicaux par des modèles extérieurs à la musique. La notation musicale a suggéré les transformations du contrepoint et les transpositions de documents graphiques : Melodia di Montanha puis New York Skyline  (1939) de Villa-Lobos, Metastasis (1954) de Xenakis, Atlas Eclipticalis (1961) de Cage. Le son numérique fera exploser le champ de la sonification : il permet la modulation de paramètres sonores quelconques par des fonctions limitées en fréquence (cf. FM de Chowning, 1967-..., Inharmonique, 1977, Sud, 1984). La synthèse par modèles physiques (Ruiz, Cadoz, ACROE) – souvent appelée « auralisation » - peut en fait s’appliquer à plusieurs modalités sensorielles : elle donne lieu lieu à l’immersion virtuelle. On mentionnera la version sonore  - de mesures physiques ou phonétiques : Earth magnetic field  (1970) de Dodge, Das lied von den erde  (1974) de Knopoff, Interphone  (1977) de Decoust, Electron-Positron (1989), Cosmophone de Kronland, Vallée, Voinier, Diennet, (2000-...) ; - de structures graphiques ou mathématiques : oiseaux, sirènes de Little Boy (1968), lemniscate spatial de Chowning (1973), auralisation des polynômes de Tchebytcheff par Arfib (1977), oiseaux de  Songes (1978), scanning de textures visuelles par Arfib et Filatriau (2006).