Fabio Cifariello Ciardi

ciardiFcc_vimeo-ico Fcc_youtube-icoFcc_soundcloud-ico flickr-ico

Fabio Cifariello Ciardi (Roma, 1960) Interessato alla percezione, alla memoria e all’uso della tecnologia applicata a diversi fenomeni che raccontano il nostro presente, Fabio Cifariello Ciardi si dedica alla musica strumentale, a quella elettroacustica e alla creazione di opere multimediali. Di recente si interessa alla trascrizione strumentale delle inflessioni e dei ritmi della voce parlata.

Dopo gli studi di musicologia, composizione e musica elettronica si è perfezionato con Franco Donatoni all’Accademia di S. Cecilia e con Tristan Murail e Philippe Manoury all’IRCAM di Parigi.
Le sue musiche sono state premiate in diversi concorsi fra i quali “ICMC Cd selection 1993” (Tokyo – Japan), “Olympia 1993” (Athens – Greek), “Spectri Sonori93” (Tulane – USA), XXV Concours Int. de Musique Electroacoustique 1998 (Bourges – France), Valentino Bucchi 1999 (Roma), Premio Nuova Musica – 39° Concorso Seghizzi (Gorizia), HK.5 Rimusicazioni Film Festival 2003.
Ha ricevuto commissioni da Biennale di Venezia, Fondazione ITeatri di Reggio Emilia, Ravena Festival, Fondazione Palazzo Strozzi di Firenze, Agon-Centro Armando Gentilicci, Fondazione S.Cecilia di Portogruaro, Comune di Trento, Orchestra Haydn di Trento e Bolzano, Orchestra Sinfonica di Sanremo, Orchestra MilanoClassica, Orchestra di Roma e del Lazio, Divertimento Ensemble – Ernst von Siemens Music Foundation, Società dei Concerti “B. Barattelli”, Institut für Neue Musik di Friburgo, Università di Singapore, Stockholm Electronic Music Studio, IMEB Bourges (Francia).
Ha collaborato fra gli altri con i chitarristi Massimo Laura, Magnus Andersonn, Stefano Cardi; i clarinettisti Roberta Gottardi, Guido Arbonelli,  le clavicembaliste Annalisa Martella e Mariolina De Robertis; i violinisti Mari Kimura, Diego Conti, Marco Rogliano, Massimo Coen, i contrabbassisti Daniele Roccato e Corrado Canonici; i flautisti Mario Caroli, Carin Levine, Claudia Giottoli, i trombonisti Ivo Nilsson e Michele Lo Muto, i musicisti Jazz Uri Caine, Riccardo Fassi e Peter Kowald.

Nel 2010 il canale televisivo franco-tedesco Arte (www.arte.tv)  ha dedicato un documentario alle sue opere basate sulla sonificazione di dati finanziari in tempo reale.

Le sue musiche sono pubblicate da Rai-com e Curci, Edipan, Rugginenti, Erreeffe e incise su CD Stradivarius, Curci, ICMA, CNI-LaFrontiera, Unesco CIME-Cultures Electroniques (Bourges, France), Mudima – Cramps Records, SiltaClassic, Cineteca di Bologna (con Edison Studio).
A partire dal 2001, con il collettivo Edison Studio, ha partecipato alla composizione e alla realizzazione delle colonne sonore per i film “Gli Ultimi Giorni di Pompei” (Eleuterio Ridolfi, 1913), “Das Cabinet Des Dr. Caligari” (Robert Wiene. 1919), “Inferno” (Bertolini, De Liguoro, Padovan, 1911), “Blackmail” (Hitchcock, 1929).
Per la composizione della propria musica ha creato software originali dedicati al calcolo della dissonanza, la spazializzazione del suono, la sonificazione in tempo reale degli andamenti dei mercati finanziari e la trascrizione strumentale di voci parlate.
È titolare della cattedra di Composizione presso il Conservatorio di Trento.
Ha al suo attivo diverse pubblicazioni nazionali ed internazionali dedicate alla musica del novecento, alla psicologia e all’analisi della musica e alla politica musicale italiana. In ambito musicologico ha collaborato con l’Istituto di Ricerca per il Teatro Musicale di Roma, con la rivista Suono Sud. Collabora regolarmente con Radio Tre Suite –  Radio Tre. Ha fatto parte del comitato di redazione di Analitica, rivista online di studi musicali.
Nel 1993 ha fondato insieme ad Alessandro Cipriani, Luigi Ceccarelli e Mauro Cardi l’Edison Studio (www.edisonstudio.it).

Ancora di più su
www.fabiocifariellociardi.com
http://tn-it.academia.edu/FabioCifarielloCiardi
http://www.researchgate.net/profile/Fabio_Cifariello_Ciardi

MORE

su UniTrento MAG

Segmentazione, analisi e trascrizione della voce parlata

una sfida interdisciplinare per le scienze e la musica

La grande potenzialità comunicativa del linguaggio parlato deriva dalla possibilità di investire di significato complesse combinazioni di elementi morfologicamente caratteristici estratti da un lessico e organizzati secondo una sintassi, ma non solo. La possibilità di assegnare un senso alle parole che ascoltiamo poggia anche sulla nostra capacità di utilizzare la dimensione prosodica del parlato, ossia la capacità di convertire le variazioni nell’altezza, nell’intensità e nel timbro della voce in indicazioni utili per conoscere meglio le intenzioni, la personalità, l’umore e le emozioni di chi parla.

Negli ultimi decenni lo studio dell’intonazione, del ritmo della voce parlata ha largamente superato i tradizionali confini della linguistica e rappresenta oggi un campo di primaria importanza nelle applicazioni speech-to-text, nella sintesi della voce, nello studio dei processi emotivi e nella prosodia dell’oratoria. Anche i compositori di musica si sono interessati per secoli alla voce parlata e alla sua relazione con il canto, la poesia, la narrazione, ma solo dalla seconda metà del novecento hanno cominciato ad avere a disposizione i mezzi tecnologici necessari per indagarne concretamente le grandi potenzialità musicali. A fronte di un ventaglio così ampio di interessi alcune questioni metodologiche e tecniche rimangono centrali e ancora lontane dall’essere risolte del tutto.

Una prima difficoltà è legata all’intonazione della voce, generalmente associata alla variazione della frequenza fondamentale dello spettro delle vocali. La variazione dell’intonazione è una dimensione prosodica cardinale perché contribuisce ad una messa in rilevo di sillabe, parole ed enunciati governata sia da ragioni grammaticali specifiche per ogni lingua, sia da ragioni espressive largamente condivise fra i parlanti di lingue diverse. Tecnicamente, l’estrazione del profilo intonativo di una voce parlata è un’operazione dagli esiti non sempre del tutto prevedibili, soprattutto nel caso di un segnale vocale alterato dalla presenza di rumori o da una forte riverberazione. Per cercare di superare queste difficoltà sono stati sviluppati diversi algoritmi basati sulla possibilità di scomporre e analizzare il segnale vocale nel dominio del tempo e in quello della frequenza, ma la spinta verso la ricerca della soluzione ideale è lungi dall’essersi esaurita.

Anche immaginando di poter estrarre automaticamente e in modo del tutto affidabile il profilo intonativo di una voce parlata, per poter comprendere e utilizzare le grandi potenzialità della prosodia sono necessari dei modelli in grado di analizzare e replicare fenomeni fonatori propri di lingue diverse parlate da soggetti animati da intenti espressivi anch’essi diversi. In questo ambito i modelli attualmente utilizzati da società come Google, Microsoft e Apple utilizzano approcci statistici basati su un apprendimento automatico da enormi banche dati integrato da sistemi di regole derivati dalle molte conoscenze acquisite nella linguistica moderna. Il limite di questi approcci sta nella loro finalità: se si risolve il problema di ottenere una voce sintetica “naturale” al pari di quella umana non è necessario comprendere esplicitamente il modo in cui il problema viene risolto.

I modelli alternativi, basati interamente su regole, non riescono ad eguagliare la naturalezza delle attuali voci sintetiche e l’efficienza degli approcci statistici. In compenso consentono una sempre più efficace ottimizzazione dei dati necessari ad una rappresentazione percettivamente puntuale delle caratteristiche prosodiche del parlato. In questo contesto alcune rappresentazioni, come il “Prosogram” proposto dal linguista Piet Mertens nel 2004, ci ricordano quanto sottile sia il confine fra le componenti prosodiche del discorso parlato e le dimensioni musicali rappresentabili per mezzo della notazione musicale. Nella seconda metà del settecento lo scrittore e studioso inglese, Joshua Steele, aveva già descritto un metodo per trascrivere le variazioni prosodiche utilizzando un sorta di partitura musicale. Nel 1918 il compositore Leóš Janáček affermava che “la melodia della parola è come una ninfea le cui radici scendono nel fondo dell’anima”. Oggi ci ritroviamo a domandarci se gli evidenti e intrecciati fili rossi che legano la voce parlata alla musica non possano essere meglio svelati da una cooperazione fra la musica e le altre discipline del sapere.

Fabio Cifariello Ciardi, luglio 2018