Informatica musicale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Fix link
Riga 14:
 
==Codifica e rappresentazione del suono==
La codifica del suono si ottiene per mezzo del [[Campionamento (teoria dei segnali)|campionamento]] ,ovvero la sostituzione del segnale analogico con quello digitale. Ciò rende possibile anche la simulazione sonora di strumenti abituali. La [[frequenza di campionamento]], ritmo con cui i campionatori estraggono l'ampiezza del segnale iniziale in un certo istante (campione) dal segnale analogico<ref>{{cita web|url=https://www.audiosonica.com/it/corsoaudio-online/campionamento-introduzione-all-audio-digitale|titolo="campionamento - introduzione all'audio digitale|accesso= 10 giugno 2020 }}</ref>, e il numero di bit necessario per stabilire una relazione tra indizio e disturbo sonoro, diventano i fattori fondamentali per un'efficiente propagazione sonora della musica.
 
La musica è elaborata dall'informatica attraverso due rappresentazioni diverse: audio e simbolica. La prima ha il compito di codificare il suono attraverso successioni numeriche ; la seconda codifica la formazione di linguaggi e sistemi grafici variabili a seconda del contesto ([[editoria musicale]], [[musicologia]] e assistenza al prodotto musicale).
 
L'espressione musicale è un processo reso possibile da una sequenza di suoni emessi e poi codificati. Generalmente, i suoni si riferiscono a dei [[Segnale (elettronica)|segnali ]] ovvero funzioni, ,di una o più variabili indipendenti , che trasportano informazioni e sono incaricate di trasmettere il dato musicale. Si suddividono in : [[segnale continuo]] , caratterizzato da intervalli di tempo continui e raffigurato da funzioni variabili continue; [[segnale discreto ]], definito come una serie numerica in cui le variabili indipendenti assumono soltanto valori discreti nel tempo.
 
==Sintesi dei suoni==
Il processo per cui viene generato un suono è chiamato [[sintesi del suono]] e segue un algoritmo che consente di calcolare i valori dei campioni che lo costituiscono .
Il suono campionato generato tende a essere simile all'emissione musicale prodotta durante la composizione: vengono svolte delle modifiche come passaggi di altezza, filtraggi e cambiamenti di durata (looping), sebbene lo scopo rimanga quello di formare una raccolta più minuziosa possibile di suoni campionati per un determinato strumento. Gli studi sulla musica elettronica hanno individuato più tipologie di sintesi del suono:
* La [[Sintesi additiva (musica elettronica)|sintesi additiva ]] è uno schema universale che si occupa di sintetizzare suoni pseudoarmonici con un ridotto livello di rumorosità e notevole difficoltà di calcolo. Questi suoni sono complessi e caratterizzati da valori come frequenza e ampiezza che mutano nel corso del tempo. La sintesi additiva è importante per la rappresentazione di suoni astratti durante l'esecuzione. e riprende alcuni fondamenti della [[ sintesi di Fourier]] inerente alle [[Funzione periodica|funzioni periodiche]]
* La prima teoria sulla [[sintesi granulare]] fu elaborata da Dennis Gabor mediante le sue ricerche relative alla comunicazione umana .La sintesi granulare sfrutta sequenze di suoni semplici di ridotta lunghezza chiamati grani, parti di suoni campionati o suoni astratti prodotti con un procedimento risolutivo per ottenere suoni più complessi. Questo sistema di sintesi coinvolge tecnologie di tipo analogico che creano una serie di suoni differenti tra loro per la variazione della la forma d'onda, della durata e dell'intensità dei grani: il prodotto viene sfruttato in ambito musicale e crea effetti particolari come il time stretching, lo scattering audio e il morphing. Infine, questa sintesi dà l'impressione di aver ottenuto un suono che si ripete continuamente e garantisce un ottimo spettro sonoro nonostante la granulazione richieda grandi energie computazionali.<ref>{{cita web|url=http://www.maurograziani.org/text_pages/tecniche_sintesi/intro/MG_Sintesi2.html| titolo=" Mauro Graziani : tecniche di sintesi "|accesso=17 luglio 2020}}</ref>.
* La [[Sintesi sottrattiva (musica elettronica)|sintesi sottrattiva]] è utilizzata nella produzione di timbri nell'elettronica analogica ed è in grado di generare armoniche mediante diverse operazioni di filtraggio. In campo digitale, questa sintesi ha bisogno di un algoritmo che riduca i calcoli necessari per la realizzazione del timbro ed assume proprietà diverse rispetto a quelle della sintesi analogica.
Il cambiamento dall'analogico al digitale ha diminuito l'uso di questo metodo di sintesi. La sintesi sottrattiva si basa sulla presenza di forme d'onda generate dal movimento di un oscillatore e di un filtro che seleziona delle frequenze con il fine di ottenere una variazione ininterrotta di queste.<ref> {{cita web|url=http://www.suonoelettronico.com/sintesi_sottrattiva.htm|titolo= Suono Sottrattivo|accesso=24 agosto 2020}}</ref>
* La [[sintesi per modulazione di frequenza]] ([[Modulazione di frequenza|FM]]) è una tecnica di sintesi, usata nei primi sintetizzatori digitali e in vari ambiti musicali, per cui dati due oscillatori sinusoidali, uno detto portante con frequenza p e l'altro chiamato modulante con frequenza m, si ottiene uno spettro risultante formato da frequenze p+km con k intero che varia tra -I e +I . L'indice di modulazione I è dato dalla divisione tra d (derivazione di frequenza massima del portante) e m (frequenza del modulante). L'indice permette di capire da quante parti lo spettro risultante è composto , mentre il quoziente di p/m definisce il tipo di spettro ottenuto. Di conseguenza, la variazione temporale di I comporta la produzione di suoni complessi modificabili nel corso del tempo.
[[File:Il Modello R151 - Mignonette MF.jpg|thumb|Primo modello audio dotato di modulatore di frequenza]]
 
==Modelli del suono==
I [[ modelli di sorgente ]] producono l’aspetto concreto della fonte sonora e sono rappresentazioni alternative delle informazioni prodotte dalla sorgente, in modo da ridurre la quantità di bit/secondo necessari alla trasmissione.
I [[modelli di segnale]] sono dinamici a livello di calcolo, diffusi e regolati dal metodo di campionamento . Sono prodotti dalla sintesi del suono e svolgono due azioni differenti: la [[generazione]] di suoni , condizionata dalle decisioni grafiche del compositore; la [[simulazione]] di suoni ,fatta da tipici strumenti musicali.
La sintesi più frequente, chiamata per modelli fisici, è data dalla relazione che si instaura tra un eccitatore , ragione per cui l’emissione sonora può vibrare e il risonatore, struttura concreta dello strumento con condotta lineare.
Questo rapporto è detto [[''feedback]]'', nel caso in cui i due componenti lavorino insieme , oppure feedforward , se il risonatore non è in grado di fornire messaggi all'eccitatore .
La differenza tra modelli di sorgente e di segnale sta nella diversa capacità di sfruttare i criteri di controllo corrispondenti ai movimenti effettuati dal musicista con il proprio strumento: il modello è in grado di esaminare i gesti del compositore , il musicista di fondere le proprie conoscenze tradizionali sulla musica con l'abilità nel suonare la sorgente potenziale.
Esistono anche altri tipi di modelli legati alla sintesi del suono: quando la relazione e la formazione di un modello è garantita da una successione di equazioni differenziali, ottenute dalla frammentazione dello schema fisico in componenti, si parla di [[modelli meccanici]]; quando un sistema fisico viene diviso in costituenti isolati, il modello è realizzato per la [[sintesi modale]], fondamentale per la teoria dei sistemi e prodotta dalla totalità delle oscillazioni incomplete; gli ultimi tipi di modelli sono detti a [[aGuida d'onda|guide d'onda]] e vengono caratterizzati da una natura computazionale complessa e rappresentati da aspetti fisici o elementi di dispersione che ne evidenziano le interruzioni.
 
==Digital Signal Processing==
Riga 43:
In molti campi della scienza e della tecnologia, i segnali sono elaborati per semplificare l'estrazione di un'informazione. Perciò , lo sviluppo di sistemi per l'elaborazione dei segnali sono diventati molto importanti e hanno permesso la trasformazione di un segnale in un altro ritenuto più auspicabile rispetto a quello originario.
Si possono distinguere diversi tipi di sistemi:
*I [[sistemi a tempo continuo]] sono descritti da equazioni differenziali di forma complessa per cui input e output sono segnali che trasmettono informazioni variabili nel tempo.
*I [[sistemi a tempo discreto ]] sono descritti dalle ripetizioni della funzione in cui input e output sono segnali caratterizzati da valenze discrete nel tempo.
*I [[sistemi analogici]] seguono l’andamento della grandezza che rappresentano e possiedono input e output come segnali analogici .
* I [[sistemi digitali]] che hanno input e output come segnali digitali: l'elaborazione del segnale digitale ha a che fare con i cambiamenti di segnale considerati discreti a livello di ampiezza e di tempo .<ref>{{cita web|url=http://www.vitobarone.it/elettronica/analogico_digitale.htm|titolo="Analogico e Digitale|accesso=27 agosto 2020}}</ref>
 
 
 
L'elaborazione dei suoni è realizzata da programmi che attuano un cambiamento di segnale: la lunghezza di un suono può essere modificata con metodologie simili adottate per la variazione di altezza dei suoni .
Quando varia la frequenza di campionamento ,un suono viene sollecitato o reso meno intenso affinchèaffinché possa raggiungere esattamente un'altezza più grave e una più acuta. I cambiamenti di altezza e durata del suono sono legati all'ambito del timbro per cui un suono viene reso più acuto o grave in dipendenza delle dinamiche che affronta.
 
Le modalità di sintesi sono in grado di cambiare l'altezza indipendentemente dalla durata del suono. Se ne possono elencare alcune:
*Il [[PV]] esamina il suono grazie alla sequenza di trasformate di Fourier in un ridotto arco di tempo (STFT, Short Time Fourier Transform); inoltre, attraverso l'elaborazione di elementi ottenuti dalla sintesi di due suoni difformi tra loro, è probabile che si arrivi a sintetizzare un suono eterogeneo da due suoni di partenza con la cosiddetta [[ sintesi incrociata]].
*La [[Linear predictive coding|LPC]] è generata per la codifica di informazioni trasmesse per via orale e fornisce molteplici opportunità di elaborazione dei suoni: secondo questo processo, il suono è risultato di un'operazione di eccitazione data dalle corde vocali e il suo segnale è influenzato dalle modificazioni di una parte della cavità orale detta [[tratto vocale]]. Perciò, il momento di analisi è importante nell'individuazione di alcune proprietà generali del suono che possono essere alterate (altezza, [[rumorosità]], [[frequenza]]). Come nel PV, si possono ottenere suoni ibridi selezionando soggettivamente il suono eccitatore modellato dal filtro secondo le sue regole di variabilità nel tempo.
I cambiamenti di altezza e durata del suono sono legati all'ambito del timbro per cui un suono viene reso più acuto o grave in dipendenza delle dinamiche che affronta.
In pratica, Il suono e il segnale vengono spostati in frequenza per merito della [[modulazione]] che rende i suoni armonici, poi per il fenomeno di [[granulazione]] si prelevano porzioni di suono in modo tale da amplificare il segnale fino alla [[convoluzione]] per cui viene prodotto l'intero spettro sonoro di due suoni.
 
==Sistemi MIDI e per l'esecuzione==
Il sistema MIDI è un protocollo di comunicazione seriale a 8 bit e velocità di trasmissione di 31 250 bit/s, concepito per codificare i gesti compiuti dal musicista mentre suona una tastiera elettronica sensibile al tocco che li trasmette in tempo reale ad altri dispositivi. <ref>{{cita web|url=https://www.v3recording.com/il-midi-cose-e-come-funziona/|titolo="Il MIDI: cos’ è e come funziona"|accesso=27 agosto 2020}}</ref>
 
È formato da una tastiera elettronica detta master keyboard legata a un sintetizzatore ([[expander]]) e a un elaboratore in cui agisce un programma detto [[sequencer]] che registra suoni e musica con un certo ritardo rispetto al tempo stabilito per l'esecuzione.
Questo processo avviene mediante varie interfacce-utente ovvero hardware ,necessari per la comunicazione tra strumenti attraverso 16 canali di trasmissione ,appartenenti al MIDI, che indirizzano i messaggi all'expander sotto forma di informazioni di controllo.
Per la trasmissione dell'informazione musicale digitalizzata, viene utilizzato un formato di memorizzazione e di scambio di tracce musicali chiamato Standard [[Musical Instrument Digital Interface|Midi File]] ([[SMF]]).
 
È formato da una tastiera elettronica detta master keyboard legata a un sintetizzatore ([[expander]]) e a un elaboratore in cui agisce un programma detto [[sequencer]] che registra suoni e musica con un certo ritardo rispetto al tempo stabilito per l'esecuzione.
Questo processo avviene mediante varie interfacce-utente ovvero hardware ,necessari per la comunicazione tra strumenti attraverso 16 canali di trasmissione ,appartenenti al MIDI, che indirizzano i messaggi all'expander sotto forma di informazioni di controllo.
Per la trasmissione dell'informazione musicale digitalizzata, viene utilizzato un formato di memorizzazione e di scambio di tracce musicali chiamato Standard Midi File ([[SMF]]).
 
 
Line 77 ⟶ 78:
==Bibliografia==
*{{cita web|autore=Alvise Vidolin|url=http://www.treccani.it/enciclopedia/informatica-musicale_(Enciclopedia-Italiana)/|titolo=Informatica musicale|sito=Treccani|editore=Istituto della Enciclopedia Italiana|data=2000|accesso=28 agosto 2020}}
*[[Alan V. Oppenheim]] [[Ronald W. Schafer]], "Digital signal processing", p.&nbsp;7-8, Prentice-Hall, New Jersey, 1974.
 
==Voci correlate==