Informatica musicale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Nessun oggetto della modifica
Riga 1:
L''''informatica musicale''' è una disciplina che analizza le tecniche relative all'uso dei sistemi informatici per la produzione e l’elaborazione dell’informazione musicale.<ref>{{cita web|autore=Alvise Vidolin|url=http://www.treccani.it/enciclopedia/informatica-musicale_(Enciclopedia-Italiana)/|titolo=Informatica musicale|sito=Treccani|editore=Istituto della Enciclopedia Italiana|data=2000|accesso=28 agosto 2020}}</ref>[1]
Inoltre, viene utilizzata dall'informatica per risolvere necessità legate alla musica attraverso la creazione di hardware e strumenti che aiutano la composizione e l'esecuzione musicale. L'applicazione dell'informatica al contesto musicale è data da due fattori principali: le aziende informatiche che sfruttano il rapido sviluppo della musica provocando notevoli cambiamenti nelle modalità di produrla; il [[sistema informatico]], detto [[computer]], ritenuto polifonico e politimbrico in quanto simula i suoni o dà vita a nuove acustiche elettroniche attraverso programmi e accessori multimediali. Quest’ultimo svolge anche compiti di uno studio di registrazione per elaborazione e montaggio di suoni , detenendo una certa importanza in campo editoriale.
 
Inoltre, viene utilizzata dall'informatica per risolvere necessità legate alla musica attraverso la creazione di [[hardware]] e strumenti che aiutano la composizione e l'esecuzione musicale. L'applicazione dell'informatica al contesto musicale è data da due fattori principali : le [[aziende informatiche]] che sfruttano il rapido sviluppo della musica provocando notevoli cambiamenti nelle modalità di produrla; il [[sistema informatico]], detto [[computer]], ritenuto [[polifonico]] e [[politimbrico]] in quanto simula i suoni o dà vita a nuove acustiche elettroniche attraverso programmi e accessori multimediali . Con il forte interesse espresso dalle aziende riguardo alla musica informatica , migliorano le tecnologie adottate e facilitanosi facilita l’introduzione di nuove professionalità specializzate nel settore. Il miglioramento dei sistemi informatici permisepermette alla trasmissione musicale di entrare in contatto con l'ambiente grafico e dello spettacolo per elaborare composizioni artistiche e culturali multimediali.
 
==Storia==
Nella seconda metà degli [[1950|anni cinquanta]] nasce la [[musica informatica]], caratterizzata da due approcci di ricerca diversi: la [[codifica ]]di brani musicali e la [[generazione automatica]] di partiture per la composizione musicale ; lail [[computer music[2]]<ref>{{cita web| url=http://www.csounds.com/maldonado/c_music.htm |titolo = Che cos'è la computer music|accesso= 12 giugno 2020}}</ref> che esamina la codifica numerica e l’elaborazione dei suoni concentrandosi sul dato acustico.[3]
Le prime applicazioni pratiche si hanno negli anni sessanta ed erano costituite da contenuti musicali esclusivamente registrati sul nastro che sostenevano la voce dei solisti o cantanti tradizionali durante le esibizioni. I programmi e gli elaboratori collettivi detti mainframe , responsabili della registrazione e adottati dalle principali indagini scientifiche, impiegavano molto tempo a mettere in pratica, a livello di suoni, l’idea e il pensiero musicale di un’artista[4][5].
Esempio di mainframe
Il progresso tecnologico ha portato alla creazione di innovativi modelli di sintesi e manipolazione sonora in tempo reale grazie all'uso di elaboratori a monoutenza, detti minicomputer. Di conseguenza, nascono nuove modalità musicali caratterizzate dalla possibilità di modificare le sonorità di strumenti o voci durante i concerti dal vivo.
Superate delle difficoltà pratiche relative ai nuovi sistemi tecnologici, gli anni ottanta sono influenzati dall'arrivo di due innovazioni molto importanti. L'elaboratore personale ,chiamato personal computer, che risulta efficace e conveniente anche perchè viene valorizzato da periferiche specifiche che aiutano il compositore durante la concretizzazione della sua attività; il codice di trasmissione MIDI (Musical Instrument Digital Interface) che , divenendo uno standard, incoraggia le industrie a produrre strumenti musicali elettronici favorendo la creazione di un insieme di mezzi digitali generati dalla relazione tra i vari strumenti.
Esempio di Personal Computer
Codifica e rappresentazione del suono[modifica | modifica wikitesto]
La musica è elaborata dall'informatica attraverso due rappresentazioni diverse: audio e simbolica. La prima ha il compito di codificare il suono attraverso successioni numeriche ; la seconda codifica la formazione di linguaggi e sistemi grafici variabili a seconda del contesto (editoria musicale, musicologia e assistenza al prodotto musicale).
 
Una delle metodologie di codifica dei suoni più diffusa è il [[campionamento]] che estrae segnali sonori e digitali da strumenti musicali abituali. Generalmente, i suoni si riferiscono a dei [[segnali ]] ovvero funzioni ,di una o più variabili indipendenti , che trasportano informazioni e sono incaricate di trasmettere l’informazione musicale. Si suddividono in : segnale continuo , caratterizzato da intervalli di tempo continui e raffigurato da funzioni variabili continue; segnale discreto , definito come una serie numerica in cui le variabili indipendenti assumono soltanto valori discreti nel tempo.
Le prime applicazioni pratiche si hanno negli [[1960|anni sessanta]] ed erano costituite da contenuti musicali registrati sul nastro che sostenevano la voce dei solisti o cantanti tradizionali durante le esibizioni. La registrazione era indispensabile perché i programmi e gli elaboratori [[mainframe]] del periodo impiegavano molto tempo a eseguire i calcoli necessari per la produzione del suono.<ref>{{cita web|url=https://www.ibm.com/support/knowledgecenter/zosbasics/com.ibm.zos.zmainframe/zconc_whatismainframe.htm|titolo= what's a mainframe? it's a style of computing |accesso= 10 giugno 2020}}</ref>.
Sintesi dei suoni[modifica | modifica wikitesto]
[[File:IBM 360-44.5.jpg|thumb|left|Esempio di mainframe]]
Il processo per cui viene generato un suono è chiamato [[sintesi|sintesi del suono]] e segue un algoritmo che consente di calcolare i valori dei campioni che costituiscono il suono.
 
Il suono campionato generato tende a essere simile all'emissione musicale prodotta durante la composizione: sebbene lo scopo rimanga quello di formare una raccolta più minuziosa possibile di suoni campionati per un determinato strumento , vengono svolte delle modifiche come passaggi di altezza, filtraggi e cambiamenti di durata (looping). Gli studi sulla musica elettronica hanno individuato più tipologie di sintesi del suono:
Negli [[1970|anni settanta]], l'uso di elaboratori a monoutenza, detti [[minicomputer]], inizia a permettere la sintesi e la manipolazione sonora in tempo reale. Di conseguenza, nascono nuove modalità musicali caratterizzate dalla possibilità di modificare le sonorità di strumenti o voci durante le manifestazioni musicali dal vivo.
• la sintesi additiva è uno schema universale che si occupa di sintetizzare suoni pseudoarmonici con un ridotto livello di rumorosità e notevole difficoltà di calcolo. Questi suoni sono complessi e caratterizzati da valori come frequenza e ampiezza che mutano nel corso del tempo. La sintesi additiva è importante per la rappresentazione di suoni astratti durante l'esecuzione. e riprende alcuni fondamenti della [[ sintesi di Fourier]] inerente alle [[funzioni periodiche]]
 
• La prima teoria sulla sintesi granulare fu elaborata da Dennis Gabor mediante le sue ricerche relative alla comunicazione umana. La sintesi granulare sfrutta sequenze di suoni semplici di ridotta lunghezza chiamati grani, parti di suoni campionati prodotte con un procedimento risolutivo per ottenere suoni più complessi. Questo sistema di sintesi coinvolge tecnologie di tipo analogico che creano una serie di suoni differenti tra loro per la variazione della durata e dell'intensità dei grani. Il risultato ottenuto viene sfruttato in ambito musicale e crea effetti particolari come il time stretching, lo scattering audio e il morphing.
Gli [[1980|anni ottanta]] sono influenzati dall'arrivo di due innovazioni molto importanti:
• La sintesi sottrattiva è utilizzata nella produzione di timbri nell'elettronica analogica ed è in grado di generare armoniche mediante diverse operazioni di filtraggio. In campo digitale, questa sintesi ha bisogno di un algoritmo che riduca i calcoli necessari per la realizzazione del timbro ed assume proprietà diverse rispetto a quelle della sintesi analogica.
 
Il cambiamento dall'analogico al digitale ha diminuito l'uso di questo metodo di sintesi. La sintesi sottrattiva si basa sulla presenza di forme d'onda generate dal movimento di un oscillatore e di un filtro che seleziona delle frequenze con il fine di ottenere una variazione ininterrotta di queste.[8]
*l'elaboratore personale ([[personal computer ]]) che risulta efficace e conveniente anche perché valorizzato da periferiche specifiche che aiutano il compositore durante la concretizzazione della sua attività.
• La sintesi per modulazione di frequenza (FM) è una tecnica di sintesi, usata nei primi sintetizzatori digitali e in vari ambiti musicali, per cui dati due oscillatori sinusoidali, uno detto portante con frequenza p e l'altro chiamato modulante con frequenza m, si ottiene uno spettro risultante formato da frequenze p+km con k intero che varia tra -I e +I . L'indice di modulazione I è dato dalla divisione tra d (derivazione di frequenza massima del portante) e m (frequenza del modulante). L'indice permette di capire da quante parti lo spettro risultante è composto, mentre il quoziente di p/m definisce il tipo di spettro ottenuto. Di conseguenza, la variazione temporale di I comporta la produzione di suoni complessi modificabili nel corso del tempo.
*il codice di trasmissione [[ MIDI ]](Musical Instrument Digital Interface) che, divenendo uno standard, incoraggia le industrie a produrre strumenti musicali elettronici.
[[File:ABC 80 Personal Computer.jpg|thumb|Esempio di Personal Computer]]
 
==Codifica e rappresentazione del suono==
La codifica del suono si ottiene per mezzo del [[Campionamento (teoria dei segnali)|campionamento]] ,ovvero la sostituzione del segnale analogico con quello digitale. Ciò rende possibile anche la simulazione sonora di strumenti abituali. La [[frequenza di campionamento]], ritmo con cui i campionatori estraggono l'ampiezza del segnale iniziale in un certo istante (campione) dal segnale analogico<ref>{{cita web|url=https://www.audiosonica.com/it/corsoaudio-online/campionamento-introduzione-all-audio-digitale|titolo="campionamento - introduzione all'audio digitale|accesso= 10 giugno 2020 }}</ref>, e il numero di bit necessario per stabilire una relazione tra indizio e disturbo sonoro, diventano i fattori fondamentali per un'efficiente propagazione sonora della musica.
 
La musica è elaborata dall'informatica attraverso due rappresentazioni diverse: audio e simbolica. La prima ha il compito di codificare il suono attraverso successioni numeriche ; la seconda codifica la formazione di linguaggi e sistemi grafici variabili a seconda del contesto ([[editoria musicale]], [[musicologia]] e assistenza al prodotto musicale).
 
L'espressione musicale è un processo reso possibile da una sequenza di suoni emessi e poi codificati. Generalmente, i suoni si riferiscono a dei [[Segnale (elettronica)|segnali]] ovvero funzioni, di una o più variabili indipendenti , che trasportano informazioni e sono incaricate di trasmettere il dato musicale. Si suddividono in: [[segnale continuo]], caratterizzato da intervalli di tempo continui e raffigurato da funzioni variabili continue; [[segnale discreto]], definito come una serie numerica in cui le variabili indipendenti assumono soltanto valori discreti nel tempo.
 
==Sintesi dei suoni==
Il processo per cui viene generato un suono è chiamato [[sintesi del suono]] e segue un algoritmo che consente di calcolare i valori dei campioni che lo costituiscono .
Il suono campionato generato tende a essere simile all'emissione musicale prodotta durante la composizione: vengono svolte delle modifiche come passaggi di altezza, filtraggi e cambiamenti di durata (looping), sebbene lo scopo rimanga quello di formare una raccolta più minuziosa possibile di suoni campionati per un determinato strumento. Gli studi sulla musica elettronica hanno individuato più tipologie di sintesi del suono:
* La [[Sintesi additiva (musica elettronica)|sintesi additiva ]] è uno schema universale che si occupa di sintetizzare suoni pseudoarmonici con un ridotto livello di rumorosità e notevole difficoltà di calcolo. Questi suoni sono complessi e caratterizzati da valori come frequenza e ampiezza che mutano nel corso del tempo. La sintesi additiva è importante per la rappresentazione di suoni astratti durante l'esecuzione. e riprende alcuni fondamenti della [[ sintesi di Fourier]] inerente alle [[Funzione periodica|funzioni periodiche]]
* La prima teoria sulla [[sintesi granulare]] fu elaborata da Dennis Gabor mediante le sue ricerche relative alla comunicazione umana .La sintesi granulare sfrutta sequenze di suoni semplici di ridotta lunghezza chiamati grani, parti di suoni campionati o suoni astratti prodotti con un procedimento risolutivo per ottenere suoni più complessi. Questo sistema di sintesi coinvolge tecnologie di tipo analogico che creano una serie di suoni differenti tra loro per la variazione della la forma d'onda, della durata e dell'intensità dei grani: il prodotto viene sfruttato in ambito musicale e crea effetti particolari come il time stretching, lo scattering audio e il morphing. Infine, questa sintesi dà l'impressione di aver ottenuto un suono che si ripete continuamente e garantisce un ottimo spettro sonoro nonostante la granulazione richieda grandi energie computazionali.<ref>{{cita web|url=http://www.maurograziani.org/text_pages/tecniche_sintesi/intro/MG_Sintesi2.html| titolo=" Mauro Graziani : tecniche di sintesi "|accesso=17 luglio 2020}}</ref>.
* La [[Sintesi sottrattiva (musica elettronica)|sintesi sottrattiva]] è utilizzata nella produzione di timbri nell'elettronica analogica ed è in grado di generare armoniche mediante diverse operazioni di filtraggio. In campo digitale, questa sintesi ha bisogno di un algoritmo che riduca i calcoli necessari per la realizzazione del timbro ed assume proprietà diverse rispetto a quelle della sintesi analogica.
Il cambiamento dall'analogico al digitale ha diminuito l'uso di questo metodo di sintesi. La sintesi sottrattiva si basa sulla presenza di forme d'onda generate dal movimento di un oscillatore e di un filtro che seleziona delle frequenze con il fine di ottenere una variazione ininterrotta di queste.<ref> {{cita web|url=http://www.suonoelettronico.com/sintesi_sottrattiva.htm|titolo= Suono Sottrattivo|accesso=24 agosto 2020}}</ref>
* La [[sintesi per modulazione di frequenza]] ([[Modulazione di frequenza|FM]]) è una tecnica di sintesi, usata nei primi sintetizzatori digitali e in vari ambiti musicali, per cui dati due oscillatori sinusoidali, uno detto portante con frequenza p e l'altro chiamato modulante con frequenza m, si ottiene uno spettro risultante formato da frequenze p+km con k intero che varia tra -I e +I . L'indice di modulazione I è dato dalla divisione tra d (derivazione di frequenza massima del portante) e m (frequenza del modulante). L'indice permette di capire da quante parti lo spettro risultante è composto , mentre il quoziente di p/m definisce il tipo di spettro ottenuto. Di conseguenza, la variazione temporale di I comporta la produzione di suoni complessi modificabili nel corso del tempo.
[[File:Il Modello R151 - Mignonette MF.jpg|thumb|Primo modello audio dotato di modulatore di frequenza]]
 
==Modelli del suono==
I modelli di sorgente producono l’aspetto concreto della fonte sonora e sono rappresentazioni alternative delle informazioni prodotte dalla sorgente, in modo da ridurre la quantità di bit/secondo necessari alla trasmissione.
I modelli di segnale sono dinamici a livello di calcolo, diffusi e regolati dal metodo di campionamento . Sono prodotti dalla sintesi del suono e svolgono due azioni differenti: la [[generazione]] di suoni , condizionata dalle decisioni grafiche del compositore; la [[simulazione]] di suoni ,fatta da tipici strumenti musicali.
Primo modello audio dotato di modulatore di frequenza
La sintesi più frequente, chiamata per modelli fisici, è data dalla relazione che si instaura tra un eccitatore , ragione per cui l’emissione sonora può vibrare e il risonatore, struttura concreta dello strumento con condotta lineare.
Modelli di sorgente e segnale[modifica | modifica wikitesto]
Questo rapporto è detto ''feedback'', nel caso in cui i due componenti lavorino insieme , oppure feedforward , se il risonatore non è in grado di fornire messaggi all'eccitatore .
I [[modelli di sorgente]] riproducono l’aspetto concreto della fonte sonora in modo da ridurre la quantità di bit/secondo necessari alla trasmissione dell’informazione musicale.
La differenza tra modelli di sorgente e di segnale sta nella diversa capacità di sfruttare i criteri di controllo corrispondenti ai movimenti effettuati dal musicista con il proprio strumento: il modello è in grado di esaminare i gesti del compositore , il musicista di fondere le proprie conoscenze tradizionali sulla musica con l'abilità nel suonare la sorgente potenziale.
I [[modelli di segnale]] sono dinamici a livello di calcolo, diffusi e regolati dal metodo di campionamento. Questi modelli svolgono due azioni differenti: la [[generazione]] di suoni , condizionata dalle decisioni grafiche del compositore; la [[simulazione]] di suoni, fatta dai tipici strumenti musicali.
Esistono anche altri tipi di modelli legati alla sintesi del suono: quando la relazione e la formazione di un modello è garantita da una successione di equazioni differenziali, ottenute dalla frammentazione dello schema fisico in componenti, si parla di modelli meccanici; quando un sistema fisico viene diviso in costituenti isolati, il modello è realizzato per la [[sintesi modale]], fondamentale per la teoria dei sistemi e prodotta dalla totalità delle oscillazioni incomplete; gli ultimi tipi di modelli sono detti a [[Guida d'onda|guide d'onda]] e vengono caratterizzati da una natura computazionale complessa e rappresentati da aspetti fisici o elementi di dispersione che ne evidenziano le interruzioni.
La differenza tra modelli di sorgente e di segnale sta nella diversa capacità di sfruttare i criteri di controllo corrispondenti ai movimenti effettuati dal musicista con il proprio strumento. Perciò, mentre il modello simula i suoni prodotti dallo strumento musicale , il musicista fonde le proprie conoscenze tradizionali sulla musica con l'abilità nel suonare la sorgente potenziale.
 
Gli studi e le ricerche fatte sui modelli hanno origine dal tentativo di ridurre il flusso di informazione necessario a trasmettere il parlato. Questo tipo di indagini hanno permesso di mettere in luce le proprietà dei suoni emessi nel parlato e ha prodotto uno dei primi [[modelli fisici]] . Ogni modello fisico é caratterizzato dalla relazione che si instaura tra un [[eccitatore]] e un [[risuonatore]] affinchè sia possibile ottenere , con tecniche diverse, un’efficiente sintesi del canto di un brano musicale.
==Digital Signal Processing==
Esistono anche altri tipi di modelli legati alla sintesi del suono: quando la relazione di un modello è garantita da una successione di equazioni differenziali, ottenute dalla frammentazione dello schema fisico in componenti, si parla di modelli meccanici; quando un sistema fisico viene diviso in costituenti isolati, il modello è realizzato per la sintesi modale, fondamentale per la teoria dei sistemi ; gli ultimi tipi di modelli sono detti a guide d'onda caratterizzati da una natura computazionale complessa e rappresentati da aspetti fisici che ne evidenziano le interruzioni.
Il Digital Signal Processing (DSP), in italiano elaborazione numerica dei segnali, è un processo che permette l'osservazione e la visualizzazione in tempo reale del suono campionato ed elaborato su degli appositi processori detti [[Digital Signal Processor ]], realizzati alla fine degli anni ’80 . Poco dopo, vennero sostituiti per la maggior efficienza e semplicità nell'elaborazione dai [[Personal Computer]].
Digital Signal Processing[modifica | modifica wikitesto]
Il Digital Signal Processing (DSP), in italiano elaborazione numerica dei segnali, è un processo che permette l'osservazione e la visualizzazione in tempo reale del suono campionato ed elaborato su degli appositi processori detti Digital Signal Processor , realizzati alla fine degli anni ’80. Poco dopo, vennero sostituiti per la maggior efficienza e semplicità nell'elaborazione dai Personal Computer.
In molti campi della scienza e della tecnologia, i segnali sono elaborati per semplificare l'estrazione di un'informazione. Perciò , lo sviluppo di sistemi per l'elaborazione dei segnali sono diventati molto importanti e hanno permesso la trasformazione di un segnale in un altro ritenuto più auspicabile rispetto a quello originario.
Si possono distinguere diversiuna tipigrande varietà di sistemi:
*I- i sistemi a tempo continuo sono descritti da equazioni differenziali di forma complessa per cui input e output sono segnali che trasmettono informazioni variabili nel tempo.
*I - i sistemi a tempo discreto sono descritti dalle ripetizioni della funzione in cui input e output sono segnali caratterizzati da valenze discrete nel tempo.
*I-i sistemi analogici seguono l’andamento della grandezza che rappresentano e possiedono input e output come segnali analogici .
*- Ii [[sistemi digitali]] che hanno input e output come segnali digitali: l'elaborazione del segnale digitale ha a che fare con i cambiamenti di segnale considerati discreti a livello di ampiezza e di tempo .<ref>{{cita web|url=http://www.vitobarone.it/elettronica/analogico_digitale.htm|titolo="Analogico e Digitale|accesso=27 agosto 2020}}</ref>
L'elaborazione dei suoni è realizzata da programmi che attuano un cambiamento di segnale: la lunghezza di un suono può essere modificata con metodologie simili adottate per la variazione di altezza dei suoni.
 
Quando varia la frequenza di campionamento, un suono viene sollecitato o reso meno intenso affinchè possa raggiungere esattamente un'altezza più grave e una più acuta. I cambiamenti di altezza e durata del suono sono legati all'ambito del timbro per cui un suono viene reso più acuto o grave in dipendenza delle dinamiche che affronta.
 
Le modalità di sintesi sono in grado di cambiare l'altezza indipendentemente dalla durata del suono. Se ne possono elencare alcune:
 
- Il [[PV]] esamina il suono grazie alla sequenza di trasformate di Fourier in un ridotto arco di tempo (STFT, Short Time Fourier Transform); inoltre, è capace di sintetizzare un suono eterogeneo da due suoni di partenza con la cosiddetta sintesi incrociata.
L'elaborazione dei suoni è realizzata da programmi che attuano un cambiamento di segnale: la lunghezza di un suono può essere modificata con metodologie simili adottate per la variazione di altezza dei suoni .
-La [[LPC]] è generata per la codifica di informazioni trasmesse per via orale e fornisce molteplici opportunità di elaborazione dei suoni: secondo questo processo il suono è risultato di un'operazione di eccitazione data dalle corde vocali e il suo segnale è influenzato dalle modificazioni di una parte della cavità orale detta tratto vocale. Perciò, il momento di analisi è importante nell'individuazione di alcune proprietà generali del suono che possono essere alterate (altezza, rumorosità, frequenza).
Quando varia la frequenza di campionamento ,un suono viene sollecitato o reso meno intenso affinché possa raggiungere esattamente un'altezza più grave e una più acuta. I cambiamenti di altezza e durata del suono sono legati all'ambito del timbro per cui un suono viene reso più acuto o grave in dipendenza delle dinamiche che affronta.
 
Le modalità di sintesi sono in grado di cambiare l'altezza indipendentemente dalla durata del suono. Se ne possono elencare alcune:
*Il PV esamina il suono grazie alla sequenza di trasformate di Fourier in un ridotto arco di tempo (STFT, Short Time Fourier Transform); inoltre, attraverso l'elaborazione di elementi ottenuti dalla sintesi di due suoni difformi tra loro, è probabile che si arrivi a sintetizzare un suono eterogeneo da due suoni di partenza con la cosiddetta [[ sintesi incrociata]].
*La [[Linear predictive coding|LPC]] è generata per la codifica di informazioni trasmesse per via orale e fornisce molteplici opportunità di elaborazione dei suoni: secondo questo processo, il suono è risultato di un'operazione di eccitazione data dalle corde vocali e il suo segnale è influenzato dalle modificazioni di una parte della cavità orale detta [[tratto vocale]]. Perciò, il momento di analisi è importante nell'individuazione di alcune proprietà generali del suono che possono essere alterate (altezza, rumorosità, [[frequenza]]). Come nel PV, si possono ottenere suoni ibridi selezionando soggettivamente il suono eccitatore modellato dal filtro secondo le sue regole di variabilità nel tempo.
I cambiamenti di altezza e durata del suono sono legati all'ambito del timbro per cui un suono viene reso più acuto o grave in dipendenza delle dinamiche che affronta.
In pratica, Il suono e il segnale vengono spostati in frequenza per merito della [[modulazione]] che rende i suoni armonici, poi per il fenomeno di granulazione si prelevano porzioni di suono in modo tale da amplificare il segnale fino alla [[convoluzione]] per cui viene prodotto l'intero spettro sonoro di due suoni.
Sistemi MIDI e per l'esecuzione[modifica | modifica wikitesto]
 
Il sistema MIDI è un protocollo di comunicazione seriale a 8 bit e velocità di trasmissione di 31 250 bit/s, concepito per codificare i suoni prodotti da una tastiera elettronica sensibile al tocco per trasmetterli in tempo reale ad altri dispositivi[9].
==Sistemi MIDI e per l'esecuzione==
La tastiera elettronica detta master keyboard è legata a un sintetizzatore (expander) e ad un elaboratore in cui agisce un programma detto sequencer che registra suoni e musica con un certo ritardo rispetto al tempo stabilito per l'esecuzione.
Il sistema MIDI è un protocollo di comunicazione seriale a 8 bit e velocità di trasmissione di 31 250 bit/s, concepito per codificare i gesti compiuti dal musicista mentre suona una tastiera elettronica sensibile al tocco che li trasmette in tempo reale ad altri dispositivi. <ref>{{cita web|url=https://www.v3recording.com/il-midi-cose-e-come-funziona/|titolo="Il MIDI: cos’ è e come funziona"|accesso=27 agosto 2020}}</ref>
Per la trasmissione dell'informazione musicale digitalizzata, viene utilizzato un formato di memorizzazione e di scambio di tracce musicali chiamato Standard Midi File (SMF).[10] Nonostante la sua lentezza e insufficienza in alcuni processi di codifica, il MIDI rappresenta una tappa del progresso tecnologico strettamente connessa con l'evoluzione e il miglioramento dei dispositivi elettronici .
 
Un sistema tecnologico viene convertito in strumento musicale per ottenere un brano con criteri di controllo che , ridotti e con molte funzionalità, facilitano la comprensione dell'ambiente esecutivo e l'entrata delle essenziali operazioni esecutive. Per osservare e conoscere i suoni codificati dal MIDI, vengono adottati gli ambienti multimodali interattivi (AMI) che, legati al concetto di spazio attivo, rappresentano sistemi capaci di notare proprietà comportamentali degli utenti a più livelli di dettaglio e sensibilità affinché queste entrino in relazione con il mondo reale esteso e reso complesso dalla tecnologia.[11]
È formato da una tastiera elettronica detta master keyboard legata a un sintetizzatore ([[expander]]) e a un elaboratore in cui agisce un programma detto [[sequencer]] che registra suoni e musica con un certo ritardo rispetto al tempo stabilito per l'esecuzione.
il MIDI è molto importante per le industrie di strumenti musicali informatici e ha un raggio d'azione e di applicazione universale poiché è sfruttato anche in molti campi legati alla moda e allo spettacolo.
Questo processo avviene mediante varie interfacce-utente ovvero hardware ,necessari per la comunicazione tra strumenti attraverso 16 canali di trasmissione ,appartenenti al MIDI, che indirizzano i messaggi all'expander sotto forma di informazioni di controllo.
Per la trasmissione dell'informazione musicale digitalizzata, viene utilizzato un formato di memorizzazione e di scambio di tracce musicali chiamato Standard [[Musical Instrument Digital Interface|Midi File]] (SMF).
 
 
 
Nonostante la sua lentezza e insufficienza in alcuni processi di codifica, il MIDI è molto importante per le industrie di strumenti musicali informatici e ha un raggio d'azione e di applicazione universale poiché è sfruttato anche in molti campi legati alla moda e allo spettacolo. Il MIDI rappresenta una tappa del progresso tecnologico strettamente connessa con l'evoluzione e il miglioramento dei dispositivi elettronici.
Gli strumenti musicali tradizionali appartengono a un complesso di apparecchi digitali programmati affinché sia possibile avvicinarsi al classico significato di strumento , chiamato [[sistema]] in ambito tecnologico e informatico. In pratica, è fondamentale per la recezione del segnale e della sua elaborazione con il fine di renderlo esecutivo.
Un sistema tecnologico viene convertito in strumento musicale per ottenere un brano con criteri di controllo che , ridotti e con molte funzionalità, facilitano la comprensione dell'ambiente esecutivo e l'entrata delle essenziali operazioni esecutive. Per osservare e conoscere i suoni o gesti prodotti, vengono adottati gli ambienti multimodali interattivi (AMI) che, legati al concetto di spazio attivo, rappresentano sistemi capaci di notare proprietà comportamentali degli utenti a più livelli di dettaglio e sensibilità affinché queste entrino in relazione con il mondo reale esteso e reso complesso dalla tecnologia.<ref>{{cita web|url=http://tesi.cab.unipd.it/41546/1/LeonardoAmico_Magistrale_Tesi.pdf|titolo="LA STANZA LOGO-MOTORIA. UN AMBIENTE
MULTIMODALE INTERATTIVO PER L’INSEGNAMENTO A BAMBINI IN SITUAZIONE DI MULTI-DISABILITÀ|accesso=27 agosto 2020}}</ref>
 
==Note==