Informatica musicale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
rimuovo vandalismi
Etichetta: Ripristino manuale
WPCleaner v2.03 - Fixed using Wikipedia:Check Wikipedia (Errori comuni)
Riga 1:
L''''informatica musicale''' è una disciplina che analizza le tecniche relative all'uso dei sistemi informatici per la produzione e l’elaborazione dell’informazione musicale.<ref>{{cita web|autore=Alvise Vidolin|url=http://www.treccani.it/enciclopedia/informatica-musicale_(Enciclopedia-Italiana)/|titolo=Informatica musicale|sito=Treccani|editore=Istituto della Enciclopedia Italiana|data=2000|accesso=28 agosto 2020}}</ref>
 
Inoltre, viene utilizzata dall'informatica per risolvere necessità legate alla musica attraverso la creazione di [[hardware]] e strumenti che aiutano la composizione e l'esecuzione musicale. L'applicazione dell'informatica al contesto musicale è data da due fattori principali : le [[aziende informatiche]] che sfruttano il rapido sviluppo della musica provocando notevoli cambiamenti nelle modalità di produrla; il [[sistema informatico]], detto [[computer]], ritenuto [[polifonico]] e [[politimbrico]] in quanto simula i suoni o dà vita a nuove acustiche elettroniche attraverso programmi e accessori multimediali. Quest’ultimo svolge anche compiti di uno studio di registrazione per elaborazione e montaggio di suoni detenendo una certa importanza in campo editoriale. Con il forte interesse espresso dalle aziende riguardo alla musica informatica , migliorarono le tecnologie adottate e facilitarono l’introduzione di nuove professionalità specializzate nel settore. Il miglioramento dei sistemi informatici permise alla trasmissione musicale di entrare in contatto con l'ambiente grafico e dello spettacolo per elaborare composizioni artistiche e culturali multimediali.
 
==Storia==
Riga 23:
La codifica del suono si ottiene per mezzo del [[Campionamento (teoria dei segnali)|campionamento]] ,ovvero la sostituzione del segnale analogico con quello digitale. Ciò rende possibile anche la simulazione sonora di strumenti abituali. La [[frequenza di campionamento]], ritmo con cui i campionatori estraggono l'ampiezza del segnale iniziale in un certo istante (campione) dal segnale analogico<ref>{{cita web|url=https://www.audiosonica.com/it/corsoaudio-online/campionamento-introduzione-all-audio-digitale|titolo="campionamento - introduzione all'audio digitale|accesso= 10 giugno 2020 }}</ref>, e il numero di bit necessario per stabilire una relazione tra indizio e disturbo sonoro, diventano i fattori fondamentali per un'efficiente propagazione sonora della musica.
 
La musica è elaborata dall'informatica attraverso due rappresentazioni diverse: audio e simbolica. La prima ha il compito di codificare il suono attraverso successioni numeriche ; la seconda codifica la formazione di linguaggi e sistemi grafici variabili a seconda del contesto ([[editoria musicale]], [[musicologia]] e assistenza al prodotto musicale).
 
L'espressione musicale è un processo reso possibile da una sequenza di suoni emessi e poi codificati. Generalmente, i suoni si riferiscono a dei [[Segnale (elettronica)|segnali]] ovvero funzioni, di una o più variabili indipendenti , che trasportano informazioni e sono incaricate di trasmettere il dato musicale. Si suddividono in: [[segnale continuo]], caratterizzato da intervalli di tempo continui e raffigurato da funzioni variabili continue; [[segnale discreto]], definito come una serie numerica in cui le variabili indipendenti assumono soltanto valori discreti nel tempo.
 
==Sintesi dei suoni==
Il processo per cui viene generato un suono è chiamato [[sintesi del suono]] e segue un algoritmo che consente di calcolare i valori dei campioni che lo costituiscono .
Il suono campionato generato tende a essere simile all'emissione musicale prodotta durante la composizione: vengono svolte delle modifiche come passaggi di altezza, filtraggi e cambiamenti di durata (looping), sebbene lo scopo rimanga quello di formare una raccolta più minuziosa possibile di suoni campionati per un determinato strumento. Gli studi sulla musica elettronica hanno individuato più tipologie di sintesi del suono:
* La [[Sintesi additiva (musica elettronica)|sintesi additiva ]] è uno schema universale che si occupa di sintetizzare suoni pseudoarmonici con un ridotto livello di rumorosità e notevole difficoltà di calcolo. Questi suoni sono complessi e caratterizzati da valori come frequenza e ampiezza che mutano nel corso del tempo. La sintesi additiva è importante per la rappresentazione di suoni astratti durante l'esecuzione. e riprende alcuni fondamenti della [[ sintesi di Fourier]] inerente alle [[Funzione periodica|funzioni periodiche]]
* La prima teoria sulla [[sintesi granulare]] fu elaborata da Dennis Gabor mediante le sue ricerche relative alla comunicazione umana . La sintesi granulare sfrutta sequenze di suoni semplici di ridotta lunghezza chiamati grani, parti di suoni campionati o suoni astratti prodotti con un procedimento risolutivo per ottenere suoni più complessi. Questo sistema di sintesi coinvolge tecnologie di tipo analogico che creano una serie di suoni differenti tra loro per la variazione della la forma d'onda, della durata e dell'intensità dei grani: il prodotto viene sfruttato in ambito musicale e crea effetti particolari come il time stretching, lo scattering audio e il morphing. Infine, questa sintesi dà l'impressione di aver ottenuto un suono che si ripete continuamente e garantisce un ottimo spettro sonoro nonostante la granulazione richieda grandi energie computazionali.<ref>{{cita web|url=http://www.maurograziani.org/text_pages/tecniche_sintesi/intro/MG_Sintesi2.html| titolo=" Mauro Graziani : tecniche di sintesi "|accesso=17 luglio 2020}}</ref>.
* La [[Sintesi sottrattiva (musica elettronica)|sintesi sottrattiva]] è utilizzata nella produzione di timbri nell'elettronica analogica ed è in grado di generare armoniche mediante diverse operazioni di filtraggio. In campo digitale, questa sintesi ha bisogno di un algoritmo che riduca i calcoli necessari per la realizzazione del timbro ed assume proprietà diverse rispetto a quelle della sintesi analogica.
Il cambiamento dall'analogico al digitale ha diminuito l'uso di questo metodo di sintesi. La sintesi sottrattiva si basa sulla presenza di forme d'onda generate dal movimento di un oscillatore e di un filtro che seleziona delle frequenze con il fine di ottenere una variazione ininterrotta di queste.<ref> {{cita web|url=http://www.suonoelettronico.com/sintesi_sottrattiva.htm|titolo= Suono Sottrattivo|accesso=24 agosto 2020}}</ref>
* La [[sintesi per modulazione di frequenza]] ([[Modulazione di frequenza|FM]]) è una tecnica di sintesi, usata nei primi sintetizzatori digitali e in vari ambiti musicali, per cui dati due oscillatori sinusoidali, uno detto portante con frequenza p e l'altro chiamato modulante con frequenza m, si ottiene uno spettro risultante formato da frequenze p+km con k intero che varia tra -I e +I . L'indice di modulazione I è dato dalla divisione tra d (derivazione di frequenza massima del portante) e m (frequenza del modulante). L'indice permette di capire da quante parti lo spettro risultante è composto , mentre il quoziente di p/m definisce il tipo di spettro ottenuto. Di conseguenza, la variazione temporale di I comporta la produzione di suoni complessi modificabili nel corso del tempo.
[[File:Il Modello R151 - Mignonette MF.jpg|thumb|Primo modello audio dotato di modulatore di frequenza]]
 
==Modelli del suono==
I modelli di sorgente producono l’aspetto concreto della fonte sonora e sono rappresentazioni alternative delle informazioni prodotte dalla sorgente, in modo da ridurre la quantità di bit/secondo necessari alla trasmissione.
I modelli di segnale sono dinamici a livello di calcolo, diffusi e regolati dal metodo di campionamento . Sono prodotti dalla sintesi del suono e svolgono due azioni differenti: la [[generazione]] di suoni , condizionata dalle decisioni grafiche del compositore; la [[simulazione]] di suoni , fatta da tipici strumenti musicali.
La sintesi più frequente, chiamata per modelli fisici, è data dalla relazione che si instaura tra un eccitatore , ragione per cui l’emissione sonora può vibrare e il risonatore, struttura concreta dello strumento con condotta lineare.
Questo rapporto è detto ''feedback'', nel caso in cui i due componenti lavorino insieme , oppure feedforward , se il risonatore non è in grado di fornire messaggi all'eccitatore .
La differenza tra modelli di sorgente e di segnale sta nella diversa capacità di sfruttare i criteri di controllo corrispondenti ai movimenti effettuati dal musicista con il proprio strumento: il modello è in grado di esaminare i gesti del compositore , il musicista di fondere le proprie conoscenze tradizionali sulla musica con l'abilità nel suonare la sorgente potenziale.
Esistono anche altri tipi di modelli legati alla sintesi del suono: quando la relazione e la formazione di un modello è garantita da una successione di equazioni differenziali, ottenute dalla frammentazione dello schema fisico in componenti, si parla di modelli meccanici; quando un sistema fisico viene diviso in costituenti isolati, il modello è realizzato per la [[sintesi modale]], fondamentale per la teoria dei sistemi e prodotta dalla totalità delle oscillazioni incomplete; gli ultimi tipi di modelli sono detti a [[Guida d'onda|guide d'onda]] e vengono caratterizzati da una natura computazionale complessa e rappresentati da aspetti fisici o elementi di dispersione che ne evidenziano le interruzioni.
 
==Digital Signal Processing==
Il Digital Signal Processing (DSP), in italiano elaborazione numerica dei segnali, è un processo che permette l'osservazione e la visualizzazione in tempo reale del suono campionato ed elaborato su degli appositi processori detti [[Digital Signal Processor ]], realizzati alla fine degli anni ’80 . Poco dopo, vennero sostituiti per la maggior efficienza e semplicità nell'elaborazione dai [[Personal Computer]].
In molti campi della scienza e della tecnologia, i segnali sono elaborati per semplificare l'estrazione di un'informazione. Perciò , lo sviluppo di sistemi per l'elaborazione dei segnali sono diventati molto importanti e hanno permesso la trasformazione di un segnale in un altro ritenuto più auspicabile rispetto a quello originario.
Si possono distinguere diversi tipi di sistemi:
*I sistemi a tempo continuo sono descritti da equazioni differenziali di forma complessa per cui input e output sono segnali che trasmettono informazioni variabili nel tempo.
*I sistemi a tempo discreto sono descritti dalle ripetizioni della funzione in cui input e output sono segnali caratterizzati da valenze discrete nel tempo.
*I sistemi analogici seguono l’andamento della grandezza che rappresentano e possiedono input e output come segnali analogici .
* I [[sistemi digitali]] che hanno input e output come segnali digitali: l'elaborazione del segnale digitale ha a che fare con i cambiamenti di segnale considerati discreti a livello di ampiezza e di tempo .<ref>{{cita web|url=http://www.vitobarone.it/elettronica/analogico_digitale.htm|titolo="Analogico e Digitale|accesso=27 agosto 2020}}</ref>
 
L'elaborazione dei suoni è realizzata da programmi che attuano un cambiamento di segnale: la lunghezza di un suono può essere modificata con metodologie simili adottate per la variazione di altezza dei suoni .
 
Quando varia la frequenza di campionamento , un suono viene sollecitato o reso meno intenso affinché possa raggiungere esattamente un'altezza più grave e una più acuta. I cambiamenti di altezza e durata del suono sono legati all'ambito del timbro per cui un suono viene reso più acuto o grave in dipendenza delle dinamiche che affronta.
 
L'elaborazione dei suoni è realizzata da programmi che attuano un cambiamento di segnale: la lunghezza di un suono può essere modificata con metodologie simili adottate per la variazione di altezza dei suoni .
Quando varia la frequenza di campionamento ,un suono viene sollecitato o reso meno intenso affinché possa raggiungere esattamente un'altezza più grave e una più acuta. I cambiamenti di altezza e durata del suono sono legati all'ambito del timbro per cui un suono viene reso più acuto o grave in dipendenza delle dinamiche che affronta.
 
Le modalità di sintesi sono in grado di cambiare l'altezza indipendentemente dalla durata del suono. Se ne possono elencare alcune:
Line 67 ⟶ 65:
 
==Sistemi MIDI e per l'esecuzione==
Il sistema MIDI è un protocollo di comunicazione seriale a 8 bit e velocità di trasmissione di 31 &nbsp;250 &nbsp;bit/s, concepito per codificare i gesti compiuti dal musicista mentre suona una tastiera elettronica sensibile al tocco che li trasmette in tempo reale ad altri dispositivi. <ref>{{cita web|url=https://www.v3recording.com/il-midi-cose-e-come-funziona/|titolo="Il MIDI: cos’ è e come funziona"|accesso=27 agosto 2020}}</ref>
 
È formato da una tastiera elettronica detta master keyboard legata a un sintetizzatore ([[expander]]) e a un elaboratore in cui agisce un programma detto [[sequencer]] che registra suoni e musica con un certo ritardo rispetto al tempo stabilito per l'esecuzione.
Questo processo avviene mediante varie interfacce-utente ovvero hardware , necessari per la comunicazione tra strumenti attraverso 16 canali di trasmissione , appartenenti al MIDI, che indirizzano i messaggi all'expander sotto forma di informazioni di controllo.
Per la trasmissione dell'informazione musicale digitalizzata, viene utilizzato un formato di memorizzazione e di scambio di tracce musicali chiamato Standard [[Musical Instrument Digital Interface|Midi File]] (SMF).
 
 
 
Nonostante la sua lentezza e insufficienza in alcuni processi di codifica, il MIDI è molto importante per le industrie di strumenti musicali informatici e ha un raggio d'azione e di applicazione universale poiché è sfruttato anche in molti campi legati alla moda e allo spettacolo. Il MIDI rappresenta una tappa del progresso tecnologico strettamente connessa con l'evoluzione e il miglioramento dei dispositivi elettronici.
Gli strumenti musicali tradizionali appartengono a un complesso di apparecchi digitali programmati affinché sia possibile avvicinarsi al classico significato di strumento , chiamato [[sistema]] in ambito tecnologico e informatico. In pratica, è fondamentale per la recezione del segnale e della sua elaborazione con il fine di renderlo esecutivo.
Un sistema tecnologico viene convertito in strumento musicale per ottenere un brano con criteri di controllo che , ridotti e con molte funzionalità, facilitano la comprensione dell'ambiente esecutivo e l'entrata delle essenziali operazioni esecutive. Per osservare e conoscere i suoni o gesti prodotti, vengono adottati gli ambienti multimodali interattivi (AMI) che, legati al concetto di spazio attivo, rappresentano sistemi capaci di notare proprietà comportamentali degli utenti a più livelli di dettaglio e sensibilità affinché queste entrino in relazione con il mondo reale esteso e reso complesso dalla tecnologia.<ref>{{cita web|url=http://tesi.cab.unipd.it/41546/1/LeonardoAmico_Magistrale_Tesi.pdf|titolo="LA STANZA LOGO-MOTORIA. UN AMBIENTE
MULTIMODALE INTERATTIVO PER L’INSEGNAMENTO A BAMBINI IN SITUAZIONE DI MULTI-DISABILITÀ|accesso=27 agosto 2020}}</ref>