Utente:Davi.trip/Sandbox2: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Davi.trip (discussione | contributi)
Nessun oggetto della modifica
Davi.trip (discussione | contributi)
Nessun oggetto della modifica
Riga 31:
# Esiste un modo per stabilire se un'affermazione è dimostrabile (cioè se è effettivamente derivabile da un determinato insieme di proposizioni assunte come vere, cioè gli assiomi), senza confinare certe affermazioni<ref group="Nota">Per esempio enigmi matematici storici come l'ultimo teorema di Fermat, la congettura di Goldbach o la congettura di Collatz.</ref> nel limbo dell'indecidibile?
 
Il logico austriaco Kurt Gödel rispose inaspettatamente alle prime due domande ''no'' con i suoi due teoremi dell'di incompletezza. Restava soltanto la terza, quella che riguardava la decidibilità o, per dirla con lo stesso Hilbert, l'''Entscheidungsproblem'', "problema della decisione". Questo problema può essere espresso in diversi contesti. Nell'espressione originaria di Hilbert, esso assumeva questa forma: «la matematica è decidibile?», nel senso che, dato un sistema formale, astratto e simbolico che definisca la matematica, vi è una procedura definita (cioè pre-definita) garantita che sia in grado di decidere, in un numero finito di passi, se un'asserzione arbitraria formulabile nel sistema è vera, o è falsa?<ref>{{Cita libro|nome=Georges|cognome=Ifrah|titolo=The Universal History of Computing. From the Abacus to the Quantum Computer|url=https://www.amazon.com/Universal-History-Computing-Quantum-Computer/dp/0471441473/ref=sr_1_1?ie=UTF8&qid=1534520296&sr=8-1&keywords=universal+history+of+computing|accesso=2018-08-17|edizione=1|data=2002-01-10|editore=Wiley|lingua=En|p=273|citazione=The question of "decidability" can be expressed in several contexts. As originally expressed in 1928 by David Hilbert, it took the form "is mathematics decidable?", in the sense that, given a formal, abstract and symbolic system defining mathematics, does there exist a definite (i.e. pre-defined) procedure guaranteed to be able to decide, in a finite number of steps, whether an arbitrary assertion stateable in the system is true, or is false?|ISBN=9780471441472}}</ref>
 
==== La macchina di Turing ====
Riga 170:
==== Il microchip e la legge di Moore ====
Dalla fine degli anni Cinquanta, i produttori di elettronica iniziarono a confrontarsi con circuiti di crescente complessità (i computer, per esempio, contenevano decine di migliaia di transistor).<ref name=":27">{{Cita|Bunch e Hellemans|p. 405}}</ref> L'assemblaggio spesso richiedeva centinaia di migliaia di interconnessioni, ognuna delle quali doveva essere saldata a mano<ref name=":27" />, il che rendeva il dispositivo poco affidabile<ref>{{Cita|Isaacson|p. 175}}</ref>. Furono questi i problemi che motivarono l'invenzione del circuito integrato. L'idea di posizionare svariati componenti su un solo chip venne in mente a due uomini, che lavoravano in modo indipendente l'uno dall'altro.
[[File:TIDallasPhippsWeaverBiardKilbyFischer.png|alt=|miniatura|Jack Kilby (seduto, al centro)]]
Il primo, Jack Kilby, nel 1958 si unì a un team della Texas Instruments che stava cercando dei modi per ridurre la dimensione dei circuiti dei computer. Durante una dimostrazione, Kilby collegò un chip a semiconduttore fatto con diversi componenti – come interruttori, resistori, condensatori, e diodi, tutti realizzati a partire da semiconduttori drogati – a un oscilloscopio.<ref name=":27" /> Sebbene questi componenti si trovassero su un solo chip, Kilby non sviluppò un metodo adatto a collegarli gli uni agli altri, e le connessioni furono realizzate nel modo tradizionale (con minuscoli fili dorati).<ref name=":27" />
 
Riga 183:
Dieci anni dopo, Moore modificò la legge dicendo che il numero di transistor su un microchip sarebbe «raddoppiato ogni due anni, anziché una volta all'anno».<ref name=":30" /> Un collega, David House, fece un'ulteriore correzione, talvolta usata ancora oggi, e precisò che le «prestazioni» del microchip sarebbero raddoppiate ogni 18 mesi grazie alla maggiore potenza nonché al maggior numero di transistor installati su di esso.<ref name=":30" />
 
===== L'invenzione del microprocessore =====
=== La fondazione di Intel ===
 
==== L'invenzione del microprocessore ====
[[File:Intel 4004.jpg|miniatura|Intel 4004, al quale lavorarono Federico Faggin, Ted Hoff e Stanley Mazer]]
Nel 1968, grazie all'aiuto di Arthur Rock, l'investitore americano che coniò il termine ''venture capitalist'', Robert Noyce e Gordon Moore fondarono la società oggi nota con il nome di Intel.<ref name=":35">{{Cita web|url=https://www.britannica.com/topic/Intel|titolo=Intel {{!}} History, Products, & Facts|sito=Encyclopedia Britannica|lingua=en|accesso=2018-12-17}}</ref> Subito dopo la fondazione, Noyce e Moore reclutarono altri impiegati della Fairchild, tra cui l'uomo d'affari di origini ungheresi Andrew Grove.<ref name=":35" /> Noyce, Moore e Grove si succedettero come amministratori delegati durante i primi tre decenni della storia dell'azienda.<ref name=":35" />
 
Alla Intel si deve riconoscere l'invenzione del microprocessore, e non solo. Walter Isaacson scrive, ne ''Gli innovatori'', che la cultura aziendale e lo stile di management Intel contagiarono l'intera Silicon Valley, in quanto si rivelarono più efficaci di quelle rigidamente gerarchiche, caratteristiche della costa orientale degli USA.<ref>{{Cita|Isaacson|ppp. 192-198}}</ref>
{{Citazione|Un diverso tipo di innovazione, si produsse nell'Intel ed ebbe sull'era digitale un impatto altrettanto decisivo delle innovazioni descritte finora. [...] Si tratta della creazione di una cultura aziendale e di uno stile di management che erano l'antitesi dell'organizzazione gerarchica delle società della East Coast. [...] Rifuggendo le gerarchie, prima alla Fairchild Semiconductor e poi alla Intel, Noyce diede più potere ai dipendenti e li costrinse a comportarsi da imprenditori. [...] Anziché proporre piani agli alti dirigenti, le unità di business della Intel erano incoraggiate ad agire come se fossero piccole e agili aziende indipendenti.|[[Walter Isaacson]], ''Gli innovatori. Storia di chi ha preceduto e accompagnato Steve Jobs nella rivoluzione digitale''}}
Il primo microprocessore, l'Intel 4004, fu presentato al pubblico nel novembre del 1971.<ref>{{Cita web|url=https://www.intel.com/content/www/uk/en/history/museum-story-of-intel-4004.html|titolo=The Story of the Intel® 4004|sito=Intel|lingua=en|accesso=2018-12-17}}</ref> L'idea fu suggerita dalladal pocafatto convenienza diche dover costruire per ogni cliente un processore che assolvesse a un solo compito specifico, non era conveniente.<ref name=":36">{{Cita|Isaacson|pp. 199-201}}</ref> Fu Ted Hoff, un giovane docente della Stanford, in seguito assunto dalla società, a immaginare un approccio alternativo, ossia creare un chip multiuso che si potesse programmare perché svolgesse una serie di funzioni diverse.<ref name=":36" />
 
Questo microprocessore riunisce, sia pure allo stato embrionale, in un circuito integrato relativamente semplice, tutti gli elementi (aritmetici, logici e di controllo) indispensabili per un elaboratore.<ref name=":37">{{Cita|Bozzo|pp. 159-160}}</ref> La capacità di elaborazione, 60.000 operazioni al secondo, è superiore all'ENIAC del 1946 o ad un computer IBM dei primi anni Sessanta con un'unità centrale grande come un tavolo.<ref name=":37" />