Nwlapcug.com


Sviluppo della tecnologia digitale



La tecnologia digitale ha ampliato enormemente dalla seconda guerra mondiale, dispositivi di elaborazione che portare nelle nostre case e tasche, rivoluzionando la comunicazione e altri campi e spostante tecnologie analogiche da molti dei loro ruoli ex in musica e trasmissione video registrazione, fotografia e radio e televisione.

Binario

Sviluppo della tecnologia digitale


Il "Libro dei mutamenti", un oracolo che poteva essere consultato lanciando monete, il cinese è un predecessore del codice binario.


Tecnologie digitali si basano fondamentalmente sull'archiviazione, trasmissione e trattamento delle informazioni sotto forma di codice binario. Si tratta di una forma di notazione numerica che utilizza solo due caratteri: 0 e 1. In notazione decimale, ogni colonna denota una potenza di dieci: 10 è dieci volte 1, 100 è 10 dieci volte e così via. In formato binario, ogni colonna denota una potenza di due: 10 (2) è due volte 1 (1), 100 (4) è due volte 10 (2) e così via. Binario nella sua forma moderna fu concepita da Gottfried Leibniz nel XVII secolo, ma è molto più vecchi antecedenti: Leibniz stesso era affascinato dalle somiglianze tra di binario 0 e 1 e il yin yang e 阴 阳 dell'antica cinese "Libro dei mutamenti" o "Yi Jing" 已经.

Calcolo numerico

Codice binario esiste in circuiti come segnali elettrici; in sostanza, "su" è uguale a 1, e "off" è uguale a 0. Tutte le operazioni di un computer si basano su calcoli matematici binari. Il primo computer digitale è emerso intorno a seconda guerra mondiale, con la Germania, il Regno Unito e Stati Uniti ogni produzione concorrenti come il Zuse Z3, colosso e Atanasoff-Berry computer rispettivamente. (La domanda che di cui fu il primo vero computer è molto contestata e non sarà affrontata qui!) Ingombranti, inaffidabile tubi a vuoto sono stati utilizzati in un primo momento, poi sostituito da transistor nel 1940 e poi circuiti integrati e microchip; ogni sviluppo ha portato miglioramenti nella miniaturizzazione e dell'efficienza energetica, che consentono maggiore potenza di elaborazione da confezionare in spazi sempre più piccoli.

Audio digitale

Audio digitale prima raggiunto il pubblico nei primi anni 1980, sotto forma del compact disc (CD), basato sulle tecnologie sviluppate nel corso dei decenni precedenti. Le onde sonore vengono tagliate a fette o "campioni"---44,100 al secondo per audio CD standard--- e l'altezza (ampiezza) dell'onda ogni fetta viene registrato in formato binario. Il calo dei costi e aumento delle prestazioni di potenza di calcolo, supporti di memorizzazione e connessioni Internet dal momento che l'inizio del millennio hanno portato a un'esplosione di audio digitale, dall'iPod alla radio digitale e apparecchiature di registrazione a casa. I suoi vantaggi includono un buon equilibrio tra praticità e qualità del suono, ma la riproduzione analogica di alta qualità mantiene un vantaggio intrinseco in termini di fedeltà audio. Inoltre, la facilità con cui i file digitali possono essere copiati e condiviso ha portato a gravi problemi all'interno dell'industria di musica.

Fotografia e Video digitale

Immagini possono essere memorizzate digitalmente in gran parte allo stesso modo come suoni. In questo caso, l'immagine viene suddivisa in pixel (1 megapixel = 1 milione di pixel), ognuno dei quali viene assegnato un valore numerico binario che denota il suo colore. Altre informazioni sono incluse per indicare il computer o altri dispositivi come organizzare questi pixel: per esempio, 640 pixel per 480 pixel verso il basso per un paesaggio di immagine con risoluzione VGA. Fotocamere digitali è diventato disponibile in commercio nel 1990 e ora sono ordinariamente costruite in altri dispositivi come computer e telefoni cellulari. Video digitali possono essere creati dalla combinazione di serie di immagini con una colonna sonora. In primo luogo è diventato ampiamente accessibile alla fine del 1990 con l'avvento del DVD; Ora, la radiodiffusione di TV analogica è progressivamente abbandonato a favore di trasmissione digitale. La combinazione di banda larga veloce con capacità di video digitale in macchine fotografiche e telefoni cellulari ha portato a un'esplosione di creati dagli utenti di video sharing, in particolare su YouTube, fondata nel 2005. Contenuti video commerciali sono sempre più disponibili su Internet, sia attraverso il download da negozi come iTunes o in streaming da servizi come Hulu, Netflix e BBC iPlayer.

Sviluppi futuri

Sviluppo della tecnologia digitale


Le molecole di doppia elica di DNA possono essere il fondamento della future forme di computer.


Un numero di diverse tecnologie tengono il potenziale per future rivoluzioni. Il computer quantistico in primo luogo è stato concepito da Paul Benioff nel 1980. In un computer convenzionale, un singolo "bit"---0 o 1---può ' essere solo in uno o in altro stato in un dato momento, ma quantistica "qubit" possa essere contemporaneamente in entrambi gli Stati! Non preoccuparti se non capisci questo; Richard Feynman, notoriamente, ha detto che nessuno lo fa, e ha vinto un premio Nobel per la fisica. Basti per dire, calcolatori di quantum potrebbero offrire alla fine quasi inconcepibili livelli di potenza di calcolo. Un'altra tecnologia con potenziale a lungo termine è DNA computing, in cui la roba molto dei nostri geni è sfruttata per l'elaborazione e l'archiviazione. In questo caso, le informazioni digitali sono codificate nelle coppie di basi A-T e C-G che compongono la doppia elica. Esperimenti in questo campo sono in corso da qualche tempo: nel 2003, Guinness World Records ha riconosciuto un calcolo di DNA israeliano come "il più piccolo dispositivo di elaborazione biologico" mai. Tuttavia, come con la computazione quantistica, DNA computer rimangono una lunga strada fuori.