giovedì 11 ottobre 2012

A cura di:
Erika Santoddì
Giuliana Principe
Cosentino Veronica


L'evoluzione delle tecnologie di comunicazione mobile


In un mercato competitivo come quello delle telecomunicazioni radiomobili è molto importante poter prevedere quali saranno le tecnologie che diventeranno leader nel settore. Infatti, il costante aumento dell'utenza porta a una continua proposta di nuove tecnologie migliorative rispetto a quelli già presenti.
Negli ultimi anni lo sviluppo di schermi a colori di piccole dimensioni ma buona qualità, la diminuzione dei costi delle memorie e l’aumento di capacità computazionale hanno reso possibile la nascita di nuovi apparati mobili con alte prestazioni. Se a questo si aggiunge un sempre maggiore livello di consapevolezza degli utenti rispetto alle possibilità offerte dalla tecnologia, si comprende come il numero di servizi a disposizione sia in continuo incremento, con particolare riferimento ai servizi internet.

Il successo dei servizi internet e basati su IP trae grande beneficio dall'integrazione con dispositivi mobili, fornendo un bacino di utenza e più in generale uno spettro di utilizzo molto più ampio. Grazie alla mobilità dell’utente possono inoltre nascere diversi servizi, dedicati specificamente a dispositivi di mobile computing come smartphone, basati anche sulle informazioni aggiuntive fornite proprio dal protocollo IP, come ad esempio la geolocalizzazzione.
Prima di procedere a un'analisi delle attuali tecnologie comunicative, che consentono la fruizione di tali servizi, gettando uno sguardo anche alle prospettive future, è utile fornire una breve panoramica sulla struttura della prima rete di comunicazione mobile digitale, più vicina per certi versi a quella di una rete telefonica fissa che a quella di una rete internet: stiamo parlando della tecnologia GSM.

GSM

Nel 1982 la CEPT (Conférence Européenne des Administrations des Postes et des Télécommunications) creò un gruppo speciale per la definizione di una rete cellulare pan-europea, il Group Spécial Mobile (Gruppo Speciale Mobile, GSM). Nel 1985 fu redatta la prima lista degli standard, e nel 1987 fu firmato il primo Memorandum of Understanding: l’accordo permise di coordinare lo sviluppo delle reti GSM e pianificare l’introduzione dei servizi, oltre che di coordinare l’instradamento e la tariffazione.
Nel 1992 lo standard GSM venne ufficializzato e il suo acronimo assunse il significato di Global System for Mobile communications (sistema globale per le comunicazioni mobili), mentre nel 1994 venne introdotta la possibilità di inviare e ricevere SMS.
Il GSM è un sistema digitale con accesso multiplo TDMA/FDMA con 8 time slot per portante e distanza fra portanti di 200 KHz. La modulazione è GMSK e il frequency hoppingè opzionale (ma quasi sempre utilizzato). Vi è inoltre un controllo di potenza che viene eseguito sulla base della stima delle distanze e sulla qualità del segnale: non solo per un risparmio energetico, ma anche per ridurre l'emissione di radiazioni elettromagnetiche.
La tecnica per ottenere il full duplex è una Frequency Division Duplex (FDD). Questo significa che vengono utilizzate frequenze diverse per up-link e down-link. I canali di up-linke down-link distano 45 MHz (nelle reti GSM900) e 95 MHz (nelle reti GSM1800).
Ciò che è importante comprendere è come la rete GSM identifichi, fondamentalmente, una rete di comunicazione a commutazione di circuito. Si intende cioè che, all'atto della chiamata, l'utente faccia richiesta di instaurare un collegamento al primo nodo della rete, ovvero, in genere, all'antenna locale. A questa richiesta, segue una fase di setup in cui viene individuato, all'interno della rete GSM, un cammino che mette in collegamento il mittente e il destinatario, mantenendo tale collegamento fisso ed esclusivo per tutta la durata della comunicazione.
Questo tipo di collegamento garantisce la consegna dei dati nell'ordine di invio e con ritardi prefissati, quindi risulta molto adatto al traffico vocale. Rileviamo però che utilizzare questo tipo di architettura di rete per lo scambio di dati (ad esempio, per la fruizione dei servizi precedentemente citati) sarebbe invece controproducente, dato che il flusso di informazioni non è necessariamente continuo, ma la rete resta occupata (ovvero il circuito rimane attivo) anche nei momenti in cui non si ha alcuna trasmissione di dati. Il circuito viene infatti liberato soltanto una volta che la comunicazione è conclusa nel suo complesso.

GPRS

Con la tecnologia GPRS, la rete di comunicazione mobile comincia a orinetarsi verso un'architettura a commutazione di pacchetto, ovvero più simile a quella di una rete internet che a quella con cui è strutturata una rete telefonica tradizionale.
GPRS infatti (detto anche 2.5G, perchè si inserisce tra GSM, 2G, e UMTS, 3G) realizza una comunicazione basata su pacchetti di dati. Tali pacchetti vengono inviati alla rete, che provvede a inviarli al destinatario secondo politiche proprie.
Non si ha un circuito virtuale tra mittente e destinatario, il che consente una gestione della comunicazione meno vincolata e complessivamente più efficiente, a scapito però di una perdità di qualità nel servizio se si considera una singola chiamata.
Il protocollo di comunicazione è infatti di tipo best effort e non garantisce neppure la corretta ricezione del pacchetto, che potrebbe dover essere reinviato. Pur non essendo adatto al traffico voce, GPRS risulta un passo in avanti nella creazione di reti mobili di scambio dati, poichè evita di occupare la rete anche in caso di inattività e più in generale di sovraccaricarla di ciruiti virtuali, affidabili ma onerosi. Il passo successivo è rappresentato da UMTS.


UMTS

UMTS si serve della tecnica di code division multiple access (W-CDMA) per garantire una maggiore efficienza nell'utilizzo della banda a disposizione per operatori mobili, offrendo in sostanza la possibilità di un trasferimento dati più rapido.
Lo standard UMTS specifica in modo completo l'architettura di rete, che si può scomporre in tre componenti fondamentali: rete di accesso, rete core (ovvero il vero e proprio nucleo della rete stessa) e modulo di autenticazione tramite carta SIM, per il riconoscimento degli utenti.

La velocità di trasferimento dati può raggiungere i 384 kbit/s, si evidenzia dunque un miglioramento assolutamente significativo rispetto ai 9,6 kbit/s che possiamo aspettarci da una rete GSM tradizionale. Anche UMTS ha potuto beneficiare di un'evoluzione intermedia, chiamata HSDPA (3.5G), che consente un ulteriore incremento della velocità di trasferimento fino a un massimo di 21 Mbit/s.
Il futuro però si chiamerà LTE, che dovrebbe, perlomeno secondo gli addetti ai lavori, segnare una decisa svolta in questo ambito.

LTE

LTE nasce come nuova tecnologia per i sistemi di accesso mobile a banda larga e si colloca in una posizione intermedia fra gli attuali standard 3G come l'UMTS e quelli cosiddetti di quarta generazione (4G) ancora in fase di sviluppo, anche se, a livello  di marketing, non è insusuale riferirsi a LTE come standard di quarta generazione (4G).
Ciò risulta comprensibile se osserviamo che, a differenza dello standard HSDPA, che si innesta sulla preesistente architettura di rete UMTS, LTE richiede invece una ridefinizione completa della rete stessa.
A seguito dell'introduzione di questo nuovo standard potremo aspettarci numerose e significativi miglioramenti, capaci di diffondere in misura ancora maggiore l'utilizzo di servizi IP su dispositivi mobili. Citiamo, tra le innovazioni introdotte:
  • Una maggiore efficienza spettrale (ovvero numero di bit al secondo trasmessi per ogni hertz della portante). La banda a disposizione viene sfruttata in modo 3 volte più efficiente rispetto a HSDPA
  • velocità di trasferimento dati in download fino a 326,4 Mb/s
  • velocità di trasferimento dati in upload fino a 86,4 Mb/s
  • flessibilità nell'assegnazione di una banda a ciascun utente: da un minimo di 1,25 Mhz a un massimo di 20 Mhz
  • Grande robustezza rispetto alla mobilità dell'utente: nei test condotti si sono rilevate buone prestazioni fino a una velocità di 350km/h, o addirittura sino ai 500km/h, secondo la banda di frequenza usata.

Non resta che attendere che il nuovo standard venga introdotto dalle compagnie telefoniche, cosa che aprirà, molto probabilmente, nuovi scenari nel mondo della telefonia mobile.

mercoledì 3 ottobre 2012

L’evoluzione dell’ HW dei personal computer.

“L’innovazione è ciò che distingue un leader da un follower.”(Steve Jobs)

Al giorno d’oggi, è indispensabile l’uso del computer, basti pensare che tutto gira attorno all’informatica e internet e senza di essi molte cose, adesso, non sarebbero esistite. Ma scavando nel passato possiamo intuire quanto sia stata grandiosa ma allo stesso tempo lunga l’evoluzione di questa straordinaria macchina, fino ad arrivare ad oggi, al XXI secolo.

-L’Abaco: Nel VIII secolo a.c nacono i primi strumenti di ausilio al calcolo: i PALLOTTIERI. L’ABACO è stato il primo calcolatore, una sorta di “pallottiere” che serviva per fare calcoli artimetici. E’ ancora usato in Cina e in Giappone.

-Pascalina : La “Pascalina”, in grado di eseguire anche divisioni e moltiplicazioni. Tra l’altro, Leibniz introdusse in Europa, un sistema di numerazione molto importante: il sistema di numerazione binario. Realizzata nel 1692 dal filosofo e matematico Pascal, è una macchina in grado, attraverso congegni meccanici, di considerare i ‘riporti’ ed eseguire addizioni e sottrazioni.





Macchina elettromeccanica: Realizzata nel da G.W Leibniz, è un evoluzione della “Pascalina”, in grado di eseguire anche divisioni e moltiplicazioni. Tra l’altro, Leibniz introdusse in Europa, un  sistema di numerazione molto importante: il sistema di numerazione binario. Già in uso in cina dal 1100 d.C.




-Macchina analitica: Realizzata nel 1833 Charles Babbage, è una calcolatrice meccanica, capace di eseguire calcoli aritmetici sanche su numeri di grandi dimensioni, il programma di calcolo e i dati erano memorizzati su schede perforate (J-M Jacquard). Babbage può essere considerato l’ispiratore degli elaboratori moderni.
 
-Calcolatore elettromeccanico: Tra il 1937 e il 1941 l’ingegnere tedesco Konrad Zuse realizza i calcolatori meccanici Z1, Z2, Z3. Essi, sono basati su relè (interruttori), sul sistema di numerazione binario, hanno una memoria di 64 parole da 22 bit ciascuna e ricevono i comandi attraverso un nastro perfortato di 8 bit, visualizzano il risultato mediante delle lampade e impiegano circa 3 secondi per eseguire una moltiplicazione. Gli studi di Zuse furono la base per l’architettuta di Von Neumann. Il convegno nazionale di Informatica del 1988 assegnò a Zuse con il suo “Z1” il ruolo di inventore del primo computer programmabile funzionante della storia.
 
-Macchina di Turing: Nel 1936, il matematico Alan Turing propone il modella astratto della MdT (Macchina di Turing) la prima macchina capace di eseguire algoritmi. La MdT costituisce il fondamento dei moderni elaboratori.

 
I Generazione (1946-1956)
 
-Mark 1: Nel 1944, H. Aiken e l’IBM inventano la prima macchina artimetica in grado di svolgere le quattro operazioni fondamentali, calcoli trigonometrici, esponenziali e logaritmici. Esso è costituito da 78 calcolatrici collegate tra loro da 3000 relè. Legge il programma da nastro perforato, i dati da schede perforate e stampa i risultati da una stampante collegata.


 


-ENIAC: Nel 1946, il progetto, venne affidato ai due scienziati J. Mauchly e J. Eckert che, dopo ben 7.237 ore di lavoro, lo portarono a compimento. Furono necessarie 18.000 valvole termoioniche che portarono l'ambiente ad una temperatura superiore ai 50 °C. Occupava una stanza lunga circa 30 metri e pesava 30 tonnellate. Può essere considerato il primo calcolatore elettronico completo. Alla sua presentazione riuscì, in meno di un secondo, a moltiplicare il numero  97.367 per sé stesso 5.000 volte.

 
-EDVAC: I progettisti dell'ENIAC John Mauchly e J. Presper Eckert proposero la costruzione dell'EDVAC nell'agosto del 1944, prima ancora che l'ENIAC fosse pienamente operativo. Il progetto prevedeva sostanziali miglioramenti all'architettura dell'ENIAC e includeva una memoria seriale ad alta velocità. L'EDVAC eseguiva un'addizione in 864 microsecondi e una moltiplicazione in 2900 microsecondi. Il computer era formato da più di 6000 valvole termoioniche, da 12000 diodi e consumava 56 KW di potenza elettrica. Il computer occupava 45.5 m2 di spazio e pesava 7850 chilogrammi. Il personale necessario al funzionamento del sistema ammontava a 30 persone per ogni turno di 8 ore.

 
-UNIVAC: Realizzato nel 1958 da Eckert e Mauchly era il primo elaboratore commerciale, programmabile direttamente in linguaggio macchina.
 
-IBM 704: Realizzata nel 1955, realizza una tappa importante nell’evoluzione degli elaboratori per quanto riguarda velocità ed affidabilità. La memoria centrale era costituita da nuclei di ferrite.

 
-IBM 709: Per la prima volta unità di controllo e unità aritmetica sono riunite nella CPU (Central Processing Unit) e sono introdotti i canali per la gestione dell’input/output.
 
-IBM 7090: Il primo elaboratore a transistori, cinque volte più veloce del 709. Per la prima volta si utilizza il sistema delle interruzioni per gestire le operazioni di input/output.
 
-ELEA 9000: Nel 1959 la Olivetti produce il primo computer commerciale italiano, l’ELEA 9000. 

 
III Generazione (1964-1979)
 
-IBM/360: La serie 360 della IBM, presentata nel 1964, rappresenta la terza generazione dei computer in quanto per la prima volta si utilizzano i circuiti integrati basati sul silicio. Oltre a ciò si hanno memorie ausiliarie sempre più veloci, nuovi dispositivi di input/output, lettori magnetici, videoterminali, modem.


-IBM/370: La serie 370 della IBM, evoluzione della serie 360, presentata nel 1972, utilizza il sistema operativo OS/370 nel quale, con il VM/CMS, si introduce il concetto di macchina virtuale.

IV Generazione (1980-1990)

-Personal Computer: Nella seconda metà degli anni ‘70 Steve Jobs realizza il primo personal computer di nome APPLE. Nel 1997 nasce APPLE II, destinato ad una larga diffusione. Si trattava inizialmente, di macchine con dischi «floppy» da 5 pollici e un quarto, con una capienza di circa 90K, ed una RAM di poche decine di migliaia di bytes.
Ma a segnare una rivoluzione nei sistemi di interfaccia tra utente e sistema è il computer «MacIntosh» della ditta Apple, che nel 1984, ispirandosi al linguaggio di programmazione Smalltalk,  introduce le finestre e le icone grafiche ed il sistema di puntamento con il mouse, nonché il floppy disc da 3 pollici e mezzo. Inizia così «l'umanizzazione» del computer e nasce il concetto di «user-friendly» (sistema amichevole per l'utente): per avvicinare il computer all'utente medio, i dati e le operazioni vengono rappresentati in una forma iconica intuitiva e gradevole per l'utente, che allo stesso tempo «viene protetto» da qualsiasi informazione tecnica sul funzionamento interno della macchina. All'accensione del «Mac» appare una faccina sorridente, quando il sistema si blocca appare una bomba al posto di un più informativo messaggio di errore. Il successo di Macintosh è indiscutibile; una macchina completamente diversa da tutto ciò che era ed è in circolazione. Questa peculiarità la famiglia dei Macintosh la conserverà per molti anni a venire, diventando in modo incontestabile la macchina prediletta dei grafici e dei compositori editoriali, ma non solo. Va tenuto conto però, che contrariamente a tutti gli altri personal computer, Macintosh è una macchina chiusa, cioè utilizza un suo hardware fatto apposta, un suo sistema operativo concepito ad oggetti e una serie di programmi e linguaggi di sviluppo completamente autonomi dagli altri computer. Persino la scrittura su dischetti floppy non risulta compatibile.
I concetti di «user-friendly» e interfaccia grafica vengono ripresi dalla Microsoft con lo sviluppo di Windows, la cui prima versione risale al 1985, un sistema di interfaccia grafica per computers IBM-PC e compatibili, tuttora in uso nella versione XP.

A cura di: Santoddì Erika, Principe Giuliana, Cosentino Veronica