docgid.ru

Terza generazione di computer. Panoramica storica della famiglia di computer ES Storia dello sviluppo di computer, processori, sistemi operativi

Alla fine degli anni '70, il paese ha accumulato sufficiente esperienza nella produzione di computer. In questo momento si compie un passo decisivo dalla diversità all'unificazione, da modelli con principi organizzativi diversi a serie di macchine di un'unica architettura diverso

produttività. Come esempio di tale serie unificata viene scelta l'architettura mainframe IBM 360. Questo punto di svolta nella storia della tecnologia informatica sovietica viene interpretato in diversi modi, anche come l'inizio della sua fine.

La creazione di computer tipo IBM è avvenuta, infatti, senza possibilità di accesso legale alle fonti primarie. Si può solo immaginare quanto sarebbe fruttuosa la cooperazione aperta tra gli scienziati dei due paesi. Tuttavia, a quel tempo le macchine venivano riprodotte, per molti aspetti, sulla base di informazioni solo approssimative sui loro prototipi, quindi i nostri sviluppatori avevano ancora molto spazio per la creatività. I creatori dell'UE e dell'SM insistono sul fatto che queste macchine sono sviluppi originali destinati all'industria nazionale.

Unità a nastro magnetico per macchine della serie di computer ES. Le unità a nastro magnetico venivano utilizzate prima (su BESM-6).

Prosegue

dischi magnetici

Per la prima volta in URSS

è apparso sui computer della serie Unified

(primi anni '70). I primi dischi di questo tipo avevano una capacità di diversi MB. L'altezza del dispositivo è di circa 1 metro.

Dispositivo di stampa digitale automatica (ADP) per computer ES. Ho stampato solo informazioni simboliche e nessun grafico per te.

Coloro che hanno lavorato con lui non dimenticheranno mai il suo cinguettio.

Primo

microcalcolatrice

1972 Hewlett-Packard pubblicizza la calcolatrice HP-3 come un "regolo calcolatore elettronico veloce e super accurato" con memoria a semiconduttore in stile computer. L'HP-3 differiva da dispositivi simili per la sua capacità di operare con un'ampia gamma di funzioni logaritmiche e trigonometriche, di memorizzare più valori intermedi per un uso successivo e di percepire e visualizzare i dati in forma ingegneristica standard.

Albero genealogico dei computer creato presso ITM e VT, Mosca, sotto la guida di S.A. Lebedeva

Quarta generazione di computer

Base dell'elemento – circuiti integrati su larga e ultra-larga scala (LSI e VLSI).

Alla fine degli anni '60 si era sviluppata una strana situazione nell'unione con il software per computer. Nonostante il piccolo numero di “programmatori” e progettisti di computer (e la parola “programmatore” allora suonava come “fisico nucleare”), i programmi creati non erano solo incompatibile tra loro (ma che dire dell’economia pianificata?), ma anche intollerabile tra le auto.

Naturalmente, il programma per l'Ural non poteva funzionare sul BESM-6, proprio come il BESM-ovskaya non poteva funzionare sul Nairi (questa straordinaria macchina è stata imbottigliata negli scantinati della fabbrica di brandy di Yerevan al terzo turno). È chiaro che non si è parlato dell'uniformità del sistema operativo, né, talvolta, della presenza di un sistema operativo in quanto tale. Tuttavia, un grande paese aveva bisogno di molti programmi e scriverli ogni volta da zero in linguaggio assembly era stupido. Anche i funzionari di alto livello lo hanno capito.

2. Problemi urgenti

È per questi motivi che si sono svolte numerose riunioni del Comitato statale per la scienza e la tecnologia sulla questione dell'unificazione dell'architettura dei computer. Naturalmente, non c'è stato nessun “tradimento” o “tragedia” (come amano scrivere le pubblicazioni gialle e gli sciovinisti lontani dall'IT), non c'è stato nessun “tradimento” o “tragedia”. Accademici, ufficiali militari e funzionari hanno cercato in qualche modo di uscirne in condizioni di totale carenza sia di programmatori che di progettisti. I problemi che l'informatica si trovava ad affrontare nell'Unione non erano affatto illusori. Tutti sono stati notati in un modo o nell'altro dai relatori delle riunioni. Ripetendoli brevemente, otteniamo il seguente elenco:

  1. Non esiste un concetto unificato per lo sviluppo della tecnologia informatica nel paese. Ogni reparto produce le auto che preferisce.

  2. Nel paese non esiste un’architettura informatica unificata, il che significa che non esiste la portabilità dei programmi.

  3. Anche il problema della portabilità è molto acuto perché la maggioranza (circa il 50%) dei programmi sono scritti in codice (cioè in assembler, in termini moderni).

  4. Non ci sono abbastanza programmatori nell'Unione, così come non ci sono abbastanza istituzioni educative che li diplomino.

  5. C’è una grave carenza di software applicativi e di sistema.
Tutti questi problemi dovevano essere risolti e sembrava impossibile fare a meno di adottare misure urgenti. L’unificazione era necessaria! Naturalmente, ora diremmo che la concorrenza non è poi così negativa, ma lasciatemi ricordare che, in primo luogo, non era assolutamente nello spirito di un’economia pianificata e, in secondo luogo, era “con il denaro statale”, cioè. con il denaro dei contribuenti (come la maggior parte dei progetti scientifici e tecnici nell’Unione). È chiaro che è stato possibile “competere” in questo modo per molto tempo.

Per quanto riguarda il problema della carenza di software, era ovvio che il numero di programmatori disponibili in quel momento (1,5mila nel 1969, secondo la citazione di A. A. Dorodnitsyn in) non aveva il tempo di far fronte a tutti i compiti. Ricordando le parole di Brooks, che ha scritto "Propongo di aderire alla seguente regola: i traduttori sono tre volte più complessi dei normali programmi applicativi e i sistemi operativi sono tre volte più complessi dei traduttori", possiamo calcolare le risorse necessarie. Se prendiamo in considerazione i costi spesi da IBM per creare OS/360 (5.000 anni-uomo secondo le stime di Brooks), allora anche solo per replicare questo sistema operativo tutti I programmatori dell’Unione avrebbero impiegato circa tre anni (ovviamente, ripetere OS/360 non è una buona idea, e qui illustriamo semplicemente la gravità del compito che il paese ha dovuto affrontare). In più, non dobbiamo dimenticare che oltre ai software di sistema (sistema operativo, traduttori, database, ecc.), è necessario creare software applicativi, e questo richiede anche il lavoro dei programmatori!

Portare programmatori da Marte e persino dagli Stati Uniti era del tutto irrealistico (e nessuno voleva aspettare), e quindi era necessario creare i programmi da soli. Sicuramente molti hanno letto la dichiarazione di Babayan (citata anche in): "Il calcolo era che sarebbe stato possibile rubare molto software - e sarebbe arrivata la fioritura della tecnologia informatica. Questo, ovviamente, non è accaduto. Perché dopo che tutti erano riuniti in un unico luogo, la creatività era finita. In senso figurato, il cervello cominciò a prosciugarsi a causa di un lavoro completamente non creativo. Bisognava semplicemente indovinare come fossero fatti i computer occidentali, in realtà obsoleti. Il livello avanzato non era noto, non erano coinvolti in sviluppi avanzati, c'era la speranza che il software... Ben presto divenne chiaro che il software non scorreva, i pezzi rubati non si incastravano, i programmi non funzionavano, tutto doveva essere riscritto e quello che avevano ottenuto era antico e non ha funzionato bene. È stato un fallimento assordante. Lasciamo i passaggi di Boris Artashesovich sul cervello e la creatività. Valutiamo solo il residuo secco. Naturalmente, né il periodo di massimo splendore né l'alba sono arrivati, ma la questione del software (almeno sistemico ) è stato risolto per gli anni a venire. In ogni caso gli è stato tolto il bordo. I sistemi e i traduttori occidentali hanno funzionato perfettamente anche senza localizzazione e finendo in bellezza al NICEVT. Inoltre, se possibile, molti preferivano i sistemi originali, poiché erano più privi di bug.

3. Quello stesso incontro

Particolarmente interessante per noi sarà l'incontro al Ministero dell'industria radiofonica nel dicembre 1969.
Per comprendere più acutamente i problemi di quel tempo, dovremo rivolgerci direttamente alle trascrizioni degli incontri (citati da). Di seguito ne riportiamo un breve estratto, e vi chiedo di leggerlo tutto con attenzione.

Presente: Kalmykov, Keldysh, Gorshkov (presidente del complesso militare-industriale), Savin, Kochetov (rappresentanti del comitato centrale del PCUS), Rakovsky (vicepresidente del comitato di pianificazione statale dell'URSS). Sulim, Lebedev, Krutovskikh, Gorshkov (vice ministro dell'industria radiofonica), Levin, Shura-Bura, Ushakov, Arefieva, Przhiyalkovsky, Matkin, Dorodnitsyn.

Sulim. Sullo stato dei negoziati con la DDR e la LCI.

Variante IBM-360. La DDR ha adottato un orientamento verso IBM-360. Uno dei modelli (P-40) è stato sviluppato con successo. Abbiamo le basi, abbiamo una squadra capace di iniziare a lavorare. Padroneggiare il sistema operativo IBM-360 richiederà 2.200 anni-uomo e 700 sviluppatori. Non ci sono contatti con IBM. Ci saranno difficoltà nell'acquisto di una macchina analogica. Il suo costo è di 4-5 milioni di dollari. La DDR dispone solo di una parte della documentazione necessaria.

Opzione ICL. Riceveremo tutta la documentazione tecnica e l'assistenza per padroneggiarla. Dovremo fare alcune piccole modifiche. L'azienda offre l'acquisto di un lotto di automobili prodotte. È possibile utilizzare un team di programmatori per preparare i programmi applicativi.
Un gruppo dei nostri programmatori sta già svolgendo uno stage presso l'azienda. In futuro, sviluppo congiunto di computer di quarta generazione. L'azienda cerca di aiutare in tutto, perché spera, in alleanza con le aziende europee, tra cui noi, di diventare un concorrente dell'IBM. Esiste un accordo tra aziende italiane e francesi per partecipare alla creazione della tecnologia informatica di quarta generazione.

Przyalkowski. Secondo IBM-360, disponiamo di un sistema di 6mila microcomandi, il 90% dei circuiti TEZ, il 70% viene instradato, 7000 unità di documentazione di progettazione. Nel riorientarsi verso l’ICL, l’intero arretrato dovrà essere rielaborato; ciò ritarderà il lavoro di 1-1,5 anni. Avrai bisogno di molta valuta (per acquistare computer ICL). È preferibile l'opzione di cooperazione con la DDR, che sta lavorando con successo sull'IBM-360. Se rafforziamo il gruppo di matematici, allora il DOS potrà essere sviluppato entro il 1971. È ora di smettere di esitare.

Krutovskikh. Il nostro progetto prevedeva il sistema modello IBM-360. Nel riorientamento verso la società ICL, la composizione dei modelli dovrebbe essere diversa. Le specifiche tecniche stanno cambiando. Ci vogliono 4-5 mesi per un progetto anticipato. ICL non è chiara sui modelli più vecchi. Si aggiungono alla gamma dei computer di piccole e medie dimensioni come supercomputer. È meglio non farlo. Durante il riorientamento, la preparazione della documentazione tecnica verrà ritardata di 1,5-2 anni e forse di più. Lavorando con la DDR utilizzando IBM-360, puoi ottenere DOS e OS entro l'inizio della produzione di massa, eliminando la questione del loro sviluppo. I tedeschi sono andati più lontano di noi. Non saranno in grado di riorientarsi. Gli inglesi hanno bisogno di un mercato. Ci porteranno per il naso. Non coopereranno su macchine di grandi dimensioni. Non puoi comprare 150 auto da loro.

Dorodnitsyn. La questione della padronanza dell'IBM-360 è presentata in una forma semplificata. Tutto è molto più complicato. Ci vogliono almeno quattro anni per padroneggiare il sistema operativo e non si sa cosa otterremo. Dobbiamo farlo da soli ( insieme all'ICL) creano DOS e sistemi operativi e si concentrano sullo sviluppo di macchine insieme a ICL.

Lebedev. Il sistema IBM-360 è una serie di computer di dieci anni fa. La gamma di macchine che stiamo creando dovrebbe essere limitata alle macchine a bassa e media produttività. L'architettura IBM-360 non è adatta a modelli di grandi dimensioni (supercomputer). Gli inglesi vogliono competere con gli americani nel passaggio ai computer di quarta generazione. Maggiore è la prestazione della macchina, maggiori sono le sue caratteristiche strutturali. Gli inglesi sono pionieri nell’automazione del design. Il sistema software per System-4 è dinamico e, se sono disponibili contatti, è del tutto possibile svilupparlo. Ciò contribuirà alla formazione del nostro personale. È meglio addestrarli sviluppando un proprio sistema (insieme agli inglesi).

Shura-Bura. Dal punto di vista del sistema software è preferibile la versione americana. Il sistema operativo deve essere migliorato. Per fare questo è necessario conoscere tutti i programmi.

Keldysh. Devi acquistare licenze e costruire le tue auto. Altrimenti ripeteremo semplicemente quello che hanno fatto gli altri. In linea di principio, devi creare tu stesso grandi macchine.

Lebedev. I nostri matematici ritengono che sia meglio formare i programmatori secondo il metodo britannico.

Rakovskij. Devi pensare al futuro. Abbiamo bisogno di un concetto unificato. Tutti dicevano che il sistema software IBM era più avanzato, ma il sistema operativo era ingombrante. Non può essere completamente padroneggiato entro quattro o cinque anni. È difficile, ma oggi devi prendere una decisione. Se ti concentri sulla LCI, sarà difficile con la DDR; in cinque anni i tedeschi produrranno 200 esemplari del P-40. Tuttavia, l'offerta della ICL dovrebbe essere accettata.

Krutovskikh. Tutti gli sviluppatori, tranne Rameev, non vogliono passare a ICL. Il P-50 sarà pronto nel 1971.

Kalmykov. La presenza del DOS rende immediatamente possibile l'utilizzo delle macchine che inizieremo a produrre. Possiamo ottenere molti programmi dai tedeschi. Punti negativi. Non disponiamo di macchine IBM-360. E non avremo contatti con IBM. Se ci riorientiamo verso la società ICL, perderemo tempo. Ma il contatto diretto e la cooperazione con loro sono possibili nella creazione dei computer di quarta generazione. Questo è un grande vantaggio. Quarta generazione Faranno computer senza gli americani; vogliono essere competitivi con IBM.

Keldysh. Non dovresti riorientarti verso ICL, ma è necessario condurre trattative con loro sulla quarta generazione di computer.

Kalmykov. Non ci concentreremo nuovamente sull’ICL. Solleveremo la questione di aiutare maggiormente i tedeschi."

Già da questo frammento si può avere un’idea degli “equilibri di potere” al vertice. Coloro che hanno sostenuto la cooperazione con l'ILC sono stati: Sulim, Dorodnitsyn, Lebedev, Rakovsky, Rameev (non presente). Per IBM: Przhiyalkovsky, Krutovskikh, Kalmykov, Shura-Bura, Keldysh. Allo stesso tempo, non si osa chiamare “traditori” o “sabotatori” nessuna delle due parti.

Ci sono due punti che necessitano di chiarimenti. Innanzitutto la mitica “quarta generazione” di cui parlano quasi tutti gli oratori. Non è del tutto chiaro cosa Poi compreso da Lebedev, Keldysh e altri. Se la terza generazione riguarda i circuiti integrati, la quarta riguarda i circuiti integrati su larga scala (LSI). Non è chiaro come si volesse “saltare” il palcoscenico dei circuiti integrati (del resto le macchine allora disponibili (anche le più nuove!) erano a transistor). E BESM-6 è stato prodotto su elementi discreti per molti anni. Di che tipo di “quarta generazione” potremmo parlare? Ovviamente, i problemi architetturali si mescolano con quelli implementativi. Formalmente, l'architettura Intel o PPC può essere riprodotta sui transistor. In secondo luogo, è importante capire cosa sono l’ILC e il misterioso “System-4”. Riderai, ma questa è (sorpresa, sorpresa) un'architettura IBM-360 con un insieme ridotto di comandi privilegiati! Pertanto, la scelta in questo incontro era tra copiare l'originale IBM/360 e... copiare copie(!) IBM/360! Come possiamo vedere, nessuno dei presenti (tranne forse Keldysh) non balbettava completamente loro macchine (e non credo che si riferisse nemmeno a quelle).

4. Politica e scienza.

Quindi la questione non era nemmeno architettonica, ma politica. Inchinarsi all’imperialismo americano? Irreale. Dovrai rubare. Oppure dovremmo continuare ad essere amici degli inglesi, che sono anch’essi imperialisti, ma non così rabbiosi? La maggior parte degli autori che considerano la "decisione epocale" per qualche motivo perdono di vista il fatto che la questione della concorrenza tra BESM-6 e la Unified Series non è stata affatto sollevata. Se la bilancia si fosse inclinata dall’altra parte, sarebbero state copiate le macchine ILC, non l’IBM. È tutto. Inoltre, volevano copiare l'auto, ad es. hardware, non architettura. Ciò è evidente dall’osservazione di Przhialkovsky “abbiamo il 90% dei circuiti TEZ, il 70% è instradato”. SÌ! È stato il reverse engineering a diventare il metodo principale per il nostro settore per molti anni a venire. Ma la colpa è dei programmatori? Hanno iniziato prima? Ovviamente no. La tecnologia “ruba, smonta e sistema” veniva utilizzata ovunque. Sia nel settore aeronautico che in altri settori. Quindi non possiamo dare la colpa specificatamente al settore IT.

5. E se?

Supponiamo però per un momento che la domanda venga posta esattamente come la pongono i “patrioti dell'informatica”: IBM/360 o BESM-6? Ciò che è meglio per l'economia nazionale e, in generale, dal punto di vista dell'eternità. Qui irrompe nella nostra galassia di geni, che finora comprendeva Cray, Lebedev e Kilburn, un altro americano: Gene Amdahl, architetto dell'IBM/360 e autore della legge a suo nome. Amdahl ha lavorato presso IBM sulle macchine IBM-704/709 e Stretch. Lasciò poi l'IBM, ma ritornò nel 1960 e gettò le basi per un'architettura che sarebbe durata quasi immutata per 30 anni. Perché IBM aveva bisogno di una nuova architettura? Perché anche all’interno della stessa azienda diventava scomodo mantenere un ampio parco di architetture incompatibili. L'idea dell'S/360 era quella di unificare l'architettura, nonché di separare l'architettura dall'implementazione (qualcosa che il Comitato statale per la scienza e la tecnologia non aveva ancora capito veramente). Amdahl (e IBM) riuscirono a raggiungere questi obiettivi, anche se a caro prezzo (5 miliardi di dollari ai prezzi del 1964). A proposito, a partire dall'IBM/360, il byte da 8 bit è diventato sempre più diffuso, sostituendo dimensioni più esotiche. Di seguito considereremo le questioni relative all'architettura hardware separatamente dal software e inizieremo con l'hardware.
5.1. Scontro tra Titani (confronto di architetture)

Quindi confrontiamo l'architettura di S/360 e BESM-6.
Usiamo lo stesso formato tabella di prima, fatta eccezione per la descrizione del sistema di comando (perché occuperebbe troppo spazio).

Parametro\MacchinaSistema IBM/360BESM-6
Inizio della produzione in serie1965 1968
Base dell'elementoCircuiti integratiTransistor
Tipo di indirizzamentoDue indirizziUnicast
Profondità delle parole32 bit48 bit
Lunghezza del comando16,32 o 48 bit24 bit
Capacità del sommatore32 bit48 bit
Dimensione dell'indirizzo24 (32) bit15 bit
Registri per scopi generali16 1 (+1)
Registri indice0 15
Registri a virgola mobile4 (64 bit)1+1 (48 bit)
Capacità della RAMda 4KB a 8MB32.768 parole

Nella tabella vediamo diverse differenze, le principali sono un diverso tipo di indirizzamento, la presenza di registri di uso generale e la profondità di bit dell'indirizzo. Alla fine degli anni '60 l'architettura dell'S/360 era già logicamente formata e completa. Si distingueva dal più moderno S/370 solo per la mancanza di meccanismi di memoria virtuale e per il supporto sviluppato per il multiprocessing. Il sistema 360 includeva set di istruzioni sia per applicazioni scientifiche (aritmetica completa in virgola mobile) che per applicazioni aziendali (aritmetica decimale, formattazione). Quando Lebedev disse che l'architettura dell'S/360 risale a dieci anni fa, o fraintese o si comportò in modo falso. Rispetto all'IBM/360, l'architettura BESM-6 sembrava arcaica.

BESM-6, come abbiamo già visto, non era una macchina universale. Nella terminologia odierna questo è un "frantumatore di numeri". Usarlo per scopi diversi dai calcoli scientifici non è molto efficace. La mancanza dell'aritmetica dei numeri interi (per non parlare dei decimali) e dei comandi di memoria ne rende difficile l'utilizzo nell'elaborazione testi e nei calcoli economici. Naturalmente, utilizzando linguaggi di alto livello, tutti questi problemi possono essere nascosti, ma l’efficienza sarà comunque bassa.


Un altro problema dell'architettura BESM-6 era l'input/output non sviluppato e la mancanza di un'ampia gamma di periferiche. Puoi farti un'idea del sistema I/O almeno da questa pagina di manuale:

A proposito, puoi usarlo per giudicare la qualità della documentazione nel suo complesso (e questa è comunque una qualità abbastanza decente).


L'IBM S/360 è stato il primo a utilizzare l'architettura I/O del canale. Tutti i dispositivi erano collegati al cosiddetto. canali (che erano essenzialmente controller di input/output specializzati). I canali potrebbero essere multiplex a blocchi (per dispositivi ad alta velocità), multiplex a byte e selettore. Il processore non ha comunicato direttamente con il dispositivo. Invece, ha lanciato il cosiddetto. un programma di canale eseguito dal controllore indipendentemente dalla CPU. Il programma del canale conteneva tutti i dati necessari per un'operazione di I/O e supportava anche diramazioni e loop. Pertanto, il processore è stato notevolmente scaricato e, ovviamente, non è stato coinvolto nello scorrimento del tamburo e nel controllo dei martelli dell'ADCP. Un'architettura simile viene utilizzata con successo anche oggi, ad esempio, nei dischi SCSI.

Per riassumere resta da dire che l'S/360 era sicuramente un'architettura più moderna, armonica e armoniosa rispetto alla serie BESM-6. E, soprattutto, più adatto alle esigenze dell’industria di quegli anni.

5.2. Affidabilità e facilità d'uso
Contrariamente alla credenza popolare, i cloni sovietici S/360-370 - EC (serie unica) non erano particolarmente complicati da produrre o super costosi. Se BESM-6 è stato prodotto durante l'intero periodo (secondo Wikipedia), sono state prodotte solo 367 unità e erano principalmente di proprietà di uffici specializzati, quindi sono state prodotte più di 15mila unità di EC di varie configurazioni e l'una o l'altra macchina è stato installato in quasi tutti gli istituti. Un'altra domanda - era necessaria? in ogni istituto? In generale - no. Dopotutto, non furono copiate solo le “grandi macchine” dell’IBM, ma anche i PDP della DEC sotto il nome CM (Small Series). Ne furono prodotti ancora di più. In effetti, questa era la serie più popolare. Ovviamente, dato il livello piuttosto basso di informatizzazione dell’Unione nel suo insieme, non c’era bisogno di una grande flotta di mainframe.L’“inaffidabilità” delle macchine IBM è causata da almeno due ragioni. In primo luogo, una cultura a bassa produzione e, in secondo luogo, una cultura a basso servizio. Anche il famigerato OS/360, che non fu affatto un esempio di affidabilità e trasparenza, giocò un ruolo significativo nello sviluppo della "notorietà" di EC. L'assenza (o la riluttanza ad acquistare e distribuire) sistemi di accesso ai terminali per OS/360 (come TSO) ha portato alla creazione di monitor di dialogo "scritti in casa" come Jec, Primus, Jessy, ecc. Naturalmente tutto ciò non ha aumentato il livello generale di affidabilità del sistema. In effetti, anche uno scolaretto poteva rovinare la vita di un operatore di computer ES e di altri utenti.Il problema delle Serie Unificate non era l'architettura (che è ancora viva oggi nei mainframe IBM), ma la bassa qualità degli elementi base, operativi cultura, e la scelta non del tutto vincente del software di base. È chiaro che questa scelta è stata in gran parte imposta da IBM (non solo da noi, ma anche da tutti i clienti occidentali). Non ultimo, bisogna pensare, è stato il viaggio di Gromyko negli Stati Uniti, dove gli è stato mostrato ciò che doveva vedere. Tuttavia, i problemi dell’informatica sovietica non derivavano dalla scelta sbagliata dello standard da seguire o dall’inconveniente del sistema operativo UE, e nemmeno dalla mancanza di conoscenza di Gromyko in informatica.

6. Di chi è la colpa? Cosa fare?

6.1. Criteri di valutazione
Quindi devi trarre delle conclusioni e, se il lettore non le ha ancora fatte da solo, cercherò di aiutarti in questa difficile questione. Quindi, cosa avrebbero dovuto fare la leadership del partito e del governo nel 1967 per evitare di rimanere indietro nel campo della cibernetica? La questione è davvero difficile anche adesso che guardiamo alla situazione dal futuro. Cosa possiamo dire in quei tempi...
C'è un problema anche nella scelta dei criteri. A cosa dovrebbe essere data la priorità: indipendenza e indipendenza dello sviluppo o benefici per l’economia nazionale? Ognuno sceglie per se stesso... Di seguito fornirò tre criteri che, mi sembra, possono essere presi in considerazione.
6.2. Mantenere l'indipendenza. Andremo in una direzione diversa
Era possibile lasciare tutto così com'è, senza lasciarsi distrarre da “roba” straniera e continuare a perseguire la propria linea. Alcuni hanno fatto proprio questo! Spesso si legge l'opinione secondo cui, avendo iniziato a copiare l'IBM/360, la linea BESM (e successivamente Elbrus) sarebbe stata chiusa. In realtà, questo non è vero. BESM-6 è stato prodotto per molti, molti anni (fino al 1987) e per Elbrus sono stati stanziati enormi soldi (a quel tempo). Ciò non ha avuto alcun effetto sulla situazione. Sì, e non potrebbe influenzare. L’insufficienza dei BESM è stata compresa non solo dai loro oppositori, ma anche dai loro creatori. Era ovvio che fosse necessario modificare sia l'elemento base che l'architettura nel suo insieme (tuttavia, il lancio verso El-Burrows non ha prodotto nulla di buono). Il BESM-6 nella forma in cui esisteva (un costoso supercomputer per applicazioni scientifiche) non poteva risolvere i problemi assegnati a Ryad. Era necessario evolversi. L'evoluzione verso l'Elbrus si concluse con un fallimento ancora più assordante, per quanto Babayan volesse il contrario, forse se fossimo andati per la nostra strada il risultato sarebbe stato, se non migliore, almeno più interessante. Anche se l’economia nazionale senza l’Ue fosse crollata cinque anni prima, sarebbero sbocciati cento fiori, cento lingue e cento architetture. D’altro canto, inserirsi nell’esperienza mondiale degli anni ’90 sarebbe stato molto più difficile. È la vita...
6.3. Ridurre al minimo i propri sforzi. Sulla scia del Gigante Blu
Dal punto di vista dei benefici per l'economia nazionale, la decisione presa è stata, a mio avviso, corretta. Il fatto è che, essendo un buon "frantumatore di numeri" (vedi sopra), BESM-6 non era in alcun modo un computer comodo e accessibile per altre applicazioni (database, elaborazione di informazioni testuali, calcoli finanziari, ecc.). L'IBM/360-370 era molto più adatto a questo, come dimostrano le elevate vendite dei prodotti del “gigante blu” in quegli anni. Per quanto riguarda i problemi in URSS, la frase “non sai proprio come cucinarli” si adatta perfettamente a descrivere la situazione qui.
L'idea di copiare è spesso vista come un altro problema: un calo dell'autostima. Dicono che prima, mentre facevano le proprie cose in ginocchio, tutti si sentivano creatori, e così anche la creatività. E dopo la decisione di adottare dall'Occidente, la creatività si è esaurita e l'autostima è crollata alle stelle. Anche il già citato Babayan ha scritto a riguardo. Sinceramente questo argomento mi sembra inverosimile. Dopotutto, può essere applicato ora, quando il grado di "ritardo rispetto all'Occidente" è cento volte maggiore e non si parla di alternative alle architetture "borghesi" (come Intel)! Lavoriamo su hardware completamente estraneo, con sistemi operativi stranieri e in IDE stranieri. E cosa? Quante persone nella comunità dei programmatori (e non nel Cremlino) hanno un complesso al riguardo? In qualche modo non me ne sono accorto. Anche se, forse, i sovietici avevano il loro orgoglio. Chi lo sa?
6.4. Integrazione con la comunità globale, orientamento al futuro
Il terzo criterio che menzionerei è la possibilità di integrazione con la comunità mondiale e l'orientamento al futuro. È chiaro che stufando nel tuo stesso succo, ad es. sviluppando programmi e sistemi del tutto originali ci allontaneremo sempre di più dalle tendenze globali (a proposito, forse ciò non è avvenuto proprio a causa del maggiore grado di integrazione?). Naturalmente, i “vertici” della nostra industria informatica non si sono affatto staccati dal pensiero occidentale, anzi “hanno scambiato lavoro” (con questo, come il diavolo, Mak, no, MCarthy, insomma). Ma i normali programmatori non sapevano niente del genere. E come avrebbero potuto sapere se i materiali SIGPLAN non erano disponibili presso la biblioteca dell'istituto? Tuttavia, la documentazione e la letteratura tradotta sull'IBM S/360 e poi sul PDP-11/DEC, almeno in qualche modo, ci hanno avvicinato al resto del mondo.

7. Google si è calmato, sono salito sul palco... (Digressione lirica).

Cosa avrei fatto se fossi stato al comando in quei primi anni? Non è così facile decidere. Da un lato non imporrei a tutti un’architettura, perché prima è necessaria convincere persone che sarà adatto a loro. D’altro canto valeva ancora la pena produrre macchine IBM, dato che era impossibile acquistarle. Naturalmente non tutto valeva la pena di essere copiato. Nel 1967 era già stato rilasciato IBM/360-67, con cui potevamo iniziare. Come sistema operativo si potrebbe prendere il compatto CP/CMS (e poi VM/370), che IBM non solo ha distribuito gratuitamente, ma anche nel codice sorgente fino alla versione 6. Con tutto il rispetto per Brooks, questo sistema operativo era molto più successo di OS/ 360 (e, tra l'altro, tutte le persone ragionevoli nell'Unione se ne sono rese conto rapidamente). Sviluppa il tuo software applicativo e migliora il software di sistema esistente. Prendi il meglio (non binari, ma idee!) Dagli sviluppi occidentali... Inoltre, era semplicemente necessario stabilire uno scambio di studenti e laureati con grandi centri CS sia in Europa che in America. Erano loro, e non Gromyko, che avrebbero dovuto unirsi alla “cucina informatica mondiale” e formarsi un’opinione su tendenze, architetture e sistemi operativi promettenti. Naturalmente tutto ciò era impensabile in quegli anni. Invece di un ampio ruscello c'era un ruscello debole. Ma anche così, le idee, seppure tardivamente, penetrarono nell’Unione. Purtroppo questo non è bastato: ritengo che la struttura stessa dell’economia fosse viziata e non permettesse il pieno sviluppo di tutto ciò che era lontano dai bisogni del complesso militare-industriale. La scienza abbandonata alla creazione di bombe e missili invece che al campo delle “trivellazioni pacifiche” (le cose profonde, tuttavia, non sono mai state dimenticate) non sarebbe in grado di raggiungere quelle vette e risolvere quei problemi che sono importanti in una “società aperta”. " In altre parole, se l’ideologia dominante fosse preservata, nessuna decisione salverebbe l’informatica nazionale dal restare indietro.

Con questa nota pessimistica lasciatemi concludere... algene) per le informazioni fornite e molto altro ancora. Anna Godes ha fornito grande aiuto nella correzione di bozze di questo e dell'articolo precedente.

Oleg Spiryaev

Tra le conquiste più importanti del 20° secolo che hanno cambiato il modo in cui raccogliamo, trasmettiamo e utilizziamo le informazioni ci sono l'IBM System/360 e i PC IBM. In realtà, IBM Corporation (http://www.ibm.com) ha fatto molto di più, giocando un ruolo molto significativo nella creazione della tecnologia informatica e delle sue applicazioni.

Martedì 7 aprile 1964, Thomas J. Watson, Jr., in seguito a capo dell'IBM, annunciò il rilascio della famiglia di computer System/360. È stato forse il progetto più costoso nella storia dell'informatica. Il suo obiettivo era quello di sviluppare un insieme completo di soluzioni nel campo dell'hardware, del software, della tecnologia di produzione, dell'organizzazione della distribuzione e della manutenzione di una famiglia di computer, variabili in termini di prestazioni e costi. La versatilità della famiglia è stata raggiunta grazie al fatto che i computer sono stati progettati per elaborare sia numeri decimali che a virgola mobile, nonché attraverso un software di sistema sviluppato che soddisfa le esigenze specifiche dei vari utenti. Gene Amdahl, G. Blau e F. P. Brooks Jr. hanno contribuito allo sviluppo della famiglia System/360. Le macchine di questo tipo hanno ricevuto il nome comune "mainframe", dal nome dei tipici rack IBM che ospitavano le apparecchiature dell'unità di elaborazione centrale.

Mainframe IBM System/360.

Due settimane prima, più di duecento manager del settore informatico avevano appreso dell'imminente evento dal primo numero di una newsletter che segnava il lancio della International Data Corporation (IDC), fondata da Patrick J. McGovern. La prima edizione si chiamava EDP Industry and Market Report. Il bollettino prese il nome successivo - Il Foglio Grigio - dal colore della carta su cui fu stampato. System/360 e il primo rapporto IDC hanno dato vita a nuovi segmenti del settore IT che ora valgono miliardi di dollari.

Tuttavia, nel 1964 c'erano anche degli scettici. La rivista Fortune ha quindi calcolato che i rischi dell'IBM legati al rilascio del System/360 ammontavano ad almeno un miliardo di dollari: in altre parole, il fallimento del progetto potrebbe portare alla bancarotta della Blue Giant. I dubbi degli ingegneri informatici erano anche legati alla sensazione che fosse iniziata l'era della loro “super importanza” (da allora i programmatori non potevano più influenzare direttamente la configurazione della piattaforma informatica). Quando fu introdotto il System/360, erano in uso circa ventimila computer. Solo una su dozzine di imprese poteva acquistare una macchina di questo tipo: a quel tempo era piuttosto costosa. Non esisteva praticamente alcun mercato del software e le applicazioni venivano scritte per le esigenze specifiche del cliente. Molte aziende coinvolte nella produzione di computer hanno lasciato il mercato senza aspettare tempi migliori. Tra questi c'erano giganti dell'industria elettronica come RCA, General Electric e Xerox (si noti che l'industria informatica richiede ancora nervi d'acciaio da parte di coloro che lavorano in questo campo). A proposito, IBM ha speso 5 miliardi di dollari per lo sviluppo dei mainframe (che ai prezzi attuali equivalgono a circa 30 miliardi di dollari), e questa è stata una mossa molto rischiosa, dato che il reddito annuo dell'azienda era allora di soli 3,2 miliardi di dollari. cavallo e vinse.

Inizialmente gli utenti non hanno reagito affatto ai primi mainframe della serie 360, ma dopo circa due mesi si sono resi conto della bontà di tali sistemi e il numero di ordini ha superato tutte le aspettative di IBM. Nel corso dei successivi cinque anni, il numero di computer di questa famiglia utilizzati per risolvere problemi aziendali aumentò fino a 90mila.

Dal Sistema/360 all'S/390

Le dimensioni del computer System/360, per gli standard odierni, erano piuttosto impressionanti: occupava un'intera stanza. È vero, la configurazione dei mainframe di allora oggi, per usare un eufemismo, non stupisce l'immaginazione: la frequenza dell'orologio del processore era di 2 MHz e la capacità del sistema di archiviazione (nastro e disco) era di soli 8 MB. Ma nonostante ciò, a un computer del genere potevano essere collegati contemporaneamente fino a 248 terminali, da cui venivano inseriti i dati e su cui venivano visualizzati i risultati.

Durante lo sviluppo di questo progetto sono nate tecnologie come l'elaborazione parallela, la pipeline, il processore di input/output, la memoria virtuale, la macchina virtuale, che successivamente sono migrate sui computer “normali”.

I mainframe System/360 sono stati la prima grande famiglia di computer a consentire software e hardware periferici intercambiabili. Invece di acquistare un nuovo sistema quando le esigenze e i budget crescevano in modo significativo, i clienti potevano ora semplicemente espandere le capacità informatiche in modo frammentario, aggiungendo o sostituendo solo l’hardware necessario.

Vari dispositivi di questa serie erano completamente compatibili, il che rendeva possibile assemblare complessi da essi, come da parti di un set di costruzione. Sono stati creati dispositivi I/O (comprese le schede perforate) e dispositivi di archiviazione dati (dischi, unità nastro). Ad esempio, System/360 offriva una scelta di cinque processori, 44 periferiche e 19 combinazioni di potenza, velocità e memoria. L'utente poteva utilizzare gli stessi nastri magnetici e unità disco con processori che differivano in termini di prestazioni 100 volte. Un computer del genere allora costava circa 2 milioni di dollari.

In generale, nel 1964, IBM annunciò la creazione di sei modelli della famiglia System/360, che divennero i primi computer della terza generazione. I modelli avevano un unico sistema di comando e differivano tra loro per quantità di RAM e prestazioni. Il numero 360 (un cerchio completo in gradi) indicava la capacità di creare un sistema per applicazioni in qualsiasi direzione. Nello sviluppo dei modelli familiari sono stati utilizzati una serie di nuovi principi che hanno reso le macchine universali e hanno permesso di utilizzarle con uguale efficienza sia per risolvere problemi in vari campi della scienza e della tecnologia, sia per elaborare dati nel campo della gestione e affari.

In effetti, i mainframe potrebbero risolvere una serie di problemi, dal calcolo delle buste paga al calcolo dei razzi. Sistemi simili della IBM parteciparono successivamente al programma lunare americano ed elaborarono i dati in tempo reale durante le spedizioni Apollo. Inoltre, il primo sistema semiautomatico di prenotazione dei biglietti al mondo, SABRE, è stato costruito sulla base del System/360.


Sistemi IBM al lavoro.

I microcircuiti ibridi furono scelti come elemento base per la famiglia System/360, grazie alla quale i nuovi modelli cominciarono a essere considerati macchine di terza generazione. Nei suoi primi computer, IBM utilizzava transistor concessi in licenza da Texas Instruments Corporation (http://www.ti.com). Successivamente, però, la direzione dell'IBM ha deciso di produrre tutti i componenti elettronici in modo indipendente, per non dipendere da fornitori esterni e per garantire i prezzi più bassi possibili per l'elettronica. Durante lo sviluppo del System/360, il management IBM decise di non fare affidamento sui circuiti integrati, inventati nel 1959, poiché a quel tempo si trattava di una tecnologia nuova, non provata e costosa. Invece, IBM ha sviluppato una tecnologia ibrida chiamata SLT (Solid Logic Technology).

Un altro problema era la produzione di memoria basata su nuclei magnetici. Naturalmente, IBM disponeva di tecnologie moderne, ma erano necessarie nuove strutture di produzione. La struttura esistente a Kingston è stata ampliata e una nuova fabbrica è stata costruita a Boulder, in Colorado. Ma questo non ha risolto completamente il problema, quindi è stato effettuato un esperimento per trasferire parte della capacità produttiva in Giappone, dove i lavoratori della fabbrica producevano moduli di memoria manualmente, senza apparecchiature automatiche. I salari dei lavoratori giapponesi, nonostante la massima qualità del lavoro, erano allora così bassi che la memoria prodotta in Giappone costava meno di quella prodotta negli Stati Uniti utilizzando apparecchiature automatiche.

Pertanto, la seconda generazione di macchine a transistor ha rappresentato solo cinque anni nella biografia di IBM. Con la creazione della famiglia System/360, IBM si è concessa per l'ultima volta il lusso di rilasciare computer incompatibili con i modelli precedenti. Ma la cosa più importante è che questi computer hanno dato vita ad un nuovo fenomeno nel settore informatico, creando la cosiddetta piattaforma. Questo è solitamente inteso come uno standard industriale per l'hardware con un'architettura parzialmente o completamente aperta, che consente alle aziende terze di produrre apparecchiature periferiche e costruire i propri sistemi basati su di esse.

Inoltre, IBM ha sviluppato un'ampia gamma di emulatori e simulatori di computer precedenti per facilitare la transizione degli utenti ai computer della serie System/360. Sostituendo i propri sistemi con la famiglia IBM System/360, gli utenti potrebbero lavorare con i computer di questa serie per molti anni, passando a macchine sempre più potenti senza il costo della riprogettazione del software. Il concetto di famiglia di computer compatibile con il software è diventato uno standard in tutto il settore informatico. La serie ormai ampiamente conosciuta ha reso l'azienda leader indiscussa nel campo dell'informatica. Solo negli Stati Uniti furono installati più di 20mila mainframe System/360, che diedero all'IBM l'opportunità di controllare due terzi dell'intero mercato dei computer.

Sei anni dopo, nel 1971, IBM introdusse i primi due modelli della famiglia System/370 (370/135 e 370/195), successori del System/360 su una nuova base tecnologica: i circuiti integrati monolitici. Il lancio della famiglia di modelli System/370 fu guidato da T. V. Lerson, che sostituì T. J. Watson Jr. nel 1974. come presidente dell'IBM. L'apparizione della nuova serie non fu una rivoluzione, bensì un'evoluzione delle idee precedenti. I computer della linea System/370 erano già costruiti interamente su circuiti integrati, che fornivano un aumento di prestazioni rispetto alla linea System/360. Le nuove macchine erano più affidabili e, grazie all'utilizzo della memoria a semiconduttore, di dimensioni ridotte.

Vale la pena notare che su queste macchine sono apparse immediatamente le soluzioni più avanzate che portano ad una maggiore produttività. Pertanto, il modello IBM 360/67 disponeva di apparecchiature di conversione degli indirizzi dinamici. L'IBM 360/91 ha introdotto la capacità del dispositivo di controllo di rilevare tutte le operazioni che possono essere eseguite contemporaneamente. Il multiprocessing basato sulla RAM condivisa è stato implementato anche nell'IBM 360/67. In questo caso, la comunicazione tra processori era fornita dal comando “segnale al processore”, che prevedeva la trasmissione e la ricezione di un codice d'ordine, la decodifica dei codici d'ordine e una risposta al processore che aveva inviato il segnale. Sono stati aggiunti una dozzina di nuovi comandi per la comunicazione tra i processori. Era possibile interrompere un processo con un altro (ad esempio, nell'IBM System/360 modello 65 MP).

Rilasciato nel 1971, il System/370 Modello 145 è stato il primo computer per uso generale a utilizzare circuiti integrati su larga scala (LIC) per funzioni di memoria e logiche. La nuova tecnologia che ha sostituito SLT ha permesso di integrare su un chip elementi che prima si trovavano su diversi. Grazie a ciò, le macchine System/370 sono da tre a cinque volte più produttive delle macchine System/360 costruite utilizzando la tecnologia SLT. Inoltre, il Modello 145 ha sostituito la memoria a nucleo magnetico con una memoria basata sulla tecnologia dei semiconduttori.

Il mainframe System/370-45 è stato uno dei primi computer prodotti in serie a utilizzare la tecnologia della “memoria virtuale”. Questa tecnologia ha ampliato le capacità dei computer poiché lo spazio sul disco rigido potrebbe essere utilizzato per ospitare RAM aggiuntiva necessaria per eseguire il software. La visualizzazione anticipata dei comandi per la previsione dinamica dei rami logici è stata implementata nella macchina IBM 3081. Anche i processori collegati al computer centrale come dispositivi periferici divennero un mezzo per aumentare la produttività. Furono sviluppati dispositivi speciali per risolvere classi molto ristrette di problemi, ma a causa delle piccole tirature e dei costi elevati, il loro utilizzo era limitato.

Negli anni '70 si diffusero i processori a matrice, dispositivi che implementavano il concetto di "un comando - molti dati". Il processore a matrice IBM-3838 era costituito da un processore di controllo, una RAM con una capacità fino a 1 MB, cinque elementi di elaborazione e un dispositivo di interfaccia a canale che forniva una velocità di scambio con un computer di 3-4,5 MB/s. La parola dati del processore della matrice era lunga 32 bit. Il processore a matrice può elaborare simultaneamente fino a sette attività dell'utente. Tutti i processori hanno eseguito un comando simultaneamente, ciascuno sui propri dati. Le prestazioni del processore a matrice sono state valutate a 30 MFLOPS o 100 MIPS.

Dal 1983 è iniziata la consegna dei modelli System/370 Extended Architecture. L'esperienza maturata dall'azienda ha permesso la realizzazione dell'architettura ESA/370 e poi dell'ESA/390. Nel 1990 fu lanciata la famiglia di mainframe 390 che, come tutti i modelli precedenti di queste famiglie, supportava la compatibilità delle applicazioni verso l'alto. Nel 1995 apparvero i server S/390 Parallel Enterprise.

La generazione successiva della tecnologia RISC superscalare, sviluppata da IBM verso la fine degli anni '80, è l'architettura POWER (Performance Optimization with Enhanced RISC). All'inizio del 1990, la serie RISC System/6000 fece il suo debutto con successo. Allo stesso tempo, fu rilasciata una versione del sistema operativo Unix per IBM RS/6000, chiamata AIX Versione 3. Nel 1990, IBM vendette 25mila computer RS/6000. Il nuovo business di IBM raggiunse il miliardo di dollari entro la fine di quell'anno.

IBM ha preso in considerazione l'impegno degli utenti nei confronti dei mainframe associati ad applicazioni ben testate, protezione avanzata dei dati, funzionalità di backup e ripristino di emergenza. Tuttavia, i mainframe su chip bipolari, che fornivano velocità di 60 MIPS per processore, richiedevano raffreddamento ad acqua, troppa elettricità, strutture ingegneristiche speciali e aree di grandi dimensioni. Invece, IBM ha offerto mainframe con processori CMOS, che costano ai consumatori il 70% in meno.

Significativamente, IBM ha raddoppiato le prestazioni dei mainframe CMOS ogni anno e mezzo. In soli dieci anni si sono succedute cinque generazioni di macchine basate su CMOS. I mainframe System/390 G5 in una configurazione a 10 processori sono in grado di eseguire fino a 900 milioni di istruzioni al secondo. La tecnologia IBM S/390 Parallel Sysplex consente di aumentare ulteriormente la produttività. Parte integrante dell'architettura di clustering IBM Parallel Sysplex è la tecnologia di combinazione dei sistemi informatici, che consente a più computer di interagire con un campo dati comune. Quando lo si utilizza, il tasso di disponibilità del sistema raggiunge il 99,999%.

Per bilanciare la distribuzione del traffico tra i server nel cluster Sysplex, IBM e Cisco Systems offrono il software Generic Routing Encapsulation sviluppato congiuntamente. Questo è uno dei risultati dell'alleanza strategica delle due società.

La piattaforma S/390 esegue sistemi applicativi di classe ERP di SAP, People Soft, Oracle e Baan. La stessa IBM offre un set di software e hardware IBM Treasure Series per S/390 per la creazione di data warehouse, meccanismi di ricerca e analisi delle informazioni delle applicazioni SAP R/3 nel DBMS DB2.

Dopo il rilascio dell'S/390 G5, IBM è riuscita a conquistare il 95% del mercato globale dei mainframe. Nel 2000 apparve la sesta generazione: l'S/390 G 6.

Nuova generazione: zSeries

Quando IBM iniziò a rinominare i suoi sistemi server nell'ottobre del 2000, i cambiamenti furono presentati come una risposta alle crescenti richieste delle attività Internet. La direzione dell'azienda ha annunciato l'intenzione di utilizzare standard e prodotti aperti come TCP/IP, HTML, Java, XML, Apache su tutte le piattaforme e il desiderio di supportare la popolarità in rapida crescita del sistema operativo Linux. Fu allora che i mainframe ricevettero il nome eServer zSeries, progettato per sottolineare l'assenza di tempi di inattività di questi sistemi.

La z/Architecture su cui si basano i sistemi zSeries è un nuovo standard per prestazioni e integrazione che continua il concetto di sistema equilibrato dell'architettura S/390. Questi sistemi possono eliminare i colli di bottiglia della memoria indirizzabile, fornendo capacità di indirizzamento a 64 bit virtualmente illimitate e garantendo un enorme margine per carichi di lavoro imprevisti e applicazioni aziendali in crescita.

Il nuovo fiore all'occhiello dei mainframe è la serie di computer IBM eServer zSeries 900, ottimizzata per attività di e-business. Comprende sistemi multiprocessore a 64 bit con 64 GB di RAM e I/O e velocità di trasmissione dell'adattatore di rete rispettivamente di 24 e 3 GB/s. Le prestazioni di zSeries 900 superano i 2500 MIPS. Il loro componente più importante è il modulo MCM (Multi-Chip Module) da 20 processori. I suoi 16 processori sono progettati per eseguire attività applicative in modalità SMP, mentre i restanti eseguono funzioni di sistema come controllo input/output, ripristino errori e protezione crittografica.

Ciascun sistema può funzionare in modo indipendente o come parte di un cluster Parallel Sysplex con altri computer zSeries e sistemi IBM S/390. Il cluster offre elevata scalabilità e disponibilità eccezionale. È possibile raggruppare fino a 32 sistemi zSeries 900 utilizzando la tecnologia Parallel Sysplex.

Le 15 partizioni logiche di zSeries 900 possono eseguire più sistemi operativi (z/OS, z/VM e Linux per zSeries) indipendentemente l'uno dall'altro, accedendo alle risorse di sistema condivise.

Il rilascio del nuovo IBM zSeries 800 entry-level a basso costo (precedentemente nome in codice Raptor) ha cambiato radicalmente il profilo dei prezzi del mercato mainframe. Il nuovo sistema è disponibile in diverse varianti: otto modelli generici e un mainframe unico nel suo genere che esegue Linux completo. Differiscono principalmente nel numero di processori (da uno a quattro) e nella quantità di RAM (da 8 a 32 GB).

Con il rilascio di zSeries 800, IBM è stata in grado di offrire l'elevata affidabilità e le prestazioni della tecnologia zSeries a clienti per i quali i mainframe erano precedentemente inaccessibili. Inoltre, IBM è stata la prima a implementare la moderna tecnologia di clustering Parallel Sysplex sui mainframe entry-level. Ricordiamo che questa tecnologia fornisce tempi di inattività quasi pari a zero, elevata disponibilità delle applicazioni e affidabilità aziendale combinando diversi mainframe in un cluster di rete.

I clienti mainframe aggiungono sempre più nuove applicazioni Web alle infrastrutture esistenti per risparmiare energia, spazio e costi di gestione. Il sistema zSeries 800 è progettato per opzioni di consolidamento server per clienti di fascia media. Elimina i pool di server costosi e sottoutilizzati costituiti da server Web, file, di stampa ed e-mail spostando l'intero carico su un unico mainframe, semplificando così l'amministrazione e riducendo i costi. Utilizzando la tecnologia delle macchine virtuali IBM z/VM, il sistema zSeries 800 può integrare da 20 a diverse centinaia di server Sun o Intel su un'unica piattaforma fisica.

Grazie a una tecnologia all'avanguardia, il sistema zSeries 800 fornisce un ambiente conveniente e flessibile per lo sviluppo, il test e il funzionamento delle applicazioni, la migrazione delle applicazioni da piattaforme a 32 bit a 64 bit e nuovi carichi di lavoro di e-business. zSeries 800 sfrutta le tecnologie di autoriparazione e autogestione presenti nei computer IBM, tra cui riserve di energia, cluster Parallel Sysplex, I/O simultanei e reporting automatico a IBM quando viene rilevato un errore di sistema. Insieme ai nuovi mainframe, IBM ha annunciato una versione speciale del sistema operativo z/OS.e a 64 bit, progettato per eseguire applicazioni di e-business, inclusi server applicativi WebSphere, database DB2 e applicazioni MQSeries.

Il sistema su scala aziendale più potente oggi disponibile è eServer zSeries 990 (nome in codice T-Rex, "Tyrannosaurus"). Tali sistemi sono progettati per le aziende del settore finanziario e di altri settori che richiedono la massima tolleranza agli errori, protezione delle informazioni ed elevate capacità di calcolo. Il costo parte da 1 milione di dollari del nuovo IBM eServer zSeries 990. Il nuovo sistema è il risultato di quattro anni di lavoro da parte di 1.200 sviluppatori IBM. Gli investimenti nello sviluppo del Tyrannosaurus, secondo i rappresentanti di IBM, ammontano a circa 1 miliardo di dollari, ma il sistema ne vale la pena.

Si ritiene che zSeries 990 sia il mainframe più potente e scalabile di IBM nei suoi 40 anni di storia. Questo server ha il doppio delle capacità di virtualizzazione e la capacità di svolgere circa tre volte più lavoro rispetto a zSeries 900. Oltre a un nuovo design che consente ai clienti di aumentare la potenza senza mettere il sistema offline, il design del prodotto è notevolmente semplificato.

zSeries 990 a 32 processori offre 9.000 MIPS, ovvero tre volte le prestazioni di zSeries 900. Questo modello ha il doppio dei processori e il server può essere scalato da uno a 32 processori senza arrestare il sistema.

zSeries 990 supporta fino a 30 partizioni logiche (LPAR), il doppio della capacità di zSeries 900. Con z/VM 4.4, i clienti possono creare rapidamente e gestire in modo efficiente centinaia di server Linux virtuali in un unico contenitore fisico. Le tecnologie avanzate di virtualizzazione di IBM rendono zSeries 990 una buona piattaforma per il consolidamento quando è necessario ridurre il costo delle server farm e i costi di gestione.

Superando il proprio record di sicurezza, il nuovo zSeries 990 a 16 processori è in grado di elaborare 11.000 transazioni al secondo su Secure Sockets Layer (SSL); si tratta di un aumento del 57% rispetto al sistema zSeries 900 a 16 processori. L'handshake SSL, ciò che fa apparire l'icona del lucchetto chiuso nella barra inferiore dei browser, è fondamentale per le transazioni di e-business e consente un'elaborazione degli ordini online più sicura. La capacità di elaborare più transazioni SSL significa che le aziende possono servire più clienti e generare più vendite in meno tempo.

Per i clienti che necessitano di un'elevata connettività per i nuovi carichi di lavoro di e-business in esecuzione sul mainframe, il sistema zSeries 990 fornisce fino a 512 canali I/O, raddoppiando le capacità del suo predecessore. Inoltre, sono ora disponibili fino a 16 HiperSocket, che forniscono connettività TCP/IP ad alta velocità tra server virtuali all'interno dello stesso sistema zSeries 990 (quattro volte la capacità di zSeries 900). IBM ha inoltre introdotto una nuova tecnologia denominata logical channel subsystem, che renderà più semplice per i clienti consolidare più mainframe in un unico sistema zSeries 990. zSeries 990 quadruplica la capacità di memoria di zSeries 900: 256 GB contro 64 GB. Il cuore della zSeries 990 è il modulo MCM multi-chip.

Regalo di anniversario

In occasione del 40° anniversario del mainframe System/360, IBM ha annunciato eServer z890, dotato di tecnologia all'avanguardia per semplificare l'ambiente IT. Questo sistema ha permesso di offrire nuove condizioni tariffarie per le aziende di medie dimensioni. Inoltre, è stato annunciato IBM TotalStorage Enterprise Storage Server 750, che porta funzionalità aziendali professionali in sistemi storage più grandi ad un nuovo segmento di clienti. Insieme, i nuovi sistemi mainframe e storage consentiranno alle aziende del mercato di medie dimensioni di consolidare e semplificare i propri ambienti IT utilizzando le tecnologie più avanzate del settore.

Il mainframe z890 è basato sulla tecnologia z990 e offre elevati livelli di flessibilità, virtualizzazione, automazione e scalabilità. Il top di gamma z890 ha quasi il doppio della potenza di elaborazione del top di gamma z800, con un conseguente aumento di quasi il 100% delle prestazioni di ciascuna CPU per uso generale. Ma pur fornendo un vantaggio complessivo significativo in termini di potenza di calcolo rispetto allo z800, il mainframe z890 è altamente flessibile ed è disponibile in modelli entry-level che forniscono oltre il 30% in meno di potenza di elaborazione rispetto ai server z800 entry-level. Inoltre, IBM offre z890 come modello unico con 28 livelli di potenza di elaborazione, consentendo ai clienti di abbinare con maggiore precisione le dimensioni del server alle proprie esigenze aziendali.

IBM continua a promuovere le innovazioni mainframe aggiungendo nuove funzionalità ai sistemi z890 e z990. Pertanto, per consentire l'integrazione delle applicazioni Web basate su zSeries, è stata sviluppata la nuova tecnologia zSeries Application Assist Processor (zAAP), il primo ambiente runtime Java del settore specificamente configurato per funzionare con z/OS. È progettato per i clienti che desiderano integrare applicazioni Web basate sulla tecnologia Java con le applicazioni e i dati aziendali principali esistenti su un'unica piattaforma server. La tecnologia zAAP aumenta le prestazioni complessive del sistema, semplifica l'infrastruttura del server e migliora l'efficienza operativa riducendo al tempo stesso i costi di elaborazione complessivi per le applicazioni Java distribuite sulla piattaforma zSeries.

Esteso per supportare zAAP, On/Off CoD (On/Off Capacità su richiesta) fornisce risorse di elaborazione aggiuntive per sistemi cluster Parallel Sysplex e carichi di lavoro Java. Ciò consente di rispondere con la massima flessibilità a cambiamenti imprevisti della domanda.

Per semplificare l'infrastruttura, il controller della console integrata OSA Express elimina la necessità di hardware periferico specifico e supporta fino a 120 connessioni per sessione della console.

I miglioramenti per z990 includono anche il supporto per un massimo di quattro sottosistemi di canali logici, fino a 1024 canali I/O e una migliore connettività di rete, aiutando i professionisti IT a semplificare la gestione delle infrastrutture più complesse in ambienti multifunzionali.

Insieme al nuovo sistema, IBM ha introdotto anche una nuova versione di z/OS 1.6, il cui rilascio è previsto per settembre 2004. Questo sistema operativo contiene molti miglioramenti progettati per integrare i carichi di lavoro Java nell'ambiente z/OS, incluso il supporto per zAAP, miglioramenti gestione del carico di lavoro per applicazioni server Web e migliore disponibilità della rete IP. Inoltre, IBM prevede di includere un ambiente applicativo a 64 bit per C/C++ e un SDK Java in z/OS 1.6, che migliorerà la scalabilità e faciliterà il porting delle applicazioni.

La nuova versione di z/VM con funzionalità di virtualizzazione avanzate è progettata per l'hosting Linux con un supporto migliorato per reti, funzionalità di sicurezza e dispositivi aperti (SCSI). z/VSE V3R1 è la prossima generazione di VSE per i clienti zSeries ed è progettata per supportare dispositivi aperti (SCSI). Il sistema operativo z/VSE funziona in modalità a 31 bit.

Tecnologia di sicurezza del mainframe

All'inizio dell'anno IBM ha introdotto una nuova tecnologia di sicurezza (parte del rilascio del sistema operativo mainframe z/OS 1.5) e, per la prima volta nel settore, ha implementato la gestione centralizzata di un sistema di sicurezza a più livelli.

Insieme a IBM DB2 Universal Database for z/OS Versione 8, la soluzione IBM fornisce sicurezza multilivello per i mainframe zSeries, aiutandoti a soddisfare i requisiti normativi e normativi e aprendo nuove possibilità per l'hosting elettronico. Questa tecnologia migliora anche la condivisione di informazioni sensibili tra governo e altre organizzazioni.

La tecnologia di sicurezza multilivello consente agli amministratori IS di fornire l'accesso alle informazioni in base alle esigenze o alle credenziali dell'utente. Impedisce l'accesso non autorizzato e la divulgazione di informazioni sensibili.

IBM z/OS 1.5 e DB2 V8 consentono di gestire lo storage unificato dei dati a livello di riga e l'accesso ai dati utente in base alle esigenze personali. Ad esempio, se a un utente viene assegnato il livello più alto di nulla osta di sicurezza, avrà più diritti per utilizzare il database rispetto a un utente normale.

L'implementazione della nuova soluzione IBM elimina la necessità per le organizzazioni di duplicare l'infrastruttura per proteggere i dati sensibili, il che a sua volta aiuta a ridurre i costi IT, di hosting e di amministrazione. Consente inoltre una migliore disponibilità, condivisione, amministrazione e gestione dei dati poiché non è necessario combinare informazioni provenienti da fonti diverse.

Come sapete, la gestione centralizzata della sicurezza a più livelli è una sfida chiave per le agenzie governative che desiderano eliminare la duplicazione delle infrastrutture e semplificare l'organizzazione della condivisione delle informazioni tra diversi dipartimenti con un maggiore livello di sicurezza. Il software IBM z/OS e DB2 può aiutare le aziende private a raggiungere la sicurezza e ad aprire nuove possibilità per fornire servizi di hosting sicuri.

La sicurezza z/OS multilivello può sfruttare la potente sicurezza crittografica, l'elevata disponibilità, la scalabilità e la flessibilità di IBM eServer zSeries per garantire un ambiente sicuro.

Conclusione

Negli anni '90 del secolo scorso l'impressione era che tutti i problemi potessero essere risolti utilizzando personal computer collegati in rete. Poco dopo, Internet avrebbe dovuto sostituire i mainframe. Tuttavia, come dimostra la realtà odierna, non è stato possibile scuotere le posizioni di mercato di questi mostri del settore IT. In effetti, i PC hanno semplicemente ampliato la portata dei computer sia nel lavoro che nella vita di tutti i giorni, ma una serie di compiti non possono ancora essere risolti se non su un mainframe.

I mainframe vengono utilizzati in aree mission-critical delle operazioni di un'azienda e la loro durata può essere misurata in decenni. Pertanto, molte di queste macchine funzionano ancora con successo. Nel nuovo secolo l’interesse per i mainframe torna a crescere. La loro elevata affidabilità e prestazioni rimangono valori duraturi. I mainframe si adattano perfettamente all'era di Internet; e forse Internet è solo una delle vie della loro evoluzione. Secondo alcuni esperti, i mainframe, ad esempio, sono praticamente invulnerabili ai virus, il che attira le aziende che cercano di assicurarsi contro gli attacchi informatici.

I mainframe sono adatti a risolvere quasi tutti i problemi, da quelli scientifici e ingegneristici a quelli aziendali, che richiedono una grande potenza di calcolo. Hanno un'architettura multiprocessore ben bilanciata con la possibilità di avviare più copie indipendenti del sistema operativo. La scalabilità dell'architettura consente un aumento delle prestazioni controllato e calcolato quando si aumenta il numero di processori e di memoria. La grande quantità di RAM in tali sistemi crea nuove capacità precedentemente non disponibili in molte aree di applicazione, dalla gestione di grandi database residenti al complesso calcolo scientifico, ad esempio in aree come la ricerca sul genoma umano o l’esplorazione petrolifera offshore.

| Sistema IBM/360

Sistema IBM/360 (S/360)è una famiglia di computer mainframe annunciata il 7 aprile 1964. È stata la prima linea di computer a fare una chiara distinzione tra architettura e implementazione.

S/360 ha compiuto una delle prime rivoluzioni nel mercato del “corporate computing”. Questo modello non era il primo, altri computer erano già presenti sul mercato, ma è stata l'eroina di questo articolo a capovolgere l'idea dei "computer per gli affari". L’S/360 ha in gran parte dettato gli approcci che sono diventati la base dei computer moderni, sia personali che “di grandi dimensioni”, senza i quali non avremmo visto tutte le meraviglie dell’IT moderno.


La prima domanda a cui bisogna rispondere è: perché l’IBM/360 ha rappresentato un punto di svolta per il mercato? Dopo aver scartato varie ragioni, di cui ce ne sono molte, vale la pena menzionare subito quella principale: l'approccio corretto all'architettura e al design ha permesso a IBM di rendere il nuovo modello accessibile (relativamente, ovviamente). Questo è ciò che ha permesso alle macchine intelligenti di spostarsi dai centri informatici governativi e universitari al campo aziendale, e le aziende private hanno iniziato a padroneggiare con gioia il nuovo strumento incredibilmente conveniente.

Cosa c'era di nuovo in System/360?

La prima innovazione di IBM, ancora in uso oggi, fu l'annuncio di un'intera linea di computer che differivano per prezzo, dimensioni e prestazioni, ma utilizzavano un insieme comune di comandi (ad eccezione di alcuni modelli per mercati specifici). Ciò ha consentito alle aziende di acquistare un modello più semplice e, man mano che le esigenze crescevano, di “aggiornare” l’hardware, senza la necessità di riscrivere il software già sottoposto a debug.

Il primo annuncio prometteva 6 modelli IBM/360 e 40 periferiche. Furono annunciati i modelli 30, 40, 50, 60, 62 e 70. I primi tre avrebbero dovuto sostituire la linea "inferiore" della serie IBM 1400 e furono venduti fino al 1965. I modelli più vecchi furono sviluppati per sostituire la serie IBM 7000, ma non furono mai messi in vendita, poiché furono sostituiti dai modelli 65 e 75, rilasciati rispettivamente alla fine del 1965 e all'inizio del 1966.


Nel corso del tempo sono apparse molte altre varianti interessanti. Ad esempio, il modello budget 20, che aveva solo 4K di memoria di base, 8 registri a 16 bit (e non 16 registri a 32 bit come altri modelli) e un set ridotto di istruzioni. Un altro modello economico, il numero 22, era essenzialmente un modello 30 rielaborato con porte I/O più lente e limitazioni di memoria.

Naturalmente si sono sviluppati anche segmenti non budget. Ad esempio, nel modello 67 IBM ha implementato per la prima volta la tecnologia di traduzione dinamica degli indirizzi (DAT o traduzione dinamica degli indirizzi), che ora conosciamo come “memoria virtuale”. DAT, a sua volta, ha reso possibile l'implementazione del time-sharing.


Nei modelli 65 e poi 67 è stato implementato il supporto per due processori e sono state fornite al mercato modifiche "dual-core" di questi sistemi.

L'IBM System/360 è stato il primo a utilizzare la tecnologia del microcodice. In un'architettura convenzionale, un programma in linguaggio di alto livello viene tradotto in una serie di istruzioni del processore, che il processore esegue. Le azioni durante l'esecuzione dei comandi sono implementate nell'hardware e non possono essere modificate. Nel caso dell'utilizzo del microcodice, è lui che determina come verranno eseguiti determinati comandi, assegnando operazioni atomiche di “livello inferiore” ai comandi della macchina. Modificando il microcodice, è stato possibile cambiare il modo in cui venivano eseguiti i comandi della macchina, il che a sua volta ha permesso di correggere eventuali errori che erano impossibili quando si implementavano i comandi della macchina “nell’hardware”. A sua volta, l'uso del microcodice ha permesso di complicare l'insieme delle istruzioni della macchina e di offrire maggiori opportunità agli sviluppatori.

Lo svantaggio dell'approccio microcodice è il funzionamento più lento del computer, quindi nei vecchi modelli System/360 IBM utilizzava un'implementazione "hardware" che escludeva il microcodice.

Poiché la compatibilità con le versioni precedenti era così importante per i clienti IBM che avevano già investito enormi quantità di denaro nello sviluppo di software per i loro computer precedenti, System/360 includeva il supporto per l'emulazione dei computer della generazione precedente. Ad esempio, il modello 30 potrebbe emulare il sistema IBM 1400 e il modello 65 potrebbe emulare l'IBM 7094. Per fare ciò, è stata utilizzata una complessa combinazione di hardware, microcodice e software di virtualizzazione, che ha consentito l'esecuzione del vecchio codice sul nuovo sistema. Nei primi modelli, per eseguire il programma in modalità virtualizzazione, il computer doveva essere fermato e riavviato. Successivamente, nel modello 85 e nel System/370, tali programmi potevano già essere lanciati dal sistema operativo e funzionare contemporaneamente con le applicazioni “native”.

Per cos'altro dovremmo essere grati a System/360?

Nastro magnetico a nove tracce, che è diventato praticamente lo standard per l'archiviazione di informazioni digitali;
- Tabella dei codici EBCDIC;
- Byte da 8 bit. Può sembrare sorprendente ora, ma durante lo sviluppo del System/360, per ragioni finanziarie, si è voluto limitare il byte a 4 o 6 bit. Un'altra opzione è stata presa in considerazione per byte con lunghezza variabile e indirizzamento in bit come nell'IBM 7030;
- indirizzamento della memoria a byte;
- Parole da 32 bit;
- Architettura IBM per i numeri frazionari (standard di fatto da 20 anni);
- le costanti esadecimali utilizzate nella documentazione System/360 hanno sostituito le costanti ottali utilizzate in precedenza.

Naturalmente, il System/360 fu sostituito dalle generazioni successive di computer. System/370, System/390 e System z. Molte altre aziende hanno costruito i propri computer basandosi sull'architettura System/360. Tra loro

Lo sviluppo negli anni '60 dei circuiti integrati - interi dispositivi e assiemi di decine e centinaia di transistor realizzati su un unico cristallo semiconduttore (quelli che oggi vengono chiamati microcircuiti) ha portato alla creazione di computer di terza generazione. Allo stesso tempo apparve la memoria a semiconduttore, che viene ancora utilizzata nei personal computer come memoria operativa. L'uso dei circuiti integrati ha notevolmente aumentato le capacità dei computer. Ora il processore centrale ha la capacità di lavorare in parallelo e controllare numerosi dispositivi periferici. I computer potevano elaborare simultaneamente più programmi (principio della multiprogrammazione). Come risultato dell'implementazione del principio multiprogrammazione, è diventato possibile lavorare in modalità time-sharing in modalità interattiva. Agli utenti remoti dal computer è stata data la possibilità, indipendentemente l'uno dall'altro, di interagire rapidamente con la macchina.

Nel dicembre 1961, un comitato speciale dell'IBM, dopo aver studiato la politica tecnica dell'azienda nel campo dello sviluppo della tecnologia informatica, presentò un piano-rapporto per la creazione di un computer basato sulla microelettronica. L'attuazione del piano è stata guidata da due importanti sviluppatori dell'azienda: D. Amdahl e G. Blau. Lavorando con il problema della produzione di circuiti logici, proposero l'uso di circuiti integrati ibridi durante la creazione di una famiglia, per la quale l'azienda aprì un'impresa per la loro produzione nel 1963. All'inizio di aprile 1964, IBM annunciò la creazione di sei modelli della famiglia IBM-360 ("System-360"), la cui comparsa segnò l'avvento dei computer di terza generazione.

Durante i 6 anni di esistenza della famiglia, IBM ha lanciato più di 33mila macchine. I costi di ricerca ammontavano a circa mezzo miliardo di dollari (per gli standard dell'epoca, l'importo era semplicemente enorme).

Durante la creazione della famiglia "System-360", gli sviluppatori hanno incontrato difficoltà nella creazione di un sistema operativo che avrebbe dovuto essere responsabile del posizionamento e dell'utilizzo efficiente delle risorse del computer. Il primo di questi, un sistema operativo universale chiamato DOS, destinato ai computer di piccole e medie dimensioni, successivamente è stato rilasciato il sistema operativo OS/360 per quelli di grandi dimensioni. Fino alla fine degli anni '60. IBM ha rilasciato un totale di oltre 20 modelli della famiglia IBM-360. Il modello 85 fu il primo al mondo a utilizzare la memoria cache (dal francese cache - cache) e il modello 195 divenne il primo computer a utilizzare circuiti monolitici.

Alla fine del 1970, IBM iniziò a produrre una nuova famiglia di computer: l'IBM-370, che manteneva la sua compatibilità con l'IBM-360, ma presentava anche una serie di modifiche: erano convenienti per completare multi-macchina e multi-computer. sistemi informatici con processore che operano su un campo comune di RAM.

Quasi contemporaneamente all'IBM, i computer di terza generazione iniziarono a essere prodotti da altre società. Nel 1966--1967 sono stati prodotti da aziende in Inghilterra, Germania e Giappone. In Inghilterra, ICL fonda la produzione della famiglia di macchine “System-4” (produttività da 15 a 300 mila op/s). In Germania furono prodotte le macchine della serie 4004 di Siemens (le macchine di questa famiglia copiarono completamente i computer della famiglia Spectra-70), e in Giappone le macchine della serie Hytac-8000, sviluppate da Hitachi (questa famiglia era una modifica della famiglia Spectra-70"). Un'altra società giapponese Fujitsu nel 1968 annunciò la creazione della serie di computer FACOM-230.

In Olanda la Philips Gloeilampenfabriken, fondata nel 1968 per produrre computer, iniziò a produrre computer della serie P1000, paragonabili all'IBM-360. Nel dicembre 1969, diversi paesi (PRB, HPR, RDT, Polonia, URSS e Cecoslovacchia, nonché Cuba nel 1972 e SRR nel 1973) firmarono un accordo di cooperazione nel campo delle tecnologie informatiche.

Alla mostra "ESEVM-73" (1973) furono mostrati i primi risultati di questa collaborazione: sei modelli di computer di terza generazione e diversi dispositivi periferici, nonché quattro sistemi operativi per essi.

Dal 1975 iniziò la produzione dei nuovi modelli modernizzati EC-1012, EC-1022, EC-1032, EC-1033, con il miglior rapporto prestazioni/costi, che utilizzavano nuovi circuiti logici e circuiti di memoria a semiconduttore.

Presto apparvero le auto della seconda serie di cooperazione. Il suo rappresentante più importante era il potente modello EC-1065, che era un sistema multiprocessore composto da quattro processori e dotato di 16 MB di memoria. La macchina era realizzata su circuiti integrati IS-500 e aveva una produttività di 4-5 milioni di operazioni/s.

Un altro evento significativo è associato alle macchine di terza generazione - lo sviluppo e l'implementazione di dispositivi di input-output visivi per informazioni alfanumeriche e grafiche utilizzando tubi a raggi catodici - display, il cui utilizzo ha permesso di implementare in modo abbastanza semplice le possibilità di analisi delle varianti.

La storia della comparsa dei primi prototipi di display moderni risale agli anni del dopoguerra. Nel 1948, G. Fuller, un impiegato del Laboratorio di Informatica dell'Università di Harvard, descrisse il progetto di un numeroscopio. In questo dispositivo, sotto la guida di un computer, le informazioni digitali apparivano sullo schermo del tubo a raggi catodici.

Il display ha cambiato radicalmente il processo di input e output dei dati e ha semplificato la comunicazione con il computer.

Negli anni '70 Nel XX secolo, grazie all'avvento dei microprocessori, è diventato possibile bufferizzare sia i dati ricevuti da un terminale a schermo sia i dati trasmessi da un computer. Grazie a ciò è stato possibile implementare la rigenerazione dell'immagine sullo schermo utilizzando il terminale stesso. È diventato possibile modificare e controllare i dati prima di trasferirli al computer, riducendo così il numero di errori. Sullo schermo è apparso un cursore: un segno mobile che inizializzava il punto in cui un carattere doveva essere inserito o modificato. Lo schermo del display è diventato a colori. È diventato possibile visualizzare immagini grafiche complesse sullo schermo: ciò ha permesso di creare giochi colorati (sebbene i primi giochi per computer siano apparsi negli anni '50, ma erano pseudografici) e programmi progettati per funzionare con la grafica.

Durante questi anni, la produzione di computer ha acquisito una scala industriale. L'IBM, divenuta leader, fu la prima a realizzare una famiglia di computer: una serie di computer perfettamente compatibili tra loro, dal più piccolo, grande quanto un piccolo armadio (allora non avevano mai fatto nulla di più piccolo), ai modelli più potenti e costosi. La più comune in quegli anni era la famiglia System/360 di IBM.

A partire dai computer di terza generazione, lo sviluppo dei computer seriali è diventato tradizionale. Sebbene le macchine della stessa serie fossero molto diverse tra loro in termini di capacità e prestazioni, erano compatibili a livello informativo, software e hardware. Ad esempio, i paesi del COMECON hanno prodotto computer di un'unica serie (“ES EVM”) “ES-1022”, “ES-1030”, “ES-1033”, “ES-1046”, “ES-1061”, “ES -1066” ecc. Le prestazioni di queste macchine hanno raggiunto da 500mila a 2 milioni di operazioni al secondo, la quantità di RAM ha raggiunto da 8 MB a 192 MB. I computer di questa generazione includono anche "IVM-370", "Elettronica - 100/25", "Elettronica - 79", "SM-3", "SM-4", ecc.

La bassa qualità dei componenti elettronici era il punto debole dei computer sovietici di terza generazione. Da qui il costante ritardo rispetto agli sviluppi occidentali in termini di velocità, peso e dimensioni, ma, come insistono gli sviluppatori SM, non in termini di funzionalità. Per compensare questo ritardo, sono stati sviluppati processori speciali che hanno permesso di costruire sistemi ad alte prestazioni per compiti specifici. Dotato di uno speciale processore di trasformata di Fourier, l'SM-4, ad esempio, è stato utilizzato per la mappatura radar di Venere.

All'inizio degli anni '60 apparvero i primi minicomputer: computer piccoli e a basso consumo alla portata di piccole aziende o laboratori. I minicomputer rappresentarono il primo passo verso i personal computer, i cui prototipi furono realizzati solo a metà degli anni '70. La famosa famiglia di minicomputer PDP della Digital Equipment servì da prototipo per la serie di macchine sovietiche SM.

Nel frattempo, il numero di elementi e connessioni tra loro che si adattano a un microcircuito era in costante crescita e negli anni '70 i circuiti integrati contenevano già migliaia di transistor. Ciò ha permesso di combinare la maggior parte dei componenti del computer in un'unica piccola parte, come ha fatto Intel nel 1971, rilasciando il primo microprocessore, destinato alle calcolatrici desktop appena apparse.

Nel 1969 nasce la prima rete informatica globale e contemporaneamente compaiono il sistema operativo Unix e il linguaggio di programmazione C, che ha avuto un enorme impatto nel mondo del software e mantiene ancora oggi la sua posizione di leader.

Caricamento...