@ sandroronca.it


Posta elettronica

Software  utile

Firefox - Riscopri il web

Scarica Java Runtime

Per la posta elettronica



L'interprete GwBasic su Microsoft DOS 5.0


L'interfaccia grafica dell'Apple  Macintosh Plus

L'IDE di  Turbo Pascal 5.5










Piccola InformaticoBiografia




Di una cosa sono certo: le biografie, se sei uno qualsiasi, non interessano granchè.
D'altra parte presentarsi al visitatore è  una doverosa forma di cortesia che ogni buon ospite non manca di praticare.
Per quanto mi riguarda, quella buona usanza  poteva  benissimo risolversi in tre righe, ma ho pensato di proporre una cosa diversa e mi auguro più interessante.
Così, col pretesto delle note biografiche, racconto come ho vissuto e com'erano quegli 'anni 
formidabili' in cui nacque l'informatica distribuita e prese forma un nuovo modo di comunicare e di accedere alla conoscenza.  
Avevamo allora la percezione di vivere uno di quei momenti nei quali la Storia imprime
al flusso degli eventi repentine accelerazioni imponendo rapidi mutamenti culturali e sociali. Nuove idee e tecnologie si affermavano ed evolvevano così velocemente da sembrare quasi inafferrabili. Un clima frizzante e dinamico, un nuovo Zeitgeist, annunciava l'incipiente  era dell' Information and Communication Technology .
E, come si dice in questi casi, nulla sarebbe mai più stato come prima...




Prologo 


Mi sono laureato in Fisica, indirizzo nucleare, presso l'Università di Padova nel giugno 1978 e un anno dopo sono entrato nel mondo della scuola. Dopo la laurea ho iniziato a interessarmi di Informatica, dato che all'Università ebbi solamente un'infarinatura di Fortran. Fortunatamente, infatti, qualche docente illuminato aveva capito che almeno i rudimenti del calcolo automatico un aspirante fisico doveva pur  possederli. Il centro di calcolo universitario era off limits per gli studenti. D'altra parte allora la programmazione era di tipo batch: si scrivevano i programmi, si perforavano le schede e si consegnava il pacchetto all'amministratore del centro, il quale mandava in esecuzione i programmi quand'era possibile, rispettando varie priorità. Dopo qualche giorno  consegnava gli stampati con i risultati. Se c'era un errore, e quasi sempre c'era, bisognava correggerlo, cambiare la o le schede e ripetere tutta la procedura. Figuriamoci Commodore 64se ci fossero anche stati gli studenti tra i piedi.


Inizio: i favolosi anni 80 


Ho iniziato, dunque, come molti della mia generazione,  programmando il leggendario "Commodore 64", che veniva in quel periodo commercializzato in Italia.
Quel '64' che compariva nel nome, stava esattamente per 64 KB ( 64 x 8 x 1024 = 524288 Bit) di memoria RAM, nemmeno tutta disponibile, essendo in parte occupata dal sistema operativo. 
Oggi, per capirci, la capacità di una RAM si misura, come ordine di grandezza, in GB (1 GigaByte = 109 byte o più correttamente 10243 = 230 byte).
Il costo era spropositato. Nel dicembre 1982 pagai  il C-64  1.200.000 lire ( circa 1850 € attuali, considerando la svalutazione). 
Tuttavia con quei pochi e costosi kilobyte facevamo miracoli, almeno per quel tempo: giochi, applicazioni, programmi, complessi e super-ottimizzati, non potendo  sprecare inutilmente nemmeno un bit di memoria.

In quegli anni di grande entusiasmo per la nuova tecnologia tenni alcuni 'pionieristici' corsi di informatica per il personale della scuola. Sto parlando dell'inizio degli anni '80 del secolo scorso, e l'informatica a scuola era veramente cosa da pionieri.
HP-45 1973L'elaboratore elettronico appariva ai più una specie di scatola magica. Quasi la stessa sensazione che un po' d'anni prima provai mettendo le mani, in "Laboratorio di Fisica 1", su  una delle prime calcolatrici elettroniche in circolazione, l'HP-45, saldamente inchiavardata alla parete data la preziosità (395 $, nel 1974, 250000 lire, equivalenti a  385 € attuali).
I calcoli si eseguivano nella efficiente, ma del tutto innaturale, notazione polacca inversa (RPN). Ad esempio  per eseguire 5 x 3 = , si doveva battere la sequenza: 5 ENTER 3 X, al che il display dava il risultato, 15 (non esisteva il tasto =). Si può provare, cliccando sull'immagine dell'HP-45,  con una simulazione (però della progenitrice HP-35) di  Neil Fraser, realizzata per  HP Museum.
Successivamente, mentre collaboravo con una delle prime associazioni di professori (che con incredibile fantasia battezzammo "Informatica & Didattica") convinti della necessità di introdurre l'informatica nella scuola, ho avuto a che fare con l'Olivetti M20 (uno dei pochi personal di quel periodo dotato di grafica ad 'alta' risoluzione e istruzioni per gestirla: a quel tempo Olivetti era all'avanguardia nella ricerca e sviluppo in ambito personal computing), poi con PC IBM (il peggiore di tutti, credo) e quindi con il buon M24 Olivetti
Stavo allora lavorando, con un collega e amico, ad un programma per la risoluzione dei circuiti elettrici: si costruiva il circuito, utilizzando simboli grafici per i componenti (nodi, conduttori, generatori, resistenza, induttanza, condensatore). Il programma in gwBasic  ne riconosceva la topologia ed eseguiva il calcolo di correnti e tensioni. Fu il primo progetto di una certa complessità che affrontammo e che ci permise di imparare un sacco di cose sulla programmazione e i suoi trucchi.
Fu poi la volta  del potente Apple Macintosh Plus dotato di uno straordinario sistema operativo a finestre (poi largamente scopiazzato da altri) con il quale si interagiva, oltre che con la tastiera, attraverso un rivoluzionario dispositivo di puntamento: il mouse.


Pascal, l'evoluzione 


Si cominciava a parlare di programmazione strutturata e di Pascal, pensando di introdurlo nella scuola proprio per le sue caratteristiche di rigorosità, di tipizzazione forte dei dati (che vanno preventivamente dichiarati e non è possibile passare da un tipo all'altro con una semplice assegnazione, come ad esempio in Basic), di modularità grazie all'uso delle procedure.  
Era un altro mondo rispetto al Basic:  dalla "programmazione spaghetti", infarcita di goto e di variabili create in qualsiasi momento, all'ordine svizzero imposto da Niklaus Wirth.    
Non parliamo poi della velocità. Difficile forse capire oggi cosa significava disporre di un buon compilatore. Ora  la potenza di calcolo di cui disponiamo è tale da rendere abbastanza accettabile, almeno per usi normali, anche le prestazioni di un programma interpretato, anche se  un ritardo di qualche secondo nella risposta ci può far giudicare come lento o molto lento il programma. Allora l'attesa  poteva essere anche di alcuni minuti!
Proprio in quel periodo la Borland metteva sul mercato, a partire dal 1983, un velocissimo complilatore per MS/DOS, a prezzo contenuto: il Turbo Pascal.
Il successo fu enorme:  rapidamente divenne  il compilatore più popolare in assoluto e fu adottato in molte strutture formative universitarie per insegnare la programmazione strutturata. 

Nella versione 5.5 (1989) Borland  introduceva anche elementi di programmazione orientata agli oggetti. I programmi andavano  pensati non più come pura sequenza di istruzioni, ma come oggetti interagenti tra loro.
Gli oggetti sono concretizzazioni di Classi, sono cioè istanze di una classe, possiedono proprietà (i dati dell'oggetto) e capacità di agire ( i metodi dell'oggetto).
La Classe è una struttura di dati astratta che definisce le proprietà  generali (i dati)  di ogni oggetto che le appartiene e ciò che ognuno di essi può fare (i metodi). Esempio: la classe Automobile  definisce il concetto di automobile (cosa ci fa riconoscere che ciò che abbiamo davanti è un'automobile?) , "Fiat 500" e "Ferrari F430" sono concretizzazioni, istanze di Automobile.
Tutto ciò  era decisamente affascinante anche se un po' difficile da capire per chi era abituato a programmare alla vecchia maniera. Il manualetto pdf, 2577 KB sulla programmazione orientata agli oggetti che accompagnava il compilatore era però piuttosto chiaro e aiutava molto. Tanto che ancora oggi ritengo possa essere utile per chi  muove i primi passi nel mondo della programmazione. La complessità dei software attuali impone necessariamente la modalità object oriented e quindi tutti i moderni linguaggi la adottano: Delphi, C++, Java, ecc.

Nel frattempo l'hardware si evolveva: dall'intel 80286 della prima metà degli '80, all'innovativo 80386, equipaggiato con il primo processore Intel a 32 bit, che mi costò un occhio della testa, anche perchè lo volli di marca (Intercomp x386) e completo di coprocessore matematico 80387, richiesto quest'ultimo da applicazioni particolarmente impegnative dal punto di vista dell'elaborazione (ad esempio Autocad). 


Un progetto impegnativo

Dopo aver acquisito buona  padronanza del Pascal,  mi lanciai in un progetto ambizioso: creare una serie di simulazioni di Fisica che rendessero più agevole l'apprendimento  dell'elettromagnetismo.
Dovevo immaginare simulazioni didatticamente efficaci e con buone possibilità di interazione. Quel che c'era in giro non era un granchè: poca interattività e orrenda grafica CGA a 320 x 200 punti, 4 colori, mentre con le nuove schede EGA e VGA si poteva finalmente lavorare alla risoluzione di 640 x 480, 16 colori.
Decisi di partire dalla legge di Coulomb: pensai di simulare una bilancia (1) a due piatti su uno dei quali vi era una carica elettrica, mentre un'altra carica poteva essere avvicinata o allontanata. Un regolo permetteva di misurare le distanze. Modificando il valore dei pesi posti sull'altro piatto si doveva  equilibrare la bilancia ricavando così l'intensità della forza elettrostatica a varie distanze e per diversi valori delle cariche.
Dovevo realizzare tutto da zero: la grafica, il motore fisico, necessario per rendere verosimili i movimenti dei piatti e attendibili i risultati, l'animazione. Volevo una simulazione sufficientemente realistica e quindi era necessario implementare correttamente le soluzioni delle equazioni del moto, per la quali utilizzai il metodo di Eulero. C'era poi il problema dell'elaborazione dei dati.
L'idea centrale era che lo studente, decisa la strategia da adottare (quali parametri far variare e come) e ricavata una serie di dati, si ingegnasse, attraverso l'elaborazione  di questi e una successiva rappresentazione grafica, a scoprire la legge di Coulomb.  
Pensai quindi  di integrare  un foglio di calcolo, in stile Visicalc o Lotus123, ma la cosa mi sembrava troppo complicata  e l'idea francamente  un po' troppo audace per le mie possibilità. Però, se vi fossi riuscito, avrei ottenuto l'importante risultato di aver creato un ambiente didattico autosufficiente: simulazione ed elaborazione senza mai uscire dal programma.  Una bella sfida! Decisi di provarci, mettendo anche all'opera qualcuno dei concetti di programmazione orientata agli oggetti, che stavo allora studiando. Creai così la Classe 'cella' con dati e  metodi. Era poi necessario realizzare la tabella con la massima modularità, in modo da poter riutilizzare il software nelle simulazioni successive, senza ulteriori modifiche.
Le celle potevano accettare testo, valori numerici e formule di calcolo diretto o tra i contenuti delle celle.  In vista di futuri sviluppi, avevo implementato alcune funzioni: elevamento a potenza, radice quadrata, funzioni trigonometriche (sin, cos,arctan), logaritmo naturale  ed esponenziale.  Ne uscì una cosa piuttosto primitiva, ma ampiamente sufficiente per lo scopo. 
Era la volta della rappresentazione grafica. Creare procedure in grado di rappresentare graficamente funzioni date non era una cosa particolarmente difficile. Tuttavia era  didatticamente  importante che lo studente scrivesse direttamente la forma della funzione matematica, senza avere a disposizione oggetti predefiniti. Per questo motivo dovevano essere rappresentabili virtualmente tutte le funzioni polinomiali, oltre a quelle trigonometriche, al logaritmo e all'esponenziale. Esse dovevano essere inserite attraverso un campo di testo, il che rendeva necessaria la realizzazione di un parser a più livelli, che fosse in grado di analizzare un ingresso, ad esempio, del tipo f(x)=1/(x^3 - 3*x^2+1). Era poi necessario 'saltare' i punti singolari del dominio per evitare il famigerato "Division by zero  Error", e trovare un ragionevole compromesso tra qualità della rappresentazione e tempo di esecuzione (i primi tentativi erano alquanto disperanti da questo punto di vista).  Francamente furono queste le  cose che trovai  più complicate.  Lavorai duramente e alla fine ebbi la mia bella simulazione funzionante. Devo dire che  funzionava pure bene. 
 Ora si trattava di capire cosa farne di tutto quel lavoro. Realizzai un dimostrativo e lo inviai ad alcune case editrici, che, pur apprezzando, risposero negativamente (forse anche per precedenti infruttuosi tentativi). Una sola, l'editrice La Scuola di Brescia,  invece della consueta risposta scritta, mi fece chiamare da un funzionario, il quale mi manifestò il dispiacere di non poter pubblicare un lavoro simile, data la politica contingente della casa editrice. Avrebbero comunque voluto utilizzare le mie competenze proponendomi di scrivere alcuni articoli per una loro prestigiosa  rivista, 'Nuova Secondaria', cosa che poi feci.
Leggendo un famoso mensile di informatica del tempo, MCmicrocomputer, trovai un annuncio con il quale una software house di Bologna, la Simulmondo srl, allora nota produttrice di video games, cercava collaborazioni per altri progetti, anche di software didattico.
Mandai il dimostrativo e una descrizione dell'idea. Fui convocato a Bologna per un colloquio da cui nacque un progetto che prevedeva la pubblicazione di due volumi Fisica 2  e  Fisica 3 sull'elettromagnetismo (già esisteva  Fisica1). Mi impegnai a fondo seguendo le stesse linee guida. Le simulazioni dovevano però essere integrate da un testo ed una serie si esercitazioni. Così mi inventai un testo su tre livelli collegati da 'parole sensibili' (oggi li chiamerei link o collegamenti) che si scorrevano con i tasti cursore (niente mouse ancora) accedendo ai diversi livelli  testuali. Senza saperlo (non ero ancora informato di ciò che stava succedendo al CERN di Ginevra e degli studi precedenti) mi ero costruito una specie di elementare ipertesto. Aggiunsi poi una serie di domande con controllo logico e sintattico delle risposte. Terminai così, nel giro di alcuni mesi, il primo volume che fu pubblicato nel 1992. Iniziai anche il lavoro successivo, che però, per problemi interni a Simulmondo, non fu più terminato.
Per gli appassionati di vecchi software o i curiosi, questi programmi sono disponibili e si possono liberamente scaricare da questo sito, nella sezione 'materiali'. 
Intanto un nuovo interesse si profilava all'orizzonte.


Internet


Tra il 1989 e 1991 al CERN Tim Berners Lee  e Robert Cailliau  svilupparono un sistema ipertestuale per facilitare il reperimento delle informazioni e  la collaborazione tra ricercatori, definendone sia il linguaggio di formattazione testuale (HTML) che il protocollo di trasmissione (HTTP). Nel 1991, il 6 agosto, Tim Berners Lee pubblicò il primo sito web su Internet. Nel 1993 Il CERN rinunciò ai diritti di autore rendendo pubblico il world wide web (www). 
L'anno dopo, 1994, furono disponibili anche in Italia i primi servizi di accesso pubblico alla rete Internet.
Nel  1996, armato di un modem da 14,4 kb/s,  e di un browser Netscape 2.02, entrai a far parte di quel milione, poco più, poco meno, di internauti italiani. L'emozione non fu poca nel veder apparire sullo schermo pagine provenienti da tutto il pianeta. Ed anche il senso di disorientamento. Come quando, davanti a un territorio sterminato, ci prepariamo al viaggio privi di riferimenti, indicazioni o mappe. La salvezza veniva (viene) dai motori di ricerca. A quel tempo i più gettonati erano Yahoo, che dava i risultati migliori, dal momento che i siti venivano selezionati e catalogati da una redazione di operatori umani, e Alta Vista, che vantava uno dei database più cospicui della rete. Una delle cose che forse oggi potrebbe maggiormente colpire è la velocità con cui venivano acquisite le pagine. Facendo un confronto: l'immagine del commodore 64 in questa pagina pesa circa 60 KB. Ciò significa che viene codificata con 60 x 1024 x 8 = 491520 bit, con il mio modem ci volevano 491520/14400 = 34 secondi, mezzo minuto, per scaricarla. Oggi una connessione ADSL da 1 Mb/s = 1048576 bit/s, consente di scaricare la stessa immagine in 491520/ 1048576 = 0,47 s, mezzo secondo! Questo per avere un'idea dei progressi, ma anche di quanta pazienza ci voleva allora...
La curiosità di capire come tutto ciò potesse funzionare era prepotente. E così ricominciai a studiare, imparai l'html, costruivo pagine che peraltro mi soddisfacevano poco a causa dell'assenza quasi totale di interattività.  Scopersi Javascript (conoscevo un po' di Java e di C:  vi era una qualche somiglianza sintattica e ciò mi aiutava) entrando così, pian piano, nel mondo dello 'scripting'. Diventai bravino con le pagine web, tanto da poter produrre qualche sito anche a livello professionale. Di fatto, per un periodo mi diedi alla produzione di siti e alla consulenza.
C'erano tante cose da imparare, ma la gran parte delle conoscenze e delle soluzioni ai problemi si trovavano nella rete. Questa era la cosa in un certo senso rivoluzionaria: la rete  offriva i mezzi per studiare, capire e parlare di se stessa. Internet diventava poco a poco la più grande fonte di informazioni e di collaborazione. Tanti siti, tante persone mettevano le loro conoscenze e i loro lavori a disposizione di chiunque, senza nulla chiedere in cambio. Straordinario. Mi dispiaceva solo di averlo scoperto tardi (esistevano da tempo in Italia e nel mondoethernet-1979 forme di collaborazione e comunicazione per via telematica, ad esempio la rete 'Fidonet ' ,  a partire dal 1986 fino al cosiddetto 'Italian  crackdown' del 1994, e la rete Usenet).
Mi interessava sempre la possibilità di utilizzare queste nuove risorse per la didattica e quindi organizzai un corso di HTML ed elementi di Javascript per un gruppo di colleghi e qualche studente, che avrebbero poi potuto utilizzare le conoscenze acquisite per scopi didattici.
Nel frattempo, la necessità di capire il funzionamento di Internet  mi stava portando verso lo studio delle reti di calcolatori. Si affacciavano all'orizzonte nuovi termini: ethernet,  TCP/IP, CSMA/CD, pacchetti, router,ecc.


Lato server,  ovvero passare dall'altra parte

Conoscevo ormai parecchie cose: riuscivo a progettare pagine web, sapevo caricarle su un server e avevo anche un'idea di come tutto ciò funzionasse, ma ciò che c'era dall'altra parte del doppino telefonico e che diligentemente rispondeva alle richieste dell'utente (il browser) per ottenere questa o quella pagina, restava vago e nebuloso. L'unico modo per capire fino in fondo come veramente funzionassero le cose  era quello di riuscire a metter le mani su un server.
L'occasione mi fu offerta, tra il 1999 e il 2000, da una collaborazione con una storica software house del posto, fondata e gestita dal classico geniaccio, tanto vulcanico, quanto poco organizzato. Da anni lavorava su sistemi Unix, su cui giravano gestionali dedicati che venivano manutenuti anche da remoto attraverso connessioni telefoniche  da modem a modem  (non ancora via Internet). Unimmo le forze e le rispettive competenze  per creare un sistema di commercio elettronico basato su Internet.  Dovetti imparare da zero a configurare un server, dappprima sotto Unix (usavamo SCO e Caldera) per poi passare definitivamente a Linux. Fu questo il mio primo approccio con l'open source, con Linux...e con il Perl.
Quest'ultimo è uno dei più ostici linguaggi di scripting  lato server con cui abbia avuto a che fare, ma in quel momento era quello che meglio ci consentiva  di interfacciare le pagine web (il front-end del sistema), con il potente database  relazionale  che costituiva il motore dell'applicazione. L'esperienza fu emozionante. Si lavorava gomito a gomito, spesso fino a notte fonda, sostenuti anche dall' entusiasmo del responsabile commerciale (poi divenuto mio grande amico),  l'uno programmando il database, l'altro trovando le soluzioni Perl necessarie: un problema, una soluzione, un problema, una soluzione...quasi in tempo reale. Era davvero un rivivere il clima degli inizi. Un po' alla volta vedevamo la creatura prendere forma: tra i primi in Italia, eravamo riusciti a creare una piattaforma e-commerce, costruendo completamente in proprio l'interfaccia web. 
Il bagaglio di esperienze che ne trassi fu notevole, ma sentivo l'esigenza di una sistemazione  ed  approfondimento delle conoscenze che avevo via via acquisito.


Security manager


Nel 2000 si valutava che in Italia  sarebbero mancate oltre 50000 figure di esperti in tecnologia dell'informazione, capaci di operare nel settore della cosiddetta net economy, dell'economia cioè che fa uso delle risorse di rete. Per limitare il danno che questo 'skill shortage', come veniva definito, avrebbe certamente prodotto, un pool di banche, guidate da Sviluppo Italia, finanziò il progetto "Skillpass". L'obiettivo era di formare gratuitamente e rendere operativi almeno 10000 esperti in un anno. Si dovevano superare delle selezioni iniziali rispondendo ad un questionario on-line e inviando un curriculum. Superai la selezione e scelsi il corso di formazione per Security Manager, che sembrava maggiormente rispondere alla mie esigenze.  Le lezioni erano somministrate via Internet e in video-conferenza da Global Knowledge, mentre i laboratori si svolgevano nella sede di Milano.  In pratica dovetti seguire un corso introduttivo alle reti di calcolatori, il corso di preparazione alla certificazione Cisco CCNA ( Interconnecting Cisco Networking Devices), uno dei tre corsi previsto per la CCNP  (Building Cisco Remote Access Networks, ora: Building Scalable Cisco Internetworks) e un corso specialistico sulla gestione della sicurezza nelle reti Cisco.  Lo studio fu alquanto impegnativo, con  verifiche intermedie a scadenze precise e inderogabili. Nel 2001 sostenni con successo l'esame finale e finalmente mi ritrovai  con competenze sufficienti per gestire una rete di medie dimensioni configurando router, switch e sistemi di autenticazione.


Amministratore di rete a tempo perso (e costo zero)


Vi furono ovviamente ricadute sulla scuola. Insistetti per realizzare una rete interna e alla fine la spuntai: la mia fu una delle prime scuole ad avere un'aula cablata in rete ethernet con accesso condiviso ad Internet via ISDN.  
Con l'avvento dell'ADSL, potei realizzare una mia idea. Attivai le procedure per la  registrazione di un dominio per la scuola.
Caricai su una vecchia macchina che riuscii faticosamente ad ottenere (le risorse nella scuola sono sempre limitate), una distribuzione Red Hat Linux. Configurai Apache, Snort, Qmail. Installai Rav Antivirus (2) e realizzai un firewall con iptables.  Disponevamo così di Web server,  servizi di posta elettronica con scansione antivirus e, se pur rudimentale, di un controllo dei contenuti a costo praticamente nullo.  Non era il massimo per la sicurezza (tutti i servizi sulla stessa macchina), ma le risorse disponibili non consentivano di più. Per diversi anni poi mi assunsi l'onere aggiuntivo della funzione di amministratore di rete. Dopo il 2003 sostituii qmail e RAV non più disponibile, con Postfix e Clamav. Devo dire, con un certo orgoglio,  che, oltre a garantire i servizi per parecchi anni, il sistema resistette a diversi attacchi e in quel periodo non vi fu mai alcuna infezione virale.


Networking Academy


Mi sono sempre chiesto perchè nel mondo della scuola sia così difficile introdurre novità. Immaginavo che vi sarebbe stata una spinta verso l'utilizzo delle nuove tecnologie nella didattica, ma non fu così. Certo si cominciava a usare Internet per cercare informazioni, ma non se ne faceva un uso propriamente didattico. Internet era però interessante anche per la tecnologia in sè e per le opportunità di lavoro che poteva offrire. Con uno dei pochi colleghi curioso dei nuovi mondi della conoscenza cominciai a cercare qualcosa da proporre, nel tentativo di  rinnovare gli obsoleti  curricula scolastici.
Scoprimmo che Cisco Systems, la multinazionale dei dispositivi di rete, soprattutto router di fascia alta, aveva creato una piattaforma di e-learning ed istituito  quelle che venivano chiamate "Networking Academy" (3): ogni istituto scolastico o ente no-profit che lo desiderasse aveva l'opportunità di divenire sede di una Networking Academy, previa formazione e certificazione di almeno due istruttori presso una struttura regionale. Stavamo cercando ansiosamente di vedere se in Italia esistesse qualcosa del genere. Vi era il Cineca a Bologna e poco altro, ma i costi richiesti per la formazione erano troppo elevati. Stavamo per abbandonare quando  scoprimmo che proprio  la Regione Veneto si era costituita come Cisco Regional Academy  e cercava, quasi disperatamente, di istituire quel paio di Networking Academy locali  che mancavano per raggiungere il numero minimo necessario alla partenza del progetto. In più, fatto non trascurabile, la formazione sarebbe stata gratuita per le prime dieci Local Academy. Contattammo subito i responsabili e riuscimmo ad inserirci nell'elenco. L'ultimo scoglio fu superato quando convincemmo un sonnacchioso  Collegio Docenti ad approvare il progetto, in modo da inserirlo nel piano dell'offerta formativa.
Seguì un altro impegnativo periodo di formazione con verifiche ed esami continui. Conseguimmo infine la certificazione CCNA e quella di istruttore  CCAI (Certified Cisco Academy Instructor). Eravamo una delle otto scuole delle regione a divenire Cisco Networking Academy, l'unica della provincia ed iniziammo i nostri corsi di preparazione alla certificazione CCNA per studenti interni ed esterni.
Cercammo di formare altri istruttori, ma purtroppo nessuno dei colleghi aderì all'iniziativa, vuoi perchè i materiali di studio erano in lingua inglese, vuoi perchè l'argomento pareva troppo difficile o semplicemente perchè non ritenuto utile. Anche con gli studenti interni non fu semplice: riuscimmo a istituire alcuni corsi pomeridiani e ad  introdurre  argomenti di networking nei curricula, ma sempre con notevole difficoltà. La vera soddisfazione veniva però dagli studenti esterni che, motivatissimi, affrontavano dopo il lavoro  le lezioni serali e del sabato mattina, provenendo anche da luoghi distanti.  La certificazione Cisco era ed è tuttora alquanto ambita. E' unanimemente considerata seria e piuttosto difficile da ottenere. Molti, a seguito dei nostri corsi, la conseguirono e a più d'uno ciò permise di ottenere migliori condizioni di lavoro o addirittura di cambiare (in meglio) tipo di impiego. Nonostante questi riscontri positivi, compresi gli introiti economici che questa attività produceva (provenienti solo dagli esterni, ovviamente, anche se tali costi erano quasi simbolici rispetto a quanto richiedevano le agenzie esterne), la scuola non capì mai la potenzialità offerte da quei progetti. Non se ne fece seriamente promotrice  preferendo impegnare energie in altre direzioni, meno orientate all'innovazione e a nuove proposte didattiche.


I corsi per sistemisti


Le competenze acquisite in qualità di istruttore nei corsi Cisco, oltre al background che già possedevo, mi consentirono di progettare due corsi post-diploma, finanziati dal Fondo Sociale Europeo, in collaborazione con un ente di formazione che faceva riferimento all'Associazione degli Industriali. Si trattava di corsi di  500 ore di teoria e 300 di stage presso aziende del settore (tipologia esatta: "formazione post secondaria rivolta a diplomati/laureati in cerca di occupazione") che miravano a formare una figura professionale di "Sistemista ed amministratore di rete" (2003) e di "Sistemista addetto alla sicurezza informatica  (2005)". Questi progetti, piuttosto apprezzati, mi diedero notevole soddisfazione ed è motivo di personale orgoglio il fatto che essi  permisero a molti giovani di inserirsi con successo nel mondo del lavoro nell'ambito dell'Information Technology.


Epilogo
Arpanet -1969- primi 4 nodi
Al momento di chiudere questa finestra sul passato prossimo del calcolo automatico e dell'Informatica, viene da pensare di come , infine, tutto sembra essere stato una lunga preparazione allo sviluppo della Grande Rete. Con ciò che, nel bene e nel male, ha comportato. Oggi pare quasi ridicolo o quantomeno anacronistico pensare ad un elaboratorre stand alone, isolato, che 'sta da solo' come suggerisce la traduzione letterale dall'inglese. Non possiamo nemmeno più concepire  comunicazione e forme collaborative che prescindano dall'esistenza di Internet. Come tutte le cose umane, Internet può essere usata per scopi alti e per altri che certamente lo sono meno. Ma, allo stesso modo in cui nessuno penserebbe di tornare ad usare i lumi ad olio per illuminare le strade, oggi nessuno può ignorare ciò che la Rete rappresenta e offre. Essa ha prodotto in noi cambiamenti irreversibili nel modo di lavorare,  comunicare, ottenere informazioni, studiare. Anche se forse proprio la didattica, almeno in Italia, resta uno dei  settori che ancora non è riuscito ad  avvalersi efficacemente dello strumento e delle sue risorse.
In fin dei conti questo sito nasce anche con la piccola ambizione di portare un contributo e magari di suscitare qualche presa di coscienza sull'argomento.
Ho raccolto e propongo qui una vecchia e storica immagine  che, a dispetto della semplicità grafica,  rappresenta l'embrione di Internet, la materializzazione di un'idea geniale. Vi sono i primi 4 nodi di Arpanet appartenenti alle quattro università che nel 1969 diedero vita al progetto: l'Università di California Los Angeles (UCLA), Lo Stanford Research Institute (SRI), l' Università di California S.Barbara (UCSB) e l'Università dello Utah . Chi vuole può leggere anche  "l'atto di nascita", il primo Request for Comments, RFC 1.
Tutto nacque da lì.





(1) Potrebbe essere un esempio di 'esperimento pensato'. Una bilancia adatta ad una misura di questo tipo sarebbe difficilmente realizzabile: tra l'altro dovrebbe essere del tutto immune ai campi elettromagnetici esterni e generati dalle due cariche.

(2) Prodotto da Gecad, era un ottimo antivirus per mail server, principalmente Linux, che serviva allora quasi 10 milioni di utenti. Acquistata nel 2003 da Microsoft, Gecad ne ha stranamente subito cessato la produzione.

(3) Non essendo ingenui possiamo senz'altro pensare ad una intensa operazione di fidelizzazione da parte di Cisco Systems, attraverso l'offerta di alettanti  corsi di studio. Poichè siamo anche pragmatici rileviamo che necessariamente questo tipo di formazione non può essere legato ad una singola marca di dispositivi e che attualmente non esiste qualcosa di seriamente paragonabile all'investimento di Cisco systems in questo settore.   


© 2015 Sandro Ronca     Note legali e d'uso          Ottimizzato per Mozilla Firefox