La mia domanda non è retorica, ma filosofica e profondamente pragmatica: il progresso tecnologico è, in essenza, una dialettica che non porta alla quiete, ma alla nascita incessante di problematiche più complesse di quelle che risolve. L’umano desiderio di sapere, specialmente in ambiti complessi come quello tecnologico, crea una dinamica destinata a divenire sempre più vorticosa e complessa.
Non si tratta di cinismo, ma della constatazione di un professionista che ha trascorso quattro decadi nel campo dell’informatica. Nel 1979 avevo 6 anni e l’incontro con uno SHARP MZ-80K fu una folgorazione. Nelle due decadi che seguirono il codice era la sfida e i problemi erano confinati nel sistema, fosse esso un Commodore VIC20, un C64, un C128, un Amiga 1000, un A500, uno ZX Spectrum Sinclair, un Olivetti M24, un PC Intel 8086 auto costruito o qualsiasi altra piattaforma capitatami sottomano e di cui apprendere il codice assembly. Sino alla direttiva 91/250/CEE del 14 maggio 1991, la prima legislazione sul diritto d’autore dell’Unione europea, sproteggere, duplicare e distribuire software non solo era tollerato ma era una vera e propria industria che ben retribuiva chi aveva le giuste competenze. Al tramonto di quell’epopea mi sono trovato con in tasca il diploma di Perito Industriale specializzazione Informatica (correva l’anno 1992) e, nella mia testa, il passaggio successivo sarebbe stato un percorso di studi in Ingegneria a Cagliari (un 27 in Analisi 1 con la Vernier non ha prezzo!), la vita ha scelto diversamente.
Nel 1993 apro la prima posizione previdenziale come sistemista informatico, concentrato sul rendere la scienza informatica alla portata di tutti, attraverso l’epopea dei PC e di Internet. In questo contesto maturò il “problema perfetto” auto-inventato dal progresso: il Millennium Bug (Y2K). Tecnicamente si trattava di un errore di design, una vulnerabilità strutturale nota e prevedibile, derivante dall’uso di soli due digit per rappresentare l’anno nei sistemi di memorizzazione (ai tempi in cui risparmiare due byte, per ogni anno memorizzato, era tanta roba :-D).
L’impatto del Bug Y2K forzò una metamorfosi nella percezione aziendale dell’Information Technology. Il bug non era più un problema da affrontare nell’ambito ristretto dei “settori informatici”; la sua complessità era tale da investire direttamente le “funzioni strategiche dei vertici organizzativi e dei gruppi direzionali”. La gestione di questa “crisi”, peraltro, fu amplificata in Europa dalla contemporanea necessità di preparare i sistemi all’introduzione dell’Euro. Questa coesistenza rappresentò una “prova del fuoco” senza precedenti per noi responsabili dei sistemi informatizzati. La “catastrofe” ampiamente annunciata non si verificò, portando alcuni a dire che si trattò di “tanto rumore per nulla”, ma la maggior parte degli esperti che si occuparono del problema ancor oggi concorda che fu la massiccia preparazione a sventare il disastro. Nel mio caso credo che quel periodo, per la prima volta, diede la consapevolezza che eravamo entrati in un epoca di stretta correlazione tra noi esseri umani ed i dati digitali che ci rappresentano, siano essi dati anagrafici, asset finanziari o like ad un post.
Con la consapevolezza che noi siamo i nostri dati, nel 2000, dopo il necessario periodo di pratica, sostengo l’Esame di Stato per l’Abilitazione all’esercizio della Libera Professione di Perito Industriale specializzazione Informatica e concentro la mia sete di sapere sulla sicurezza informatica. Il decennio tra il 2000 e il 2020 è stato caratterizzato da un frenetico proliferare di “esperti” in cybersecurity. Questo fenomeno fu la prima grande manifestazione del ciclo di hype in ambito sicurezza informatica, in perfetta sintonia con il “picco delle aspettative esagerate” dell’Hype Cycle di Gartner (un framework che descrive le fasi che ogni nuova tecnologia attraversa verso la maturità o il declino). Ad ogni nuova ondata di minacce o nuove tecnologie (come l’e-commerce o il mobile), è corrisposto un aumento esponenziale di figure che troppo spesso confondevano la conoscenza superficiale dello strumento (un nuovo tool di scansione, una certificazione, o un framework specifico) con la competenza sistemica necessaria a governare l’obiettivo (la resilienza e la difesa aziendale). Questo costante fraintendimento, generato dalla rapidità del progresso stesso, ha portato a decisioni aziendali affaticate e alla dispersione di risorse, inseguendo la soluzione magica del momento anziché investire nella necessaria formazione che contempli la profonda comprensione dei dello strumento. Con l’intento di spiegare che qualsiasi tool di sicurezza informatica genera intrinsecamente un equivoco, coniai il termine (in)sicurezza informatica e, anche grazie al CLUSIT, promossi una serie di iniziative di formazione.
Oggi opero, come Perito Industriale (Per.Ind.) in quello che è il mio principale ambito di studio, cioè quello di Perito Informatico, indagando le conseguenze strategiche e legali dei sistemi che un tempo si aiutava a costruire e distribuire. La scienza informatica è passata dall’essere vista principalmente come una soluzione tecnica all’essere la fonte primaria di progresso per qualsiasi impresa moderna. Eppure con l’intelligenza artificiale stiamo nuovamente confondendo lo strumento con l’obiettivo, reiterando l’eterna dinamica che mi ha portato a coniare la massima: “Il progresso è l’arte di inventarsi nuovi problemi da risolvere”.
A proposito, siete anche voi esperti di IA?
(grazie a VEO 3.1. per questi video)