Sulle mode IT correnti - un RANTolo
Da un po' osservo l'evoluzione regressiva dell'IT corrente scuotendo la testa. Un po' più di 15 anni fa quando esplose la moda della virtualizzazione full-stack, sopratutto su x86 essendo il big iron scomparso da ben prima d'allora, scuotevo la testa osservando che si, chroot su GNU/Linux (lxc/lxd non c'erano ancora) non era affatto adatto ad isolare nulla, ma le jails su FreeBSD o le zones su IllumOS erano tutt'altra storia e che cercare virtualizzazione full-stack su x86 era puro masochismo, tra l'altro coi primi Linux 2.6 s'era avviato un certo fugone verso Unix, soprattutto FreeBSD osservando OpenSolaris (ora IllumOS) essendo GNU/Linux sempre più un bloatware buggato.
Beh, come andò lo sappiamo: sino a poco prima di Docker i più a sentirmi mi
davan del pazzo, "la virtualizzazione full-stack è La Via®©™", tutti a far
cluster virtuali su una sola macchina fisica, buttar in produzione immagini
preparate da non si sa chi, qualcuno pure con chiavi SSH del vendor
"scordate" tra le authorized_keys
, io ero solo uno studentello che non
sapeva cosa diceva.
Poi arriva lxc e dietro di lui Docker, in poco tempo anche Kubernetes (K8S) e la virtualizzazione full-stack divenne vista come un assurdo spreco di risorse, vista l'overhead mostruosa e l'immane carico di lavoro di mantenere immagini aggiornate, che per quello non lo erano in media, moda deprecata e deprecabile, e quelli che mi davan del pazzo sino a poco prima mica han cambiato idea, sono passati dall'adorazione di VMWare a quella di K8S. Acriticamente "eh, ma prima non c'era", si certo non c'era la paravirtualizzazione, perché di questo parliamo, le jails nate nel 2000, le zones del 2005. Ah, ma lo zfs era una Rampant Layering Violation… Al tempo continuai a dire "hey, quel che abbiamo bisogno sono storage moderno, lo zfs è il primo pioniere, su questi package manager ed installer per il presente, l'IaC a livello OS". Ma ero sempre quello pazzo… Anche se NixOS era già avviato e nel 2012 si era aggiunto Guix (ora Guix System).
Poi è scoppiata la moda ancora corrente delle infra cloud-native, dopo una breve parentesi OpenStack coi più a giocare ai self-vendor1 di VPS, in effetti ritorno al computing degli anni '702 e le mode tirate dagli interessi dei giganti continuano. Con i più che seguono come ubbidienti greggi la direzione tracciata da 4 gatti, acriticamente, senza memoria, senza analisi, visione alcuna.
la mia visione dell'IT
Concettualmente semplice: l'OS deve essere una singola applicazione, flessibile, estensibile, modificabile live come lo sono le applicazioni Common Lisp. Si, ci han scritto, su ferro enormemente meno potente di quello d'oggi, OS ed applicazioni, bootloader, kernel, sino alle UI in Lisp, da tanto tempo, una demo d'esempio, suggerendo di guardar quando fu registrata per capire: https://youtu.be/RQKlgza_HgE ebbene si nel 1992 si poteva fare tutto ciò IN LISP, l'OS intero quale singola applicazione flessibile, aperta sino alla programmazione utente e performante quanto basta per far grafica 3D animata sul ferro di allora.
A livello di infra non è diverso, il concetto storico, nato da Google Research: The Datacenter as a Computer vale tutt'ora, il datacenter come la sala macchine della PMI, la casa digitalizzata del privato è inteso come un computer dove i blade sono essenzialmente "macro-CPU", lo storage fiber channell/nvme sono "gli hard-disk" ad un certo livello, gli 1-4U per la PMI, il desktop montato rack e qualche appliance per la casa, e così deve essere per l'infra software sopra. NixOS o Guix System mostrano come l'IaC funzioni a livello OS, OpenSolaris/IllumOS han mostrato il legame che c'è tra storage, package management e installer. Ansible, Saltstack and co mostrano l'efficacia dell'orchestrazione ed il limite su OS che non sono dichiarativi. Emacs/EXWM mostra la validità della programmazione utente e del modello desktop, come Plan 9 mostra il desktop non solo in rete ma di rete. Java incompreso ha mostrato da ben prima il bisogno e l'opportunità di questo modello. Qualcuno ci prova, altri non han mai smesso, sono solo elementi il cui limite è dato dall'esser isolati, messi insieme sono il computing moderno, riedizione della rivoluzione Xerox, dai più dimenticata, ma su cui si basa il 99% dell'IT moderno e che si riscopre senza sapere che già l'avevamo da decenni un passetto evolutivo alla volta.
Non serve sviluppare per il cloud, ovvero roba che funziona sinché i servizi terzi su cui si basa non mutano, e questi sono gestiti da soggetti così grandi per cui il singolo cliente che ci sviluppa sopra non ha verso di loro leva commerciale alcuna. Non serve fare web-app per tutto sempre più dipendenti da WebVM impropriamente dette browsers per ragioni legacy, riducendo potenti desktop a "endpoints" ovvero moderni terminali stupidi di moderno mainframe in mani altrui. Non servono desktop virtuali servizi come webapp. Serve tornare ai desktop interconnessi tra loro con l'infra quale "cache" che garantisce la disponibilità dei dati nelle mani di chi deve averli 24/7/365 a prescindere dallo stato del desktop.
Un'azienda 100% remote, come il grosso del terziario e dell'IT può e DEVE essere nel 2024, deve avere uno o più sedi (secondo dimensione) con la parte server, il loro datacenter. Va benissimo si mettano vicini per aver link ed elettricità. Il nuovo datacenter non è il mega-complesso, ma la cittadina di palazzine data-center individuali, piazzata in luoghi possibilmente freschi e idrogeologicamente stabili. Li ci vivono solo i PFY che si occupano del ferro, del cablaggio, di attaccare al LOM tutto quanto. Il resto sono desktop sparsi nelle case dei singoli lavoratori, gestiti con la logistica moderna, sincronizzati tra loro sull'infra aziendale, in modo che ognuno abbia sempre LOCALMENTE quel che gli serve e che sia immediatamente chiara l'infra intera, scritta in testo dall'OS al più alto livello, replicando la stessa struttura sociale dell'azienda. Il controllo sui dati non è minore, è migliore, perché l'esposizione è visibile, e la relativa maggior fiducia che si dà al singolo è la base del controllo. Si ha resilienza, semplicità ed economia.
Il problema del BOFH in malattia non c'è, è una struttura largamente indipendente, l'IaC ad ogni livello garantisce i passaggi di consegne ed il lavoro collaborativo senza frizioni particolari. L'infra verso il pubblico non è diversa da ogni altra e ove serva il servizio terzo con uptime "garantito" 99.999% (~5' di down all'anno) si incastra benissimo. Layer standard di servizio aperto, non API proprietarie in mani private d'ogni vendor. Ove serva HPC monster resta il mainframe classico, in salsa moderna, ove serva storage e banda resta il datacenter. Non servono layer ulteriori.
dove siamo oggi
Alcuni han scritto su quando in effetti si risparmi lavorando in casa al posto del cloud di qualcuno, la fuga vera e propria non è ancora cominciata, ma complici gli aumenti dei costi e l'inconoscibilità sostanziale a priori degli stessi, il trend anti-cloud, pro possesso personale, inizia a mostrare le fasi di avvio. Ad oggi il problema è che manca l'operation, gente che sappia deployare un OS *nix bare metal sono mosche bianche, gente che sappia farlo a livello datacenter ancora più rare. Ovvero tanti vorrebbero, ma non han il personale per farlo.
Non ci sono più laboratori universitari dove gli studenti imparano, al massimo c'è qualche appassionato con l'homelab domestico, che va benissimo per farsi un'idea ma non forma qualcuno in grado di gestire l'infra di un'azienda non piccola. L'automazione però avanza e gli OS dichiarativi, per ora quasi solo due, prendono decisamente popolarità: NixOS stando a repology NixOS coi suoi nixpkgs è il più grande e aggiornato tra tutti gli OS esistenti. Come popolarità è dietro Arch ed Ubuntu, non la distro sconosciuta mantenuta da quattro gatti in garage. Il comparto in cui più è usata (e recente fonte di polemica) è quello dei droni ad uso militare con la canadese Anduril tra i campioni, non dai geek nello scantinato.
L'OS come singola applicazione è ancora lontano, con l'ignoranza media stellare – politicamente rinominata technical debt – è difficile, ma qualcosa si muove ed è probabilmente questa una delle ragioni della crisi dei giganti IT attuali, non solo l'evoluzione verso commodity e la fine delle loro fasi innovative (peraltro nate implementando pezzi di tecnologie Xerox), ma la consapevolezza non ancora granché espressa che quel modello è in larga crisi e come i petrolieri cercano di entrare in altri settori sapendo che quel business va verso il tramonto così fanno i giganti dell'IT, sperando di salvarsi in corner col ML. Mancano ancora gli utenti mentalmente abituati a scrivere al posto di cliccare, ma se guardiamo alle evoluzioni recenti, dalle UI dove il modello search&narrow ha soppiantato i menu ai motori di ricerca, agli LLM, passando per sistemi "nati punta e clicca" che introducono i repo e creano PowerShell sino al proliferare delle Notebook UI appare chiaro che anche questo sta lentamente cambiando.
conclusioni
Cari studenti di Ing. Informatica o Informatica, la prima cosa che dovete conoscere da matricole è il The Missing Semester del MIT che suona curioso ma implica un concetto assai semplice: per cominciare serve un minimo saper usare un computer, cosa che i più usano ogni giorno senza saperlo usare, e imparare prende tanto tempo, da qui il nome (un semestre non basta). Vi serve imparare il LaTeX3 vi può servire R, Python, Emacs ed org-mode e via dicendo, vi serve anche l'home-lab, vi possono esser utili libri come il classico Limoncelli-Hogan, attualmente alla III edizione e tanti altri, ma soprattutto vi serve aver una dimensione delle cose e con lei comprendere come lo stato presente dell'IT sia osceno, arcaico, teso alla vendita di spazzatura che va a mode di un tot di anni, alcuni stimano 7, se capite questo saprete sia cosa studiare, sia prevedere dove si andrà a grandi linee ed in quanto tempo. All'inizio le previsioni saranno corrette ma fuori bersaglio temporale, poi si affineranno.
Sappiate come base, anche se non studiate informatica, che quanto sopra serve anche a voi: oggi i più sono analfabeti, perché non sanno più usare la carta e non han mai davvero imparato ad usare un computer, quindi manca la padronanza dello strumento per conoscere per eccellenza. Per questo i più sono dipendenti dai 4 giganti che han conservato quel sapere e lo vendono confezionato a loro misura. Potete scegliere quindi se conoscere con fatica e con la frustrazione di un presente fatto per ostacolare questa conoscenza e sviluppo, oppure esser schiavi, sapendo che quanto imparerete sulla moda attuale, in pochi anni sarà deprecato, mentre quel che conta nell'IT tende a durare se non per sempre almeno per molti decenni, in media per l'intera vita operativa di ciascuno.
Si è una faticaccia e senza guide non si sa dove cominciare, ma il mondo evolve e chi non lo fa sa che sarà spazzato via dalla storia. Vale per il new deal, dove possiamo scegliere tra l'implementarlo o finire schiavi in smart-cities, non costerà di meno seguire i pifferai, in effetti costerà ben di più, un cetriolo alla volta, si fatica meno oggi ovviamente, ma lo si paga per la vita intera. Per questo troviamo una popolazione che pensa sia impossibile ogni cambiamento, che suda ogni giorno correndo dietro a mille disfunzionalità, ed un'altra frustrata dalla prima che vede un mondo possibile e si sente considerata come elitista fuori dal mondo.
La storia non s'è mai fermata e non lo farà manco adesso, e se cambiare costa fatica non farlo costa la vita, oltre che una fatica ben maggiore anche se meno facile da stimare a propri. Fate la vostra scelta.
beh, visto che si facevano OpenStack on-premise da se, servendo a se stessi istanze virtuali, quindi de facto giocando agli vari fornitori di VPS ed ai loro clienti al contempo. Non rendendosi conto dell'assurdo. Obiettivo sacro, separare l'operation dallo sviluppo, sia mai che questa con troppo potere influenzi l'evoluzione impedendo la guida manageriale ed il commercio…
come ben scrisse Cees de Groot affrontandone uno degli aspetti oggi ancora di moda.
che vede una discreta community italiana, con il GUIT in pole position, ma anche con varie guide libere, alcune famose come quelle del del Prof. Lorenzo Pantieri ma anche altre tradotte e varie università coi loro modelli LaTeX per le tesi.