bolla/licenziamenti tech, IA, cosa sta accadendo?
Published on
Da oramai qualche anno si legge di grandi nomi dell'IT che licenziano centinaia di lavoratori e molte ipotesi sono state fatte sulle ragioni di questo fenomeno, vediamo di far chiarezza disegnando un quadro generale.
la storia che si ripete, andiamo a ieri
Torniamo indietro nel tempo, allo Xerox PARC dove nacque il desktop moderno, prendiamo questo video pubblicitario d'allora, concedendoci il minuto di durata ed immaginandoci dei cittadini d'allora, immaginiamo poi un dialogo tra un top manager (M) del tempo ed uno scienziato senior (S) del PARC:
- S
- abbiamo creato il futuro! Una rivoluzione epocale! Si può finalmente comunicare per iscritto in uno schiocco di dita, ovvero un click, attraverso il globo; si può cercare in immense moli di informazione testuale le singole parole che vogliamo trovando subito ogni cosa in archivi sterminati; si può rappresentare con grafici, mappe, animazioni, immagini, tabelle, formule, ogni informazione per comprenderla senza sforzo!
- M
- uh, ok, stupendo, vediamo, vediamo!
- S
- con questa semplice macchina da scrivania, dall'ufficio ma anche da casa possiamo far tutto ciò [video di cui sopra che scorre]
- M
- perbacco! Quanto costa? Quanto tempo ci vuole per realizzarlo?
- S
- beh, il desktop costa quanto un appartamentino in centro [manager solleva un sopracciglio] e possiamo produrne tot al mese; per creare la rete mondiale ci vorrà un 20 anni ed il budget di un paio di potenze mondiali…
- M
- Ah, ok, le faremo sapere… INFERMIERIIIIII!!!
Chiudendo il siparietto guardate il calendario, stimate a spanne quanto s'è speso da allora per far computer e reti: quel che al tempo suonava al profano una follia si è realizzato, con i costi immensi sopra scritti, ma allora era fuori mercato e per questo la Xerox fallì1. Il desktop all'epoca non l'aveva nessuno quindi poter scrivere email tra 5 persone al prezzo d'un appartamento in centro non era eccitante, il grosso dell'informazione era su carta, quindi la capacità di cercare in banche dati che non c'erano ancora e spender ulteriori enormi cifre ed anni di lavoro per crearle non era certo d'aiuto. Era un prodotto concreto, ma fuori dal laboratorio era solo un'idea, un sogno.
torniamo ad oggi
Oggi siamo in una situazione simile, il grosso dell'IT "classico" è abbastanza diventato una commodity, es. banale Microsoft vs Alphabet:
- Microsoft offre Outlook Mail, Alphabet GMail
- Microsoft offre OneDrive, Alphabet Google Drive
- Microsoft offre Teams, Alphabet Meet
Sono prodotti/servizi diversi, ma alla fine fan la stessa cosa e le differenze non sono così grandi. Vale anche per il retail, es. Amazon vs Aliexpress, vi sono differenze peculiari, ma all'ingrosso fan la stessa cosa con catalogo, tempi di spedizione ecc assai vicini, vale per produttori di stampanti, PC, … Ciò che è comune, diffuso si è appiattito passata una lunga fase pionieristica, ma quel che abbiamo non è "la perfezione", ha dei limiti e dei problemi che cerchiamo di superare. Ad es. la ricerca semantica, il santo graal dell'IT è tutt'oggi mancante: i motori di ricerca sono da tempo eccezionali, permettono di trovare parole chiave in basi di dati sterminate ed in media troviamo quel che cerchiamo, però, però non è ancora la Biblioteca Universalis di Conrand Gessner del 1545, ovvero troviamo parole chiave in documenti altrui ma se vogliamo ad es. confrontare anno per anno i grandi incendi nel mondo o qualcuno ha scritto un articolo sul tema o troviamo informazioni su questi ma non "la risposta", pur esistendo tutti i dati per generarla. Gli LLM, es. ChatGPT vorrebbero realizzare questo, un po' lo fanno ma sono in effetti lontani dall'esser usabili su scala, non diversamente dai Desktop Xerox allora.
dove siamo
Il management di allora non lo capì, come non lo capisce quello d'oggi, perché non è facile visualizzare ciò che è possibile se non si conosce davvero lo strumento. Il tecnico che lo strumento conosce al contempo non riesce a mettersi nei panni "del resto del mondo" e non è infallibile, il credito di cui può godere ha dei limiti.
Questo sta accadendo nel comparto tech: i giganti han esaurito la spinta propulsiva, non sono più pionieri ognuno col proprio spicchietto di mondo, Amazon per il retail, Google per la ricerca, Microsoft per "gli endpoint" (parlo da punto di vista del grosso della popolazione, che usa ma non conosce l'IT, il FLOSS ecc), Facebook per le reti di persone, Reddit per le discussioni tematiche ecc. Al tempo – e a lungo – han avuto successo, ottenendo immense risorse economiche e le han investite un po' ovunque, ma persa la peculiarità pionieristica sono in crisi. Han spinto l'IA come soluzione alla loro crisi, nata da due direttrici, una testuale, sopra descritta, cui si aggiunge l'audio che alla fine diventa testo, una d'immagine ovvero video (sequenza di immagini), vista già da tempo a piccole dosi, ad es. il controllo bagagli abbandonati in stazione, ovvero la "partenza" da un'immagine di sfondo e l'analisi di cosa NON cambia per tot tempo da un filmato detratto lo sfondo originale, il bagaglio "abbandonato" appunto, tutte queste tecniche messe insieme portano potenzialmente ad un nuovo mondo in cui l'uomo può interfacciarsi con la voce con automi di vario tipo, come auto a guida autonoma "hey, auto, portami in Via del Piffero 51", elettrodomestici ecc. È un sogno che gli artisti mostrano da decenni, che oggi comincia ad avvicinarsi, ma realizzarlo non è meno costoso né più rapido di realizzare il desktop ed internet (fisico e d'informazione digitale) d'oggi partendo dal PARC di allora. Un costo che manco i giganti sommati possono sostenere.
Han calcolato male, coll'ottimismo e la frenesia della Silicon Valley, han dato per vicino qualcosa che così lontano non è, ma manco così vicino, e pian piano ci si scotta le dita. Alcuni, nel software puro oscillano più rapidamente di altri, nell'hardware che necessita di fabbriche e costosi investimenti DEDICATI al singolo progetto si oscilla più lentamente e si soffre di più, perché un datacenter è un insieme di computer, può far di tutto, una fabbrica di auto ha delle macchine solo per produrre auto, adattarle non è banale.
Intel è recentemente assurta all'onore delle cronache per un "crollo" notevole, in effetti il suo core business, le CPU da desktop e laptop non vanno male, è crollata la sua strategia "IA" dove immaginava datacenter per pilotare sul suo ferro auto connesse, autonome, che altri sognavano di realizzare sopra di loro e han fallito. Nvidia è caduta meno, ma anche lei soffre perché i videogiochi vanno, ma alla fin fine la bolla IA si sgonfia, i più non trovano un uso che giustifichi il costo degli LLM e lato video si, per alcuni lavori artistici la generazione di immagini è buona ma non giustifica il costo in generale. Si è lanciato commercialmente qualcosa che non va nella società del presente e che tecnicamente non è davvero pronto, se non sulla carta.
dove probabilmente andremo
Per arrivare al futuro abbiamo bisogno di finanziamenti pubblici, compreso il valore di quel che possiamo realizzare per il pubblico, però questi non sono ne devono essere profitto per 4 gatti privati giganti, sono per il cittadino in primis, quel che si crea ha da esser aperto, "public money, public code" e questo a big tech piace poco, anche perché se davvero guardiamo ciò che possiamo fare oggi vien fuori uno scenario simile al futuro immaginato da big tech, ma senza di loro, perché il modello servizio che vogliono risulta insostenibile, mentre il vecchio desktop personale connesso in rete mostra d'esser non solo possibile, ma persino necessario.
corsi e ricorsi della storia
Nel tempo s'è capito, poco alla volta, come tutte le tecnologie spinte per puro business han avuto il loro momento ma poi il declino, quelle "tecniche" se anche non han avuto successo subito sono pian piano riemerse. Esempi moderni le GUI widget based, ovvero il desktop classico con barre, icone ecc sostituite sostanzialmente dalle WebUI, qualcosa di molto simile alle interfacce documentali dell'era pionieristica, giudicate subito troppo costose da vendere, per chi non conoscesse questi termini si pensi a come si usa il desktop oggi rispetto a ieri, oggi come bootloader di un browser, perché tanto il grosso delle attività è web, ieri giocando con mille app ed icone relative sulla scrivania. Icone e menu oggi sostituiti in larga parte da "griglie", concretamente inusate, e ricerca search&narrow, si scrivono pochi caratteri, si batte invio ed ecco quel che si cercava, dalla barra di ricerca e indirizzi combinata di Firefox/Chrome al menu di sistema che sia Gnome Shell, Kde, OSX Finder and co, Windows Start, Android, … L'introduzione di REPL, si pensi ad R o a Jupyter, CLI d'altra natura, 2D volendo distinguerle dal terminale, ovunque un passetto timido alla volta dalla tecnica commerciale alla tecnica "pura". Altro livello, stesso schema, nel boom e poi crollo della virtualizzazione full-stack, sostituita dai container che cominciano a scricchiolare a loro volta sotto il loro stesso peso. La tecnica alla fine prevale. Servono decenni però. L'evoluzione è lenta e non indolore, quel che si ottiene è circa quel che i pionieri immaginavano, ma in forme aliene rispetto all'immagine che si era fatta all'origine.
Ai tecnici fa male dirlo, si soffre a pensare quanto tempo dovrà passare perché l'invenzione, la scoperta diventino realtà, ma c'è poco da fare e si può comunque un po' goderne in proprio. Ai più è comunque di conforto capire che questi cambiamenti non sono rivoluzioni continue e veloci come si può credere sentendo la pubblicità di chi sviluppa in Silicon Valley Mode, se si capisce il meccanismo non si viene travolti né ci son treni da prender al volo o che si posson perder altrimenti. A chi sviluppa genuinamente convinto è di conforto il fatto che ogni cosa alla fine scompare quanto tale ma è parte dell'evoluzione, non è tempo sprecato, se si capisce il gioco e si cerca di non scottarsi le dita. Le idee buone trovano un posto a tavola anche se non facilmente, come o quando si vorrebbe. Oggi la bolla tech è una fase di comprensione che s'è fatto un passo più lungo della gamba e si scivola, domattina non cambierà granché ma pian piano ci si rialza e si prosegue. Capirlo è la mappa temporale per orientarsi. Il più piccolo dettaglio sulla cartina, come il più grande, che son sempre ardui da localizzare.
per chi volesse approfondire val la pena lo storico Fumbling the Future: How Xerox Invented, Then Ignored, the First Personal Computer di Douglas K. Smith.