Consideriamo per un secondo il percorso fatto dall'AI negli ultimi 50 anni, perché ci aiuta a capire l’AI di oggi e cosa sta succedendo negli ultimi 5.
Il machine learning veniva inizialmente usato per riconoscere pattern nei dati, schemi ricorrenti a noi noti ma difficili da spiegare in linguaggio macchina, come il riconoscimento facciale, o nel caso della guida autonoma il riconoscimento di cartelli, o la presenza di pedoni o altri veicoli per strada.
Nel tempo poi le macchine hanno imparato anche a trovare schemi a noi sconosciuti ma di enorme valore, come comportamenti anomali sulle app bancarie che identificano probabili truffe.
Poi abbiamo cercato di prevedere come dei pattern si sarebbero evoluti nel tempo con maggiore precisione, ideale ad esempio per prevedere lo stock o l'abbandono di un utente e agire di conseguenza in modo migliore.
O ancora per scoprire dai dati dei sensori quando è il momento ideale per fare manutenzione di un impianto: né troppo presto né troppo tardi, riducendo sia i costi che gli incidenti.
Una volta compreso come alcuni fattori avrebbero influenzato il futuro, abbiamo cercato dei modi per influenzarlo, ottimizzando quindi questi pattern verso le nostre KPI.
Dopo aver imparato le correlazioni tra questi dati, l'AI ci mostrava che "se fai x, y e z potrai aspettarti una riduzione al minimo del churn" o dei costi di magazzino o del tempo di consegna. You name it.
Siamo poi arrivati all'AI generativa, che genera nuovi dati rispettando i pattern dei dati con cui è stata addestrata. Avendo visto milioni di volti ad esempio, può generare immagini di persone che non esistono, ma estremamente fotorealistiche e convincenti.
Quale di queste persone è reale? Spoiler: nessuna
Allo stesso modo avendo letto tutto internet, ha imparato a generare testo in modo convincente e realistico.
La generazione di testo è stata da sempre un problema estremamente complesso da risolvere, per questo ha richiesto delle reti neurali artificiali di enormi dimensioni rispetto al passato, chiamate Large Language Model o LLM.
Questi hanno imparato a scrivere in molteplici lingue, incluse quelle di programmazione, hanno imparato come compilare API per comunicare con gli strumenti e ad eseguire istruzioni testuali, rendendoli estremamente versatili e generali - seppur imperfetti.
Per come sono fatti, gli LLM rispondono di istinto, come quando dopo aver letto un libro ti viene fatta una domanda a cui sai come rispondere: sarai approssimativo, ma convinto. Non ricorderai parola per parola, ma sai di cosa stai parlando.
Se invece ti viene chiesto di riflettere sulla correlazione tra quel libro e altri tre, spiegando in rima quale hai preferito, ti servirà carta e penna e un po' di tempo per fare dei tentativi.
Questa è esattamente l'abilità che abbiamo insegnato ai Large Reasoning Models o LRM, dei LLM che hanno imparato a pianificare, scrivere e valutare più volte le loro risposte in background prima di condividerci quella finale.
Questo è quello che viene definito comportamento agentico, perché ha la capacità di comportarsi come una vera e propria entità digitale nel suo ambiente.
In più gli abbiamo dato accesso a strumenti per renderli capaci non solo di rispondere via chat ma di eseguire dei compiti. In questo modo possono cercare informazioni online, eseguire del codice o creare fogli di calcolo, mandare mail e gestire un calendario, programmare post o compilare un CRM. Tutto tramite le API a cui vengono collegati.
Chiariamoci: sono tutti sottoinsiemi l'uno dell'altro. Il più evoluto del mondo oggi è un modello di machine learning, di tipo deep learning generativo, specializzato nel linguaggio e ulteriormente specializzato nel ragionamento.
Infatti tutte le applicazioni precedenti sono ancora estremamente valide e attuali, ma restano piuttosto complesse da implementare e richiedono un approccio fortemente data driven.
I LLM e seguenti hanno invece una incredibile capacità di comprensione del testo che fino a poco tempo fa era pura fantascienza, e sono molto più semplici da implementare, seppur non facili.
Gli diamo un input abbastanza versatile, delle istruzioni su come elaborarlo come le daremmo ad un junior appena assunto, e li inseriamo in un workflow, ad esempio per compilare un report di sostenibilità seguendo delle specifiche, sulla base delle informazioni ricevute.
Agli agenti possiamo dare addirittura degli obiettivi più ad ampio spettro e una selezione di strumenti a loro disposizione con cui eseguire compiti più variegati con maggiore autonomia, come trovare gli stakeholder a cui mandare questionari personalizzati per poi compilare un report di sostenibilità che soddisfi i maggiori standard pubblicati dalle autorità.
Questi agenti ad oggi non sono ancora sufficientemente affidabili da essere messi in produzione, ma la scommessa è che lo diventeranno tanto da essere inseriti sempre più in profondità nelle aziende, dandogli accesso a più informazioni e strumenti per orchestrare attività sempre più varie.
In tutto ciò gli esseri umani perderanno il lavoro?
Ad oggi la risposta è un secco no.
L'AI sta sicuramente sostituendo alcuni mestieri, ma questo è sempre successo con la tecnologia, dalle centraliniste agli accenditori di lampioni, dai caselli automatici ai proiezionisti del cinema.
Fonte: Randstad
Ma nell'insieme, per la stragrande maggioranza delle professioni, sta solo alzando l'asticella come la tecnologia ha sempre fatto, motivo per cui è importante usarla per imparare e crescere, non solo per delegare e velocizzare.
Detto ciò non possiamo sottovalutare l'impatto di questa tecnologia, che sta arrivando velocemente e con crescenti conseguenze sul modo che hanno le persone e le aziende di lavorare e creare valore.
L'unica cosa che possiamo fare per usare questo cambiamento a nostro vantaggio è conoscerlo, adattarci e per quanto possibile anticiparlo.
La vostra azienda vi sta aiutando in questo processo?