Free Porn
24 C
New York
Monday, July 22, 2024

Intelligenza artificiale e gen AI: i quattro elementi per passare al “subsequent stage”



Intelligenza artificiale in azienda: il primo punto è il belief

Diversi CIO sottolineano, infatti, che l’IA fornisce un suggerimento finale come esito di un “ragionamento” della rete neurale e, per il supervisore umano, non è sempre facile capire perché sia stato dato più peso a un fattore o a un altro. Ed è anche per questo che le aziende, anche grandi, spesso restano nella fase sperimentazione e prevedono l’affiancamento dell’essere umano al software program.

“Mentre nella enterprise intelligence la persona determine prima quale sarà la relazione causa-effetto tra i dati e la decisione finale, quindi, la si può considerare al cento per cento spiegabile, nell’IA la decisione è solo parzialmente informata, perché non si riesce a controllare del tutto la relazione causa-effetto. Di fatto si perde un po’ il controllo”, osserva Alessandro Di Maio, CIO di Farvima Medicinali, GDO del settore farmaceutico. “Per questo noi procediamo per gradi, con piccole implementazioni in cui verifichiamo l’affidabilità del sistema. Tuttavia, in generale, se l’IA ha lavorato sui massive information è difficile che il risultato non sia affidabile”.

Il nodo è nella grande quantità di dati costantemente aggiornati, perché così il sistema si auto-alimenta, si corregge e si consolida.

Che cosa posso fare con l’IA? Molto più che analytics e enterprise intelligence

Istat rileva che gli ambiti aziendali in cui vengono più spesso adottati sistemi di intelligenza artificiale sono relativi a processi di produzione, per esempio nel caso della manutenzione predittiva o del controllo qualità nella produzione (39,0%, fino al 52,5% nel settore manifatturiero), alla funzione di advertising and marketing o vendite, per esempio nelle funzioni di assistenza ai clienti o campagne promozionali personalizzate (33,1%, al 41,3% nel settore dei servizi), alla sicurezza informatica (23,7%, al 50,6% nel settore dell’energia) e alle attività di ricerca e sviluppo o innovazione per analizzare dati, sviluppare un prodotto o un servizio nuovo o significativamente migliorato (21,1%).

Molte imprese stanno sperimentando in questa direzione, riferisce Girardi. “L’IA si può usare nel sistema di controllo dei costi per l’acquisto delle materie prime, oppure per ottimizzare domanda e acquisti migliorando la gestione finanziaria e la cassa o, ancora, per la manutenzione predittiva degli impianti per evitare guasti e fermi, e per il controllo di qualità con la laptop imaginative and prescient. Molte imprese la stanno applicando al servizio clienti con i chatbot o con la GenAI per il advertising and marketing”, evidenzia l’esperta. 

Passare dalle sperimentazioni ai progetti concreti con l’IA implica, però, il fatto di avere “enormi competenze, non solo informatiche ma anche matematico-statistiche, e crew dedicati”, secondo il CIO Di Maio.

Infatti, Farvima Medicinali già dall’anno scorso ha iniziato a lavorare su soluzioni di intelligenza artificiale insieme a un accomplice, un gruppo che ha, tra le sue affiliate, una società con competenze IT e IA.

Un primo sistema basato sull’IA sviluppato da Farvima (attualmente in fase di sperimentazione) suggerisce il pricing corretto per raggiungere l’obiettivo di margine sulle vendite sia in assoluto che in percentuale, complessivamente o per singola linea di prodotto. Questo sistema mette insieme e valuta i dati storici dell’andamento dei prodotti sul mercato e delle variazioni di prezzo e come risultato fornisce, per ogni articolo, un suggerimento di prezzo per la messa in vendita in un dato momento, in modo che il totale delle vendite permetta di raggiungere il margine indicato nell’obiettivo. 

“Prima avevamo un sistema che usava tecniche di analytics, ma il sistema IA è molto più evoluto, perché si basa su molti più dati ottenuti con l’analisi”, evidenzia Di Maio. “Ogni dato va gestito con funzioni matematiche various e le variabili thoughtful sono più numerose, anche perché ogni articolo ha una gestione complessiva che costa e non dipende solo dai volumi”.

Come cambiano i chatbot

Un secondo prodotto IA di Farvima sviluppato col accomplice viene applicatoall’ottimizzazione del magazzino per evitare la rottura di inventory. “L’ottimizzazione di un processo è una tipica space che trae vantaggio dall’intelligenza artificiale”, evidenzia Di Maio. “Il nostroobiettivo è provare a prevedere quanto venderemo usando un set di dati sia storici sia di contesto. Per esempio, date le condizioni meteo e la diffusione di una certa patologia in una precisa regione, l’IA ci aiuta a prevedere che tra un certo numero di giorni dovremo distribuire un certo numero di un preciso medicinale e ci indica quando e dove fare distribuzione. Oppure, ci evita di saturare il mercato nel momento in cui non è prevista una forte domanda”.

L’space della buyer expertise è un’altra applicazione naturale dell’intelligenza artificiale. Qui Farvima – sempre con un accomplice – sta integrando un chatbot rivolto al suo utente finale (il farmacista o il medico) per guidarlo in modo automatizzato verso operazioni quali il recupero di una fattura o di un foglietto illustrativo. Il chatbot capisce che l’utente ha chiesto un documento, lo cerca, lo collega al suo profilo e glielo manda through e mail o con messaggio sul dispositivo cell. La prossima evoluzione sarà il riconoscimento vocale: l’utente chiamerà un numero al quale risponderà un bot in grado di capire ed evadere la richiesta.

“Il riconoscimento vocale di per sé è una tecnologia consolidata, ma qui occorre un passo in avanti: l’IA deve collegare la conversazione col cliente advert un’azione e il compito è tecnicamente diverso dal programmare l’intelligenza artificiale a compiere un’azione (come il obtain e l’invio di un documento)”, spiega Di Maio.

La base imprescindibile restano i massive information, perché il machine studying ha bisogno di dataset molto estesi. Di Maio di Farvima procede svolgendo internamente le operazioni di information mining e normalizzazione dei flussi – ovvero, l’attività ETL (Extract-Remodel-Load) – dal proprio database, mentre la parte vera e propria di IA, che usa il machine studying, il deep studying e le reti neurali per arrivare dai dati alla risposta, viene affidata al fornitore esterno.

Questa modalità che fa leva sulle partnership sta diventando comune nelle imprese italiane.

Le partnership e l’open innovation

Nel settore finanziario e assicurativo, per esempio, i modelli di ML, addestrati sui dati interni (e, spesso, anche su dataset forniti dai accomplice tecnologici), generano suggerimenti per le attività di vendita e consulenza tramite la product suggestion. Change Capital, che è un aggregatore digitale di soluzioni finanziarie per le Pmi, ha implementato un modello di apprendimento automatico per migliorare, in particolare, la gestione di due aree del suo enterprise: la selezione dei prodotti e l’identificazione dei clienti. Il modello ML è stato creato dal suo accomplice tecnologico MetriksAI sui dati delle pratiche storiche di Change Capital e ha permesso un incremento del 27% del conversion price sulle pratiche lavorate dagli account supervisor della fintech grazie alle raccomandazioni automatizzate sulle subsequent greatest motion, come spiega il CTO di Change Capital, Alessio Donati. A loro volta, questi prodotti per i suggerimenti alle attività di cross-selling e up-selling degli advisor hanno attratto l’interesse di istituti bancari tradizionali, come Banca Popolare di Cortona e Banca Valsabbina, che hanno delle partnership industriali con Change Capital, ne possiedono, rispettivamente, il 9,9% e il 9%, e ne implementano i prodotti tecnologici.

“I sistemi di raccomandazione, che automatizzano processi in molti casi ancora svolti manualmente, non rappresentano un semplice pattern, bensì un cambio strategico nell’interazione con i clienti”, dichiara Donati. “Il ML ci ha portato risultati significativi in termini di enterprise, perché gli algoritmi suggeriscono ai nostri advisor i prodotti da vendere alle aziende in base all’analisi dei dati. Un altro campo di applicazione, ovviamente, è quello della gestione del credit score threat, sempre basato sull’analisi di dati storici”.  

Perché l’IA Generativa è così “importante”?

I prodotti di GenAI rappresentano un ulteriore cambiamento nel panorama dell’intelligenza artificiale, sia dal punto di vista tecnologico che della cultura aziendale e della formazione professionale. Non dimentichiamo quel dato riportato all’inizio: ChatGPT ha conquistato 100 milioni di utenti in due mesi dal lancio e ciò è stato possibile grazie all’entusiasmo dell’adozione client, proprio come ha fatto il telefono cellulare, ma impiegandoci 16 anni (il telefono fisso 75 anni). Si tratta di un fenomeno spesso definito come democratizzazione dell’IT, per cui una tecnologia diventa strumento comune non solo sul lavoro, ma nella vita personale. Lo stesso telefono cellulare è stato, anni fa, protagonista di un pattern simile ribattezzato Byod (Deliver-your-own-device): le persone usavano il dispositivo personale (smartphone, pill o laptop computer) pure in ufficio, con grande produttività e flessibilità, ma anche diversi grattacapi per l’IT (di sicurezza dei dati e gestione degli accessi).

Da questo punto di vista, la GenAI ha enormi potenzialità, evidenzia Girardi: le persone la usano già a livello client e molti progetti “sono facilmente integrabili in azienda e hanno un ritorno importante”. 

Secondo Girardi, nell’intelligenza artificiale generativa un buon modo di procedere per i CIO è partire con un piccolo progetto (per esempio, come assistente nella scrittura dei contratti,nei messaggi dimarketing personalizzati, nel customer support o nella generazione di nuove idee di prodotto e design), dimostrare i benefici concreti che si ottengono e poi, eventualmente, estendere la sperimentazione. 

“L’IA generativa è importante perché permette di sviluppare piccoli progetti con impatto in una/due funzioni e, da lì, crescere, diffondendo intanto la cultura dell’IA, mostrandone i rischi e i benefici”, sottolinea l’esperta. 

Secondo Laveglia, “Quello che può accadere con la democratizzazione dell’IT è che, con i prodotti basati sui Giant Language Mannequin (LLM) scaricabili da Web, questi modelli saranno usati facilmente dalle persone in azienda anche per singoli compiti del loro lavoro”.

Si tratta di job – come la generazione di testi e immagini – piccoli e insignificanti, se rapportati alle enormi capacità di questi modelli, ma che danno un significativo supporto al lavoro quotidiano, in modo accessibile e veloce anche se, non privo di rischi e costi.

L’explainability e gli altri rischi

Nella GenAI il rischio è noto a tutti: le hallucination, allucinazioni. I risultati completamente sbagliati sono possibili anche quando per l’addestramento si usano i dati interni.Al momento, il margine di inaffidabilità va dal 3% all’8% a seconda dei modelli utilizzati (ma dipende da chi effettua i check: alcune imprese riferiscono un vary dal 5% al 27%). Per questo va usata in un dominio in cui la persona è competente: occorre sempre la verifica umana dell’output.

“L’IA non è una tecnologia completamente matura. Ci sono aspetti non ancora risolti e che, probabilmente, resterà difficile risolvere. Tra questi, il maggiore è l’explainability”, evidenzia Laveglia. “Per questo oggi è necessario porre dei vincoli agli impieghi di questi sistemi”. 

“Gli elementi oscuri ci sono”, anche per Girardi, “e, infatti, l’AI Act europeo prevede, per i sistemi advert alto rischio, una certificazione basata su commonplace che l’Ue sta mettendo a punto e che definiranno la reliable AI (l’affidabilità dell’IA). Questi controlli aiuteranno a ridurre i rischi. Intanto la ricerca continua a investire per risolvere il nodo della spiegabilità e various startup stanno sviluppando dei framework per l’explainable AI”.

Anche le questioni di privateness e sicurezza sono aspetti che i CIO dovranno valutare per gli impatti sulla compliance e le attività di threat administration. Come ogni tecnologia, anche i sistemi IA hanno delle falle e, teoricamente (ma non impossibile), un hacker potrebbe manomettere il modello e mandare in tilt la rete neurale, che a quel punto darebbe dei risultati incoerenti, se non tossici.

Tuttavia, non è qui che il CIO deve fissare lo sguardo. “Trattandosi di strumenti molto complessi occorre una coverage per gestirli. Ma l’attenzione tende a rivolgersi più verso i timori che in direzione delle grandi applicazioni industriali”, osserva Girardi. Invece, prosegue l’esperta, “La paura non è giustificata: l’IA è un insieme di strumenti sviluppati dall’essere umano e tali restano. Sì, prendono le decisioni in modo autonomo, ma è l’essere umano advert addestrare i modelli e a decidere le finalità. I rischi sono nella catena del valore: se l’addestramento dell’intelligenza artificiale usa dati non corretti o discriminatori, se i check sono condotti in modo inadeguato o se gli utilizzi delle persone hanno finalità malevole, allora l’IA è nociva. Ma lo è per responsabilità dell’uomo”.

Come procedere? I quattro passi fondamentali

In un progetto di intelligenza artificiale ci sono vari elementi coinvolti: per questo le imprese sono caute e prevedono tanti check di validazione. Il primissimo punto di partenza, però, secondo Laveglia, è “ontologico”: capire il problema e se è risolvibile.

“Se non può risolverlo l’essere umano, difficilmente potrà risolverlo la macchina: il modello non fa magie, ma automatizza dei compiti”, afferma il ricercatore.

Poi ci vogliono i dati rilevanti per l’attività che si intende svolgere, e ciò si ottiene con il characteristic engineering, o estrazione del contenuto informativo dai dati grezzi per supportare l’addestramento. Dai dati dipende l’addestramento che possiamo fare e il modello che useremo. Ovviamente, più il problema è complesso più servono dati.

Infine, va sviluppata l’architettura di ML, per esempio il tipo di rete (o reti) neurale e quindi definirne la struttura (numero di strati, funzioni di attivazione eccetera).

Non c’è una system uguale per tutti, ma, in linea generale, Laveglia suggerisce quattro passi fondamentali: analizzare il problema, raccogliere i dati, sviluppare il Proof of Idea (PoC) e, se questo è valido, procedere con la messa in opera, ovvero estendere il dataset, creare il modello più grande e perfezionarlo.

E ora la grande domanda: quanto mi costa l’IA? 

Ed eccoci ora alla domanda che il finance e l’AD chiederanno sempre al CIO: mitigati i rischi e individuate le aree di applicazione più vantaggiose, quanto costa addestrare e implementare i modelli IA? Ci sono i costi dell’energia, ma c’è un altro costo che spesso viene dimenticato: i dati.

“Non è la tecnologia di per sé a costare”, evidenzia Laveglia. “I modelli più piccoli sono accessibili anche alle piccole imprese, mentre quelli molto grandi, ovviamente, richiedono investimenti importanti. Ma non è il lavoro ingegneristico di sviluppo del modello a pesare sulle finanze, bensì l’attività di raccolta, preparazione ed etichettatura dei dati. La fase di addestramento del modello è onerosa e questo aspetto non va sottovalutato, anche se, per abbattere i costi, si può fare il coaching con un accomplice e sul cloud; poi, una volta addestrato il modello, questo si può anche spostare su un server proprietario”. 

Ma, anche qui ci sono delle distinzioni da fare: i prodotti off-the-shelf e as-a-service rendono le innovazioni più accessibili, ma a scapito delle personalizzazioni. Se un’azienda ha bisogno di portare l’IA su compiti specifici, occorrerà o lo sviluppo interno del modello o un’attività di fine-tuning su un modello di mercato.

“Anche sulla preparazione dei dati si può usare qualche scorciatoia, per esempio accedendo ai dataset on-line che, per tanti compiti, rappresentano un buon punto di partenza”, continua Laveglia. “Ma, se l’impresa ha delle necessità specifiche, occorre un dataset proprietario unito al fine-tuning su modelli grandi, con tanti Giga di Ram e schede grafiche. E questo significa che le necessità computazionali saranno molto maggiori”.

Insomma, si usa tantissima energia elettrica, anche con i modelli pre-addestrati e i LLM scaricati da Web.

Il subsequent stage della competitività è nei dati e nelle persone

In definitiva, se un’azienda vuole essere davvero competitiva, non può trarre vantaggio dai dataset che si trovano sul mercato: “la differenza è nel dataset supervisionato, in-house, ovvero con dati privati e non aperti a tutti”, cube Laveglia.

“La base dei sistemi ML sono i massive information e i information lake”, evidenzia anche Donati di Change Capital: “la capacità di apprendimento automatico si nutre di volumi molto grandi di dati non strutturati e di natura disparata da cui l’algoritmo ricava analisi e raccomandazioni”.

Lo stesso discorso vale per le competenze: se si usano modelli pre-addestrati e as-a-service non è necessario possedere determine specialistiche. Ma, per un’azienda che si basa sull’IT per generare valore, le competenze interne sull’IA sono un should.

Per questo è importante anche far passare un chiaro messaggio in azienda: l’intelligenza artificiale non sostituisce le persone e il loro lavoro, ma ne aumenta le capacità e le possibilità.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles