L’Intelligenza Artificiale (IA) è già una componente fondamentale della nostra quotidianità e viene impiegata da più della metà delle più importanti imprese italiane. Tutti conoscono le auto senza guidatore o gli assistenti vocali come Siri di Apple, Cortana di Microsoft o Alexa di Google, ma gli esempi meno noti sono molteplici.
Questi sistemi avanzati, dotati della capacità di apprendere autonomamente, ci aiutano a scegliere prodotti, film o musica che rispecchiano i nostri gusti, gestiscono le interazioni con i clienti tramite chat, riconoscono volti per autorizzare accessi, organizzano i documenti secondo il loro contenuto, assistono i professionisti sanitari nell’analisi di immagini diagnostiche e nelle diagnosi, e selezionano i curricula più adatti per trovare il candidato perfetto per un lavoro.
L’adozione dell’IA nei processi aziendali ha già dimostrato di apportare benefici significativi, automatizzando compiti ripetitivi e di scarso valore aggiunto precedentemente svolti da persone, minimizzando gli errori e favorendo la creazione di nuovi prodotti e servizi. Questo è solo l’inizio: nei prossimi anni ci aspettiamo una trasformazione ancora più radicale.
Le principali aziende a livello mondiale stanno già esplorando queste nuove frontiere e chi riuscirà per primo a ottenere risultati tangibili godrà di un vantaggio competitivo decisivo.
La genesi dell’Intelligenza Artificiale (IA) si fa risalire al 1943, anno in cui Warren McCulloch e Walter Pitt concepirono una delle prime reti neurali, ossia modelli matematici volti a emulare le funzioni neuronali del cervello umano per affrontare problematiche varie. Tuttavia, è solo a partire dalla fine degli anni ’50 che l’interesse per l’IA si intensifica significativamente. Fu Alan Turing, nel 1950, a suggerire l’idea che i computer potessero emulare il comportamento umano.
John McCarthy, un matematico americano, fu colui che nel 1956 battezzò il campo come “Intelligenza Artificiale” e fu anche pioniere nello sviluppo dei primi linguaggi di programmazione dedicati all’IA, come Lisp (1958) e Prolog (1973), che permisero di elaborare soluzioni generali ai problemi.
L’interesse per l’AI ha vissuto alti e bassi dagli anni ’80, con significativi progressi nei modelli matematici, che diventavano sempre più capaci di replicare funzioni cerebrali come il riconoscimento di pattern. Tuttavia, durante questo periodo vi fu una minore attenzione verso le reti neurali e, più in generale, verso l’hardware.
La situazione cambiò nuovamente negli anni ’90 con l’avvento delle GPU (Graphics Processing Unit), chip di elaborazione grafica notevolmente più veloci delle CPU tradizionali, che trovavano applicazione principalmente nel settore dei videogiochi ma che si rivelarono capaci di accelerare compiti di elaborazione complessi, rinnovando l’interesse verso l’AI.
Possiamo definire l’AI come una disciplina della scienza informatica, incentrata sulla creazione di sistemi hardware e software capaci di emulare funzioni caratteristiche dell’intelligenza umana, operando autonomamente per raggiungere obiettivi specifici e prendere decisioni precedentemente delegate agli umani.
Queste funzionalità umane includono principalmente l’analisi e l’interpretazione del linguaggio naturale (attraverso il Processamento del Linguaggio Naturale o NLP) e delle immagini (mediante il processamento delle immagini), oltre all’apprendimento, al ragionamento, alla pianificazione e all’interazione con esseri umani, altre macchine e l’ambiente circostante.
A differenza dei programmi informatici tradizionali, che si affidano direttamente alla codifica manuale da parte degli sviluppatori, i sistemi di Intelligenza Artificiale utilizzano metodologie di apprendimento automatico. Ciò significa che vengono impostati algoritmi progettati per analizzare vasti insiemi di dati, dai quali il sistema è in grado di sviluppare autonomamente le proprie capacità di comprensione e decisione.
Nell’ambito dei sistemi di Intelligenza Artificiale (AI) prevalenti, si possono riconoscere essenzialmente cinque classi principali:
L’elemento distintivo dell’Intelligenza Artificiale, sia in termini tecnologici che metodologici, risiede nel tipo di approccio o modello di apprendimento utilizzato per rendere l’intelligenza capace di eseguire un’attività o azione specifica. Sono proprio questi schemi di apprendimento a differenziare il Machine Learning dal Deep Learning.
Questi sistemi sono progettati per “addestrare” il software, permettendogli di imparare a svolgere compiti o attività in maniera indipendente attraverso la correzione degli errori. Prendiamo, ad esempio, un braccio robotico dotato di intelligenza artificiale: è capace di assemblare un componente anche se questo non si trova nella posizione prevista. Ciò avviene perché, invece di affidarsi solo alle coordinate prestabilite, l’algoritmo attiva un sistema di riconoscimento visivo che cerca il componente in tutta l’area raggiungibile dal braccio.
Nel caso in cui vi sia una ripetizione dell’errore, sia da parte della macchina che dell’operatore che fornisce i pezzi, il robot apprende la nuova posizione come quella corretta e si dirige direttamente lì per trovare il pezzo. Il Machine Learning, in questo contesto, sta avanzando verso una direzione di ricerca che privilegia l’uso di reti neurali strutturate in livelli di profondità variabili, un approccio noto come Deep Learning.
Questi modelli di apprendimento, emersi nel 2012, si ispirano alla struttura e al meccanismo di funzionamento del cervello umano, tentando di replicare il processo cognitivo umano. In questo ambito, il semplice modello matematico non è sufficiente: il Deep Learning richiede l’implementazione di reti neurali artificiali specializzate (note come reti neurali profonde) e un’intensa capacità di calcolo, necessaria per gestire i diversi livelli di elaborazione e analisi simili a quelli delle connessioni neurali nel cervello.
Anche se può apparire come una tecnologia appartenente al futuro, in realtà questi sistemi sono già ampiamente utilizzati oggi per l’identificazione di schemi, il riconoscimento vocale e di immagini, così come nelle applicazioni di elaborazione del linguaggio naturale (NLP).
L’Intelligenza Artificiale, sebbene le sue origini risalgano agli anni ’50, ha visto una vera e propria esplosione di applicazioni pratiche solo di recente, grazie agli avanzamenti significativi nella capacità di elaborazione, nella disponibilità di grandi quantità di dati e nelle tecniche avanzate per analizzarli al fine di affrontare questioni complesse.
Oggi, le tecnologie fondamentali dell’IA sono consolidate e rese accessibili a un pubblico più ampio attraverso API e servizi basati sul cloud a prezzi competitivi. Ciononostante, è necessaria una pianificazione accurata per integrare l’AI nei processi aziendali esistenti.
Mentre fino a un decennio fa, le principali difficoltà nell’adozione dell’AI da parte delle aziende erano legate alla mancanza di strumenti adeguati o a capacità di analisi insufficienti, attualmente la sfida è soprattutto di natura culturale e legata alla necessità di competenze specializzate. Gli esperti indicano che oggi, il 70% dello sforzo in un progetto di AI è dedicato alla ristrutturazione dei processi, mentre solo il 20% riguarda lo sviluppo degli algoritmi e un ulteriore 10% è attribuito agli aspetti tecnologici.
I settori che stanno guidando l’adozione dell’AI includono il settore bancario, finanziario e assicurativo, l’automotive, l’energia, la logistica e le telecomunicazioni.
In Italia, il valore del mercato AI nel 2023 ha toccato i 760 milioni di euro, segnando una crescita del 52% rispetto all’anno precedente, un incremento significativo dal +32% del 2022, secondo l’Osservatorio Artificial Intelligence del Politecnico di Milano. Il 61% delle grandi aziende italiane ha iniziato a esplorare l’AI, almeno in fase di test.
La maggior parte degli investimenti si concentra su analisi e interpretazione di testi e agenti conversazionali mentre i progetti su AI generativa rappresentano solo il 5% del totale, nonostante l’interesse elevato.
Circa due terzi delle organizzazioni hanno adottato l’AI generativa, con il 17% che ha iniziato i test. Tuttavia, questa tecnologia non sembra facilitare la riduzione del divario nell’adozione dell’AI tra le organizzazioni, con il 77% delle aziende meno avanzate che non riesce a sfruttarne appieno le potenzialità.
Tra le PMI, l’adozione dell’AI è notevolmente inferiore, con solo il 18% che ha intrapreso almeno un progetto AI, in aumento dal 15% del 2022. Giovanni Miragliotta, Direttore dell’Osservatorio Artificial Intelligence, sottolinea che, nonostante la crescente consapevolezza e interesse verso l’AI in Italia, è fondamentale considerare le sfide demografiche.
Con un previsto deficit di 5,6 milioni di lavoratori entro il 2033 a causa dell’invecchiamento della popolazione, l’automazione di 3,8 milioni di posti di lavoro potrebbe essere cruciale per affrontare questo deficit. Tuttavia, per assicurare che la società benefici pienamente dell’AI, sarà essenziale concentrarsi sulle esigenze dei lavoratori, sulla formazione e su una distribuzione equa dei vantaggi.
P. Iva 01412811000 C.F.05550520588
Capitale soc. € 52.000 i.v. – R.E.A. n. 496554
Via Vincenzo Lamaro, 51 – Roma
Tel. 06.7265221
Gestioni e Management S.r.l
Ente di formazione accreditato per la formazione superiore e continua e l’orientamento con dd n. G16020 del 23/12/2019.
Ente accreditato per i servizi per il lavoro con dd n. G11169 del 21/09/2015
© Copyright GEMA Srl