• Abbonati
Informazione Pubblicitaria

Tecnologie empatiche

Intelligenza artificiale

L’impatto sociale dei Large Language Model

Un Large Language Model (o LLM, “modello linguistico di grandi dimensioni") è un algoritmo di Deep Learning avanzato, capace di riconoscere contenuti in diversi formati, generarli, riassumerli, tradurli e persino prevederli. Per farlo ha bisogno di Big Data, ossia di enormi set di dati. 

Le grandi innovazioni tecnologiche si diffondono nella società grazie alla loro utilità. Tuttavia, a braccetto con i vantaggi che ci offrono, arrivano anche i problemi e i rischi. 

Questa dinamica si ripropone anche oggi, dove stiamo assistendo allo sviluppo dell’Intelligenza Artificiale e delle sue applicazioni: si tratta una tecnologia tanto miracolosa, quanto potenzialmente pericolosa per gli equilibri della nostra società – o quantomeno dello status quo. 

La definizione di “Intelligenza Artificiale” è molto ampia: se per esempio i sistemi esperti sono una delle branche più longeve di AI, le novità al giorno d’oggi si concentrano sui Large Language Models come GPT-4, il modello alla base della versione più avanzata dell’ormai celebre ChatGPT. 

Ma cosa sono i Large Language Models? Per fornire una definizione chiara, un Large Language Model (o LLM, “modello linguistico di grandi dimensioni”) è un algoritmo di Deep Learning avanzato, capace di riconoscere contenuti in diversi formati, generarli, riassumerli, tradurli e persino prevederli. Per farlo ha bisogno di Big Data, ossia di enormi set di dati. 

Qualcuno parla dei LLM in termini “demoniaci”, evidenziandone solo i potenziali rischi, spinto dall’ignoranza dei meccanismi alla base di questa straordinaria tecnologia. Noi di Neosperience, che basiamo sull’Intelligenza Artificiale gran parte dei nostri prodotti e processi, ovviamente non siamo di quest’idea.

Questo non toglie che comunque, con sguardo critico, siamo in grado di riconoscerne i pericoli. Pericoli che nascono quando l’Intelligenza Artificiale finisce in mano a persone senza scrupoli o semplicemente inesperte: è infatti quest’ultimo il caso che nasconde i maggiori rischi. 

Partiamo però dai vantaggi dell’Intelligenza Artificiale, e in particolare dei Large Language Models, con una panoramica breve ed esemplificativa, ma che dà un’idea dei diversi campi applicativi a cui è possibile dedicare questi potenti modelli.

Tramite la traduzione automatica ed estremamente precisa che offre, l’Intelligenza Artificiale applicata ai Large Language Models può promuovere la comprensione e la collaborazione a livello globale.

Quando viene applicata a lavori ripetitivi, come la scrittura di testi tecnici, la traduzione, la creazione di contenuti e la risposta alle domande più comuni dei clienti, può migliorare l’efficienza e la produttività in molte industrie, rivoluzionando la customer experience.

Anche in ambito sanitario l’Intelligenza Artificiale può fare la differenza. Può infatti essere utilizzata per migliorare la diagnosi e il trattamento di malattie, analizzando grandi quantità di dati medici e fornendo raccomandazioni personalizzate ai medici e ai pazienti.

Stesso discorso vale per la ricerca scientifica in generale: l’AI è in grado di analizzare grandi quantità di dati scientifici e fornire uno sguardo d’insieme, aiutando i ricercatori a identificare nuove scoperte e migliorare la comprensione di fenomeni complessi.

Allo stesso tempo però i rischi che l’Intelligenza Artificiale e i Large Language Models portano con sé sono di notevole portata: eccone una lista parziale.

  • L’Intelligenza Artificiale, in mano a malintenzionati, può originare contenuti falsi e ingannevoli, in grado di manipolare e condizionare l’opinione pubblica su temi politici e sociali delicati;
  • Le truffe e gli attacchi hacker sono in crescita da anni proprio grazie alla diffusione e al potenziamento dell’Intelligenza Artificiale, soprattutto nell’applicazione dei Large Language Models;
  • Molte persone rischiano di perdere i propri posti di lavoro, sostituite nei loro compiti più ripetitivi da macchine che non hanno bisogno di prendersi pause;
  • Un’Intelligenza Artificiale male addestrata, che conserva all’interno dei propri database dati incompleti, non rappresentativi o sviati da pregiudizi (bias), può fare danni sul lungo periodo, senza che nessuno se ne accorga, limitando la libertà e l’accesso alle pari opportunità a interi gruppi sociali.

La società è fatta per cambiare, questo è certo. Se i positivisti, ormai due secoli fa, pensavano che le cose sarebbero andate sempre verso il meglio, oggi le opinioni vanno decisamente nel verso opposto, almeno nell’opinione pubblica. 

Se è possibile mettere a confronto i Large Language Models con un’invenzione del passato, quella dell’automobile è esemplificativa. All’inizio le persone erano spaventate dalle auto, le temevano: poi hanno imparato a guidarle, ne hanno riconosciuto i vantaggi e oggi queste vetture sono pressoché indispensabili. 

Con l’Intelligenza Artificiale e le sue applicazioni succederà qualcosa di simile: impareremo a conoscerla, a riconoscere quando qualcuno la utilizza male, proprio come oggi malediciamo chi ci sorpassa da destra, e inizieremo ad apprezzarne i vantaggi inestimabili che offre per le nostre vite. 

Importante è non abbassare la guardia. Essenziale, in primis, è continuare sulla strada della regolamentazione dell’Intelligenza Artificiale, consentendo a enti regolatori di intervenire fornendo una “patente” alle aziende e ai professionisti che sono realmente in grado di “guidare” l’IA. 

Allo stesso tempo, altrettanto importante è democratizzare il più possibile la tecnologia stessa, per permettere che si sviluppi l’eterogeneità che dà valore aggiunto ad ogni innovazione. 

Iscriviti al nostro canale Whatsapp e rimani aggiornato.
Vuoi leggere BergamoNews senza pubblicità?   Abbonati!
commenta

NEWSLETTER

Notizie e approfondimenti quotidiani sulla tua città.

ISCRIVITI