4 rischi da considerare quando si usa l’intelligenza artificiale in azienda

10 min di lettura
Federica Cavalli
05 Febbraio 2024
Ultimo aggiornamento: 06 Febbraio 2024
4 rischi da considerare quando si usa l’intelligenza artificiale in azienda

L'intelligenza artificiale è sempre più usata nelle aziende e ormai per molte è parte integrante del lavoro quotidiano. Si tratta sicuramente in un indubbio vantaggio che tuttavia può condurre a un atteggiamento di "overconfidence". Del resto, quasi tutte le innovazioni introdotte nella storia dell'umanità hanno dimostrato di poter portare con sé dei rischi, oltre ai benefici. L'importante è conoscerli per minimizzare l'impatto.

Quali sono i rischi e i vantaggi dell’intelligenza artificiale in generale?

L'intelligenza artificiale sta sicuramente apportando vantaggi in molti campi e in futuro questo trend non potrà che estendersi a tutti i lati della vita quotidiana. Questa tecnologia può essere usata per migliorare la medicina con effetti positivi sulla salute degli esseri umani, l'istruzione, la sicurezza e anche i processi aziendali, aumentando la produttività. Tuttavia, proprio perché l'intelligenza artificiale sta diventando una tecnologia sempre più sviluppata e potente, sia i privati che i governi si interrogano sui rischi che presenta.

La possibilità che possa portare a una perdita generalizzata di posti di lavoro è sicuramente una delle preoccupazioni più pressanti, anche se alcuni analisti sostengono che il saldo tra mansioni sostituite dall'IA e posti che farà guadagnare non sarà negativo. Certamente è lecito attendersi un periodo di transizione in cui un ulteriore progresso dell'intelligenza artificiale possa creare una flessione occupazionale in alcune categorie.

Alcuni scenari più pessimisti contemplano la possibilità di un utilizzo dannoso dell'intelligenza artificiale dal punto di vista dello sviluppo di armi per guerre più distruttive, la discriminazione o l'incitamento alla violenza. In ogni caso, è necessario che gli Stati pongano in essere sforzi per un'efficace regolamentazione dell'intelligenza artificiale, come sta già facendo l'Unione Europea.

L'intelligenza artificiale è più intelligente di noi?

La risposta a questo quesito, a oggi, è sicuramente no. La IA non è ancora in grado di competere con l'essere umano e pur avendo fatto enormi passi avanti negli ultimi anni, nessun sistema di intelligenza artificiale ha ancora superato il test di Turing, elaborato negli anni '50 per stabilire se una macchina fosse in grado di pensare come l'uomo.

Il test, inventato da Alan Turing nel 1950 nel suo articolo "Computing Machinery and Intelligence", prevede un dialogo tra un essere umano e altri due soggetti, uno dei quali è una macchina. L'essere umano deve cercare di comprendere quale dei due soggetti sia una macchina. Se riesce nel tentativo, la macchina non ha superato il test.

Tuttavia, molti ricercatori e analisti sostengono che l'intelligenza artificiale possa raggiungere o almeno superare quella umana almeno in alcuni settori. C'è chi parla di tempi inferiori al decennio e chi prevede invece tempi più lunghi. Naturalmente, questa prospettiva deve a maggior ragione far individuare soluzioni per un utilizzo etico dell'intelligenza artificiale.

Scopri come utilizzare l'IA a tuo vantaggio

Registrati su Bitrix24

PROVALO GRATIS

L'intelligenza artificiale può indurre alla disinformazione?

Oggi l'intelligenza artificiale viene già utilizzata per diffondere disinformazione e il problema potrebbe aggravarsi in futuro. La generazione di contenuti falsi e la manipolazione di quelli reali sono sicuramente i due campi in cui viene più frequentemente utilizzata con finalità di disinformazione.

Piuttosto noto e oggetto di attenzione anche da parte del Parlamento europeo è il fenomeno dei cosiddetti "deep fake", contenuti che vengono creati a partire da immagini o video di una persona realmente esistente, facendogli compiere atti mai avvenuti o inserendola in contesti in cui non è mai stata.

Senza dubbio è da considerare la possibilità che questa applicazione dell'intelligenza artificiale venga utilizzata anche in ambito aziendale, ad esempio per veicolare false informazioni su un concorrente o per pratiche commerciali scorrette nei confronti dei consumatori. Anche rispetto a questa materia, probabilmente le normative attuali sulla concorrenza non sono del tutto adeguate e sarà necessario in futuro rivederle, perché possano essere più efficaci in caso di problematiche come quelle citate.

Rischi dell'intelligenza artificiale, quali sono quelli che si corrono in azienda?

Come si è detto, gli indubbi vantaggi dei sistemi di intelligenza artificiale per un'azienda non devono far trascurare la necessità di minimizzare il pericolo che possono rappresentare. Venendo al cuore dell'argomento, ecco alcuni rischi attuali in cui le imprese che utilizzano applicazioni di intelligenza artificiale possono incorrere, che vanno minimizzati e tenuti sotto controllo.

1. Minaccia alla sicurezza dei dati aziendali e alla privacy

Molti degli strumenti di intelligenza artificiale utilizzati in azienda, come quelli che riguardano l'analisi dei dati dell'impresa, comportano la gestione di una grossa mole di informazioni che possono comprendere dati sensibili o finanziari delle aziende o dei suoi dipendenti.

Per questo motivo è importante mettersi al sicuro da possibili intrusioni nei sistemi aziendali con strumenti di protezione come firewall e aggiornare costantemente le applicazioni quando vengono rilasciate nuove versioni.

In generale, è sempre meglio privilegiare sistemi di IA sicuri e che abbiano già un buon numero di feedback positivi. In questo senso, Bitrix24 offre applicazioni che utilizzano l'intelligenza artificiale utilizzate da moltissime aziende e che garantiscono alti standard di sicurezza.

rischi da considerare quando si usa l’intelligenza artificiale in azienda

2. Il rischio nell'utilizzo di sistemi open source

Il grande successo e la crescita della diffusione di chatbot come ChatGPT e Bard ha fatto sì che molti lavoratori delle aziende abbiano iniziato a utilizzare le capacità di questi strumenti come ausilio nella loro attività, ad esempio chiedendo riassunti, analisi o altri task nei quali questi sistemi di IA generativi possono essere utili. Purtroppo, spesso non viene considerato che si tratta di sistemi open source e che i dati inseriti entrano a far parte integrante dei dataset di addestramento dei modelli di base di queste applicazioni.

La questione è così delicata che Samsung nel marzo 2023 ha comunicato di aver inibito l'uso di ChatGPT ai propri dipendenti proprio a causa di questa problematica. Anche non ricorrendo a questa soluzione estrema, è importante formare i propri dipendenti rispetto ai rischi nei quali si può incorrere in caso di uso troppo disinvolto di questi chatbot.

3. Il rischio di plagio e violazione dei diritti d'autore

Quella riguardante il plagio e il copyright è una delle questioni più calde del dibattito riguardo l'intelligenza artificiale e ha già portato negli Stati Uniti all'apertura di decine di cause contro sviluppatori di IA generative come OpenAI e Google.

I dataset con i quali vengono addestrati i modelli di base di queste applicazioni prevedono l'inserimento di una grande mole di contenuti, molti dei quali frutto dell'opera di ingegno di qualcuno che ne detiene legittimamente i diritti. Quando ChatGPT, Bard o altri sistemi analoghi elaborano le risposte, potrebbero utilizzare, anche se rielaborandoli, alcuni di questi contenuti, commettendo un plagio o una violazione dei diritti d'autore.

La stessa questione si può riproporre in vari casi anche nell'utilizzo aziendale delle intelligenze artificiali. Ad esempio, usando la tecnologia per creare un articolo per il proprio blog aziendale, si potrebbe utilizzare il contenuto originale di altri rielaborato dall'intelligenza artificiale.

Allo stesso modo, l'IA usata per scopi di marketing potrebbe creare il testo di una campagna usando parole o slogan già utilizzati da pubblicitari "umani". Il confine tra violazione del diritto d'autore e rielaborazione lecita è piuttosto labile e al momento a livello mondiale e nazionale non esiste ancora una giurisprudenza consolidata sul tema, quindi è opportuno essere particolarmente prudenti.

4. Il problema della discriminazione algoritmica

Si definisce discriminazione algoritmica la possibilità che un sistema di intelligenza artificiale produca risultati ingiusti o discriminatori. Per esempio, è stato osservato come sia possibile che determinate etnie o persone che abitano in zone a basso reddito possano subire un "bias" da parte delle analisi compiute con intelligenza artificiale a prescindere dal merito individuale.

Si tratta di una questione molto seria anche a livello aziendale, ad esempio qualora si utilizzi l'intelligenza artificiale in un processo di reclutamento o nella valutazione per la concessione di una linea di credito o di un finanziamento a un cliente. Il GDPR del 2016, vale a dire il Regolamento dell'Unione Europea sulla privacy e la protezione dei dati, era già intervenuto sull'argomento stabilendo che "L'interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona."

Dunque è importante che quando si utilizza un sistema di IA per compiere la valutazione sul curriculum, sul merito creditizio o su altri elementi riguardanti una persona, sia presente anche un successivo intervento umano che si occupi di correggere l'eventuale bias o discriminazione compiuta dal computer.


Un quadro di gestione del rischio dell'intelligenza artificiale nelle aziende

Considerate le problematiche appena esposte, un'azienda che fa uso di sistemi di intelligenza artificiale dovrebbe prevedere un quadro di gestione del rischio in merito a tali applicazioni. Innanzitutto deve essere adottata una politica aziendale nei confronti delle IA che specifichi i principi guida per la sua utilizzazione, a cui tutti i dipendenti devono uniformarsi. Inoltre, dovrebbero essere presenti un piano di valutazione dei rischi e uno di mitigazione.

In altre parole, dovrebbero essere ben presenti i rischi potenziali che l'uso di sistemi di IA potrebbero creare nell'azienda e sulla scorta di questa valutazione dovrebbero essere decise e pianificate le misure da adottare per eliminarli o minimizzarli.

Inoltre, la governance aziendale dovrebbe stipulare un piano di intervento che preveda come intervenire in modo rapido quando il problema si è già verificato. Naturalmente, la predisposizione di tali misure è tanto più necessaria quanto più l'azienda fa uso di applicazioni di intelligenza artificiale.

Intelligenza artificiale, come considerare il rapporto rischi-benefici in azienda

Come si è visto, alcuni dei rischi collegati all'intelligenza artificiale comportano possibili intrusioni nei dati aziendali, rischi di sicurezza per i dati personali dei dipendenti, discriminazione algoritmica. Non vanno nemmeno sottovalutati elementi come i possibili errori dei sistemi di intelligenza artificiale e una parziale perdita di controllo degli umani sull'attività dell'azienda.

Il saldo tra rischi e benefici nell'uso dell'intelligenza artificiale nei processi aziendali può essere nettamente positivo a patto che si tengano in considerazione questi elementi e si consideri che molte delle attività delle applicazioni di IA hanno bisogno di un controllo umano.

In effetti, la gran parte dei problemi citati possono essere tenuti sotto controllo con una sorveglianza dell'uomo sui sistemi di sicurezza, sui possibili errori compiuti dalle applicazioni e in generale sui compiti dell'intelligenza artificiale che abbiano un'importanza strategica per l'attività dell'azienda. In altre parole, la tecnologia può essere uno strumento importantissimo per le aziende, a patto che non venga mai a mancare la sorveglianza umana.

Intelligenza artificiale

Smart city, formazione, cure: le opportunità dell'intelligenza artificiale

Si è parlato finora soprattutto dei rischi dell'intelligenza artificiale, ma non si può tralasciare il mondo di opportunità che le IA promettono di regalare all'umanità in futuro.

Il tema riguardante medicina e cure sanitarie potrebbe sembrare solo di marginale interesse per le aziende, ma non c'è dubbio che concernendo i lavoratori, il principale asset di ogni impresa, sia invece di particolare importanza. Grazie infatti alle capacità presenti e soprattutto future delle IA sarà più facile analizzare grandi moli di dati che permetteranno di raggiungere risultati più rapidi da parte della ricerca scientifica sulle malattie e le rispettive cure.

Anche il tema delle cosiddette smart city, riguardando città e infrastrutture nelle quali le aziende operano, sarà di interesse per le imprese. Infatti, l'idea di smart city prevede la creazione, anche grazie all'intelligenza artificiale, di città che utilizzano tecnologie innovative per migliorare la qualità di vita dei cittadini e potenziare l'efficienza e la produttività delle aziende che potranno usufruire dei sensori intelligenti della città interconnessa per ottimizzare la logistica e la distribuzione. Inoltre, l'intelligenza artificiale può essere d'ausilio sia per l'istruzione in generale, che per i processi di formazione dei lavoratori.

Sfide e criticità dell'intelligenza artificiale nel mondo aziendale del futuro

Come si è visto, l'intelligenza artificiale insieme a grandi opportunità può comportare anche rischi non trascurabili per le aziende. Al di là degli interventi di minimizzazione del rischio che le aziende possono già compiere autonomamente, una delle sfide del futuro è sicuramente quella di creare sistemi di IA che possano autoregolarsi per ridurre al minimo errori, problemi di sicurezza e discriminazioni.

Il lavoro di molti ricercatori per implementare un'intelligenza artificiale etica e sicura per uomini e aziende è già in atto e la speranza è che tra pochi anni i rischi attuali possano essere sensibilmente ridotti grazie agli sviluppi della ricerca da parte degli scienziati.

Più popolare
Come gestire un collega difficile? 10 consigli professionali
I 10 migliori software di contabilità per le piccole imprese
Le 7 migliori alternative a ChatGPT e OpenAI: scoprile ora
Cos’è l’ascolto attivo? 7 strategie per migliorarlo e chiudere più vendite
10 migliori alternative a Canva con modelli per i tuoi progetti
Indice dei contenuti
Quali sono i rischi e i vantaggi dell’intelligenza artificiale in generale? L'intelligenza artificiale è più intelligente di noi? L'intelligenza artificiale può indurre alla disinformazione? Rischi dell'intelligenza artificiale, quali sono quelli che si corrono in azienda? 1. Minaccia alla sicurezza dei dati aziendali e alla privacy 2. Il rischio nell'utilizzo di sistemi open source 3. Il rischio di plagio e violazione dei diritti d'autore 4. Il problema della discriminazione algoritmica Un quadro di gestione del rischio dell'intelligenza artificiale nelle aziende Intelligenza artificiale, come considerare il rapporto rischi-benefici in azienda Smart city, formazione, cure: le opportunità dell'intelligenza artificiale Sfide e criticità dell'intelligenza artificiale nel mondo aziendale del futuro
Ti potrebbero interessare
Blog
Webinar
glossario

Free. Unlimited. Online.

Bitrix24 è il posto dove ognuno può comunicare, collaborare agli incarichi e ai progetti, gestire i clienti e fare molto altro.

Inizia gratis
Ti potrebbero interessare
Content Marketing: 7 tattiche per creare coinvolgimento e fedeltà
Content Marketing: 7 tattiche per creare coinvolgimento e fedeltà
10 min di lettura
Come creare una solida cultura del lavoro a distanza
Come creare una solida cultura del lavoro a distanza
11 min di lettura
7 vantaggi del software di gestione delle attività per dispositivo mobile
7 vantaggi del software di gestione delle attività per dispositivo mobile
11 min di lettura