(Adnkronos) – Il Teatro degli Arcimboldi di Milano ha ospitato oltre 1.800 tra CEO, top manager e imprenditori, affiancati da più di 2.300 partecipanti collegati in diretta streaming, per un totale di oltre 4.000 presenze. Il tema centrale, Leader Sapiens, ha guidato la discussione attraverso argomenti cruciali per la leadership contemporanea: dall'intelligenza artificiale all'etica, dall'intelligenza emotiva e connettiva alla crescita sostenibile e all'innovazione continua. Il Forum si è confermato una piattaforma per strategie lungimiranti e vision innovative, presentate da 13 speaker di rilievo internazionale. La due giorni ha visto un susseguirsi di interventi che hanno delineato i contorni della leadership del futuro. Figure come Howard Yu, stratega dell’innovazione, hanno sottolineato la necessità per le aziende di "sperimentare e di trasformarsi continuamente per restare competitivi in un mondo in continua evoluzione". La seconda giornata, particolarmente attesa, ha riportato sul palco Daniel Goleman, padre dell’intelligenza emotiva, che ha dibattuto sulla leadership del futuro insieme a due esperti mondiali come Nello Cristianini professore di Intelligenza Artificiale e Benedetta Giovanola, titolare della prima Cattedra europea di Etica dell’Intelligenza Artificiale finanziata dall’Unione Europea. Adnkronos Tech&Games ha avuto l'opportunità di porre qualche domanda a Benedetta Giovanola che ha gentilmente acconsentito a rispondere.
Lei afferma con forza che l'Intelligenza Artificiale non è mai neutrale. Se i sistemi di IA sono perlopiù probabilistici e basati sull'enorme quantità di dati che elaborano, come possiamo garantire che il dataset di addestramento non replichi o addirittura amplifichi discriminazioni e bias sociali preesistenti? Qual è la nostra responsabilità etica nel selezionare e "nutrire di dati etici" il mondo digitale?
Innanzitutto, assicurandosi che i sistemi di intelligenza artificiale siano etici by design, ovvero che l'equità, quindi la non discriminazione, debba essere un principio fondamentale nella progettazione di stessi sistemi, oltre che nel loro sviluppo e utilizzo.
Rispetto poi al tema specifico dei dati, bisogna preoccuparsi che i dati siano rappresentativi, quindi non solo prestare attenzione alla quantità dei dati – è chiaro che i sistemi di intelligenza artificiale hanno bisogno di quantità enormi di dati per fare delle previsioni attendibili – ma anche al fatto che siano qualitativamente rappresentativi, che ad esempio non privilegino certi gruppi o categorie rispetto ad altri.
Poi bisogna assicurarsi che i team di progettazione siano a loro volta rappresentativi e quindi non replichino in maniera inconscia una serie di bias, prospettive limitate o addirittura pregiudizi, quindi che siano diversificati in termini di genere, in termini di etnia, background culturale, etc., Inoltre l’impatto dei sistemi di IA sulla nostra vita a livello individuale e collettivo deve essere tenuto ben presente già nell’atto della progettazione, perché si tratta di un impatto pervasivo: bisogna capire tutto questo per progettare bene.
Spesso si invoca il bisogno di "pensiero critico" nell'era digitale. Lei utilizza invece il concetto più ampio di "saggezza pratica" come bussola etica. Può spiegarci la differenza tra i due e come questa saggezza pratica, intesa come capacità di giudizio e decisione morale, possa essere coltivata in un contesto in cui la tecnologia ci spinge a "delegare" la nostra capacità di riflettere in maniera autonoma?
La saggezza pratica può essere intesa come una competenza da coltivare, quindi non è qualcosa che noi abbiamo già in modo pienamente sviluppato, abbiamo in potenza ma dobbiamo appunto realizzare. Sostanzialmente significare la capacità di esercitare un discernimento morale e un giudizio morale, e quindi essere capaci anche di orientarsi moralmente a seconda del contesto di riferimento, consente di sviluppare un approccio che è contestualista e che è anche piuttosto pragmatico. Ed è questo approccio che, allenato, ci consente di individuare le implicazioni morali, le implicazioni etiche, ad esempio, nella progettazione, nello sviluppo o nell’utilizzo di un determinato sistema di IA.
La saggezza pratica ci consente anche di fare un'operazione di foresight analysis, eticamente orientata, per capire quali potrebbero essere i rischi dei sistemi di IA e compiere le scelte migliori a seconda del contesto. La saggezza pratica rappresenta un punto fermo per consentirci di orientarci e guidare (o, come si dice, governare) l’IA in un momento in cui la trasformazione tecnologica è pervasiva ed estremamente veloce.
La sua ricerca evidenzia come l'IA stia modificando profondamente le nostre relazioni sociali, affettive e professionali. In che modo gli algoritmi che mediano le interazioni umane (dai social media al dating) stanno ridefinendo il nostro concetto di identità personale e di autenticità?
Gli algoritmi basati su IA oggi consentono di raggiungere output che influiscono tantissimo sulla nostra capacità pratica, sul modo in cui noi agiamo, e sulla nostra capacità epistemica, ovvero sul modo in cui abbiamo accesso alla conoscenza; possiamo controllare (o meno) le informazioni, possiamo processarle ed analizzarle. Tutto questo ha un impatto fondamentale rispetto al modo in cui noi percepiamo noi stessi.
Faccio un esempio: se noi viviamo in un contesto in cui proliferano prodotti generati dall'intelligenza artificiale generativa e non siamo più in grado di distinguere ciò che è reale e ciò che è generato artificialmente, questo può creare una percezione di noi stessi come incapaci di comprendere il mondo, quindi ci può portare a non fidarci più di quelle che sono le nostre capacità e questo ha un impatto rispetto
alla nostra identità e sulla percezione che abbiamo, di noi stessi, come soggetti capaci di comprendere e di agire in modo autonomo.
Nel suo lavoro si rivolge in modo specifico al mondo corporate (Etica e intelligenza artificiale per l'impresa). Molti manager vedono l'etica come un freno all'innovazione. Invece, lei la descrive come un "motore di fiducia" e una leva strategica. In pratica, in che modo l'integrazione del purpose aziendale e dei principi etici (Ethics by Design) nel ciclo di vita di un sistema di IA può generare un vantaggio competitivo reale e sostenibile?
La generazione del vantaggio competitivo è uno degli aspetti da tenere in considerazione, ma non è sostitutivo dell'orientamento al purpose; quindi, è fondamentale innanzitutto che vengano compiute delle scelte coerenti con la propria essenza, con il proprio "why", il proprio perché, quindi in questo senso l’orientamento al purpose.
Poi è importante che queste scelte possano essere coerenti con quelli che sono i valori e gli obiettivi di un’impresa; quindi, sostanzialmente con l'identità dell'impresa stessa. Poi, chiaramente, è anche importante che si traducano in azioni concrete e in obiettivi misurabili e che possano generare un vantaggio competitivo o ritorno sull'investimento.
Quindi tenendo insieme queste tre dimensioni si può assicurare che l’etica diventi un driver di buona innovazione tecnologica, perché bisogna credere autenticamente nei valori ed essere coerenti con il proprio purpose. Questo non significa non essere attenti al vantaggio competitivo, al ritorno sugli investimenti, ma la sfida è proprio nel calibrare queste due dimensioni perché se si è solo attenti alla seconda dimensione, si rischia paradossalmente di ottenere il risultato contrario, si fa qualcosa che non è coerente con la propria identità o la propria ragione d'essere.
Lei ha sottolineato il rischio di un "controllo algoritmico", che potrebbe essere alimentato dall'idea di una tecnologia come fine in sé. Quanto è concreto questo pericolo in Europa, considerando che il modello dominante di sviluppo dell'IA nasce in contesti culturali specifici (spesso statunitensi) con valori e priorità diversi dai nostri? Quali strumenti, oltre alla regolamentazione, possono difendere l'approccio umanocentrico europeo?
I sistemi di IA possono facilitare forme di controllo algoritmico, profondamente lesive della privacy e della libertà. Nei contesti d’impresa, poi, ci sono aree di applicazione dell’IA che presentano sicuramente opportunità ma anche rischi rispetto al tema del controllo. Se, ad esempio, l’IA è applicata alla gestione delle risorse umane, può tradursi in forma di management algoritmico, e creare una in cui, paradossalmente, le prestazioni, le performance diminuiscono perché ci si sente controllati e soprattutto si perde il senso del valore del proprio lavoro e quindi si è anche meno motivati a svolgerlo, ci si sente più sviliti. Questi possono essere esiti negativi di una diffusione troppo estensiva, troppo pervasiva di sistemi di intelligenza artificiale, sostitutiva del management umano, che può generare anche la percezione da parte di chi lavora di essere valutato in base a come una macchina lo valuterebbe piuttosto che a come un essere umano lo valuterebbe.
Per quanto concerne la regolamentazione, sicuramente questa può arginare certi fenomeni o tendenze. Ad esempio, l’utilizzo dei sistemi di IA in ambito risorse umane è considerato ad “alto rischio” nel Regolamento Europeo sull’IA (AI Act). Chiaramente la scelta relativa a se e come regolamentare non è sostitutiva dello sviluppo delle nostre competenze in quanto users, ad esempio, così come non è sostitutiva di un design etico fin dall'inizio, anche perché la regolamentazione riesce a regolamentare qualcosa i cui effetti negativi sono già stati sperimentati ma non riesce a prevenire, né è bene che lo faccia, tutti i rischi futuri: se tutto fosse regolamentato, noi stessi non saremmo più soggetti autonomi e capaci di scegliere liberamente, ma semplici esecutori.
Quindi è fondamentale allenare tantissimo le competenze a partire dalla competenza di saggezza pratica; ed è fondamentale investire tantissimo nei processi di istruzione e di formazione, promuovendo la compresenza di componenti tecnologiche ed etiche, oltre che giuridiche, innanzitutto, perché è chiaro
che se si impara a progettare solamente su basi tecnologiche, senza avere, diciamo, contezza di quelle che sono le implicazioni etiche o dell'impatto a livello sociale o in termini di compliance giuridica, il rischio di creare dei sistemi che poi siano lesivi dei diritti o creino discriminazioni è chiaramente maggiore. Quindi bisogna investire tantissimo in formazione e in sviluppo di competenze che ci consentono di anticipare quelle che sono le trasformazioni che ancora noi non possiamo prevedere, e quindi di orientarci.
Di fronte all'evoluzione rapidissima delle macchine, si parla spesso della "tentazione di volerci sostituire a Dio". Secondo la sua analisi, che si occupa anche di spiritualità, se l'IA ha la capacità di replicare la coscienza e le logiche duali, cosa rimane intrinsecamente non replicabile dell'essere umano? Il senso di "trascendenza" o la ricerca del senso della vita sono elementi che l'uomo non potrà mai delegare ai sistemi artificiali?
Io non mi occupo specificamente di spiritualità. Quello che posso dire è che è molto importante da un lato comprendere come l'intelligenza artificiale ci trasforma, ma dall'altro lato anche capire quali sono le skills e le componenti autenticamente umane per poter promuovere il loro sviluppo e capire come i sistemi di intelligenza artificiale possono supportarci. Credo poi che sia importante invertire la logica, cioè sfuggire a questa logica del paragone e capire invece quali sono le nostre caratteristiche distintive, quali sono le caratteristiche distintive dei sistemi di intelligenza artificiale e come questi ultimi ci trasformano, in modo da delegare a questi sistemi ciò che per noi può essere utile e funzionale.
—tecnologiawebinfo@adnkronos.com (Web Info)
(Adnkronos) - Almeno quattro persone sono morte dopo che un'imbarcazione di migranti è affondata al largo della costa sud-occidentale di…
(Adnkronos) - Due persone sono morte in un incidente tra due veicoli sulla strada statale 4 via Salaria al km…
(Adnkronos) - Costringeva i due figli minorenni a partecipare agli atti sessuali consumati insieme al compagno. Per questo una donna…
(Adnkronos) - Le offerte per i contratti di luce e gas si moltiplicano, non passa giorno che non se ne…
(Adnkronos) - E' morto a 70 anni Björn Andrésen, l'attore e musicista svedese che nel 1971 conquistò un posto d'onore…
(Adnkronos) - C’è qualcosa di affascinante e inquietante nel modo in cui Death Stranding 2: On the Beach continua a…