Questo avvocato dell’IA afferma che le aziende hanno bisogno di un chief AI officer – pronto
 
Quando Bradford Newman ha iniziato a sostenere una maggiore esperienza di intelligenza artificiale nella C-suite nel 2015, “la gente rideva di me”, ha detto. 

Newman, che guida la pratica di apprendimento automatico e intelligenza artificiale dello studio legale globale Baker McKenzie nel suo ufficio di Palo Alto, ha aggiunto che quando ha menzionato la necessità per le aziende di nominare un chief AI officer, le persone in genere hanno risposto: “Cos’è?”


Ma poiché l’uso dell’intelligenza artificiale prolifera in tutta l’azienda e poiché le questioni relative all’etica , ai pregiudizi , al rischio, alla regolamentazione e alla legislazione dell’IA attualmente turbinano in tutto il panorama aziendale, l’importanza di nominare un chief AI officer è più chiara che mai, ha affermato.

Questo riconoscimento ha portato a un nuovo rapporto di Baker McKenzie, pubblicato a marzo, intitolato ” Business rischioso: identificare i punti ciechi nella supervisione aziendale dell’intelligenza artificiale “. Il rapporto ha intervistato 500 dirigenti di livello C con sede negli Stati Uniti che si sono autoidentificati come parte del team decisionale responsabile dell’adozione, dell’uso e della gestione da parte della propria organizzazione degli strumenti abilitati all’intelligenza artificiale. 


In un comunicato stampa dopo il rilascio del sondaggio, Newman ha dichiarato: “Dato l’aumento della legislazione statale e dell’applicazione delle normative, le aziende devono intensificare il loro gioco quando si tratta di supervisione e governance dell’IA per garantire che la loro IA sia etica e proteggersi dalla responsabilità di gestire di conseguenza la propria esposizione al rischio”. 

Punti ciechi aziendali sul rischio dell’IA
Secondo Newman, il sondaggio ha rilevato punti ciechi aziendali significativi sul rischio dell’IA. Per prima cosa, i dirigenti di livello C hanno gonfiato il rischio di intrusioni informatiche dell’IA, ma hanno minimizzato i rischi dell’IA legati al pregiudizio e alla reputazione dell’algoritmo. E mentre tutti i dirigenti intervistati hanno affermato che il loro consiglio di amministrazione è consapevole del potenziale rischio aziendale dell’IA, solo il 4% ha definito questi rischi “significativi”. E più della metà considerava i rischi “piuttosto significativi”. 

Il sondaggio ha anche rilevato che le organizzazioni “non hanno una solida conoscenza della gestione dei pregiudizi una volta che gli strumenti abilitati all’intelligenza artificiale sono in atto”. Quando si gestisce internamente la distorsione implicita negli strumenti di IA, ad esempio, solo il 61% dispone di un team in grado di aumentare o diminuire il livello dei dati, mentre il 50% afferma di poter ignorare alcuni, non tutti, i risultati abilitati all’IA. 

Inoltre, il sondaggio ha rilevato che due terzi delle aziende non hanno un responsabile dell’intelligenza artificiale, lasciando che la supervisione dell’IA rientri nel dominio del CTO o del CIO. Allo stesso tempo, solo il 41% dei consigli aziendali dispone di un esperto di IA. 

Un punto di flesso della regolamentazione dell’IA
Newman ha sottolineato che una maggiore attenzione all’IA nella C-suite, e in particolare nella sala del consiglio, è un must. 


“Siamo a un punto di svolta in cui l’Europa e gli Stati Uniti regoleranno l’ IA “, ha affermato. “Penso che le aziende reagiranno tristemente, perché semplicemente non lo capiscono: hanno un falso senso di sicurezza”.

Sebbene sia contrario alla regolamentazione in molte aree, Newman afferma che l’IA è profondamente diversa. “L’IA deve avere un asterisco a causa del suo impatto”, ha detto. “Non si tratta solo di informatica, si tratta di etica umana… va all’essenza di chi siamo come esseri umani e al fatto che siamo una società democratica liberale occidentale con una forte visione dei diritti individuali”. 

Anche dal punto di vista della corporate governance, l’IA è diversa, ha proseguito: “A differenza, ad esempio, della funzione finanziaria, che è costituita da dollari e centesimi contabilizzati e riportati correttamente all’interno della struttura aziendale e divulgati ai nostri azionisti, intelligenza artificiale e dati la scienza coinvolge diritto, risorse umane ed etica”, ha affermato. “Ci sono una moltitudine di esempi di cose che sono legalmente consentite, ma non sono in sintonia con la cultura aziendale”. 

Tuttavia, l’IA nell’impresa tende a essere frammentata e disparata, ha spiegato. 

“Non esiste un regolamento omnibus in cui quella persona che ha buone intenzioni potrebbe entrare nella C-suite e dire: ‘Dobbiamo seguire questo. Abbiamo bisogno di allenarci. Abbiamo bisogno di conformità.’ Quindi, è ancora una sorta di teoria e le C-suite di solito non rispondono a una teoria”, ha detto. 

Infine, ha aggiunto Newman, ci sono molti componenti politici interni intorno all’IA, tra cui l’IA, la scienza dei dati e la catena di approvvigionamento. “Dicono tutti, ‘è mio'”, ha detto. 

La necessità di un chief AI officer
Ciò che aiuterà, ha affermato Newman, è nominare un chief AI officer (CAIO), ovvero un dirigente di livello C che riporta al CEO, allo stesso livello di un CIO, CISO o CFO. Il CAIO avrebbe la responsabilità ultima della supervisione di tutte le cose relative all’IA nella società. 


“Molte persone vogliono sapere come una persona può ricoprire quel ruolo, ma non stiamo dicendo che il CFO conosca tutti i calcoli degli aspetti finanziari che avvengono nel profondo della società, ma dipende da lei”, ha detto.

Quindi un CAIO sarebbe incaricato di riferire agli azionisti ed esternamente alle autorità di regolamentazione e agli organi di governo.

“Soprattutto, avrebbero un ruolo per la governance aziendale, la supervisione, il monitoraggio e la conformità di tutto ciò che riguarda l’IA”, ha aggiunto Newman. 

Tuttavia, Newman ammette che l’idea di installare un CAIO non risolverebbe tutte le sfide relative all’IA.

“Sarebbe perfetto? No, niente lo è, ma sarebbe un grande passo avanti”, ha detto.

Il capo dell’IA dovrebbe avere un background in alcuni aspetti dell’IA, in informatica, nonché in alcuni aspetti dell’etica e della legge.

Mentre poco più di un terzo degli intervistati di Baker McKenzie ha affermato di avere attualmente “qualcosa come” un capo dell’intelligenza artificiale, Newman pensa che sia una statistica “generosa”. 

“Penso che la maggior parte dei consigli sia tristemente indietro, facendo affidamento su un mosaico di chief information officer, chief security officer o capi delle risorse umane seduti nella C-suite”, ha affermato. “È molto intrecciato insieme e non è una vera descrizione del lavoro detenuta da una persona con il tipo di supervisione e responsabilità di matrice di cui sto parlando per quanto riguarda un vero CAIO”. 

Il futuro del chief AI officer
In questi giorni, Newman dice che le persone non chiedono più “Cos’è un chief AI officer?” tanto. Ma invece, le organizzazioni affermano di essere “etiche” e che la loro IA non è implicitamente distorta.


“C’è una crescente consapevolezza che la società dovrà avere la supervisione, così come un falso senso di sicurezza che la supervisione che esiste nella maggior parte delle organizzazioni in questo momento è sufficiente”, ha continuato. “Non sarà abbastanza quando arriveranno i regolatori, le forze dell’ordine e gli avvocati dei querelanti: se dovessi cambiare lato e iniziare a rappresentare i consumatori e i querelanti, potrei fare buchi di dimensioni enormi nella maggior parte della supervisione e della governance aziendale per l’IA.” 

Le organizzazioni hanno bisogno di un chief AI officer, ha sottolineato perché “le domande poste da questa tecnologia trascendono di gran lunga gli zeri, gli uno, i set di dati”. 

Le organizzazioni stanno “giocando con munizioni vere”, ha detto. “L’intelligenza artificiale non è un’area che dovrebbe essere lasciata esclusivamente al data scientist”. 

Di Fantasy

Lascia un commento