Novembre di fuoco o rapida accelerazione del settore AI?

Gino Tocchetti
7 min readDec 2, 2023

Avrei voluto tornare sulla mia partecipazione al 28mo KM Tracks, quest’anno focalizzato in particolare sull’IA, ovviamente, della settimana scorsa. Di solito queste sono la giuste occasioni per raccogliere le lezioni imparate nelle attività precedenti, tanto frenetiche da non consentire di alzare la testa.

OpenAI nella tempesta. (Photo Credit: TechCrunch)

Si dà il caso, però, che negli stessi giorni, la prospettiva di sviluppo del settore AI si è rivelata come un torrente in piena: la vicenda OpenAI ha tenuto tutti rigidi in attesa di capire che direzione avrebbe preso l’azienda leader nell’AI (oggi) e di conseguenza l’impatto dell’AI sulle nostre vite e i nostri business fin da questo momento, e quindi quale strategia e investimento decidere per i nostri business.

Nominato il nuovo board di OpenAI, è stato il momento delle speculazioni sulle cause stesse di un tale terremoto, che la riassunzione di Altman, e la sostituzione del Consiglio stesso, non hanno certo azzerato. Personalmente ho considerato per prima l’ingerenza di Microsoft, che ad Aprile 2023 era salita al 49% di OpenAI con un investimento complessivo di 13 milardi di dollari, iniziato nel 2019 cioè fin dal momento in cui OpenAi si è aperta al profitto e alla raccolta di capitali di ventura. Non sappiamo se il successo raggiunto col lancio di ChatGPT sarebbe stato possibile senza.

Sam Altman nel 2020

Cresciuto in tre round il peso di Microsoft in quella startup, appare chiaro che a Redmond hanno deciso di scommettere su questi “ragazzi” il futuro della stessa Microsoft in questo settore chiave (ricordiamo “I love you guys” di Satya Nardella sul palco dell’OpenAI DevDays), e un’implosione di OpenAI avrebbe probabilmente comportato la perdita di una leadership (forse perfino definitiva) che oggi appare una solida realtà.

Era quindi facile pensare che Microsoft non avesse avuto un ruolo secondario nelle scelte strategiche, e nell’atteggiamento di Altman — CEO di OpenAI e “amico” di Nardella — che hanno portato agli annunci di novembre all’insaputa del board, e al suo licenziamento per “comportameni non trasparenti”. L’aver subito aperto le porte ad Altman e Brockman licenziati, insieme all’intero team di 700 persone (l’intera OpenAI de facto) — operazione che in una grande corporate non si decide dalla sera alla mattina — mi hanno fatto sinceramente pensare ad una specie di buy-out manovrato da tempo, e non solo ad un’inattesa opportunità di assumere un valido professionista rimasto improvvisamente appiedato. Ma se non completamente inesistente, questo non è l’unico tema.

Diciamo piuttosto che è stata una scintilla che ha fatto esplodere il conflitto lacerante tra i “cauti” e gli “accelerazionisti” in merito all’approccio all’AI (apocalittici ed integrati di echiana memoria, se la posta in gioco non fosse ben maggiore). I primi sono consapevoli dei rischi che l’intera umanità corre con lo sviluppo dell’AI, e chiedono maggiore attenzione a questioni etiche e alla sicurezza, invocando l’intervento regolatore di istituzioni qualificate in proposito, tra le quali quella governativa, ma non solo. I più noti si rifanno al movimento “Efficace Altruism” (EA), un’organizzazione filantropica che ha una visione catastrofista sullo sviluppo dell’AI.

Qui va ricordato che OpenAI, proprio perché “open” e con un modello di governance così anomalo, avrebbe dovuto offrire ampie garanzie: infatti, nata nel 2015 come no-profit, ha poi figliato nel 2019 una subsidiaria for profit, nel cui consiglio sedevano “saggi” indipendenti, e diretta da un CEO privo di quote proprietarie. Una formula interessante, che però non ha retto alle pressioni causate dagli enormi interessi economici, fallendo proprio il suo obiettivo principale.

Gli esponenti del “Effective Accelerationism” (e/acc) sono invece a favore delle più avanzate ricerche e applicazioni sull’hardware (parallel computing), sull’efficienza energetica, e poi sugli algoritmi stessi (apprendimento federativo, in modo da svincolarsi sempre più da dati “reali”, per usare simulazioni di dati e quindi rendere l’AI capace di autoaddestrarsi).

Helen Tonet, Tasha McCauley, Adam D’Angelo e Ilya Sutskever.

Sul primo fronte troviamo figure di peso come Geoffrey Hinton, ma anche Elon Musk (però in palese conflitto di interessi, con la sua XAI). All’interno del Consiglio di Open AI, “cauti” e contrari alla linea di Altman che “accelerava” troppo, sono: Adam D’Angelo (CEO di Quora, in realtà anch’esso in conflitto di interessi, considerato che Poe, coeva di ChatGPT, era inizialmente un’app di Quora per interrogare tutte le AI disponibili, ed è entrata in competizione diretta coi GPT lanciati in tutta fretta da OpenAI a novembre), Helen Toner (direttrice di CSET, Centro Studi che esercita tra l’altro un ruolo di vigilanza sullo sviluppo dell’AI, e in contrasto con Altman già dal lancio al pubblico di ChatGPT), Tasha McCauley (imprenditrice nel settore spazio, e aderente insieme a Toner ad “Altruismo efficace”) e Ilya Sutskever (uno dei founder insieme ad Altman, scienziato e co-creatore dei modelli linguistici).

Ma il Consiglio di OpenAI è sempre stato in fibrillazione lungo tutta la sua breve storia, con inserimenti e ed esclusioni sia di “accelerazionisti” che di “altruisti”. Nè erano mancati altri conflitti di interessi, come l’uscita di Karnofsky nel 2021, fondatore di Open Philanthropy, perché marito di Daniela Amodei, ex dipendente di OpenAI e co-founder della concorrente Anthropic. Per venire a quest’anno, erano usciti già in 3, rimanendo quindi in 6. Essendo il sesto Greg Brockman, fedelissimo di Sam Altman e pronto a seguirlo ovunque, come si è poi potuto vedere, si capisce che questi avvicendamenti avevano minato l’equilibrio interno del Consiglio, portandolo ad essere quasi interamente allineato su posizione antitetiche a quelle di Sam Altman.

Anche se nemmeno questo conflitto di “visione” è sufficiente a spiegare da solo quanto successo in OpenAI, sono evidenti alcune osservazioni. (1) Si mescolano tanti, troppi interessi, e più di qualcuno ha una posizione ambigua. D’Angelo è rientrato nel Consiglio, senza che il suo conflitto di interessi sia stato risolto, e posso solo immaginare i sorrisi a denti stretti col CEO prima silurato e poi riaccolto. Anche Altman e Sutskever hanno “fatto pace”, ma intanto quello è fuori dal Consiglio. Il nuovo Consiglio sta lavorando ad un modello di governance che garantisca consenso da parte di tutti gli stakeholder (con Altman e Microsoft comunque saldamente in testa). Una governance equilibrata, infatti, era (e rimane) indispensabile, ma la domanda è se l’economia e l’impresa (specie questo tipo di imprese) possano provvedere autonomamente.

(2) Al secondo posto io metto la velocità come fattore cruciale che amplifica l’ingovernabilità dello sviluppo dell’AI. Non sembra ci sia tempo per riflettere, per capire, per valutare, per mediare. E questa velocità è in accelerazione. L’avvento delle AGI (AI generali), per la loro capacità di unire potenza, pervasività e capacità di autoapprendimento, promettono non solo di decidere e agire al nostro posto, ma ad un ritmo tale per cui non avremo nemmeno il tempo di rendercene conto. Sarà completamente fuori controllo.

Gli umani potranno mettere in gioco delle corporation potentissime, forse dirette da qualche amministratore delegato o consiglio divisi da conflitti aperti, o peggio ancora, influenzati in modo opaco e distorto. Niente di adeguato al ritmo vertiginoso con cui arriveranno i prossimi tsunami, di cui abbiamo assaggiato solo un primo esempio. Dobbiamo forse sperare che ci sia sempre un eroe (americano) un po’ rozzo ma molto muscoloso, come Will Smith, capace di disinnescare V.I.K.I., il cervello positronico centrale della U.S. Robots, e riportarla all’obbedienza delle Tre Leggi della Robotica? Francamente io spero che non siamo a questo livello (disperato).

Will Smith di fronte a V.I.K.I., in “I Robot”, liberamente tratto da un romanzo di Isaac Asimov.

(3) Il terzo avrebbe dovuto essere a questo punto il più importante: quale governance sovranazionale? In pochi giorni si sono susseguiti l’AI Safety Summit organizzato dal governo britannico; l’Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence del presidente degli Stati Uniti; intanto procedeva la fase di negoziazione tra la Commissione, il Parlamento e il Council, per la ratificazione dell’AI Act nell’Unione Europea. Purtroppo la conclusione probabile (sarà formalizzata il 6 dicembre) è che resteremo senza questo tipo di governance. Difficile dire se sia un bene (l’innovazione non viene imbrigliata, in nome di uno spirito ottimista “accelerazionista”, e soprattutto non viene subordinata ad una Politica confusa, miope e lenta) o un male (iniziative troppo timide sono destinate ad essere ignorate, e non offrono garanzie sulle derive conseguenti l’enorme potenza di queste tecnologie, e ai conseguenti enormi interessi in gioco).

Certamente il vuoto normativo avrebbe la valenza non solo di un mancato freno, ma anche quella di un mancato indirizzo che favorisca una diffusione e un utilizzo realmente “democratico”. Non si tratta solo di regolamentare la partita , ma di prendervi parte e di vincerla a beneficio di tutti, o per lo meno di non perderla a tutto vantaggio di qualche altro player sullo scacchiere geopolitico internazionale. Ma è più probabile che non avremo nemmeno il “vuoto”, bensì uno “stallo” di anni, fino alla reale attuazione di qualunque decisione presa, come a dire fuori tempo massimo. Il punto della velocità si ricollega qui.

Tant’è, per le tre ragioni qui sopra, in questo scenario non importa se sei leone o gazzella, startup ultra-tecnologica, fondazione filantropica o organismo governativo: l’importante è che tu corra, e che aggiusti continuamente la traiettoria.

Un’interpretazione di Dall-E del tema della velocità impressa dallo sviluppo dell’AI.

#AI #ArtificialIntelligence #AGI #OpenAI #Microsoft #governance

--

--

Gino Tocchetti

Business Design, Corporate Innovation, Strategy Advisor