OpenAI. La tecnologia impone responsabilità
Nella tasca del saio da francescano Paolo Benanti porta un computer. Da più un anno e mezzo è presidente della Commissione sull’intelligenza artificiale per l’informazione della presidenza del consiglio dei ministri e di recente ha rilanciato un lungo post di Joanne Jang (Head of Model Behavior in OpenAI) che invita a riflettere criticamente sul rapporto uomo–modelli di IA. Jang, responsabile delle policy e del comportamento dei modelli come ChatGPT e DALL·E, ha sollevato questioni cruciali per chi dirige una piccola e media impresa: non si tratta solo di tecnologia ma di etica, impatto e fiducia.
1. Il cuore della questione: responsabilità e autonomia. Il post evidenzia come i modelli generativi siano potenzialmente autonomi, capaci di creare contenuti nuovi basandosi su dati statistici. Ma proprio questa autonomia apre questioni sulla responsabilità: chi risponde per eventuali errori, distorsioni o contenuti inappropriati? OpenAI ha introdotto sistemi di supervisione interna e linee guida, ma il messaggio emergente è forte: le pmi non possono delegare tutto all’IA, devono dotarsi di competenze interne e policy chiare per governarne l’uso.
2. Da strumento a “collega” complementare. L’IA generativa ha dimostrato capacità sorprendenti – da ChatGPT al suo rapido milione di utenti in soli 5 giorni – ma la visione di Jang e Benanti è orientata verso relationship complementarity nell’ottica di “augmentation” piuttosto che “automation” totale . Per i manager è un monito concreto: adottare l’IA non significa sostituire i lavori cognitivi, ma amplificarne la capacità. Serve una cultura aziendale attenta a queste opportunità, valorizzando i team che dialogano con l’IA e non vi si appiattiscono.
3. Cultura digitale e formazione: leve strategiche. Benanti richiama l’attenzione sulla necessità di una formazione costante per le imprese. Il post enfatizza come la mancanza di competenze sia la prima barriera all’adozione dell’IA: le PMI devono investire in formazione specialistica e affiancare le risorse ai nuovi strumenti.
Solo così l’intelligenza artificiale potrà tradursi in vantaggio competitivo, evitando girandole di hype e frustrazione interna.
4. Regolazione e trasparenza: non si può fare da soli.
Il contributo dell’Europa (AI Act, Data Act, DMA) e le strategie come quelle di OpenAI mostrano che la regolamentazione è in rapido sviluppo. Le PMI devono monitorare il quadro normativo: normative emergenti su uso equo dei dati, trasparenza nei processi decisionali e catena di responsabilità diventeranno, entro breve, obblighi legali e sociali. Invece di subire, le PMI possono adottare policy proattive, rafforzando la reputazione e acquisendo fiducia nei confronti di clienti e partner.
5. Fiducia come asset: sostenere le relazioni interne ed esterne. Un tema centrale nel post è la permeabilità delle fake news e delle distorsioni generate dall’IA. Jang sottolinea l’esigenza di controllo continuo per evitare derive negative. Per un’impresa media, questo significa strutturare flussi interni di verifica, policy editoriali e check etici prima della pubblicazione di comunicazioni automatizzate. L’obiettivo: essere credibili davanti a clienti, fornitori e istituzioni.





