Nel cuore del nostro mestiere – la comunicazione – c’è una tensione continua tra controllo e fiducia. Controllo del messaggio, fiducia nella sua ricezione. Con l’avvento dell’intelligenza artificiale generativa, però, si è inserito un terzo elemento che altera radicalmente l’equilibrio: la delega. Una delega sottile, apparentemente innocua, ma in realtà dirompente. Perché la domanda vera non è “cosa può fare l’IA?”, ma “di chi è, davvero, il risultato del suo fare?”. Quel testo lo avremmo scritto esattamente così oppure stiamo accettando qualcosa di diverso, ben fatto, per amor di Dio, ma comunque diverso?
Recentemente ho assistito alla proiezione di un corto d’autore interamente generato con l’AI. Chiamato sul palco a dare un contributo, ho posto una domanda al regista: “Quella scena con quell’ambientazione, quei personaggi con quelle fattezze, quelle inquadrature le avresti immaginate e realizzate così, esattamente così, senza l’AI?”. In sostanza la sua risposta è stata semplicemente “no”.
Da qui una riflessione e un tema: quando chiediamo a un’IA generativa di scrivere un testo, creare un’immagine o realizzare un contenuto, il prodotto che otteniamo non è ciò che avremmo realizzato noi. È “altro”: è il frutto di un’elaborazione probabilistica basata su miliardi di esempi precedenti, una sintesi statistica delle possibilità linguistiche e iconiche di un contesto. È, in termini comunicativi, un contenuto alieno. Ma lo facciamo nostro, lo firmiamo, lo presentiamo come se ci appartenesse. E qui si apre il paradosso: possiamo realmente dire che quel contenuto ci rappresenti, se non è esattamente ciò che avremmo prodotto con la nostra sensibilità, le nostre competenze, la nostra visione?
La questione, da un punto di vista semiotico, è profondamente legata al concetto di autorialità e alla produzione del senso. Come ci ricorda Umberto Eco, “l’opera aperta” vive nella sua interpretazione, ma nasce da un’intenzionalità. L’IA, invece, produce senza intenzione. Agisce in assenza di un io narrante. E noi, professionisti della comunicazione, ci troviamo a gestire e firmare prodotti che non sono espressione della nostra intenzionalità, ma di un calcolo.
Daniel Dennett, nel suo lavoro su “Intuition Pumps and Other Tools for Thinking” (2013), afferma che i sistemi complessi come le AI non “pensano” nel senso umano del termine, ma simulano processi decisionali. Questo li rende straordinariamente utili, ma anche eticamente ambigui, soprattutto quando si attribuisce loro una paternità creativa che non possiedono.
Nel nostro lavoro, la generatività non è (solo) produzione: è progettualità. È coerenza narrativa, posizionamento reputazionale, strategia percettiva. Affidare tutto questo a un algoritmo significa rinunciare, almeno in parte, alla funzione distintiva e identitaria del nostro mestiere. Significa rischiare che il messaggio perda la sua coerenza con il brand, con il contesto, con la relazione.
La vera contraddizione esplode qui. L’IA ci dà potenza, velocità, capacità. Ma ci sottrae – se non siamo consapevoli – l’intenzionalità, la responsabilità narrativa. Generare non è comunicare. E comunicare non è solo dire: è voler dire qualcosa, in un certo modo, per ottenere un certo effetto.
Allora la domanda ritorna: se il contenuto non è mio, anche se l’ho chiesto io, posso davvero farlo mio? E soprattutto: quanto sto cedendo del mio mestiere, e della mia identità professionale, in questo scambio apparentemente efficiente?
Nel suo libro “The Alignment Problem”, Brian Christian esplora il divario tra l’efficienza dell’IA e il valore umano delle decisioni. Noi comunicatori dobbiamo colmare questo divario. Non rifiutando l’IA, ma usandola come uno strumento sotto il nostro controllo, all’interno della nostra visione, non al posto di essa.
L’intelligenza artificiale non è un problema. La delega inconsapevole sì. E sta a noi – con le nostre competenze, la nostra etica e la nostra visione – decidere se restare creatori o diventare semplici fruitori di contenuti che non ci appartengono.