Opinione | L’intelligenza artificiale è ovunque. Dovrebbero esserlo anche gli editori.
(Agsandrew/Shutterstock)Ogni giorno leggo di più sull'intelligenza artificiale generativa e praticamente ogni giorno vedo annunci che cercano di vendermi qualche app o servizio basato sull'intelligenza artificiale che afferma che aumenterà la mia produttività, renderà il mio flusso di lavoro più efficiente o aiuterà i miei studenti a imparare meglio.
Questa tecnologia, come altre prima, sta cambiando il modo in cui lavoriamo, insegniamo e impariamo. Ma ovunque vada l’intelligenza artificiale, l’editing dovrebbe accompagnarla.
Poiché l’uso dell’intelligenza artificiale diventa sempre più comune nelle professioni dei media, gli esseri umani devono rimanere coinvolti nel processo per garantire che i risultati dell’intelligenza artificiale siano utili, appropriati e corretti. La precisione è fondamentale per mantenere la credibilità e la vista acuta e le capacità di controllo dei fatti degli editori sono cruciali per la precisione.
altezza jennifer lawrence
L’intelligenza artificiale genera così spesso informazioni errate o false che il fenomeno ha un nome: allucinazione. Gli output generati affermano con sicurezza fatti che sono fonti di finzione che non esistono ed eventi che non sono mai accaduti. Infatti il tasso di allucinazioni è peggiorato nell’ultima iterazione di OpenAI, il che significa che è necessario coinvolgere più persone, non meno, nel processo di pubblicazione.
Senza che qualcuno controlli i risultati dell’intelligenza artificiale, le allucinazioni vengono pubblicate e finiscono davanti a un pubblico di massa. Un redattore dedicato che investe tempo e impegno nel controllo dei fatti e nella lettura attenta può sradicare informazioni errate, incomplete o non aggiornate, nonché segnalare contenuti inappropriati, insensibili o semplicemente imbarazzanti.
Cosa succede quando gli editori vengono esclusi? Alcuni esempi recenti:
Dichiarazione di ritrattazione di Wired illustra il problema fondamentale: abbiamo commesso degli errori qui: questa storia non è stata sottoposta a un adeguato processo di verifica dei fatti né ha ricevuto una modifica principale da un editore più esperto. Quel processo di editing avrebbe garantito che il contenuto fosse affidabile invece della conseguente violazione della fiducia da parte del pubblico.
E questi sono solo esempi tratti dal giornalismo. Altri media sono diventati virali per le ragioni sbagliate dopo i loro stessi incidenti generati dall’intelligenza artificiale; alcuni (tra molti) esempi sono:
Errori così imbarazzanti minano la fiducia ed evidenziano la necessità che gli esseri umani ricoprano ruoli di supervisione. Chiamala autenticazione della responsabilità del controllo di qualità, come vuoi: sta modificando con un altro nome. E l’editing è il modo per evitare di pubblicare contenuti errati o inventati – e per evitare l’inevitabile reazione negativa da parte dello stesso pubblico che stai cercando di coltivare.
Ormai le imprese cominciano a notarlo. Un recente post dello stesso ChatGPT per uno stratega dei contenuti umani ha suscitato qualche ironia su LinkedIn e sempre più aziende si stanno rendendo conto che i contenuti generati dall'intelligenza artificiale sembrano una sciocchezza per il loro pubblico, quindi stanno assumendo scrittori, editori e artisti per ripulire il caos.
In mezzo a tutti i discorsi sull'intelligenza artificiale in arrivo per il tuo lavoro a Studio di Stanford esaminando l’influenza dell’intelligenza artificiale generativa sull’occupazione si è notato che l’intelligenza artificiale potrebbe essere meno capace di sostituire la conoscenza tacita, i suggerimenti e i trucchi peculiari che si accumulano con l’esperienza.
sonya nicole hamlin
Le capacità di discernimento e di verifica del giudizio di un editore professionista rientrano sicuramente nella categoria della conoscenza tacita. Man mano che i professionisti, insegnanti e studenti imparano ad adattarsi ancora una volta alle innovazioni nella comunicazione, le competenze di editing dovrebbero essere in cima alla lista. Modifica come ripensamento - o essa stessa esternalizzata all’AI - non sarà adatto ai media e alle aziende che vogliono che i loro contenuti sfondano il rumore e si connettono autenticamente con un pubblico.
Una linea guida comune per l’uso professionale dell’IA che ho visto è Human first human last. L'ultimo essere umano? Dovrebbe essere un editore.





































