Avis | L'IA est partout. Les éditeurs devraient l’être aussi.
(Agsandrew/Shutterstock)Chaque jour, j'en lis davantage sur l'intelligence artificielle générative et presque tous les jours, je vois des publicités essayant de me vendre une application ou un service basé sur l'IA qui prétend qu'il augmentera ma productivité, rendra mon flux de travail plus efficace ou aidera mes élèves à mieux apprendre.
Cette technologie, comme d’autres avant elle, change notre façon de travailler, d’enseigner et d’apprendre. Mais partout où l’IA va, l’édition doit l’accompagner.
Alors que l’utilisation de l’IA devient de plus en plus courante dans les professions médiatiques, les humains doivent rester impliqués dans le processus pour garantir que les résultats de l’IA sont utiles, appropriés et corrects. L’exactitude est essentielle au maintien de la crédibilité, et les yeux perçants et les compétences des éditeurs en matière de vérification des faits sont essentiels à l’exactitude.
L’IA génère si souvent des informations erronées ou fausses que le phénomène porte un nom : l’hallucination. Les résultats générés affirment avec confiance des faits qui sont des sources de fiction qui n’existent pas et des événements qui ne se sont jamais produits. En fait le taux d'hallucinations a empiré dans la dernière itération d'OpenAI, ce qui signifie que davantage d'humains doivent être impliqués dans le processus de publication.
Sans que quelqu'un vérifie derrière les résultats de l'IA, les hallucinations sont publiées et se retrouvent devant un public de masse. Un éditeur dédié qui investit du temps et des efforts dans la vérification des faits et la lecture attentive peut éliminer les informations incorrectes, incomplètes ou obsolètes, ainsi que signaler les contenus inappropriés, insensibles ou tout simplement gênants.
Que se passe-t-il lorsque les éditeurs sont exclus ? Quelques exemples récents :
Déclaration de rétractation de Wired illustre le problème au cœur : nous avons commis des erreurs ici : cette histoire n'a pas été soumise à un processus de vérification des faits approprié ni n'a obtenu une modification de premier ordre d'un éditeur plus expérimenté. Ce processus d'édition aurait garanti que le contenu était digne de confiance au lieu de provoquer un abus de confiance avec le public.
Et ce ne sont que des exemples tirés du journalisme. D’autres médias sont devenus viraux pour de mauvaises raisons après leurs propres incidents générés par l’IA ; quelques (parmi tant d’autres) exemples sont :
De telles erreurs embarrassantes érodent la confiance et mettent en évidence la nécessité de confier des rôles de surveillance à des humains. Appelez cela l’authentification de la responsabilité du contrôle qualité, qu’avez-vous – c’est une édition sous un autre nom. Et l’édition est le moyen d’éviter de publier du contenu incorrect ou fabriqué – et d’éviter les inévitables réactions négatives de la part du public même que vous essayez de cultiver.
Les entreprises commencent désormais à le remarquer. Une publication récente de ChatGPT lui-même pour un stratège de contenu humain a fait l'objet de quelques sarcastiques sur LinkedIn et de plus en plus d'entreprises se rendent compte que le contenu généré par l'IA ressemble à de la bêtise pour leur public. ils embauchent des écrivains, des éditeurs et des artistes pour nettoyer le désordre.
Au milieu de toutes les discussions sur l'IA qui vient pour votre travail, un Étude de Stanford L’examen de l’influence de l’IA générative sur l’emploi a révélé que l’IA pourrait être moins capable de remplacer les connaissances tacites par les trucs et astuces idiosyncrasiques qui s’accumulent avec l’expérience.
Le discernement du jugement et les compétences de vérification d’un éditeur professionnel entrent certainement dans la catégorie des connaissances tacites. À mesure que les professionnels, les enseignants et les étudiants apprennent à s'adapter une fois de plus aux innovations en matière de rédaction de communications, les compétences devraient figurer en tête de liste. Modification après coup - ou lui-même externalisé vers l'IA – ne suffira pas aux médias et aux entreprises qui souhaitent que leur contenu dépasse le bruit et se connecte authentiquement avec un public.
Une ligne directrice courante pour l’utilisation professionnelle de l’IA que j’ai vue est la suivante : L’humain d’abord, l’humain en dernier. Ce dernier humain ? Ce devrait être un éditeur.





































