Non classé

Algorithmes et journalistes : une collaboration ambiguë

Par­fois con­sid­érés comme une men­ace pour les jour­nal­istes, les algo­rithmes arrivent dans les rédac­tions. De la pro­duc­tion de con­tenu à l’aide édi­to­ri­ale, ces pro­grammes per­me­t­tent aux médias de gag­n­er du temps, mais posent égale­ment des ques­tions éthiques. 

À une semaine des élec­tions européennes, Syl­labs reprend du ser­vice. En 2015, cette start-up parisi­enne, spé­cial­isée dans la pro­duc­tion d’algorithmes, a col­laboré pour la pre­mière fois avec le quo­ti­di­en Le Monde, à l’occasion des élec­tions départe­men­tales. Quelque 70 jour­nal­istes ont été mobil­isés sur l’événement pour cen­tralis­er les scores élec­toraux. En temps réel, les « robots-rédac­teurs » de Syl­labs ont per­mis au jour­nal de génér­er automa­tique­ment un arti­cle pour les résul­tats de cha­cune des 35 357 com­munes français­es. Aux élec­tions précé­dentes, le jour­nal avait pub­lié les résul­tats unique­ment sous forme de don­nées chiffrées brutes. Depuis, Syl­labs pro­pose égale­ment aux médias une ver­sion améliorée de ses presta­tions : un « fil d’in­for­ma­tion automa­tisé », des visu­al­i­sa­tions de don­nées, ou encore des syn­thès­es historiques.

Loin d’être un cas excep­tion­nel, la divi­sion du tra­vail jour­nal­is­tique entre médias et algo­rithmes s’ac­croît. Les pre­miers robots-jour­nal­istes sont apparus au début des années 2000, dans les rédac­tions améri­caines. Ils sont capa­bles d’écrire des dépêch­es, des brèves, mais aus­si des comptes-ren­dus. En suiv­ant des instruc­tions pro­gram­mées par un développeur, les algo­rithmes com­plè­tent des phras­es pré-écrites et les assem­blent pour for­mer un texte cohérent. Ils sont alors prin­ci­pale­ment util­isés pour des résul­tats élec­toraux, sportifs ou encore financiers.

En 2014, l’agence améri­caine Asso­ci­at­ed Press s’est dotée du pro­gramme Auto­mat­ed Insights pour pub­li­er les rap­ports financiers d’entreprises, à rai­son de dix con­tenus par sec­onde. L’algorithme Quill, a été créé par Nar­ra­tive Sci­ence, une entre­prise améri­caine spé­cial­isée dans l’intelligence arti­fi­cielle, et est util­isé par le mag­a­zine Forbes. Il assure la recherche d’informations, la rédac­tion et la pub­li­ca­tion d’articles sur des ren­con­tres sportives. 

Pour Eric Scher­er, directeur de la prospec­tive de l’information à France Télévi­sion, ces algo­rithmes sont « libéra­teurs ». Ils per­me­t­tent aux jour­nal­istes de se « débar­rass­er de tâch­es ingrates »  pour se recen­tr­er sur des arti­cles d’analyse ou des reportages. Une vision partagée par Damien Des­bor­des, auteur de l’ouvrage Les robots vont-ils rem­plac­er les jour­nal­istes ?, paru en 2018 (éd. Plein Jour). « La veille infor­ma­tion­nelle béné­fi­cie d’al­go­rithmes de plus en plus per­for­mants, et pro­pre­ment révo­lu­tion­naires dans le domaine du fact-check­ing et de l’in­ves­ti­ga­tion. Les activ­ités les plus chronophages et répéti­tives de ces gen­res jour­nal­is­tiques peu­vent être automa­tisées, occa­sion­nant un gain de con­fort et d’ef­fi­cac­ité pour les jour­nal­istes. » 

Des robots à surveiller 

Selon Kris Ham­mond, patron de Nar­ra­tive Sci­ence, 90% des arti­cles de presse seront four­nis par des robots en 2025. Il prévoit une hausse expo­nen­tielle des textes pub­liés sur Inter­net avec l’arrivée de ces out­ils sur le marché de l’information.    

Mais la fia­bil­ité de ces pro­grammes reste un enjeu de taille pour les rédac­tions. En 2017, le robot Quake­Bot —util­isé par le Los Ange­les Times, pour reporter des infor­ma­tions sur les trem­ble­ments de terre à Los Ange­les— a com­mis une erreur. Le 22 juin 2017, le pro­gramme a annon­cé un séisme de mag­ni­tude 6,8 sur l’échelle de Richter sur le compte Twit­ter du jour­nal améri­cain. Cela a généré une panique qui n’avait pas lieu d’être, puisque le trem­ble­ment de terre en ques­tion datait de 1925. Cette erreur trou­ve son orig­ine dans une mise à jour des anci­ennes don­nées de l’USGS, l’institution qui recense les trem­ble­ments de terre aux États-Unis et à laque­lle l’algorithme est relié. Ce dernier a partagé l’information avec la mau­vaise date, directe­ment sur le réseau social du quo­ti­di­en, sans aucune véri­fi­ca­tion humaine. 

« L’en­nui majeur de la robot-rédac­tion, du point de vue éthique, se situe au niveau des don­nées, souligne Damien Des­bor­des. Ce que le robot con­sid­ère comme des infor­ma­tions, est en réal­ité une base de don­nées. Or il est très dif­fi­cile de crois­er ce genre d’in­for­ma­tions, puisque la plu­part des bases de don­nées ont un coût, quand elles ne sont pas uniques. » Le jour­nal­iste défend donc l’importance des data-ana­lyst dans la ges­tion de ces algo­rithmes. Ceux-ci sont chargés de con­trôler les bases de don­nées util­isées par les pro­grammes, et d’ef­fectuer le tra­di­tion­nel tra­vail jour­nal­is­tique de véri­fi­ca­tion des sources.

Au delà des bases de don­nées util­isées, la nature même du pro­gramme peut être à l’o­rig­ine de failles. Auto­mat­ed Insights et Nar­ra­tive Sci­ence sont des entre­pris­es à but lucratif. « Dans un con­texte de stan­dard­i­s­a­tion de la robot-rédac­tion et d’ac­céléra­tion des rythmes édi­to­ri­aux, le risque est de voir des entre­pris­es d’in­tel­li­gence arti­fi­cielle se lancer seules sur le marché de l’in­formation, explique Damien Des­bor­des. Elles seront très com­péti­tives et ne béné­ficieront pas des atouts éthiques que con­fère l’ex­péri­ence d’une rédac­tion comme celle du Monde. » Par ailleurs, ces algo­rithmes sont créés par des développeurs qui ne sont pas totale­ment objec­tifs et qui peu­vent com­met­tre des erreurs. 

Raisons pour lesquelles Basile Simon, jour­nal­iste à la BBC, a dévelop­pé son pro­pre out­il, Datas­tringer. Ce pro­gramme infor­ma­tique recense les arresta­tions poli­cières par caté­gories à par­tir de la base de don­nées du site « Police for UK ». En fonc­tion des résul­tats obtenus chaque mois, les jour­nal­istes déter­mi­nent s’ils ont un arti­cle à écrire sur le sujet, sans même avoir à con­tac­ter les forces de police. 

Un algo­rithme rédacteur-en-chef ?

Cer­taines rédac­tions recourent égale­ment à des robots pour décrypter les habi­tudes de leurs lecteurs. La start-up Trends­board a pro­posé son algo­rithme du même nom a une ving­taine de médias français tels que L’Équipe, Le Point, L’Ex­press, Grazia, Eurosport, ou L’Obs. « C’était un peu comme Apple News aujourd’hui, on pou­vait voir si nos arti­cles remon­taient bien », se sou­vient Philippe Da Cos­ta, com­mu­ni­ty man­ag­er de la rédac­tion d’Eurosport. Cet algo­rithme per­met de con­naître, en temps réel, les con­tenus les plus partagés sur les réseaux soci­aux, de lis­ter l’ensemble des con­ver­sa­tions qu’ils engen­drent, de class­er leur vol­ume de partage sur les réseaux soci­aux ou encore d’avoir un regard sur les arti­cles des médias con­cur­rents. Selon son créa­teur, Benoît Raphaël, ces infor­ma­tions per­me­t­tent au média de « pro­duire des con­tenus plus per­ti­nents » et de « pro­pos­er des angles dif­férents de leurs con­cur­rents ». En 2014, l’entreprise réfléchis­sait à éten­dre les com­pé­tences du robot à la recherche de con­tenus sur les réseaux sociaux. 

C’est ce que pro­posent aujourd’hui les out­ils Crowd­Tan­gle (prin­ci­pale­ment sur Face­book, Insta­gram et Red­dit) et Talk­walk­er (sur Twit­ter). À Kon­bi­ni News, Thomas Fol­liot, com­mu­ni­ty man­ag­er, utilise Crowd­Tan­gle depuis un an et demi. « C’est une veille automa­tisée. Plutôt que d’aller à droite ou à gauche, toutes les infor­ma­tions sont réu­nies au même endroit. Elles sont classées en fonc­tion du niveau d’in­ter­ac­tion qu’elles sus­ci­tent, en fonc­tion des likes, des com­men­taires et des partages », résume-t-il. Résul­tat, le com­mu­ni­ty man­ag­er peut con­sul­ter une dizaine de fois par jour l’écran accroché au mur de la rédac­tion pour con­naître les sujets ten­dance sur les réseaux soci­aux ou encore le tra­vail des médias con­cur­rents. Kon­bi­ni News s’en sert égale­ment pour trou­ver des idées d’articles. L’al­go­rithme lui a per­mis de repér­er la polémique créée par la pub­lic­ité de la mar­que de pro­tec­tion hygiénique Nana, représen­tant des sex­es féminins, et d’écrire sur le sujet. Néan­moins, Matthieu Fol­liot assure que Kon­bi­ni ne se repose pas aveuglé­ment sur Crowd­tan­gle. « On ne traite pas tout ce que Crowd­Tan­gle trou­ve. L’idée n’est pas de se trans­former en machine à buzz. »

Il en va de même pour France Info et son util­i­sa­tion de Dat­a­m­inr. Cet out­il per­met aux rédac­tions de recevoir des alertes par mail, sur des infor­ma­tions virales trou­vées sur Twit­ter. Grâce à lui, France Info a pris rapi­de­ment con­nais­sance des atten­tats de Brux­elles en 2016 et de Stras­bourg, deux ans plus tard. « Nous avons paramétré Dat­a­m­inr en fonc­tion de notre ligne édi­to­ri­ale. Par exem­ple, nous ne deman­dons pas au robot de nous alert­er sur des thé­ma­tiques peo­ple évo­quées sur Twit­ter, explique Estelle Cognacq, direc­trice adjointe de la rédac­tion. Lorsqu’une alerte coïn­cide avec notre ligne édi­to­ri­ale nous véri­fions le con­tenu de son infor­ma­tion. » Savoir paramétr­er l’outil est indis­pens­able. « Nous n’avons pas été alerté sur Lubri­zol car nous avions mal paramétré l’outil. Inverse­ment, nous avons cessé de deman­der à l’algorithme de nous alert­er lorsqu’il ren­con­trait l’expression “col­is piégés” . Nous nous sommes ren­du compte que ce type d’annonce, sur Twit­ter, était très fréquent. » Pour Estelle Cognacq, Dat­a­m­inr est un algo­rithme impor­tant pour une chaîne d’information, car il per­met d’obtenir, de véri­fi­er et de pub­li­er une infor­ma­tion plus rapi­de­ment. « Mais il n’est qu’un out­il d’alerte, pré­cise-t-elle. Il néces­sit­era tou­jours une action jour­nal­is­tique, au paramé­trage et à la véri­fi­ca­tion de l’information. En général, 80 % des alertes reçues par la rédac­tion se retrou­vent à la poubelle. » Selon la direc­trice adjointe de la rédac­tion, la dif­fi­culté actuelle se trou­ve dans la mul­ti­tude des out­ils exis­tants. « Lequel est le meilleur ? Suis-je sat­is­faite des alertes que me trans­met l’al­go­rithme ? Pourquoi ? Il faut se pos­er la ques­tion chaque semaine. », observe-t-elle. 

L’u­til­i­sa­tion de ce type d’outil sans ques­tion­nement peut con­duire à des dérives. Le Monde diplo­ma­tique décrypte dans un arti­cle pub­lié en 2017, le cas de Shape, l’algorithme au cœur du fonc­tion­nement du pure play­er Melty. Celui-ci s’occupe de plan­i­fi­er les pub­li­ca­tions en déter­mi­nant les ten­dances sur les réseaux soci­aux et les sujets qui pour­raient attir­er des lecteurs. La dif­férence avec les exem­ples précé­dents est que ces thèmes ne sont plus sug­gérés aux jour­nal­istes mais imposés. L’algorithme prend alors réelle­ment le rôle de rédac­teur en chef du média. La volon­té d’attirer des lecteurs ciblés peut ain­si sup­planter la réflex­ion sur la qual­ité, la per­ti­nence et l’intérêt de l’information délivrée par le média, si elle n’est pas encadrée.

Selon la charte de déon­tolo­gie des jour­nal­istes, « le jour­nal­isme con­siste à rechercher, véri­fi­er, situer dans son con­texte, hiérar­chis­er, met­tre en forme, com­menter et pub­li­er une infor­ma­tion de qual­ité. »  Un tra­vail qui ne peut se pass­er de l’intervention humaine, selon Damien Des­bor­des. « Il faut des pro­duc­teurs pri­maires d’ar­ti­cles, des per­son­nes qui réfléchissent à de nou­veaux sujets, qui enquê­tent et innovent, argu­mente t‑il. À moins que les robots ne puis­sent en faire autant d’i­ci peu…»