1 00:00:04,960 --> 00:00:07,520 Bonjour, nous voilà repartis 2 00:00:07,720 --> 00:00:11,640 donc sur l'internationalisation de Facebook. 3 00:00:11,840 --> 00:00:16,040 Comment Facebook a-t-il fait pour s'internationaliser ? 4 00:00:16,239 --> 00:00:19,240 On est en 2008 et pour s'internationaliser, Facebook 5 00:00:19,439 --> 00:00:24,200 met en place un outil permettant aux usagers de la 6 00:00:24,580 --> 00:00:25,880 plateforme eux-mêmes de 7 00:00:26,080 --> 00:00:30,800 traduire le site dans leurs langues. 8 00:00:31,000 --> 00:00:35,800 On commence par l'espagnol, puisque nombreux sont les 9 00:00:36,000 --> 00:00:39,760 étudiants dans les universités nord-américaines, 10 00:00:39,960 --> 00:00:44,160 donc les étudiants hispanophones, notamment latino-américains, 11 00:00:44,360 --> 00:00:46,160 qui utilisent Facebook. 12 00:00:46,360 --> 00:00:49,580 Et donc, Facebook s'est propagé en Amérique latine 13 00:00:49,780 --> 00:00:53,700 avant même d'avoir une édition en espagnol. 14 00:00:53,900 --> 00:00:56,580 Et donc, il faut, par exemple, 15 00:00:56,780 --> 00:01:01,540 il faut en 2008 quatre 16 00:01:01,740 --> 00:01:04,959 semaines pour que 1500 utilisateurs de Facebook 17 00:01:05,160 --> 00:01:07,660 traduisent le site. 18 00:01:07,860 --> 00:01:11,200 Et le même système va être utilisé pour d'abord la 19 00:01:11,400 --> 00:01:15,320 version en français, puis la version en allemand, 20 00:01:15,520 --> 00:01:20,240 puis les autres versions mondiales. 21 00:01:20,440 --> 00:01:22,560 Dès 2010, Facebook est ainsi 22 00:01:22,760 --> 00:01:27,520 disponible en pas moins de 75 langues. 23 00:01:27,920 --> 00:01:31,160 Ça vous donne une idée de l'importance de 24 00:01:31,360 --> 00:01:36,119 l'internationalisation très tôt et très rapidement de Facebook. 25 00:01:37,060 --> 00:01:41,780 Dès cette époque-là, 60 à 70 % des usagers de 26 00:01:41,980 --> 00:01:46,740 Facebook vivent en dehors d'Amérique du Nord. 27 00:01:48,180 --> 00:01:53,140 Alors, ce qui est intéressant avec Facebook, c'est que très 28 00:01:53,560 --> 00:01:58,520 rapidement, disons très rapidement, dès 2011 en tout cas, 29 00:01:59,080 --> 00:02:02,200 il est considéré officiellement comme un 30 00:02:02,400 --> 00:02:05,580 infomédiaire essentiel, comme un infomédiaire essentiel. 31 00:02:05,780 --> 00:02:10,539 Un rapport du Pew Research Center, qui est un centre de 32 00:02:10,759 --> 00:02:13,300 recherche important sur les médias et la presse 33 00:02:13,500 --> 00:02:15,380 d'information aux États-Unis, 34 00:02:15,579 --> 00:02:19,160 donc dès 2011, un rapport du 35 00:02:19,359 --> 00:02:22,280 Pew Research Center explique 36 00:02:22,480 --> 00:02:26,060 que Facebook est "un acteur 37 00:02:26,260 --> 00:02:31,000 crucial de l'information" aux États-Unis, mais aussi en 38 00:02:31,200 --> 00:02:33,900 dehors des États-Unis. 39 00:02:34,100 --> 00:02:36,360 Alors, ce qui est intéressant, c'est à ce moment-là, 40 00:02:36,660 --> 00:02:40,040 en 2011, Facebook est un acteur central de l'information, 41 00:02:40,360 --> 00:02:43,140 pourquoi de l'information au sens de l'information journalistique ? 42 00:02:43,740 --> 00:02:46,520 Alors, pourquoi est-ce que Facebook est un acteur 43 00:02:46,720 --> 00:02:49,640 central de l'information journalistique ? C'est parce 44 00:02:49,839 --> 00:02:54,540 qu'il met en relation, il joue un rôle central dans 45 00:02:54,739 --> 00:02:57,620 la mise en relation entre les producteurs de contenu 46 00:02:57,820 --> 00:03:02,580 d'information journalistique et les usagers. 47 00:03:04,020 --> 00:03:07,540 Et ce qui est intéressant, c'est qu'il est devenu un 48 00:03:07,739 --> 00:03:11,860 acteur incontournable dans ce domaine sans avoir fait d'effort, 49 00:03:12,060 --> 00:03:15,840 juste par son activité de plateforme numérique, 50 00:03:16,120 --> 00:03:19,620 sans avoir fait d'effort pour l'être, 51 00:03:19,820 --> 00:03:22,220 aussi important dans ce secteur. 52 00:03:22,420 --> 00:03:23,580 Et à partir de 2012, 53 00:03:23,780 --> 00:03:28,540 il va investir pour occuper 54 00:03:30,020 --> 00:03:32,800 une place encore plus importante d'infomédiaire. 55 00:03:33,000 --> 00:03:35,540 2012, une autre plateforme numérique est en train de se 56 00:03:35,739 --> 00:03:40,260 développer et Facebook a 57 00:03:40,459 --> 00:03:43,500 horreur des concurrents potentiels. 58 00:03:43,700 --> 00:03:47,180 Cette autre plateforme numérique, c'est Twitter. 59 00:03:47,520 --> 00:03:51,840 C'est Twitter, donc, qui a été créé en juillet 2006, 60 00:03:52,040 --> 00:03:56,700 vous le savez sans doute, et qui, en 2012, compte déjà 61 00:03:56,899 --> 00:03:58,180 100 millions d'abonnés. 62 00:03:58,380 --> 00:04:01,940 Et parmi ces 100 millions d'abonnés, il y a notamment de très 63 00:04:02,140 --> 00:04:06,480 nombreux journalistes qui utilisent Twitter à des fins 64 00:04:06,679 --> 00:04:08,960 professionnelles. Et donc, 65 00:04:09,160 --> 00:04:13,920 en 2012, Twitter est sans doute le réseau social le 66 00:04:14,120 --> 00:04:18,959 plus intéressant pour les 67 00:04:19,320 --> 00:04:22,380 journalistes du point de vue professionnel. Et donc, 68 00:04:22,580 --> 00:04:27,340 Facebook, pour lutter contre la concurrence potentielle de Twitter, 69 00:04:27,720 --> 00:04:32,400 va mettre l'accent, va mettre en place un ensemble d'outils 70 00:04:32,599 --> 00:04:33,760 et va développer une 71 00:04:33,960 --> 00:04:38,719 véritable politique à l'égard 72 00:04:40,480 --> 00:04:41,900 des médias d'information. 73 00:04:42,099 --> 00:04:44,420 Et il va mettre en place des 74 00:04:44,620 --> 00:04:49,380 outils servant les médias. 75 00:04:52,040 --> 00:04:55,980 Parmi les nombreux outils qu'il met en place, citons 76 00:04:56,180 --> 00:05:00,940 par exemple en mai 2015 ce qu'il a appelé les instant articles. 77 00:05:02,340 --> 00:05:05,300 Les instant articles, c'est une nouvelle 78 00:05:05,500 --> 00:05:08,140 fonctionnalité qui permet à 79 00:05:08,340 --> 00:05:11,320 un certain nombre de médias 80 00:05:11,520 --> 00:05:14,320 de publier directement sur la 81 00:05:14,520 --> 00:05:18,500 plateforme et de publier sur la plateforme des articles 82 00:05:18,700 --> 00:05:22,620 qui ont des formats adaptés à 83 00:05:22,820 --> 00:05:24,780 la plateforme. 84 00:05:25,400 --> 00:05:29,760 Grâce à cette politique volontariste pour occuper le 85 00:05:29,960 --> 00:05:34,060 champ de l'information, Facebook va devenir en 2015, 86 00:05:34,580 --> 00:05:39,120 figurez-vous, il va devenir en 2015 donc le site qui 87 00:05:39,320 --> 00:05:44,080 génère le plus de trafic vers les sites d'information en ligne. 88 00:05:44,940 --> 00:05:46,680 Il bat Google. 89 00:05:47,180 --> 00:05:50,400 On l'a vu, Google était avant 90 00:05:50,599 --> 00:05:53,840 2015 le site qui générait le 91 00:05:54,039 --> 00:05:56,920 plus de liens vers les sites 92 00:05:57,120 --> 00:06:00,340 d'information. Et donc, 93 00:06:00,539 --> 00:06:02,720 en 2015, grâce à cette politique volontariste, 94 00:06:02,920 --> 00:06:07,680 Facebook supplante même dans ce domaine Google. 95 00:06:09,060 --> 00:06:12,860 Donc, en quelques années, Facebook est devenu une 96 00:06:13,060 --> 00:06:15,880 plateforme majeure pour accéder à l'information et, 97 00:06:16,080 --> 00:06:19,260 bien entendu, étant donné les dimensions internationales de 98 00:06:19,460 --> 00:06:21,080 Facebook, pour accéder aussi 99 00:06:21,280 --> 00:06:26,039 à l'information internationale. 100 00:06:27,520 --> 00:06:32,479 Alors, on va voir maintenant 101 00:06:33,480 --> 00:06:37,080 que cette politique volontariste de s'imposer 102 00:06:37,280 --> 00:06:39,780 dans le secteur de l'information, alors que rappelons-nous, 103 00:06:39,979 --> 00:06:44,440 le secteur de l'information journalistique n'est pas un 104 00:06:44,640 --> 00:06:47,760 secteur où Facebook a beaucoup de compétences, 105 00:06:47,960 --> 00:06:51,960 rappelons ce fait fondamental : Facebook ne produit pas de 106 00:06:52,159 --> 00:06:56,160 contenu et encore moins de contenu journalistique. 107 00:06:56,360 --> 00:06:59,760 Donc, ayant fait preuve de 108 00:06:59,960 --> 00:07:04,560 professionnalisme, Facebook, c'est une plateforme qui se 109 00:07:04,760 --> 00:07:08,620 contente de mettre en relation des usagers et des 110 00:07:08,820 --> 00:07:11,960 producteurs de contenu, entre autres des contenus 111 00:07:12,159 --> 00:07:16,919 médiatiques et journalistiques. 112 00:07:18,540 --> 00:07:23,020 Or, en développant une 113 00:07:23,219 --> 00:07:26,120 politique volontariste pour occuper une grande place dans 114 00:07:26,320 --> 00:07:28,720 ce secteur-là, pour battre un concurrent comme Twitter, 115 00:07:28,920 --> 00:07:33,680 Facebook s'est engagé dans un champ, dans un champ qui peut 116 00:07:33,880 --> 00:07:35,980 comporter quelques dangers. 117 00:07:36,180 --> 00:07:39,920 C'est ce dont on va se rendre compte pendant les élections 118 00:07:40,120 --> 00:07:42,600 présidentielles de 2016, pendant les élections 119 00:07:42,800 --> 00:07:46,960 présidentielles de 2016, celles qui voient Donald 120 00:07:47,159 --> 00:07:51,919 Trump porté au pouvoir pour sa première présidence. 121 00:07:52,119 --> 00:07:55,880 Donc, Facebook va en effet à 122 00:07:56,080 --> 00:08:00,640 ce moment-là être, dès le lendemain même des élections, 123 00:08:01,480 --> 00:08:06,120 accusé d'avoir été le relais 124 00:08:06,320 --> 00:08:11,080 pendant ces élections autant de fausses informations que 125 00:08:11,420 --> 00:08:14,440 de tentatives de désinformation de la part 126 00:08:14,640 --> 00:08:19,400 d'acteurs extérieurs, les Russes entre autres, 127 00:08:19,980 --> 00:08:22,120 pour ne pas les nommer. 128 00:08:22,320 --> 00:08:25,400 Alors, quels sont les éléments reprochés à Facebook ? 129 00:08:25,599 --> 00:08:27,480 Ce qu'on lui reproche, 130 00:08:27,680 --> 00:08:31,580 c'est que des sympathisants 131 00:08:31,780 --> 00:08:35,020 de Trump ont utilisé les 132 00:08:35,220 --> 00:08:37,820 outils mis à disposition pour 133 00:08:38,020 --> 00:08:40,780 faire de la publicité et pour 134 00:08:41,039 --> 00:08:44,000 démultiplier leur audience 135 00:08:44,200 --> 00:08:47,160 auprès du public américain. 136 00:08:47,360 --> 00:08:50,680 Pour utiliser donc, ils ont 137 00:08:50,880 --> 00:08:55,640 utilisé les outils mis à disposition donc par le 138 00:08:55,840 --> 00:08:59,080 service publicitaire de Facebook à des tarifs très 139 00:08:59,280 --> 00:09:04,040 intéressants pour diffuser 140 00:09:05,060 --> 00:09:08,060 toute une série de messages et toute une série de 141 00:09:08,260 --> 00:09:12,220 messages qui s'apparentent 142 00:09:12,420 --> 00:09:15,980 pour certains à de franches fausses informations. 143 00:09:16,180 --> 00:09:20,940 Donc, des messages vont être 144 00:09:21,140 --> 00:09:25,960 envoyés à des électeurs dont on a repéré qu'ils avaient 145 00:09:26,680 --> 00:09:30,700 les mêmes caractéristiques socioprofessionnelles et 146 00:09:30,900 --> 00:09:35,520 d'autres traits que ceux qui forment la base de 147 00:09:35,720 --> 00:09:37,560 l'électorat trumpiste. 148 00:09:37,760 --> 00:09:41,120 Et donc, on va envoyer à ces 149 00:09:41,320 --> 00:09:46,080 audiences similaires des messages dénonçant Hillary 150 00:09:46,780 --> 00:09:49,060 Clinton la corrompue. 151 00:09:49,260 --> 00:09:52,740 On va leur envoyer tout un 152 00:09:53,280 --> 00:09:56,720 tas de fables politiques pour 153 00:09:56,920 --> 00:10:01,300 les dissuader de voter Hillary Clinton et les 154 00:10:01,500 --> 00:10:05,860 persuader de voter Donald Trump. 155 00:10:06,060 --> 00:10:10,820 Donc, les plus importantes 156 00:10:14,900 --> 00:10:17,320 fausses informations vont 157 00:10:17,520 --> 00:10:21,060 être diffusées sur le réseau 158 00:10:21,260 --> 00:10:23,820 et ne vont pas être modérées. 159 00:10:24,020 --> 00:10:28,780 Un site d'extrême droite, "Ending the Fed", Federal 160 00:10:29,500 --> 00:10:34,360 Reserve System, la banque 161 00:10:34,560 --> 00:10:37,360 centrale états-unienne, donc "il faut en finir avec 162 00:10:37,560 --> 00:10:42,320 la banque centrale des États-Unis", c'est ça le nom de ce site 163 00:10:42,700 --> 00:10:43,620 d'extrême droite. 164 00:10:43,820 --> 00:10:47,700 Il publie fin septembre 2016 une information selon 165 00:10:47,900 --> 00:10:51,880 laquelle le pape lui-même 166 00:10:52,080 --> 00:10:54,000 aurait apporté son soutien à 167 00:10:54,200 --> 00:10:58,960 Donald Trump, ce qui va 168 00:10:59,160 --> 00:11:03,960 générer des millions de réactions sur Facebook. 169 00:11:05,680 --> 00:11:08,180 Donc, circulation de fausses 170 00:11:08,920 --> 00:11:13,880 informations. Donc, après l'élection, 171 00:11:15,720 --> 00:11:19,520 le lendemain de l'élection, 172 00:11:19,720 --> 00:11:24,580 ces accusations vont se développer. 173 00:11:24,780 --> 00:11:27,820 Dans un premier temps, Mark Zuckerberg va nier en 174 00:11:28,020 --> 00:11:30,880 bloc la responsabilité de 175 00:11:31,080 --> 00:11:33,940 Facebook avant de se raviser 176 00:11:34,140 --> 00:11:38,900 et de reconnaître que sa plateforme a été la proie 177 00:11:39,500 --> 00:11:43,960 pendant les élections américaines de tentatives de 178 00:11:44,160 --> 00:11:47,840 diffuser des fausses informations et même au-delà 179 00:11:48,040 --> 00:11:52,800 de tentatives de diffuser de 180 00:11:53,000 --> 00:11:56,320 la désinformation de la part 181 00:11:56,520 --> 00:12:00,040 d'États étrangers. 182 00:12:01,280 --> 00:12:05,820 Il va le reconnaître, cette dernière réalité, 183 00:12:06,320 --> 00:12:08,940 le fait que sa plateforme a 184 00:12:09,140 --> 00:12:12,560 été mobilisée par des États 185 00:12:12,760 --> 00:12:16,720 étrangers pour désinformer lors des élections. 186 00:12:17,220 --> 00:12:19,240 Ça va être reconnu 187 00:12:19,440 --> 00:12:23,160 tardivement en avril 2017. 188 00:12:23,520 --> 00:12:25,360 En avril 2017, Facebook 189 00:12:25,560 --> 00:12:29,540 publie un rapport interne, 190 00:12:30,340 --> 00:12:35,300 "Information Operations and Facebook", 191 00:12:37,620 --> 00:12:38,900 les opérations d'information 192 00:12:39,100 --> 00:12:43,860 et Facebook, où on lit que 193 00:12:44,740 --> 00:12:48,520 Facebook reconnaît que des acteurs malveillants, 194 00:12:48,720 --> 00:12:53,600 c'est le terme qui est employé, ont cherché à atteindre une audience, 195 00:12:54,000 --> 00:12:58,580 utilisent la plateforme pour essayer d'atteindre une 196 00:12:58,780 --> 00:13:02,120 audience globale, y compris aux États-Unis. 197 00:13:02,820 --> 00:13:07,560 Le rapport explique que la 198 00:13:07,760 --> 00:13:12,380 plateforme offre à tous ceux qui le veulent la possibilité 199 00:13:12,580 --> 00:13:16,800 d'agir pour amplifier leur voix politique, quitte pour 200 00:13:17,000 --> 00:13:20,600 cela à utiliser de faux comptes. 201 00:13:20,800 --> 00:13:23,120 Donc, la Russie n'est pas nommée dans le rapport, 202 00:13:23,480 --> 00:13:25,120 mais la Russie est dans la 203 00:13:25,320 --> 00:13:30,080 tête de tous les lecteurs du rapport, 204 00:13:31,220 --> 00:13:35,520 parce qu'au moment où le rapport sort, des études ont été réalisées, 205 00:13:35,720 --> 00:13:40,360 des audiences ont été organisées par le Congrès américain, 206 00:13:40,560 --> 00:13:42,520 qui ont documenté la façon 207 00:13:42,720 --> 00:13:46,560 dont les Russes et notamment 208 00:13:46,760 --> 00:13:49,700 la Internet Research Agency, dont j'ai parlé dans le 209 00:13:49,900 --> 00:13:54,200 chapitre précédent, la 210 00:13:54,400 --> 00:13:58,480 Internet Research Agency a créé de faux comptes Facebook, 211 00:13:59,000 --> 00:14:03,960 qui se font passer, pour certains, pour des activistes noirs, 212 00:14:04,920 --> 00:14:08,520 pour d'autres, pour des nationalistes du Texas, 213 00:14:09,000 --> 00:14:12,220 entre autres exemples. 214 00:14:12,420 --> 00:14:15,540 L'objectif est de polariser la société américaine, 215 00:14:15,740 --> 00:14:19,500 créer du conflit, créer de l'adversité politique, 216 00:14:20,100 --> 00:14:24,220 pour créer des problèmes au 217 00:14:24,420 --> 00:14:29,180 sein de la démocratie américaine. 218 00:14:32,020 --> 00:14:36,980 Les audiences, je vous le disais, 219 00:14:37,600 --> 00:14:41,500 vont être organisées par le Congrès américain, en 220 00:14:41,700 --> 00:14:45,160 octobre-novembre 2017, 221 00:14:46,020 --> 00:14:50,980 des audiences ont été menées avant ça, 222 00:14:51,500 --> 00:14:54,880 et vont encore être menées d'autres audiences en 223 00:14:55,080 --> 00:14:56,680 octobre-novembre 2017. 224 00:14:57,160 --> 00:15:01,900 Et à ce moment-là, Facebook est obligé de reconnaître 225 00:15:02,100 --> 00:15:06,860 qu'avant et après l'élection, 226 00:15:09,800 --> 00:15:14,760 ce ne sont pas moins de 80 000 publications non payantes, 227 00:15:16,360 --> 00:15:21,320 on ne compte pas celles qui ont été achetées, celles qui 228 00:15:21,800 --> 00:15:25,840 ont fait l'objet de publicité, 80 000 publications non payantes, 229 00:15:26,060 --> 00:15:29,080 qui auraient été vues par 126 230 00:15:29,280 --> 00:15:32,040 millions d'Américains. 231 00:15:33,600 --> 00:15:36,120 Et à ça, il faut rajouter 3000 publicités. 232 00:15:36,320 --> 00:15:39,700 L'Internet Research Agency 233 00:15:39,900 --> 00:15:44,620 aurait acheté 3000 publicités 234 00:15:44,820 --> 00:15:46,400 sur la plateforme. 235 00:15:48,440 --> 00:15:53,400 Donc, là, je ne parle que de Facebook, mais lors de ces audiences, 236 00:15:54,280 --> 00:15:59,240 le rôle joué par YouTube aussi, et également Twitter, 237 00:16:00,280 --> 00:16:03,100 identifie de son côté plus de 238 00:16:03,300 --> 00:16:06,580 36 000 comptes automatisés 239 00:16:06,780 --> 00:16:09,740 qui publient automatiquement 240 00:16:09,940 --> 00:16:14,380 des tweets favorables à la Russie. 241 00:16:16,460 --> 00:16:19,140 Donc, pour faire face à cela, 242 00:16:20,520 --> 00:16:25,480 en janvier 2018, Mark Zuckerberg, 243 00:16:28,980 --> 00:16:31,400 prenant la mesure des 244 00:16:31,600 --> 00:16:36,300 problèmes qu'a créés la 245 00:16:36,500 --> 00:16:38,360 politique volontariste de 246 00:16:38,560 --> 00:16:43,120 Facebook pour devenir une 247 00:16:43,320 --> 00:16:46,540 grande plateforme dans le 248 00:16:46,740 --> 00:16:48,960 domaine de l'information 249 00:16:49,160 --> 00:16:53,920 journalistique, prenant la mesure des problèmes que cela crée, 250 00:16:54,220 --> 00:16:56,220 en janvier 2018, Mark 251 00:16:56,420 --> 00:17:01,180 Zuckerberg va changer la 252 00:17:01,420 --> 00:17:06,079 hiérarchie du fil d'actualité, 253 00:17:06,300 --> 00:17:08,119 l'agencement du fil d'actualité. 254 00:17:08,460 --> 00:17:12,780 À partir de 2012, je ne l'ai pas dit, 255 00:17:13,000 --> 00:17:16,800 donc c'est important de le noter maintenant, à partir de 2012, 256 00:17:17,160 --> 00:17:20,180 au moment où il enclenche cette politique volontariste 257 00:17:20,380 --> 00:17:25,140 d'investissement de la sphère journalistique, le fil 258 00:17:25,420 --> 00:17:29,660 d'actualité tend à prioriser 259 00:17:29,860 --> 00:17:32,520 les actualités journalistiques. 260 00:17:32,720 --> 00:17:36,880 En janvier 2018, au contraire, on va accorder moins 261 00:17:37,080 --> 00:17:40,300 d'importance aux actualités journalistiques pour essayer 262 00:17:40,500 --> 00:17:44,840 de diminuer les ennuis liés à cet investissement de la 263 00:17:45,040 --> 00:17:47,080 sphère journalistique. 264 00:17:47,500 --> 00:17:52,460 Donc, l'élection américaine 265 00:17:53,660 --> 00:17:56,800 et ses conséquences, et on est encore dans cette 266 00:17:57,000 --> 00:17:59,680 période aujourd'hui, est importante. 267 00:18:00,180 --> 00:18:03,580 On a vu dans le chapitre 8 que s'était développée, 268 00:18:03,780 --> 00:18:06,800 avec l'essor du web, une véritable mythologie 269 00:18:07,000 --> 00:18:11,360 faisant croire qu'avec l'avènement de ce web, 270 00:18:11,680 --> 00:18:16,200 tout un chacun allait pouvoir devenir un producteur et un 271 00:18:16,400 --> 00:18:19,580 distributeur d'informations internationales, que ça 272 00:18:19,780 --> 00:18:22,340 allait démocratiser donc ce 273 00:18:22,540 --> 00:18:25,600 secteur-là. On s'est employé 274 00:18:25,800 --> 00:18:30,500 à essayer de déconstruire cette idée. 275 00:18:30,840 --> 00:18:34,140 Il n'y a plus besoin maintenant de la déconstruire, 276 00:18:34,340 --> 00:18:35,820 depuis l'élection américaine, 277 00:18:36,100 --> 00:18:41,060 on a vu qu'une plateforme 278 00:18:43,820 --> 00:18:47,640 comme Facebook, qui est une 279 00:18:47,840 --> 00:18:51,540 plateforme privée, qui s'intéresse surtout à générer 280 00:18:51,740 --> 00:18:55,180 des ressources, des recettes, 281 00:18:55,420 --> 00:18:59,040 pour générer davantage de bénéfices, 282 00:18:59,280 --> 00:19:04,240 on a vu le danger qu'il y 283 00:19:05,360 --> 00:19:09,100 avait de confier à une plateforme privée comme 284 00:19:09,300 --> 00:19:12,580 Facebook un bien aussi précieux qui est celui de la 285 00:19:12,780 --> 00:19:15,240 circulation de l'information, circulation de l'information 286 00:19:15,440 --> 00:19:17,240 qui est essentielle pour la 287 00:19:17,440 --> 00:19:21,040 survie des démocraties. 288 00:19:21,500 --> 00:19:25,200 Donc, je ne suis pas en train de dire que rien n'a changé 289 00:19:25,400 --> 00:19:29,060 avec les outils numériques, bien sûr, il donne une 290 00:19:29,260 --> 00:19:32,720 formidable opportunité à des groupes qui auparavant 291 00:19:32,920 --> 00:19:36,260 auraient dû investir beaucoup plus pour toucher un grand 292 00:19:36,460 --> 00:19:38,760 nombre de consommateurs, mais il faut absolument 293 00:19:38,960 --> 00:19:42,260 prendre en compte le revers de la médaille, et le revers 294 00:19:42,460 --> 00:19:44,680 de la médaille, c'est l'apparition de ces grands 295 00:19:44,880 --> 00:19:48,840 infomédiaires, de ces grandes plateformes numériques qui 296 00:19:49,040 --> 00:19:51,520 sont des acteurs privés, qui ne produisent pas 297 00:19:51,720 --> 00:19:53,720 d'informations journalistiques, mais qui exploitent 298 00:19:53,920 --> 00:19:55,060 l'information journalistique 299 00:19:55,260 --> 00:20:00,020 donc produite par d'autres 300 00:20:00,220 --> 00:20:03,940 pour générer davantage de recettes et qui font circuler 301 00:20:04,140 --> 00:20:06,420 à côté de cette information journalistique beaucoup 302 00:20:06,620 --> 00:20:09,280 d'autres contenus qui posent un grand problème. 303 00:20:09,480 --> 00:20:13,000 Et le rôle de filtres que jouent ces grandes 304 00:20:13,200 --> 00:20:17,740 plateformes numériques constitue un vrai défi pour 305 00:20:17,940 --> 00:20:21,500 la démocratie aux États-Unis comme en Europe et comme 306 00:20:21,700 --> 00:20:25,180 évidemment dans le reste du monde. 307 00:20:26,440 --> 00:20:30,840 Donc, voici, c'est la fin de ce cours, j'espère qu'il vous a un 308 00:20:31,040 --> 00:20:34,780 petit peu intéressé, j'ai eu en tout cas de mon 309 00:20:34,980 --> 00:20:38,160 côté beaucoup de plaisir à le faire et il me reste à vous 310 00:20:38,360 --> 00:20:41,620 souhaiter très bonne chance pour votre examen. 311 00:20:42,000 --> 00:20:44,780 À très bientôt donc, au revoir, merci.