1 00:00:05,590 --> 00:00:09,730 Dans cette vidéo, nous allons aborder les enjeux liés à la régulation 2 00:00:09,930 --> 00:00:10,690 des plateformes. 3 00:00:11,500 --> 00:00:14,890 Dans l’histoire, les grandes plateformes de réseaux sociaux 4 00:00:15,090 --> 00:00:19,210 et les États ont entretenu des relations plutôt conflictuelles. 5 00:00:20,170 --> 00:00:23,350 Dans les médias et dans l’opinion publique, on avait tendance à juger 6 00:00:23,550 --> 00:00:26,420 que les plateformes étaient plus fortes que les États. 7 00:00:26,620 --> 00:00:28,720 C’est une phrase qui revenait souvent dans le débat public. 8 00:00:28,920 --> 00:00:32,860 Facebook, Google seraient des entreprises plus fortes que l’État 9 00:00:33,060 --> 00:00:34,090 français, par exemple. 10 00:00:34,290 --> 00:00:35,050 Pourquoi ? 11 00:00:35,350 --> 00:00:38,410 Parce que ce sont des grandes entreprises internationales qui 12 00:00:38,710 --> 00:00:41,860 de fait ne sont pas toujours soumises aux lois nationales. 13 00:00:42,400 --> 00:00:43,820 Par ailleurs, elles sont très populaires. 14 00:00:44,020 --> 00:00:47,920 L’opinion publique, jusqu’à un temps récent, les soutenait et 15 00:00:48,120 --> 00:00:51,730 elles disposent de moyens financiers colossaux qui leur permettent parfois 16 00:00:51,970 --> 00:00:54,280 de se soustraire aux législations nationales. 17 00:00:54,480 --> 00:00:59,380 À ce titre, l’année 2016 marque un tournant dans l’histoire des 18 00:00:59,580 --> 00:01:01,690 relations entre États et plateformes. 19 00:01:02,500 --> 00:01:07,570 Suite à l’élection américaine présidentielle de 2016 et à la 20 00:01:07,770 --> 00:01:10,450 désinformation qui a eu lieu sur Facebook à ce moment-là, 21 00:01:10,650 --> 00:01:14,590 au rôle joué par la Russie par les services russes dans la propagation 22 00:01:14,790 --> 00:01:18,190 de cette désinformation, le Congrès américain a décidé 23 00:01:18,390 --> 00:01:21,700 d’auditionner les PDG des principales plateformes de réseaux sociaux 24 00:01:22,000 --> 00:01:26,290 pour leur mettre la pression afin de les inciter à davantage modérer 25 00:01:26,530 --> 00:01:27,290 les contenus. 26 00:01:27,880 --> 00:01:31,810 En Europe, cette pression des États s’est traduite par de nouvelles lois. 27 00:01:32,010 --> 00:01:38,680 L’Allemagne a ouvert le bal avec la NetzDG, une loi de régulation 28 00:01:38,880 --> 00:01:41,530 des réseaux sociaux particulièrement contraignante pour celle-ci. 29 00:01:42,550 --> 00:01:46,000 La France a suivi avec la loi sur les manipulations de l’information 30 00:01:46,330 --> 00:01:49,210 votée en 2018 et entrée en vigueur en 2019. 31 00:01:49,410 --> 00:01:53,560 Ensuite, la loi confortant les principes républicains qui imposent 32 00:01:53,760 --> 00:01:56,290 là aussi de nouvelles contraintes aux réseaux sociaux. 33 00:01:57,340 --> 00:02:00,610 Au Royaume-Uni, la Online Safety Bil suit le même chemin, 34 00:02:00,810 --> 00:02:02,680 même si elle n’a pas encore été votée par le Parlement. 35 00:02:02,880 --> 00:02:08,380 À l’échelle de l’Union européenne, c’est le Digital Services Act qui 36 00:02:08,580 --> 00:02:14,890 entrera en vigueur en février 2024, qui a pour mission d’harmoniser 37 00:02:15,090 --> 00:02:19,240 les législations européennes en matière de régulation des plateformes. 38 00:02:20,590 --> 00:02:22,210 Toutes ces lois sont différentes. 39 00:02:23,170 --> 00:02:25,210 Elles partagent quand même plusieurs points communs. 40 00:02:25,410 --> 00:02:30,880 D’abord, elles visent à exiger plus de transparence de la part 41 00:02:31,080 --> 00:02:33,280 des plateformes quant à leurs pratiques de modération. 42 00:02:34,450 --> 00:02:37,300 En les obligeant, c’est le cas en France notamment, à publier 43 00:02:37,630 --> 00:02:41,170 de manière récurrente des rapports de transparence – en France, 44 00:02:41,370 --> 00:02:44,110 c’est tous les six mois – sur la manière dont elles modèrent leurs 45 00:02:44,310 --> 00:02:47,740 effectifs de modération, les critères de jugement sur lesquels 46 00:02:47,940 --> 00:02:51,880 reposent les décisions qui sont prises, donc on leur impose davantage de 47 00:02:52,080 --> 00:02:52,840 transparence. 48 00:02:53,040 --> 00:02:55,780 Mais on leur impose aussi des nouveaux standards en la matière, 49 00:02:55,980 --> 00:03:00,100 par exemple on exige de ces plateformes qu’elles mettent en place des moyens 50 00:03:00,300 --> 00:03:03,310 de modération quand ce n’est pas déjà le cas, par exemple en mettant 51 00:03:03,510 --> 00:03:07,000 en place des dispositifs de modération ou des standards de publication 52 00:03:07,420 --> 00:03:08,260 quand elles n’en ont pas. 53 00:03:08,460 --> 00:03:16,090 Parfois, ces tentatives de régulation vont plus loin, notamment lorsqu’elles 54 00:03:16,290 --> 00:03:20,650 imposent des délais quant à la suppression d’un contenu illégal 55 00:03:20,850 --> 00:03:21,610 après signalement. 56 00:03:22,420 --> 00:03:27,610 Par exemple, la loi allemande impose aux grandes plateformes de réseaux 57 00:03:27,810 --> 00:03:32,950 sociaux de retirer un contenu qui leur aurait été signalé sous 24 heures, 58 00:03:33,250 --> 00:03:35,170 sous peine d’amende record. 59 00:03:36,040 --> 00:03:39,130 Si les plateformes n’obtempèrent pas, si elles n’arrivent pas à retirer 60 00:03:39,330 --> 00:03:43,600 un contenu en 24 heures alors qu’il a été signalé comme étant illégal, 61 00:03:45,220 --> 00:03:50,530 ces plateformes peuvent se voir infliger des amendes records pouvant 62 00:03:50,730 --> 00:03:52,930 aller jusqu’à cinq millions d’euros par cas. 63 00:03:54,700 --> 00:03:58,420 Ces lois en Allemagne, en France, au Royaume-Uni, 64 00:03:59,800 --> 00:04:06,340 sont elles-mêmes controversées puisqu’on les accuse de générer 65 00:04:06,540 --> 00:04:07,300 de la censure. 66 00:04:07,930 --> 00:04:11,380 En effet, on les accuse de générer de la censure puisqu’elles pousseraient 67 00:04:11,580 --> 00:04:16,480 les plateformes à surmodérer pour échapper aux sanctions. 68 00:04:17,950 --> 00:04:22,210 Imaginons si une entreprise comme Facebook ou Twitter risque de se 69 00:04:22,410 --> 00:04:26,290 voir infliger des amendes de plusieurs millions d’euros parce qu’elles 70 00:04:26,490 --> 00:04:31,500 n’ont pas retiré assez vite un contenu, leur réflexe sera de modérer trop 71 00:04:31,700 --> 00:04:36,190 plutôt que pas assez, donc de supprimer encore plus de 72 00:04:36,390 --> 00:04:40,420 contenus qui n’auraient pas dû être supprimés et créer de la censure 73 00:04:40,660 --> 00:04:44,720 là où il n’aurait pas dû y en avoir, l’incitation à la surmodération 74 00:04:45,460 --> 00:04:46,840 pour les plateformes. 75 00:04:47,040 --> 00:04:52,300 D’où l’intérêt, du côté des pouvoirs publics de surveiller comment s’y 76 00:04:52,500 --> 00:04:54,010 prennent ces plateformes pour modérer. 77 00:04:54,520 --> 00:04:57,430 Comme je vous l’ai signalé, c’est le cas de ce que fait la France. 78 00:04:57,630 --> 00:05:02,780 L’ARCOM, qui a récemment remplacé le CSA, exige des grandes plateformes 79 00:05:02,980 --> 00:05:06,020 de réseau social qu’elle publie tous les six mois, un rapport de 80 00:05:07,820 --> 00:05:10,520 transparence sur leurs pratiques de modération. 81 00:05:10,970 --> 00:05:15,350 Ces rapports sont librement accessibles sur le site de l’ARCOM. 82 00:05:18,020 --> 00:05:21,650 Cette logique, c’est ce qu’on appelle une logique de régulation par la 83 00:05:21,850 --> 00:05:22,610 transparence. 84 00:05:24,860 --> 00:05:28,400 Cette logique de régulation par la transparence a des côtés positifs 85 00:05:28,700 --> 00:05:33,230 dans le sens où elle apporte justement de la transparence là où il y avait 86 00:05:33,430 --> 00:05:34,190 de l’opacité. 87 00:05:34,390 --> 00:05:36,800 Historiquement, les pratiques de modération des plateformes sont 88 00:05:37,000 --> 00:05:40,640 très opaques et permettre aux chercheurs, aux régulateurs, 89 00:05:40,840 --> 00:05:44,540 aux journalistes d’en savoir plus, c’est toujours bénéfique pour le 90 00:05:44,740 --> 00:05:45,740 débat public sur la question. 91 00:05:46,430 --> 00:05:55,040 Pour autant, cette régulation par la transparence rencontre un certain 92 00:05:55,240 --> 00:05:56,000 nombre de limites. 93 00:05:57,260 --> 00:06:03,020 La première limite, c’est d’abord de créer une situation de dépendance 94 00:06:03,380 --> 00:06:08,120 des régulateurs par rapport aux données fournies par les plateformes. 95 00:06:08,320 --> 00:06:11,090 Réfléchissons-y quelques instants. 96 00:06:11,480 --> 00:06:15,110 Lorsque Facebook ou YouTube publient des rapports de transparence publiés 97 00:06:15,310 --> 00:06:16,070 par l’ARCOM. 98 00:06:16,270 --> 00:06:20,060 L’ARCOM, les régulateurs, les observateurs, les journalistes, 99 00:06:20,260 --> 00:06:23,840 les chercheurs sont bien obligés de faire confiance aux données 100 00:06:24,040 --> 00:06:24,800 qui leur sont transmises. 101 00:06:25,190 --> 00:06:28,760 Ils n’ont pas les moyens d’aller vérifier par eux-mêmes que les 102 00:06:28,960 --> 00:06:32,270 données transmises par les grandes firmes sont bien authentiques. 103 00:06:33,260 --> 00:06:37,160 Cette situation de dépendance par rapport aux données des plateformes 104 00:06:37,880 --> 00:06:43,100 crée pour ces entreprises une opportunité d’opacité stratégique, 105 00:06:43,370 --> 00:06:45,830 pour reprendre l’expression de deux chercheurs anglo-saxons, 106 00:06:46,030 --> 00:06:48,380 Mike Ananny et Kate Crawford. 107 00:06:49,340 --> 00:06:52,970 Une opportunité d’opacité stratégique, c’est-à-dire que les plateformes 108 00:06:53,170 --> 00:06:56,840 peuvent très bien nous noyer sous une grande masse de données 109 00:06:57,040 --> 00:07:00,710 insignifiantes et garder secrètes des données qu’elles souhaiteraient 110 00:07:01,010 --> 00:07:02,060 ne pas voir publier. 111 00:07:02,630 --> 00:07:05,960 Nous n’avons à aucun moment les moyens de vérifier ces données. 112 00:07:06,160 --> 00:07:11,840 C’est pour ça que le Digital Services Act, qui va rentrer en vigueur 113 00:07:12,040 --> 00:07:16,340 en février 2024, le nouveau cadre législatif européen en matière 114 00:07:16,540 --> 00:07:22,160 de transparence des contenus en ligne, va chercher à unifier les législations 115 00:07:22,360 --> 00:07:26,930 européennes en la matière et il va notamment préconiser l’audit 116 00:07:27,350 --> 00:07:29,480 des systèmes de modération des plateformes. 117 00:07:30,380 --> 00:07:34,730 Les très grandes plateformes, celles qui ont plus de 10 % de 118 00:07:34,930 --> 00:07:38,330 la population européenne comme utilisateurs, ces très grandes 119 00:07:38,530 --> 00:07:42,020 plateformes devront une fois par an financer des audits indépendants 120 00:07:42,220 --> 00:07:46,910 de leurs serveurs et de leurs dispositifs de modération qui devront 121 00:07:47,110 --> 00:07:49,880 certifier aux régulateurs nationaux que les données qui leur sont 122 00:07:50,080 --> 00:07:51,830 transmises sont bien authentiques. 123 00:07:53,270 --> 00:07:56,570 Mais le DSA, le Digital Services Act, va plus loin. 124 00:07:56,960 --> 00:08:01,220 Il préconise un ensemble de mesures que toutes les plateformes seront 125 00:08:01,420 --> 00:08:03,350 obligées de respecter. 126 00:08:03,890 --> 00:08:06,620 Elles seront obligées de mettre en place des dispositifs de signalement 127 00:08:06,820 --> 00:08:07,580 quand ce n’est pas le cas. 128 00:08:08,120 --> 00:08:11,000 Elles seront obligées de disposer de standards de publication. 129 00:08:11,750 --> 00:08:16,280 Elles devront également collaborer avec des signaleurs de confiance, 130 00:08:16,480 --> 00:08:20,720 c’est-à-dire des associations spécialisées dans la lutte contre 131 00:08:20,920 --> 00:08:25,400 le racisme, l’antisémitisme, la misogynie ou l’homophobie, 132 00:08:25,970 --> 00:08:29,000 qui aideront les plateformes à modérer davantage. 133 00:08:30,530 --> 00:08:33,650 Elles devront également généraliser des procédures d’appel. 134 00:08:35,420 --> 00:08:39,200 Elles devront communiquer sur leur algorithme et apporter de la 135 00:08:39,400 --> 00:08:44,180 transparence à leurs algorithmes en permettant aux régulateurs de 136 00:08:44,380 --> 00:08:49,550 savoir comment ces algorithmes s’y prennent pour ordonner les 137 00:08:49,750 --> 00:08:53,480 contenus, les hiérarchiser et parfois même les invisibiliser. 138 00:08:54,740 --> 00:09:00,440 Elles vont enfin interdire la publicité ciblée pour les mineurs, 139 00:09:01,070 --> 00:09:03,830 ainsi que ce qu’on appelle les dark patterns, c’est-à-dire les 140 00:09:04,030 --> 00:09:08,240 interfaces trompeuses, quand un site Internet vous manipule 141 00:09:08,510 --> 00:09:10,940 en vous faisant croire que vous réalisez une action, 142 00:09:11,140 --> 00:09:14,240 alors qu’elle cherche à vous en faire réaliser une autre. 143 00:09:14,930 --> 00:09:18,470 Les plateformes devront également ouvrir leurs données aux chercheurs 144 00:09:18,830 --> 00:09:22,100 en informatique, en sciences sociales ou autres qui veulent enquêter 145 00:09:22,340 --> 00:09:24,380 sur leurs pratiques de modération. 146 00:09:25,310 --> 00:09:29,450 Les différents régulateurs nationaux, l’ARCOM en France, seront chargés 147 00:09:29,650 --> 00:09:32,330 de surveiller la mise en œuvre de ces mesures. 148 00:09:32,750 --> 00:09:37,520 Ils seront également réunis au sein d’un Comité européen des services 149 00:09:37,720 --> 00:09:38,480 numériques. 150 00:09:39,500 --> 00:09:42,920 En cas de non-respect de ces nouvelles règles, les plateformes pourront 151 00:09:43,120 --> 00:09:47,780 se voir infliger des amendes pouvant aller jusqu’à 6 % de leur chiffre 152 00:09:47,980 --> 00:09:48,740 d’affaires. 153 00:09:49,280 --> 00:09:52,820 En cas de violations graves et répétées, les plateformes pourront 154 00:09:53,020 --> 00:09:56,600 se voir interdire leurs activités sur le marché européen. 155 00:09:57,470 --> 00:10:01,190 Cette menace, même s’il paraît aujourd’hui peu probable qu’elle 156 00:10:01,390 --> 00:10:04,940 soit mise à exécution, nous montre bien le moyen de pression 157 00:10:05,360 --> 00:10:11,690 dont disposent les institutions européennes par rapport aux 158 00:10:11,890 --> 00:10:12,650 plateformes. 159 00:10:13,370 --> 00:10:15,980 Ces plateformes, on dit qu’elles sont plus fortes que les États, 160 00:10:16,280 --> 00:10:21,200 mais elles ont tout intérêt à obtempérer, à respecter ces nouvelles 161 00:10:21,400 --> 00:10:23,720 règles, à se mettre en conformité avec ces nouvelles règles. 162 00:10:23,920 --> 00:10:24,680 Pourquoi ? 163 00:10:24,950 --> 00:10:27,890 Parce que le marché européen leur rapporte beaucoup d’argent. 164 00:10:28,310 --> 00:10:31,580 Le marché européen est le second marché, après le marché américain, 165 00:10:31,780 --> 00:10:34,970 en termes de revenus publicitaires pour des entreprises comme Facebook 166 00:10:35,170 --> 00:10:38,660 ou YouTube, donc se voir couper l’accès au marché européen, 167 00:10:38,900 --> 00:10:41,150 cela signifierait perdre beaucoup d’argent. 168 00:10:41,350 --> 00:10:45,500 Elles n’y ont pas intérêt, donc elles ont tout intérêt à suivre 169 00:10:45,700 --> 00:10:47,870 les nouvelles règles, certes très restrictives, 170 00:10:48,080 --> 00:10:49,760 qui vont bientôt leur être imposées. 171 00:10:51,830 --> 00:10:56,600 Le DSA, Digital Services Act, marque un tournant dans l’histoire 172 00:10:56,800 --> 00:10:59,720 des relations entre les États, les pouvoirs publics et les 173 00:10:59,920 --> 00:11:00,680 plateformes. 174 00:11:00,980 --> 00:11:04,850 Les législateurs, les régulateurs, les observateurs, quels qu’ils soient, 175 00:11:05,120 --> 00:11:06,050 en attendent beaucoup. 176 00:11:06,250 --> 00:11:10,670 L’avenir nous dira si sa mise en œuvre est à la hauteur des espoirs 177 00:11:10,970 --> 00:11:11,750 qu’il a suscité.