1 00:00:05,550 --> 00:00:10,870 Au cours des années 90 et au début des années 2000, les juges comme 2 00:00:11,070 --> 00:00:14,370 les pouvoirs publics ont du mal à trancher cette question de la 3 00:00:14,570 --> 00:00:18,630 responsabilité des acteurs dans les environnements numériques. 4 00:00:18,830 --> 00:00:22,750 Finalement, cette question va être tranchée au milieu des années 2000 5 00:00:22,950 --> 00:00:29,870 par une directive européenne qui va être traduite en France sous 6 00:00:30,070 --> 00:00:33,650 le terme de loi de confiance dans l'économie numérique. 7 00:00:33,850 --> 00:00:37,510 Cette loi de confiance dans l'économie numérique va justement trancher 8 00:00:37,710 --> 00:00:41,790 cette question de la responsabilité en distinguant trois statuts 9 00:00:41,990 --> 00:00:47,850 différents, le statut de fournisseur d'accès, le statut d'hébergeur 10 00:00:48,050 --> 00:00:49,890 et le statut d'éditeur. 11 00:00:50,450 --> 00:00:56,590 Chacun de ces acteurs se voit attribuer une responsabilité différente dans 12 00:00:56,790 --> 00:00:57,750 les environnements numériques. 13 00:00:57,950 --> 00:01:02,390 Les fournisseurs d'accès sont considérés comme ayant la 14 00:01:02,590 --> 00:01:09,230 responsabilité pénale la moins importante, mais ils doivent accepter 15 00:01:09,430 --> 00:01:16,390 des activités de surveillance et de blocage des sites lorsque ces 16 00:01:16,590 --> 00:01:21,010 activités sont exigées par une autorité judiciaire, c'est-à-dire 17 00:01:21,210 --> 00:01:22,310 sur une décision du juge. 18 00:01:23,170 --> 00:01:26,470 Les fournisseurs d'accès ne doivent pas surveiller leurs clients sauf 19 00:01:26,670 --> 00:01:31,630 si un juge leur demande expressément de surveiller un client ou de bloquer 20 00:01:31,830 --> 00:01:32,590 des sites. 21 00:01:33,550 --> 00:01:38,250 Les hébergeurs quant à eux disposent aux yeux de la loi d'une responsabilité 22 00:01:38,450 --> 00:01:39,350 atténuée. 23 00:01:39,550 --> 00:01:41,930 Responsabilité atténuée, c'est-à-dire qu'ils peuvent être 24 00:01:42,130 --> 00:01:46,410 considérés comme responsables des publications d'un contenu, 25 00:01:46,610 --> 00:01:50,790 la publication d'un contenu, s'il est prouvé qu'ils avaient 26 00:01:50,990 --> 00:01:55,130 connaissance d'une activité délictueuse sans avoir agi pour les stopper. 27 00:01:55,330 --> 00:01:56,090 Je vous clarifie ça. 28 00:01:57,270 --> 00:02:01,710 En gros, responsabilité atténuée, ça veut dire que les hébergeurs 29 00:02:01,910 --> 00:02:06,250 ne sont pas considérés comme étant responsables des publications qu'ils 30 00:02:06,450 --> 00:02:12,670 hébergent, sauf s'il a été prouvé qu'ils ont été mis au courant qu'ils 31 00:02:12,870 --> 00:02:17,270 hébergeaient des contenus illégaux et qu'ils n'ont pas agi pour faire 32 00:02:17,470 --> 00:02:18,290 cesser cette publication. 33 00:02:18,790 --> 00:02:23,530 Imaginons par exemple un hébergeur qui héberge un site sur lequel 34 00:02:23,730 --> 00:02:28,670 sont publiés des contenus faisant l'apologie du nazisme. 35 00:02:29,470 --> 00:02:33,730 L'hébergeur ne sera pas considéré comme responsable sauf si on est 36 00:02:33,930 --> 00:02:37,850 capable de prouver qu'il a été alerté du fait qu'il hébergeait 37 00:02:38,050 --> 00:02:40,990 un site nazi et qu'il n'a pas agi en conséquence. 38 00:02:41,190 --> 00:02:43,310 Mais si on n'arrive pas à prouver qu'il était au courant, 39 00:02:43,510 --> 00:02:44,630 il n'est pas responsable. 40 00:02:44,830 --> 00:02:47,610 Le dernier statut, c'est celui d'éditeur. 41 00:02:47,810 --> 00:02:51,190 Eux, les éditeurs, à l'inverse, sont considérés comme pleinement 42 00:02:51,390 --> 00:02:55,490 responsables des contenus qu'ils publient dans la mesure où la loi 43 00:02:55,690 --> 00:03:00,210 leur reconnaît une activité de tri éditorial et de choix dans 44 00:03:00,410 --> 00:03:01,170 ce qui est publié. 45 00:03:01,370 --> 00:03:07,490 Ce sera par exemple le statut qui sera réservé aux médias. 46 00:03:07,710 --> 00:03:10,590 Les médias se verront attribuer le statut d'éditeur, 47 00:03:10,790 --> 00:03:13,690 c'est-à-dire que ce qui sera publié sur le site d'un média, 48 00:03:14,270 --> 00:03:17,590 on considérera que le média est responsable de ce qu'il publie 49 00:03:17,790 --> 00:03:21,690 puisqu'il effectue un tri, une sélection, et que si un journal, 50 00:03:21,950 --> 00:03:25,310 un média quel qu'il soit, publie un contenu illégal, 51 00:03:25,510 --> 00:03:28,830 il en sera responsable avant même son auteur. 52 00:03:29,830 --> 00:03:35,390 Alors, cette clarification, elle est tout à fait intéressante. 53 00:03:35,590 --> 00:03:39,550 Le problème, c'est que, comme toujours, l'innovation 54 00:03:39,750 --> 00:03:42,450 technologique va plus vite que la loi. 55 00:03:42,650 --> 00:03:49,730 Et, au même moment, au milieu des années 2000, 2004-2005, 56 00:03:50,190 --> 00:03:54,190 lorsqu'est publiée la loi de confiance dans l'économie numérique, 57 00:03:55,170 --> 00:03:58,350 au même moment, apparaissent des nouveaux acteurs de l'économie 58 00:03:58,550 --> 00:04:00,910 numérique que sont les plateformes de réseaux sociaux. 59 00:04:01,610 --> 00:04:05,810 Et les plateformes de réseaux sociaux, ils posent question au regard de 60 00:04:06,010 --> 00:04:10,970 cette loi, car on a du mal à savoir à quel statut ils correspondent. 61 00:04:11,170 --> 00:04:15,550 Est-ce que les réseaux sociaux, ce sont des hébergeurs ou est-ce 62 00:04:15,750 --> 00:04:17,990 que les réseaux sociaux, ce sont des éditeurs ? 63 00:04:18,610 --> 00:04:22,730 À vrai dire, d'une certaine manière, les deux statuts pourraient leur 64 00:04:22,930 --> 00:04:23,790 correspondre. 65 00:04:23,990 --> 00:04:24,750 Pourquoi ? 66 00:04:24,950 --> 00:04:28,050 Parce que, d'un côté, les réseaux sociaux n'exercent 67 00:04:28,250 --> 00:04:30,870 pas de contrôle a priori sur les contenus. 68 00:04:31,070 --> 00:04:35,350 Lorsque vous publiez un post sur Instagram, sur Facebook ou sur YouTube, 69 00:04:35,550 --> 00:04:39,330 il n'y a pas de contrôle a priori de la plateforme sur ce que vous 70 00:04:39,530 --> 00:04:40,290 publiez. 71 00:04:40,490 --> 00:04:43,150 Les plateformes, elles, se décrivent comme étant des tuyaux, 72 00:04:43,350 --> 00:04:45,990 de simples tuyaux dans lesquels circulent des contenus, 73 00:04:46,190 --> 00:04:49,850 mais elles n'exercent pas de surveillance particulière sur les 74 00:04:50,050 --> 00:04:50,830 contenus en question. 75 00:04:51,030 --> 00:04:54,550 Et donc, elles, les plateformes, disent que leur statut correspond 76 00:04:54,750 --> 00:04:57,350 à un statut d'hébergeur et donc, elles ne doivent pas être considérées 77 00:04:57,550 --> 00:04:58,310 comme étant responsables. 78 00:04:59,330 --> 00:05:00,330 C'est en partie vrai. 79 00:05:00,910 --> 00:05:03,370 Mais d'un autre côté, lorsqu'on y regarde de plus près, 80 00:05:03,930 --> 00:05:08,610 les plateformes ne sont pas non plus complètement neutres par rapport 81 00:05:08,810 --> 00:05:10,130 au contenu qu'elles hébergent. 82 00:05:10,750 --> 00:05:14,570 Elles mettent en place des algorithmes qui trient les contenus, 83 00:05:14,870 --> 00:05:17,250 qui mettent en avant des contenus sur les fils d'actualité, 84 00:05:17,650 --> 00:05:19,450 qui en invisibilisent d'autres. 85 00:05:20,250 --> 00:05:25,310 Et ces activités de filtrage, de tri, de mise en visibilité, 86 00:05:25,590 --> 00:05:28,870 en fait, peuvent s'apparenter à des activités éditoriales. 87 00:05:29,070 --> 00:05:33,470 C'est une forme de tri éditorial que réalisent les algorithmes de 88 00:05:33,670 --> 00:05:36,630 Facebook ou d'Instagram dans les fils d'actualité. 89 00:05:36,830 --> 00:05:42,030 Et donc, certains observateurs ou juristes pensent qu'on pourrait 90 00:05:42,230 --> 00:05:44,910 les considérer comme des éditeurs. 91 00:05:45,790 --> 00:05:49,950 Et donc, tout au long des années 2000 et 2010, la justice française 92 00:05:50,150 --> 00:05:54,210 va rendre des décisions contradictoires sur le rôle des réseaux sociaux. 93 00:05:54,650 --> 00:05:58,670 Certains les considéreront comme des hébergeurs, d'autres juges 94 00:05:58,870 --> 00:06:00,770 les considéreront comme des éditeurs. 95 00:06:00,970 --> 00:06:05,250 Il n'y a pas d'unicité de leur statut dans les décisions de justice 96 00:06:05,450 --> 00:06:06,670 et dans la jurisprudence. 97 00:06:07,790 --> 00:06:11,470 Il faudra attendre le milieu des années 2010, pour le coup, 98 00:06:11,910 --> 00:06:16,190 avec la loi République numérique, qui sera publiée en 2016, 99 00:06:17,470 --> 00:06:22,470 qui va voir justement la création d'un statut intermédiaire pour 100 00:06:22,670 --> 00:06:25,830 les réseaux sociaux, qui est la création du statut 101 00:06:26,030 --> 00:06:27,570 d'opérateur de plateforme. 102 00:06:28,510 --> 00:06:30,650 Alors, qu'est-ce qu'est un opérateur de plateforme ? 103 00:06:31,010 --> 00:06:34,330 Dans la loi République numérique, un opérateur de plateforme, 104 00:06:35,050 --> 00:06:40,450 c'est un service de communication qui repose soit sur le classement 105 00:06:40,650 --> 00:06:43,990 ou le référencement d'informations, comme par exemple les moteurs de 106 00:06:44,190 --> 00:06:47,270 recherche, classement, référencement d'informations, 107 00:06:47,630 --> 00:06:52,850 soit sur la mise en relation d'internautes en vue soit de la 108 00:06:53,050 --> 00:06:56,650 vente d'un bien, comme les plateformes de l'économie collaborative type 109 00:06:56,850 --> 00:07:02,610 Leboncoin, soit sur la fourniture d'un service de partage de contenu, 110 00:07:02,910 --> 00:07:06,190 comme les réseaux sociaux ou comme les plateformes de type YouTube. 111 00:07:06,750 --> 00:07:10,750 Vous voyez, le statut d'opérateur de plateforme, il concerne à la 112 00:07:10,950 --> 00:07:15,890 fois des plateformes d'échange, des réseaux sociaux et des moteurs 113 00:07:16,090 --> 00:07:16,850 de recherche. 114 00:07:17,050 --> 00:07:22,330 Et donc ces opérateurs de plateforme sont tenus à une triple obligation 115 00:07:22,530 --> 00:07:27,210 de loyauté, de clarté et de transparence, c'est-à-dire que 116 00:07:27,410 --> 00:07:32,370 ces opérateurs doivent renseigner les usagers sur la manière dont 117 00:07:32,570 --> 00:07:35,370 ils trient les contenus, c'est-à-dire rendre transparents 118 00:07:35,570 --> 00:07:40,430 leurs algorithmes et être loyaux sur la manière dont, 119 00:07:42,590 --> 00:07:47,130 par exemple, les moteurs de recherche vont mettre en concurrence différents 120 00:07:47,330 --> 00:07:51,810 sites, tout cela doit être clair et transparent pour les usagers. 121 00:07:53,130 --> 00:07:56,310 Et ils doivent notamment, ces acteurs, ces opérateurs de 122 00:07:56,510 --> 00:08:01,930 plateforme, être clairs et transparents sur les liens contractuels qui 123 00:08:02,130 --> 00:08:04,290 peuvent influencer ces classements, c'est-à-dire est-ce que l'un de 124 00:08:04,490 --> 00:08:06,490 ces sites, est-ce que l'une de ces vidéos, est-ce que l'un de 125 00:08:06,690 --> 00:08:11,390 ces contenus a fait l'objet d'un paiement pour bénéficier d'une 126 00:08:11,590 --> 00:08:16,770 visibilité accrue, ce qui jusqu'à cette loi de 2016 était très peu 127 00:08:16,970 --> 00:08:20,470 clair sur les réseaux sociaux, les plateformes de contenu et sur 128 00:08:20,670 --> 00:08:21,870 certains moteurs de recherche. 129 00:08:23,250 --> 00:08:26,210 Alors, des sanctions financières sont prévues en cas de manquement 130 00:08:26,410 --> 00:08:31,770 à ces obligations, mais les modalités de contrôle des activités des 131 00:08:31,970 --> 00:08:33,930 plateformes ne sont pas prévues dans la loi. 132 00:08:34,490 --> 00:08:38,490 Et donc, certes, on a ce nouveau statut qui existe, mais il n'y 133 00:08:38,690 --> 00:08:40,530 a pas de contrôle organisé des plateformes. 134 00:08:42,870 --> 00:08:47,450 Et dans ce contexte, au final, la loi n'est pas appliquée. 135 00:08:47,650 --> 00:08:50,550 La loi n'est pas appliquée, les plateformes continuent de faire 136 00:08:50,750 --> 00:08:54,970 un petit peu ce qu'elles veulent, même si la plupart font quelques 137 00:08:55,170 --> 00:08:58,010 efforts de transparence pour, quelque part, montrer patte blanche 138 00:08:58,210 --> 00:09:01,270 et montrer qu'elles font des choses, mais il n'y a pas de vrai contrôle 139 00:09:01,470 --> 00:09:04,550 des pouvoirs publics sur ces obligations de loyauté, 140 00:09:04,750 --> 00:09:06,490 de clarté et de transparence. 141 00:09:07,590 --> 00:09:13,990 Au final, il faudra attendre l'actualité récente et le travail 142 00:09:14,190 --> 00:09:19,930 de la Commission européenne pour mettre à jour cette loi de confiance 143 00:09:20,130 --> 00:09:24,810 dans l'économie numérique du début des années 2000 avec le Digital 144 00:09:25,010 --> 00:09:28,110 Services Act, dont nous avions parlé un petit peu l'année dernière. 145 00:09:28,510 --> 00:09:33,010 Le Digital Services Act, c'est un nouveau règlement européen 146 00:09:33,210 --> 00:09:38,490 qui est mis sur place par la Commission européenne au début des années 2020, 147 00:09:38,690 --> 00:09:43,090 voté par le Parlement et finalement mis en œuvre en 2023, 148 00:09:43,290 --> 00:09:48,230 donc c'est très récent, qui vise justement à créer une 149 00:09:48,430 --> 00:09:53,430 nouvelle donne dans le monde de l'économie numérique en imposant 150 00:09:53,630 --> 00:09:58,130 de nouvelles obligations aux plateformes de réseaux sociaux, 151 00:09:58,850 --> 00:10:03,170 aux plateformes de partage de contenu et également aux moteurs de recherche. 152 00:10:03,370 --> 00:10:07,870 Alors quelles sont ces nouvelles obligations ? 153 00:10:09,310 --> 00:10:11,170 Elles sont nombreuses. 154 00:10:12,490 --> 00:10:16,010 On va, par exemple, obliger les plateformes, les plateformes de 155 00:10:16,210 --> 00:10:19,870 réseaux sociaux, à retirer plus rapidement les contenus qui leur 156 00:10:20,070 --> 00:10:22,610 sont signalés, en leur imposant des délais de retrait, 157 00:10:22,830 --> 00:10:24,570 par exemple un délai de 48 heures. 158 00:10:24,770 --> 00:10:28,590 On va les obliger à être plus transparentes sur le fonctionnement 159 00:10:28,790 --> 00:10:33,210 de leur algorithme, en communiquant sur la manière dont les tris des 160 00:10:33,410 --> 00:10:36,910 informations sont faits sur les fils d'actualité, dans les 161 00:10:37,110 --> 00:10:39,110 recommandations des vidéos, par exemple sur YouTube, 162 00:10:39,590 --> 00:10:43,890 ou dans le tri des sites Internet pour les moteurs de recherche. 163 00:10:44,090 --> 00:10:45,970 Elles devront être transparentes sur le fonctionnement de ces 164 00:10:46,170 --> 00:10:46,930 algorithmes. 165 00:10:47,130 --> 00:10:50,730 La publicité ciblée sur les réseaux sociaux va être interdite, 166 00:10:50,930 --> 00:10:53,430 notamment à destination des adolescents. 167 00:10:55,230 --> 00:10:59,950 On interdit également le marketing ciblé, le ciblage publicitaire, 168 00:11:00,530 --> 00:11:04,070 à partir de données sensibles, comme les opinions politiques ou 169 00:11:04,270 --> 00:11:06,610 les origines ethniques des internautes. 170 00:11:07,170 --> 00:11:10,730 On interdit également les interfaces manipulatoires, ce qu'on appelle 171 00:11:10,930 --> 00:11:15,130 les dark patterns, le design trompeur, lorsque justement, les réseaux 172 00:11:15,330 --> 00:11:19,810 sociaux ou les plateformes de partage de contenu ou des sites commerciaux 173 00:11:20,010 --> 00:11:24,290 visent à manipuler nos parcours de navigation, par exemple lorsque 174 00:11:24,490 --> 00:11:29,710 vous voulez vous retirer d'un service, vous désinscrire d'un site et que 175 00:11:29,910 --> 00:11:32,890 le chemin pour vous désinscrire est très très long et on essaye 176 00:11:33,090 --> 00:11:35,170 de vous perdre pour que vous ne trouviez pas la manière de vous 177 00:11:35,370 --> 00:11:36,130 y prendre. 178 00:11:36,330 --> 00:11:37,690 Ça, ce sont des interfaces trompeuses. 179 00:11:37,890 --> 00:11:41,950 Et donc le nouveau règlement européen, le Digital Services Act, 180 00:11:42,490 --> 00:11:43,250 les interdit. 181 00:11:43,930 --> 00:11:48,770 On va également créer des mécanismes d'appel pour les internautes qui 182 00:11:48,970 --> 00:11:52,010 pensent avoir été victimes de censure abusive sur les réseaux sociaux. 183 00:11:52,930 --> 00:11:59,930 Un de vos posts a été retiré sur Instagram et vous jugez que ce 184 00:12:00,130 --> 00:12:01,290 retrait n'est pas légitime. 185 00:12:01,490 --> 00:12:06,630 Vous pourrez bénéficier d'une procédure d'appel pour exiger un réexamen 186 00:12:06,830 --> 00:12:07,590 de votre publication. 187 00:12:08,090 --> 00:12:10,490 Alors en l'occurrence, ces procédures existent déjà pour 188 00:12:10,690 --> 00:12:13,550 Instagram et Facebook, mais elles vont être généralisées 189 00:12:13,750 --> 00:12:18,290 à l'ensemble des acteurs de l'économie numérique et principalement des 190 00:12:18,490 --> 00:12:19,250 réseaux sociaux. 191 00:12:19,670 --> 00:12:23,290 Ces grandes plateformes devront également partager leurs données 192 00:12:23,490 --> 00:12:27,210 avec les chercheurs et permettre aux pouvoirs publics d'accéder 193 00:12:27,410 --> 00:12:30,350 à leurs serveurs pour pouvoir les auditer, ces serveurs. 194 00:12:30,550 --> 00:12:33,950 Donc vous voyez, ce ne sont que quelques exemples, mais il y a 195 00:12:34,150 --> 00:12:37,790 de nombreuses autres obligations qui vont peser sur les grandes 196 00:12:37,990 --> 00:12:41,610 plateformes de l'économie numérique et notamment les plateformes de 197 00:12:41,810 --> 00:12:42,570 réseaux sociaux. 198 00:12:43,530 --> 00:12:47,090 Mais là, ce qui change avec le DSA, c'est que non seulement des sanctions 199 00:12:47,290 --> 00:12:51,270 sont prévues si les plateformes n'obtempèrent pas, des sanctions 200 00:12:51,470 --> 00:12:56,090 qui peuvent être très importantes, qui peuvent monter un pourcentage 201 00:12:56,290 --> 00:13:02,310 du chiffre d'affaires de ces grandes compagnies, donc des sanctions 202 00:13:02,510 --> 00:13:06,550 sont prévues et surtout des moyens de contrôle de ces actions sont prévus, 203 00:13:06,750 --> 00:13:09,070 c'est-à-dire que pour les très grands acteurs, c'est la Commission 204 00:13:09,270 --> 00:13:13,090 qui va contrôler leur mise en conformité avec les nouvelles normes 205 00:13:13,610 --> 00:13:17,490 et pour les plus petits acteurs, ce seront chaque pays européen 206 00:13:17,690 --> 00:13:24,590 qui devront mettre sur place des équipes ou des institutions, 207 00:13:24,790 --> 00:13:28,650 des agences qui auront pour mission de contrôler la mise en conformité 208 00:13:28,850 --> 00:13:33,070 des acteurs de l'économie numérique avec le Digital Services Act. 209 00:13:33,570 --> 00:13:36,710 En France ce sera l'ARCOM, l'Autorité de régulation des 210 00:13:36,910 --> 00:13:41,050 communications numériques, qui aura en charge cette étude 211 00:13:41,250 --> 00:13:44,370 et ce contrôle de mise en conformité des plateformes. 212 00:13:45,250 --> 00:13:50,130 Ce texte, le DSA, c'est clairement un tournant, un tournant dans 213 00:13:50,330 --> 00:13:54,230 l'histoire de la régulation d'Internet et de la régulation des contenus 214 00:13:54,430 --> 00:13:55,190 sur Internet. 215 00:13:55,410 --> 00:13:59,470 Il est trop tôt aujourd'hui pour évidemment évaluer la mise en 216 00:13:59,670 --> 00:14:02,630 application de ce texte et à quel point il va changé la donne dans 217 00:14:02,830 --> 00:14:07,370 ce monde de l'économie numérique et de la régulation du numérique. 218 00:14:07,570 --> 00:14:12,650 En tout cas, ce qu'on peut dire, pour conclure cette séquence, 219 00:14:12,890 --> 00:14:17,730 c'est qu'aujourd'hui, au-delà du DSA, on vit un moment 220 00:14:17,930 --> 00:14:20,650 historique dans les relations entre États et plateformes, 221 00:14:20,850 --> 00:14:24,490 c'est-à-dire que pendant de nombreuses années on a décrit les plateformes 222 00:14:24,690 --> 00:14:28,090 comme étant plus fortes que les États parce qu'elles bénéficiaient 223 00:14:28,290 --> 00:14:30,990 de revenus importants, parce qu'elles étaient présentes, 224 00:14:31,190 --> 00:14:33,790 elles étaient des multinationales dont les services étaient présents 225 00:14:33,990 --> 00:14:34,750 sur la terre entière. 226 00:14:34,950 --> 00:14:38,010 Et en fait, aujourd'hui on se rend compte que quand les États tapent 227 00:14:38,210 --> 00:14:42,650 du poing sur la table et exigent de ces grands géants du numérique 228 00:14:42,850 --> 00:14:46,210 qu'ils respectent les lois nationales, on s'aperçoit qu'en fait, 229 00:14:46,410 --> 00:14:48,750 ces acteurs ont tendance à obtempérer. 230 00:14:49,090 --> 00:14:50,790 Ils ont tendance à obtempérer, pourquoi ? 231 00:14:51,210 --> 00:14:55,690 Parce que s'ils ne le font pas, ils peuvent se voir fermer l'accès 232 00:14:55,890 --> 00:14:57,050 au marché européen notamment. 233 00:14:57,490 --> 00:15:00,490 Et lorsque vous vous appelez Facebook, lorsque vous vous appelez Google 234 00:15:00,690 --> 00:15:07,410 ou lorsque vous vous appelez Twitter, vous avez beau dire que vous n'avez 235 00:15:07,610 --> 00:15:10,130 pas envie de vous mettre en conformité avec les lois nationales. 236 00:15:10,330 --> 00:15:14,250 Au final, si vous voyez restreint l'accès au marché européen, 237 00:15:14,530 --> 00:15:17,150 vous allez perdre beaucoup d'argent, car le marché européen, 238 00:15:17,390 --> 00:15:21,890 c'est 500 millions de consommateurs potentiels avec un haut pouvoir 239 00:15:22,090 --> 00:15:25,210 d'achat qui sont très connectés aux technologies numériques. 240 00:15:25,430 --> 00:15:28,650 Et donc, ces grandes compagnies n'ont aucun intérêt à se voir fermer 241 00:15:28,850 --> 00:15:32,590 le marché européen et elles ont tout intérêt à obtempérer et à 242 00:15:32,790 --> 00:15:35,610 se mettre en conformité avec les lois européennes. 243 00:15:36,550 --> 00:15:39,290 Et donc aujourd'hui, on voit ce moment historique de 244 00:15:39,490 --> 00:15:43,010 retour des États et de retour de l'Union européenne sur le dossier 245 00:15:43,210 --> 00:15:47,390 de la régulation des plateformes et on voit ce retour en force contre 246 00:15:47,590 --> 00:15:48,610 les géants américains. 247 00:15:50,450 --> 00:15:54,530 Bien, c'était le dernier cours, la dernière séquence de ce cours 248 00:15:54,730 --> 00:15:59,490 consacré à l'histoire de l'Internet et des réseaux informatiques. 249 00:15:59,690 --> 00:16:03,550 J'espère que vous aurez pris plaisir à le suivre, j'espère que vous 250 00:16:03,750 --> 00:16:05,330 y aurez appris des choses. 251 00:16:05,790 --> 00:16:10,710 Et pour reboucler sur l'introduction, où je vous parlais de ce paradoxe 252 00:16:10,910 --> 00:16:14,390 d'une société numérique sans culture numérique et de l'intérêt qu'il 253 00:16:14,590 --> 00:16:18,710 y a à connaître l'histoire des technologies passées pour anticiper 254 00:16:18,910 --> 00:16:22,870 les technologies futures, j'espère que, à travers toutes 255 00:16:23,070 --> 00:16:26,190 les connaissances que vous aurez acquises dans le cadre de ce cours, 256 00:16:26,390 --> 00:16:30,590 vous aurez un regard peut-être plus critique, plus affûté, 257 00:16:30,790 --> 00:16:34,890 plus compréhensif sur les enjeux actuels que posent les technologies 258 00:16:35,090 --> 00:16:40,010 numériques et leur déploiement et que vous aurez gagné en capacité 259 00:16:40,210 --> 00:16:44,950 d'analyse et d'anticipation sur les trajectoires des technologies 260 00:16:45,150 --> 00:16:45,910 futures. 261 00:16:46,990 --> 00:16:50,970 En ce qui concerne l'évaluation de ce cours, tous les renseignements 262 00:16:51,170 --> 00:16:55,660 pratiques vous seront donnés dans l'ENT où vous seront précisées 263 00:16:55,860 --> 00:17:01,630 justement les modalités d'examen qui suivront l'évaluation du cours 264 00:17:01,830 --> 00:17:06,150 d'Enjeux et d'éthique du numérique, c'est-à-dire un mix entre questions 265 00:17:06,350 --> 00:17:10,390 de cours et questions à développement à partir justement des contenus 266 00:17:10,590 --> 00:17:13,510 présentés dans le cours, mais tout cela vous sera précisé 267 00:17:13,710 --> 00:17:18,850 par écrit plus précisément dans l'ENT à l'endroit dédié de ce cours. 268 00:17:19,050 --> 00:17:22,890 Je vous souhaite une bonne continuation dans vos études et je vous souhaite 269 00:17:23,090 --> 00:17:28,310 beaucoup de succès dans vos examens et je ne vous dis pas à bientôt 270 00:17:28,510 --> 00:17:33,490 parce qu'a priori, on ne se reverra pas en L3, mais nous aurons peut-être 271 00:17:33,690 --> 00:17:38,010 l'occasion de nous recroiser en ligne lors de diverses conférences 272 00:17:39,110 --> 00:17:43,610 ou dans la vraie vie si vous êtes amenés à suivre des conférences 273 00:17:43,810 --> 00:17:47,570 dans le domaine de l'actualité du numérique ou à suivre des cours 274 00:17:47,770 --> 00:17:52,150 peut-être en master ici à l'Institut français de presse à l'université 275 00:17:52,350 --> 00:17:53,110 Paris-Panthéon-Assas. 276 00:17:54,090 --> 00:17:56,650 J'ai eu beaucoup de plaisir en tout cas à animer ce cours et je 277 00:17:56,850 --> 00:17:58,930 vous souhaite une bonne continuation.