1 00:00:05,680 --> 00:00:09,220 Bonjour à toutes et à tous et bienvenue dans ce premier cours qui portera 2 00:00:09,580 --> 00:00:13,090 sur l’intelligence artificielle et qui posera cette question : 3 00:00:13,420 --> 00:00:16,480 Faut-il avoir peur de l’intelligence artificielle ? 4 00:00:16,990 --> 00:00:21,010 Dans cette première séquence, je vais vous présenter les grands 5 00:00:21,210 --> 00:00:24,880 enjeux du débat et dans les séquences suivantes, j’approfondirais certains 6 00:00:25,080 --> 00:00:28,900 points qui me semblent importants pour répondre à cette question 7 00:00:29,100 --> 00:00:31,210 d’un point de vue de sciences sociales. 8 00:00:32,890 --> 00:00:36,100 Ce qu’on pourrait commencer par dire, c’est que ces dernières années, 9 00:00:36,300 --> 00:00:40,000 l’intelligence artificielle a suscité énormément d’intérêt. 10 00:00:40,420 --> 00:00:43,390 Si vous allez par exemple dans votre espace numérique de travail 11 00:00:43,590 --> 00:00:47,650 et dans vos ressources documentaires, vous pouvez accéder à un outil 12 00:00:47,850 --> 00:00:53,680 qui s’appelle Europresse, dans lequel sont recensés différents 13 00:00:53,880 --> 00:00:58,180 articles de presse en Europe, de la presse généraliste, 14 00:00:58,380 --> 00:01:00,100 qu’elle soit nationale ou régionale. 15 00:01:01,000 --> 00:01:04,210 Lorsque vous allez sur Europresse et que vous tapez Intelligence 16 00:01:04,410 --> 00:01:07,510 artificielle, vous allez rapidement vous rendre compte que ces dernières 17 00:01:07,710 --> 00:01:10,720 années, l’outil va vous proposer plus de 20 000 références, 18 00:01:10,920 --> 00:01:14,830 c’est-à-dire plus de 20 000 articles de presse dans lesquels on va retrouver 19 00:01:15,310 --> 00:01:18,430 mentionné les termes "intelligence artificielle". 20 00:01:18,630 --> 00:01:24,850 Effectivement, un intérêt très important des médias pour ces enjeux 21 00:01:25,050 --> 00:01:26,050 d’intelligence artificielle. 22 00:01:26,410 --> 00:01:28,930 Dans ces articles, je n’ai pas lu les 20 000 évidemment, 23 00:01:30,610 --> 00:01:34,090 on parle beaucoup des opportunités de l’intelligence artificielle. 24 00:01:34,600 --> 00:01:37,480 Dans le domaine de la recherche, dans le domaine de la médecine, 25 00:01:37,930 --> 00:01:41,200 dans le domaine de l’apprentissage ou même dans le domaine des transports, 26 00:01:41,650 --> 00:01:44,650 on a vu que cette intelligence artificielle a fait des progrès 27 00:01:45,220 --> 00:01:49,810 très impressionnants, qu’on a du mal parfois à appréhender tellement 28 00:01:50,010 --> 00:01:50,770 ils sont impressionnants. 29 00:01:51,100 --> 00:01:54,000 Plus récemment, par exemple, des outils comme ChatGPT, 30 00:01:54,820 --> 00:01:59,650 qui vous propose un outil conversationnel et répond à vos 31 00:01:59,850 --> 00:02:03,310 questions avec une grande clarté et une grande profondeur, 32 00:02:03,670 --> 00:02:07,420 ou des outils comme DALL•E à partir desquels une intelligence artificielle 33 00:02:07,620 --> 00:02:12,250 est capable de créer des tableaux à partir d’une description textuelle, 34 00:02:12,450 --> 00:02:14,260 ont fait couler beaucoup d’encre. 35 00:02:15,160 --> 00:02:18,850 On y parle des opportunités dans ces vidéos, on y parle aussi des 36 00:02:19,050 --> 00:02:21,160 inquiétudes quant au développement de ces technologies. 37 00:02:21,360 --> 00:02:24,580 Est-ce qu’avec ces outils d’intelligence artificielle, 38 00:02:24,780 --> 00:02:28,930 nous ne serions pas face à une forme d’intelligence qui dépasserait 39 00:02:29,200 --> 00:02:29,960 celle des humains ? 40 00:02:30,160 --> 00:02:35,500 Est-ce que nous ne serions pas en mesure de produire des machines 41 00:02:35,700 --> 00:02:39,670 amenées à remplacer les êtres humains, à remplacer les individus ? 42 00:02:39,870 --> 00:02:42,760 Est-ce que ces outils ne pourraient pas se révéler être une menace 43 00:02:43,030 --> 00:02:47,830 pour l’existence même de l’humanité, même si cette menace fait penser 44 00:02:48,030 --> 00:02:49,300 à un scénario de science-fiction ? 45 00:02:50,080 --> 00:02:54,880 En tout cas, ces débats sociétaux touchent à la fois à des considérations 46 00:02:55,080 --> 00:02:58,270 philosophiques, à des considérations éthiques et métaphysiques, 47 00:02:58,570 --> 00:03:01,900 à tel point que l’on pourrait considérer aujourd’hui l’intelligence 48 00:03:02,100 --> 00:03:06,670 artificielle comme une forme de mythologie technologique contemporaine. 49 00:03:07,780 --> 00:03:11,650 Dans le débat contemporain sur les risques de l’intelligence 50 00:03:11,850 --> 00:03:16,510 artificielle, on retrouve régulièrement trois références différentes. 51 00:03:17,170 --> 00:03:22,840 On retrouve d’abord souvent cité l’auteur russo-américain Isaac Asimov, 52 00:03:24,010 --> 00:03:28,440 un auteur russe de science-fiction, qui a écrit dans les années 40, 53 00:03:28,640 --> 00:03:31,480 une série sur les robots qui est devenue très célèbre, 54 00:03:31,810 --> 00:03:36,040 dans laquelle l’auteur définit les lois de la robotique, 55 00:03:36,240 --> 00:03:38,830 j’y reviendrai un peu plus tard dans le cours, et dans laquelle 56 00:03:39,030 --> 00:03:42,790 des robots se retournent contre leur créateur, les êtres humains. 57 00:03:43,390 --> 00:03:46,960 La deuxième référence, c’est celle du film l’Odyssée de 58 00:03:47,160 --> 00:03:50,400 l’espace de Stanley Kubrick, un film de science-fiction très connu, 59 00:03:50,600 --> 00:03:55,960 souvent considéré comme un chef-d’œuvre dans le domaine, dans lequel un 60 00:03:56,160 --> 00:04:01,210 robot qui pilote un vaisseau spatial, Hal se retourne contre son équipage 61 00:04:01,990 --> 00:04:03,490 qui n’arrive plus à le contrôler. 62 00:04:03,970 --> 00:04:07,210 La troisième référence culturelle est plus ancienne, celle du Golem. 63 00:04:07,450 --> 00:04:12,700 Le Golem, c’est une référence qui vient de la mythologie juive où 64 00:04:12,900 --> 00:04:20,110 un être d’argile à qui on donne une âme va échapper à son créateur 65 00:04:20,310 --> 00:04:22,120 et semer la terreur. 66 00:04:22,840 --> 00:04:28,060 Ces références sont très diverses, vous en convenez. 67 00:04:28,480 --> 00:04:32,650 Pour autant, on retrouve derrière ces trois mythes, ces trois références 68 00:04:32,850 --> 00:04:36,340 culturelles, l’idée de l’autonomisation, l’autonomisation 69 00:04:38,140 --> 00:04:42,360 des machines créées par l’homme qui se retournent contre leur créateur. 70 00:04:42,560 --> 00:04:45,430 On est face à des machines créées par les êtres humains, 71 00:04:45,910 --> 00:04:49,900 mais qui échappent aux êtres humains et qui se retournent contre eux. 72 00:04:50,770 --> 00:04:54,520 Ce qui est intéressant, si on regarde Asimov ou Stanley 73 00:04:54,720 --> 00:04:57,160 Kubrick, et à plus forte raison le Golem, même si le Golem n’a 74 00:04:57,360 --> 00:05:00,900 pas vraiment trait à l’intelligence artificielle, ces peurs ont été 75 00:05:01,100 --> 00:05:06,330 exprimées dans des œuvres culturelles bien avant que l’intelligence 76 00:05:06,530 --> 00:05:08,610 artificielle n’ait la moindre existence concrète. 77 00:05:09,690 --> 00:05:14,820 Dès les années 40, 50, des philosophes, des éthiciens, 78 00:05:15,020 --> 00:05:19,680 des romanciers, plus tard des réalisateurs, ont produit des règles, 79 00:05:19,880 --> 00:05:24,090 ont réfléchi à des règles qui permettraient de domestiquer ces 80 00:05:24,290 --> 00:05:26,550 nouvelles formes d’intelligence artificielle. 81 00:05:27,810 --> 00:05:30,180 Les craintes qui s’expriment aujourd’hui dans les médias ou 82 00:05:30,380 --> 00:05:33,870 dans les œuvres culturelles sont intéressantes parce qu’elles sont 83 00:05:34,070 --> 00:05:38,250 révélatrices des imaginaires que l’on associe à l’intelligence 84 00:05:38,450 --> 00:05:43,830 artificielle et nous renseignent sur les rapports qu’entretiennent 85 00:05:44,030 --> 00:05:47,490 aujourd’hui innovation technologique et société. 86 00:05:47,690 --> 00:05:49,880 C’est en cela qu’elles sont intéressantes, ces craintes, 87 00:05:50,080 --> 00:05:52,590 elles nous renseignent sur les rapports que nous entretenons 88 00:05:52,790 --> 00:05:55,950 aujourd’hui avec les technologies que nous développons. 89 00:05:56,150 --> 00:05:58,830 Est-ce qu’il faut avoir peur de l’intelligence artificielle ? 90 00:05:59,030 --> 00:06:02,340 Et surtout, qu’est-ce que ces peurs nous disent des rapports que nous 91 00:06:02,540 --> 00:06:04,830 entretenons aux technologies que nous développons ? 92 00:06:05,220 --> 00:06:09,540 Comment associer éthique et innovation technologique ? 93 00:06:09,900 --> 00:06:13,590 Comment contrôler ou réguler les développements technologiques pour 94 00:06:13,790 --> 00:06:19,140 s’assurer que ces développements aillent de pair avec le respect 95 00:06:19,340 --> 00:06:20,100 des droits humains ? 96 00:06:20,300 --> 00:06:23,970 C’est ce que nous allons essayer d’aborder dans ce cours à travers 97 00:06:24,170 --> 00:06:24,930 trois parties différentes. 98 00:06:25,350 --> 00:06:28,890 Dans la première partie, je reviendrai sur la définition 99 00:06:29,090 --> 00:06:30,960 de l’intelligence artificielle, qu’est-ce que l’intelligence 100 00:06:31,160 --> 00:06:31,920 artificielle. 101 00:06:32,220 --> 00:06:36,060 Dans une seconde partie, j’aborderais les imaginaires, 102 00:06:36,260 --> 00:06:39,360 les représentations sociales liées à l’intelligence artificielle. 103 00:06:39,900 --> 00:06:42,420 Dans une troisième partie, j’aborderai la question de la 104 00:06:42,620 --> 00:06:45,090 régulation de l’intelligence artificielle, c’est-à-dire quel 105 00:06:45,290 --> 00:06:50,340 type de réponses les sociétés cherchent à apporter à ces craintes qui 106 00:06:50,540 --> 00:06:52,980 s’expriment autour de ces développements technologiques.