Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
« Sur les dangers de l’IA, la France est-elle dans le déni ? » Ce thème était au cœur de la conférence de presse organisée par l’association Pause IA, mardi 10 septembre, à Paris. La perspective de la tenue dans la capitale française d’un sommet international sur l’intelligence artificielle (IA), les 10 et 11 février 2025, suscite une mobilisation des militants les plus inquiets pour la « sécurité de l’IA », se jugeant peu entendus. Les responsables français sont « trop optimistes », accuse le président de la branche française de Pause IA, Maxime Fournes, un trentenaire ex-ingénieur en IA dans la finance, à Londres.
Dans une « contre-expertise » publiée mardi, Pause IA reproche au rapport de la Commission de l’IA rendu en mars au gouvernement d’« ignorer les avertissements de très nombreux experts concernant les risques existentiels » de l’IA, qui « pourraient conduire à l’extinction de l’humanité ou à des dommages catastrophiques », par « la création d’IA incontrôlables ou mal alignées avec les valeurs humaines » ou « l’utilisation malveillante pour concevoir des armes biologiques ou des cyberattaques dévastatrices ».
Selon l’association, le président Emmanuel Macron et la commission s’appuient aussi trop sur l’avis de représentants d’entreprises de l’IA, comme Yann LeCun, de Meta (maison mère de Facebook), Arthur Mensch, de Mistral AI, ou Cédric O, ex-secrétaire d’Etat devenu conseiller et actionnaire de Mistral – ce dernier a été accusé de conflit d’intérêts, mais la Haute Autorité pour la transparence de la vie publique a affirmé, en juin, « qu’aucun élément ne permet de conclure » que les réserves exprimées sur son passage au privé aient été méconnues.
Organisation internationale créée en 2023 par un ingénieur néerlandais, Pause IA avait organisé, en mai, des petites manifestations (moins de dix participants à Paris) pour demander un traité international suspendant les recherches sur les IA les plus avancées. Elle s’inscrit dans l’esprit des grandes pétitions lancées en 2023 pour mettre en « pause » les recherches sur les systèmes d’IA les plus avancés ou pour faire des « risques d’extinction » une priorité, « comme les pandémies ou la guerre nucléaire ». Des thèmes très présents au sommet de la sécurité de l’IA de Londres, en novembre 2023.
Le Future of Life Institute (FLI), le think tank américain à l’origine de la pétition pour une « pause », a nommé une représentante à Paris et y organise une série de « petits déjeuners de la sécurité de l’IA ». « Le sommet de Paris cherche à éloigner l’attention de la sécurité » et « l’IA est vue comme un véhicule du nationalisme économique », y avait déploré, en juillet, l’invité Stuart Russell, un chercheur américain pionnier dans la dénonciation des « risques existentiels » de l’IA. « Il y a un recul du thème de la sécurité de l’IA partout, mais la France remporte la palme », estime Connor Leahy, de la start-up ConjectureAI, très alarmiste et présent à Londres.
Il vous reste 34.51% de cet article à lire. La suite est réservée aux abonnés.