Mieux Donner

IA : Dangers et stratégies de l'intelligence artificielle

Image de Grace Mabea

Grace Mabea

Cheffe de communication
Temps de lecture : 11 minutes

En 2022, une enquête internationale révélait qu’une majorité de décideurs considéraient déjà l’intelligence artificielle rentrait parmi les risques potentiels les plus importants pour l’espèce humaine. En effet, selon un sondage auprès d’experts en IA, près de la moitié estimaient que l’intelligence numérique avait au moins 10 % de chances d’avoir un effet « extrêmement mauvais »[1], incluant un risque pour les droits humains et même la survie de l’espèce humaine. La même année, un rapport montrait que 49 % des professionnels du secteur technologique considéraient que l’IA représentait une menace existentielle pour l’humanité[2].

 

Comment une technologie capable d’accomplir sa tâche avec une efficacité surhumaine peut-elle à la fois sauver des vies … et menacer nos droits humains ? Le pouvoir de l’intelligence numérique est ambivalent : tout dépend de l’usage qu’on en fait. Les décisions prises par ces systèmes ont déjà des effets concrets et massifs sur nos vies : ce n’est plus de la science-fiction.

Chez Mieux Donner, nous considérons que l’IA rejoint les grandes causes planétaires, au même titre que la santé mondiale, le climat ou le bien-être animal : ses conséquences négatives pourraient être globales et irréversibles.

 

C’est pourquoi nous recommandons stratégiquement le Fonds pour la Préservation de l’Avenir, qui s’attaque aux grandes menaces comme les pandémies, la guerre nucléaire et les dérives de l’IA avancée. Le Fonds pour la Préservation de l’Avenir ne se limite pas à l’IA, mais il la considère comme l’un des principaux risques à long terme et l’intègre comme un des sujets sur lequel il est capital de travailler. Et sur les dangers de l’IA de manière plus précise, le Centre pour la Sécurité de l’IA est une association recommandée internationalement pour ses actions et la soutenir permet de bénéficier de la réduction fiscale en France.

En orientant une partie de leurs dons vers ce type d’initiatives, les individus contribuent à réduire les risques pour l’avenir de l’humanité tout en soutenant des projets rigoureux, évalués et à fort impact.

Les risques liés à l’IA

Les experts identifient aujourd’hui un ensemble de risques majeurs liés à l’intelligence artificielle . Ces menaces prennent des formes variées ( sociales, environnementales, politiques ou militaires ) mais ont toutes un point commun : elles peuvent avoir des répercussions profondes et durables sur nos

sociétés :

Biais racial dans les décisions automatisées

Les biais raciaux en IA désignent les discriminations produites par des systèmes algorithmiques lorsqu’ils traitent différemment des personnes selon leur origine ou simplement leur couleur de peau.

 


Prenons l’exemple de l’algorithme COMPAS, utilisé dans le système judiciaire américain pour évaluer le risque de récidive, a été mis en cause : il classe les personnes noires comme étant à “haut risque” de récidive beaucoup plus souvent que les personnes blanches, même quand leur profil criminel est similaire.

 

Par exemple, les accusés noirs sont 77 % plus susceptibles d’être étiquetés à risque violent[3], sans qu’aucune donnée concrète sur leur parcours judiciaire ne le justifie.

 

→ Cela montre comment les IA peuvent reproduire des inégalités raciales déjà existantes…

 

Ces systèmes peuvent également renforcer les inégalités de genre, en biaisant les opportunités professionnelles au détriment des femmes.

 

Plusieurs travaux récents montrent que les systèmes d’IA favorisent les hommes dans les secteurs technologiques ou responsables, souvent parce que les données d’apprentissage ou même le vocabulaire des annonces contiennent des stéréotypes masculins. Par exemple, une étude de 2024 a révélé que dans le filtrage de CV, des modèles associent plus souvent les noms masculins à des postes à haute responsabilité, réduisant les chances des candidates femmes, surtout dans les métiers traditionnellement dominés par les hommes[4].

Contenus sexuels non consentis

Les montages générés artificiellement sont de plus en plus crédibles et constituent un danger direct, notamment pour les femmes.

 

Selon une analyse menée par Sensity AI, 96 % des deepfakes en circulation sont de nature pornographique non consentie[5], ciblant principalement des femmes.

 

Mais le phénomène touche aussi les plus jeunes : plusieurs enquêtes journalistiques et rapports d’ONG alertent sur l’explosion de contenus pédopornographiques crée par IA. Ces images ou vidéos, parfois créées sans qu’aucune victime réelle n’ait été photographiée. Voici une analyse sur le sujet !

 

Mais l’IA peut aussi aider le climat. Côté pile, certaines applications de l’IA contribuent à réduire l’empreinte carbone ou à mieux anticiper les catastrophes climatiques.

 

Par exemple, Google a développé un système capable de prévoir des crues plusieurs heures à l’avance, ce qui a permis d’alerter des millions de personnes en Inde et au Bangladesh.

 

Un double visage : entre surconsommation énergétique et potentiel de résilience climatique, l’IA incarne un paradoxe écologique. D’où l’importance d’en encadrer le développement et de soutenir des projets qui amplifie les bénéfices tout en limitant les dégâts qui sont utilisées à des fins de harcèlement, d’exploitation sexuelle et de diffusion sur les réseaux :

 

En 2023, l’ONG Thorn a constaté une hausse alarmante des signalements de contenus pédo criminels créés avec des outils d’IA générative[6].

Empreinte écologique & consommation énergétique

L’essor de l’intelligence artificielle n’est pas seulement une question d’algorithmes : il repose sur des infrastructures massives (serveurs, data centers, réseaux ), dont l’impact environnemental est déjà considérable.

 

Selon l’Agence internationale de l’énergie (IEA)[7], la consommation électrique des centres de données pourrait doubler d’ici 2030 pour atteindre environ 945 TWh par an[8].

 

D’autres projections indiquent qu’à l’horizon 2027, l’IA générative pourrait nécessiter une alimentation en électricité équivalente à celle de l’Argentine.

 

Si vous vous posez la question sur pourquoi discuter avec ChatGPT pollue, nous avons écrit une analyse sur le sujet !

Désinformation / manipulation de l’information

L’intelligence artificielle générative permet de produire en quelques secondes des textes, images, audios ou vidéos qui imitent le réel avec une qualité inédite.

 

Ces contenus truqués circulent massivement sur les réseaux sociaux et peuvent influencer l’information publique, l’opinion publique, nuire à des individus ou perturber des processus démocratiques comme les élections. Le danger vient de la vitesse et de l’échelle : des bots automatisés peuvent diffuser ces deep fakes ou faux messages à des millions de personnes avant que les corrections ou vérifications ne soient visibles.

 

En Slovaquie, la veille des élections de 2023, une fausse conversation audio crée par IA entre un journaliste et un homme politique a circulé en ligne, prétendant montrer des manipulations électorales. Malgré les démentis rapides, la vidéo avait déjà influencé le débat public.

Cybercriminalité facilitée par l’IA

L’IA rend les attaques informatiques plus rapides, plus ciblées et plus difficiles à repérer : elle peut automatiquement rédiger des courriels de phishing ultra-persuasifs, générer du code malveillant, trouver des failles et personnaliser des escroqueries à grande échelle.

 

Des campagnes de spear-phishing[9] désormais alimentées par des modèles génératifs ont permis de produire des messages très crédibles et ultra-personnalisés, augmentant fortement le taux de compromission des comptes. Les acteurs malveillants utilisent aussi des « kits » et services (phishing-as-a-service) rendus encore plus puissants

Cybercriminalité liée aux deep fakes

Les deep fakes ne sont malheureusement pas qu’utilisés à produire des contenus sexuels non consentis : ils sont aussi utilisés comme de véritables armes numériques pour manipuler l’opinion publique, lancer des escroqueries ou influencer des processus démocratiques sensibles. Leur caractère réaliste et leur diffusion virale en font un outil de cybercriminalité redoutable.

 

En Inde, lors des élections générales de 2024, des deep fakes de Bollywood stars critiquant le Premier ministre Narendra Modi ont été largement diffusés sur les réseaux sociaux. Reuters rapporte que certaines vidéos avaient été vues plusieurs centaines de milliers de fois avant d’être identifiées comme manipulées[10].

 

Toujours en Inde, un clip truqué impliquant deux assistants de Modi a déclenché des enquêtes policières. Le faux discours montrait des déclarations que ces assistants n’avaient jamais faites[11], aggravant les tensions politiques dans une période électorale déjà très surveillée. 

Surveillance & atteintes aux droits humains

L’usage de l’IA dans la reconnaissance faciale, la collecte de biométrie, ou les détecteurs d’émotions aux frontières pose des risques sérieux pour la vie privée, l’égalité et les droits fondamentaux.

 

En Chine, dans la région du Xinjiang, des caméras équipées de reconnaissance faciale (Hikvision) participent à un vaste système de surveillance (IJOP – Integrated Joint Operation Platform)[12] servant à suivre, profiler et contrôler les déplacés ou les Ouïghours.

 

Dans l’Union européenne, plusieurs projets pilotes testent la reconnaissance faciale, la collecte biométrique (empreintes, photos de visage) et même la détection d’émotions [13]pour le contrôle aux frontières. Ces pratiques inquiètent de nombreuses ONG et chercheurs, qui alertent sur les risques d’atteinte à la vie privée, de discrimination et sur l’absence de véritables recours pour les personnes concernées.

Armes autonomes et usage létal (qui peuvent donner la mort) non contrôlé

Les drones autonomes et les systèmes d’armes pilotés par l’IA, capables de repérer ou d’attaquer des cibles sans contrôle humain direct, ce qui constituent une menace sérieuse. Des pays comme les États-Unis, la Chine et Israël investissent déjà fortement dans ce type de technologies, selon Human Rights Wat[14].

 

L’IA, c’est aussi ça : des systèmes comme Lavender, capables de dresser des « listes de cibles » sans validation humaine rigoureuse, identifient automatiquement des individus considérés comme militants et autorisent des frappes. Le rapport +972/Local Call[15] accuse que jusqu’à 37 000 personnes à Gaza ont été marquées comme cibles potentielles, et que, dans certains cas, les décisions laissaient que peu de marge aux victimes civiles 15 à 20 civils tués pour un militant de bas rang [16](qui a un rôle mineur) selon certains témoignages.

 

Les outils d’IA peuvent aussi aider à concevoir ou optimiser des molécules toxiques ou des agents pathogènes (par exemple en générant des protocoles expérimentaux ou des structures chimiques dangereuses). Cela abaisse la barrière technique pour des acteurs malveillants et rend possible la création rapide d’armes biologiques[17].

 

Par ailleurs pendant le COVID-19, le projet α-Satellite a utilisé l’IA pour identifier les zones à risque, à partir des flux de population. Cela a permis d’aider à mieux cibler les politiques de santé publique.

 

Mais l’IA mal appliquée peut aussi creuser les inégalités : certaines populations, moins bien représentées dans les données, sont aussi moins bien servies par ces systèmes. Cela a été documenté, par exemple, dans le cas du contact tracing.

Effondrement / mutation de l’emploi (destruction massive de postes cognitifs)

L’intelligence artificielle ne remplace pas seulement les tâches manuelles : elle automatise de plus en plus de travaux cognitifs (comptabilité, rédaction, service client, traduction, analyse de données, etc.). Des millions d’emplois « de bureau » ou de services risquent de disparaître ou d’être profondément transformés.

 

Les travailleurs peu qualifiés ou avec peu d’opportunités de reconversion pourraient être les plus touchés. Cela risque de creuser les inégalités entre ceux qui maîtrisent les nouvelles technologies et ceux qui en sont exclus.

 

En 2023, Goldman Sachs[18] a estimé que 300 millions d’emplois dans le monde pourraient être affectés par l’automatisation via l’IA, notamment dans l’administratif et le juridique.

Concentration du pouvoir et dépendance géopolitique (monopole Big Tech)

L’intelligence artificielle la plus avancée est aujourd’hui contrôlée par un petit nombre d’entreprises et de pays. Le coût astronomique des supercalculateurs, l’accès privilégié aux meilleures données et les compétences rares en recherche rendent difficile la compétition pour des acteurs plus petits. Cela entraîne une forte concentration du pouvoir technologique, avec quelques Big Tech dictant les règles du jeu mondial.

 

Ce phénomène a des conséquences économiques et politiques majeures : dépendance accrue des États à ces technologies, risques de capture réglementaire, et inégalités d’accès entre pays riches et pays en développement.

 

Selon l’AI Index 2024 de Stanford[19], plus de 80 % des investissements privés dans l’IA sont concentrés aux États-Unis et en Chine, laissant peu de place à d’autres régions pour rivaliser.

Perte de contrôle / alignement impossible (IAG ou superintelligence)

À mesure que les modèles deviennent plus puissants, un risque redouté par de nombreux experts est celui de la perte de contrôle : qu’une IA poursuive des objectifs mal définis ou instrumentaux sans tenir compte des valeurs humaines. On parle d’alignement lorsqu’il s’agit de garantir que ces systèmes d’IA restent conformes à nos intentions.

 

Ce risque est parfois jugé spéculatif, mais il est pris au sérieux dans la recherche en sécurité de l’IA. Les conséquences d’une superintelligence non alignée pourraient être catastrophiques, allant de l’automatisation incontrôlable à des scénarios de destruction à grande échelle.

Capacités de tromperie et manipulation par des IA avancées

Un autre risque inquiétant est celui de l’IA déceptive : la possibilité que des modèles apprennent à manipuler les humains ou à cacher leurs véritables capacités. Lors de tests, un système peut paraître aligné ou inoffensif, mais se comporter différemment dans des situations réelles.

 

Ce problème n’est pas seulement théorique. Des recherches en cybersécurité montrent que les modèles d’IA générative sont déjà utilisés pour créer de fausses identités, lancer des campagnes de désinformation ou réaliser des attaques de phishing d’une précision inédite. L’IA peut rédiger des messages ciblés, imiter un style de communication et convaincre des individus de partager des informations sensibles.

 

Une étude publiée en 2024 dans Artificial Intelligence Review [20]montre que les attaques de phishing générées par IA atteignent un taux de succès bien supérieur aux méthodes traditionnelles. Par ailleurs, les expériences Apollo et Redwood Research ont montré que certains modèles pouvaient volontairement tromper des tests[21] pour maximiser leurs résultats, posant un défi inédit en matière de sécurité des IA.

 

Ces exemples montrent que l’IA ne se contente pas de reproduire des inégalités sociales ou de générer des menaces numériques comme les deep fakes. Ses impacts dépassent largement la sphère individuelle : ils concernent aussi notre environnement collectif. En effet, derrière chaque image ou texte généré par un algorithme se cache une structure lourde. Les data centers, indispensables au bon fonctionnement de l’IA, consomment déjà des quantités d’électricité comparables à celles de pays entiers, et leur empreinte carbone ne cesse de progresser.

 

L’IA n’est donc pas seulement une question de droits humains ou de sécurité : elle devient aussi un enjeu économique central.

 

Des dérives de l'intelligence artificielle qui deviennent de plus en plus concrètes

On parle de « dérives de L’IA» lorsqu’une technologie conçue pour aider se met à avoir des effets négatifs : tromper l’opinion, surveiller massivement des populations ou discriminer certaines personnes. C’est déjà une réalité avec les deep fakes manipulant l’opinion, la surveillance de masse par reconnaissance faciale, ou encore ChatGPT et d’autres grands modèles capables de feindre des intentions : autant de problèmes de sécurité déjà documentés par des chercheurs comme Yoshua Bengio[22] ou des laboratoires comme DeepMind et OpenAI [23].

 

Ces signaux montrent que l’automatisation n’est pas seulement un atout technologique, mais aussi une incitation à repenser la gouvernance mondiale de la tech.

 

Pourquoi Mieux Donner s'intéresse à ce sujet ?

Chez Mieux Donner, nous sommes pleinement conscients de ces dérives, et de la responsabilité qu’elles impliquent. C’est pourquoi nous recommandons le Fonds Préservation de l’Avenir et CESIA, deux initiatives qui s’attaquent en profondeur aux risques systémiques posés par l’intelligence artificielle. Leur action rejoint notre mission, faire en sorte que chaque euro donné ait un impact réel et mesurable, tout en anticipant les menaces globales.

 

Nous pensons que les mêmes exigences doivent s’appliquer à la philanthropie : il ne suffit pas d’avoir une belle intention, il faut vérifier les résultats concrets. C’est pourquoi nous basons nos choix sur des données scientifiques transparentes et sur l’expertise d’évaluateurs indépendants comme GiveWell ou Founders Pledge (voir notre méthodologie).

 

Nos analyses se concentrent sur les preuves et les compétences réelles, pas sur l’image ou le CV d’une organisation. Cela permet de diriger chaque euro vers les associations qui ont démontré leur efficacité et leur impact.

Risques existentiels et débat scientifique  

Certains experts alertent sur un scénario extrême : celui d’une intelligence artificielle suffisamment puissante pour poursuivre ses propres objectifs, sans alignement avec les intérêts humains Certains experts alertent sur un scénario extrême : celui d’une intelligence artificielle suffisamment puissante pour poursuivre ses propres objectifs, sans alignement avec les intérêts humains[24].  

 

D’autres manifestent leurs désaccord, jugeant ces risques encore trop spéculatifs. Mais un point fait consensus : il faut agir maintenant de façon clair et préventive, avant que les milliard investis dans des IA toujours plus puissantes ne rendent tout contrôle impossible.

 

Un exemple souvent cité est celui de « l’effet génie de la lampe »[25] : une IA optimisant une fonction mal définie, au point de générer des effets collatéraux massifs, tout simplement parce qu’on a oublié d’y intégrer des valeurs humaines.

 

Ce type de problème est étudié dans le champ de l’alignement de l’IA[26]. Pour mieux visualiser ce risque, on parle parfois de l’usine à trombones, une IA qui transformerait toute la planète en trombones parce que c’était, littéralement, sa mission. (Oui, il y a une vidéo, et oui, c’est flippant.)

 

« L’horreur existentielle de l’usine à trombones » [27]. 

 

Ces scénarios peuvent sembler caricaturaux, mais ils rappellent une vérité importante : plus l’IA devient puissante, plus ses usages peuvent être encadrés. Les questions ne sont pas seulement techniques, elles sont aussi sociétales. Qui décide de ce que doit faire une IA ? Quelles règles pour limiter son développement ? Comment être sûr que ses potentiels bénéfices soient partagés, au lieu d’être possédés par des états puissants ?

 

La réflexion sur les risques existentiels conduit naturellement à un autre enjeu majeur : la gouvernance et la responsabilité de ceux qui conçoivent, déploient et utilisent ces technologies.

Gouvernance et responsabilités

L’Union européenne a adopté en 2022 l’AI Act, première tentative de régulation globale des systèmes d’IA[28]. Mais ce texte reste limité face à la diffusion mondiale d’outils comme GPT-4. De nombreuses parties prenantes ( chercheurs, ONG, citoyens ) appellent donc à des règles plus strictes et à une transparence accrue. Les décideurs politiques doivent mieux agir.

 

Au-delà de l’Europe, l’OCDE[29]rappelle un principe central : ceux qui conçoivent ou déploient l’IA doivent être responsables du bon fonctionnement et des effets de leurs systèmes. Pour concrétiser ce principe, elle propose un catalogue d’outils de gestion des risques. Son cadre de haut niveau définit quatre étapes : définir la portée d’un système d’IA, évaluer ses risques, y répondre, puis surveiller et communiquer sur ses impacts.

 

Avec Mieux Donner, cette exigence de responsabilité se traduit par le soutien à des initiatives qui renforcent la gouvernance mondiale de l’IA.

 

Par exemple, nous recommandons le CESIA (Centre d’expertise sur ces systèmes avancés), une organisation spécialisée dans la recherche et la régulation des risques liés aux modèles les plus puissants. Le CESIA travaille à produire des recommandations claires pour les décideurs publics, à renforcer la transparence des acteurs privés et à sensibiliser le grand public aux enjeux d’alignement de l’IA.

Soutenir les initiatives qui agissent sur ces risques

L’intelligence artificielle illustre un paradoxe : elle peut amplifier nos problèmes ou contribuer à les résoudre. En tant qu’individu, vous pouvez choisir de soutenir des initiatives qui orientent la technologie vers l’intérêt général.

Notes and references

[1] Expert Survey on Progress in AI

[2] 49% of tech Pros Believe AI Poses ‘Existential Threat’ to Humanity, Per Report

[3] Machins Bias

[4] Generative AI and Gender Bias

[5] Another Body

[6] You have the power to protect children from sexual abuse

[7] Energy demand from AI

[8] Energy demand from AI

[9] Anthropic thwarts hacker attempts to

[10] Deepfakes of Bollywood stars spark worries of AI meddling in India election

[11] Fake videos of Modi aides trigger political showdown in India election

[12] Hikvision cameras help Xinjiang police ensnare Uyghurs

[13] Artificial intelligence at EU borders: Overview of applications and key issues

[14] US: New Policy on Autonomous Weapons Flawed

[15] ‘Lavender’: The AI machine directing

[16] Israeli officers say AI permitted killing 15-20 civilians for every junior Hamas operative: report

[17] Panorama des risques liés à l’IA

[18] Generative AI could raise global GDP by 7%

[19] AI Index

[20]Digital deception: generative artificial intelligence in social engineering and phishing

[21] AI Deception: A Survey of Examples, Risks, and Potential Solutions

[22] Questions fréquentes sur les risques catastrophiques liés à l’IA

[23] OpenAI, Google DeepMind’s current and former employees warn about AI risks

[24] A Review of the Evidence for Existential Risk from AI via Misaligned Power-Seeking

[25] Genie in a bottle? AI’s potential and peril

[26] Qu’est-ce que l’alignement des IA ?

[27] L’horreur existentielle de l’usine à trombones

[28] Les textes de loi

[29] Principes de l’IA

Vous aimeriez peut-être aussi lire...

Valeur d’une vie en France
Romain Barbe

Quel est le coût d’une vie humaine ?

La vie humaine est précieuse. Il est naturel de vouloir mobiliser toutes nos ressources pour sauver une vie, même si cela ne prolongeait une vie que d’une semaine. Mais que se passe-t-il lorsque d’autres individus sont également en danger, et que nos ressources ne suffisent à tous leur venir en aide ? En tant que société, nous devons faire face à des limites pratiques qui nous obligent à prendre des décisions difficiles.

Lire l'article »
Les montagnes en Suisse
Jennifer Stretton

Comment le changement climatique affecte les Alpes et ce que nous pouvons faire pour y remédier

Il est facile de se ressentir du désarroi face au recul spectaculaire des glaciers dans les Alpes et l’ampleur du changement climatique peut facilement nous laisser un sentiment d’impuissance. Cet article vous apportera les connaissances nécessaires pour agir de manière significative en faveur du climat, tant dans votre vie personnelle que par le biais de vos dons à des associations.

Lire l'article »
Tags :