Aller au menu principal Aller au contenu Aller au pied de page

Intelligence artificielle (IA) et numérique responsable

Mis à jour le 09/10/2024   Lucie FRADET, communicante responsable  

2023 aura été l’année de l’explosion de l’intelligence artificielle (IA). Selon le baromètre du numérique de l'Arcep et l'Arcom paru en mai 2024, 20 % de la population française utilise l'intelligence artificielle.

De notre côté, chez Spécinov, nous défendons un numérique plus responsable. Mais alors, intelligence artificielle et numérique responsable sont-ils compatibles ou au contraire, sont-ils aux antipodes ?

Découvrir notre engagement NR

Les différents types d’intelligence artificielle

Dans le domaine de l'intelligence artificielle (IA), différentes approches et types d'IA sont utilisés pour répondre à des besoins spécifiques. Savoir les différencier est une bonne base avant d'aller plus loin dans la comparaison entre IA et numérique responsable. 

Apprentissage automatique (Machine Learning)

L'apprentissage automatique est une branche clé de l'intelligence artificielle qui se concentre sur la création de systèmes capables d'apprendre à partir de données et d'exemples, afin d'améliorer leurs performances au fil du temps. Ce type d'IA peut être supervisé, ce qui signifie qu'il utilise des données étiquetées pour apprendre des modèles, ou non supervisé, où les données d'entraînement ne sont pas étiquetées.

Par exemple :

  • Recommandation de produits sur Amazon ou Netflix,
  • Prédiction de crédit pour les prêts bancaires,
  • Détection de spam dans les e-mails.

 

Réseaux de neurones profonds (Deep Learning)

Le deep learning est une technique d'apprentissage automatique qui utilise des réseaux de neurones artificiels inspirés du fonctionnement du cerveau humain pour réaliser des tâches complexes. Ces réseaux sont capables d'apprendre des représentations de données hiérarchiques, ce qui les rend particulièrement efficaces pour des tâches telles que la reconnaissance d'images, la traduction automatique et bien d'autres.

Par exemple :

  • Reconnaissance faciale utilisée dans les applications de sécurité ou sur les réseaux sociaux comme Facebook,
  • Traduction automatique sur Google Translate.

 

Traitement du langage naturel (NLP)

Le traitement du langage naturel est une branche de l'IA qui se concentre sur la compréhension et la génération du langage humain par les machines. Cette technologie est utilisée dans une variété d'applications, telles que la traduction automatique, la correction grammaticale, la génération de texte et bien d'autres.

Par exemple :

  • Correction grammaticale et orthographique dans les éditeurs de texte comme Grammarly,
  • Traduction automatique sur des sites comme DeepL.

Vision par ordinateur (IA Vision)

L'IA vision, ou vision par ordinateur, permet aux machines de comprendre et d'interpréter les images et les vidéos. Cette technologie est utilisée dans un large éventail d'applications, y compris la reconnaissance faciale, la détection d'objets, la conduite autonome et bien d'autres.

Par exemple :

  • Détection d'objets dans les images et les vidéos, utilisée dans les caméras de sécurité et les applications de surveillance,
  • Reconnaissance de caractères utilisée dans les scanners de documents,
  • Diagnostics médicaux basés sur des images, tels que la détection de tumeurs dans les scanners IRM.

IA conversationnelle (Chatbots)

Les chatbots sont des programmes informatiques conçus pour dialoguer avec les humains de manière naturelle, souvent en utilisant le traitement du langage naturel pour comprendre et générer des réponses cohérentes dans les conversations.

Par exemple :

  • ChatGPT, un modèle de génération de texte développé par OpenAI,
  • Siri d'Apple, un assistant virtuel utilisé sur les appareils iOS,
  • Chatbots de service clientèle sur les sites web des entreprises.

IA Génératives

Les IA génératives utilisent des techniques avancées de deep learning pour générer de nouveaux contenus, tels que du texte, des images, des vidéos ou de la musique, qui peuvent être interprétés par les humains. Ces modèles sont souvent utilisés dans des applications créatives et artistiques, ainsi que dans des domaines tels que la conception de produits et la simulation.

Par exemple :

  • DALL-E, un modèle développé par OpenAI capable de générer des images à partir de descriptions textuelles,
  • GPT-3, une version précédente de ChatGPT qui peut générer du texte de manière plus générale.

Les impacts liés à l’intelligence artificielle (IA)

200 millions de visiteurs uniques par mois sur ChatGPT (Source : Similarweb). Voici un premier chiffre qui montre l’ampleur de l’intelligence artificielle ces derniers mois.

Et ChatGPT est loin d’être le seul outil qui utilise l’intelligence artificielle aujourd’hui. Il existe par exemple d’autres agents conversationnels comme Bard de Google, des intelligences artificielles qui génèrent des images comme DALL-E ou MidJourney… Les possibilités sont infinies !

Comme tout service numérique, l’intelligence artificielle a un impact environnemental et social. Mais de quelle envergure ?

L’impact social des intelligences artificielles (IA)

Les conditions de travail des modérateurs

Afin de vous fournir des réponses fiables, les intelligences artificielles sont entraînées par de véritables personnes qui examinent les réponses et corrigent les erreurs. Dans un esprit de compétition effréné, les différents acteurs de l’intelligence artificielle en demandent toujours plus et surchargent leurs employés.

Qu’il s’agisse de ChatGPT ou de Bard, les constats sont tristement les mêmes. Ces travailleurs du clic sont sous-payés, croulent sous la charge de travail, sont peu ou pas formés, doivent faire face à des contenus préjudiciables, offensants, sexuels

Sources : Fortune, L’ADN

Les résultats discriminatoires
On observe que les différentes intelligences artificielles ont tendance à reproduire et amplifier les discriminations. Les plus fréquentes sont liées au racisme et au sexisme. Par exemple, nous avons vu dernièrement grâce à la campagne de communication de la marque Heetch, les clichés sur la banlieue française mis en avant par les IA.

On doit ces résultats aux données utilisées par les algorithmes. Une partie d’entre elles sont récupérées d’internet où les stéréotypes et dérives sont en grand nombre.

Cela peut également s’expliquer par le manque de diversité dans les équipes d’ingénieurs développant les IA.

L’impact environnemental des intelligences artificielles (IA)

L’impact environnemental des intelligences artificielles n’est pas plus joli et joyeux que l’impact social vu précédemment. Même si les chiffres que l’on possède aujourd’hui sont difficiles à estimer, ils nous permettent tout de même d’avoir un ordre de grandeur du côté de l’entraînement des IA comme de leur usage.

Par exemple, l’entraînement de ChatGPT en 2022 aurait eu un coût carbone de plus de 500 Tonnes eq. CO2.

Pas facile de savoir à quoi correspond 500 Tonnes eq. CO2...
Pour vous donner quelques chiffres issus du Comparateur Impact CO2 :

  • C'est autant que regarder 63 613 fois l'intégrale (236 épisodes) de Friends en streaming ;
  • C'est autant que faire 9 795 803 recherches sur le web, sachant qu'en moyenne, un utilisateur fait environ 3 recherches par jour ;
  • C'est autant que parcourir 2 297 794 km en voiture thermique soi 57 fois le tour de la Terre ;
  • C'est autant que fabriquer 5 824 smartphones ;
  • C'est autant que produire 316 456 repas avec du poulet, de quoi nourrir tous les habitants de la ville de Nantes. 

Autre exemple de l'impact environnemental de l'IA : une conversation avec ChatGPT représenterait l’équivalent d’une bouteille d’eau ; soit 10 millions de bouteilles d’eau par jour au niveau mondial.

Sources : Futura Sciences, Novethic

Dans un article d’Usbek & Rica, on nous dit qu’il est difficilement possible de concevoir une IA moins énergivore et low-tech car cela demanderait de développer un modèle d’apprentissage automatique avec moins de données. On y parle tout de même de techniques pour réduire les calculs inutiles et d’utilisation d’énergies renouvelables.

Du côté des utilisateurs des IA, on nous conseille de réduire l’usage de l’IA de façon « récréative ». Cela revient à ce que nous prônons chez Spécinov avant tout : se questionner sur l’utilité.

Quel futur pour l’intelligence artificielle ?

Impacts positifs ou négatifs de l’IA ?

Au vu de ce début d’article, peut-on affirmer que l’intelligence artificielle n’est qu’impact négatif sur les piliers environnementaux et sociaux ? Je ne pense pas.

L’IA peut également être d’une grande aide pour réduire les impacts environnementaux. Par exemple, l’IA permet d’améliorer les prévisions météorologiques, d’optimiser l’emplacement de panneaux solaires ou la croissance du rendement des cultures, d’aider à détecter les fuites de méthanes et de gaz, d’améliorer les systèmes de chauffage et de climatisation…

Confiance en l’intelligence artificielle

Depuis plus d’un an, il ne se passe pas un jour sans que nous entendions parler d’IA, d’un point de vue positif ou négatif. De ce fait, les Français ont peu confiance en ces outils. En effet, la France se place en bas du classement avec seulement 31% des Français qui ont confiance en l’IA (contre 78% en Chine).

Source : The AI Index 2023 Annual Report by Stanford University

Avec ces nouveaux usages, l’Union européenne a pour projet de réglementer l’utilisation de l’intelligence artificielle. L’objectif est de proposer une législation qui veille à ce que les systèmes d’IA en Union Européenne soient sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement. Ce projet prend la forme d’un règlement nommé « AI Act » (pour Artificial Intelligence Act). 

En juin 2023, le Parlement européen s’est mis d’accord sur le contenu de ce règlement et la loi européenne a été approuvée le 2 février 2024. L'entrée en vigueur de cette dernière s'étalera entre février 2025 pour les premiers jalons jusqu'au mois d'août 2026.

Pour en savoir plus sur le contenu de l'AI Act, l'organisme FLI a conçu un site web dédié. Vous pouvez parcourir facilement le texte intégral de loi sur l'IA, en lire un résumé, ou encore, répondre à un questionnaire pour connaître les impacts de cette loi européenne sur vous. 

Comment se servir de l'intelligence artificielle de façon plus responsable ?

Qu'il s'agisse de la conception, de l'entraînement ou de l'usage, l'intelligence artificielle a une empreinte environnementale non-négligeable.

Par exemple, la génération d'une image sur Stable Diffusion XL peut consommer jusqu'à l'équivalent d'une charge de smartphone !

Afin de réduire l'impact environnemental de l'usage de l'IA, il est nécessaire d'éviter l'usage "récréatif" de l'intelligence artificielle et comme pour toutes nos actions, se poser la question de l'utilité de notre requête.

Au-delà de l'aspect environnemental, utiliser l'intelligence artificielle de façon plus responsable, c'est aussi vérifier les sources et la qualité des résultats générés, être transparent sur les modèles et conditions d'usage, et protéger les données confidentielles.

Pour récapituler, voici nos 4 conseils pour un usage plus responsable de l'IA :

  • Ne pas faire une confiance aveugle aux modèles génératifs. Comme pour le reste des informations du web, pensez à vérifier la qualité de la production et multipliez les sources.
  • Toujours préciser le modèle utilisé et les conditions d’usage lors de la réutilisation du résultat produit par un modèle génératif. L’objectif ? Être transparent sur le travail réalisé.
  • Ne transmettre aucune information confidentielle pour des questions de propriété intellectuelle ou de données personnelles.
  • Limiter l’usage des IA qui sont gourmands en énergie en ciblant précisément ses requêtes. Questionnez-vous sur l’utilité de la requête. Ciblez au maximum ses requêtes en donnant suffisamment de contexte, plusieurs lignes parfois afin d’éviter d’effectuer plusieurs requêtes à la suite ou d’enchaîner avec une conversation.

Naissance de référentiels d'IA responsable

L'explosion d'outils d'IA et de leur usage ont fait naître des groupes de travail autour de la conception responsable de services numériques reposant sur l'intelligence artificielle.

Dans sa nouvelle version sortie en 2024, le référentiel général d'écoconception des services numériques (RGESN) a intégré une neuvième catégorie dédiée au sujet. Ce sont 9 nouveaux critères d'évaluation qui sont donc ajoutés. Des pistes de réflexion sont ouvertes sur la phase d'entraînement de l'IA, la phase d'apprentissage ou encore, les phases de mise à jour et de réentraînement.

Cette même année, l'Institut du Numérique Responsable (INR) a également sorti un référentiel dédié à l'IA éthique et responsable : le RIA31. Comme son nom l'indique, ce sont 31 critères qui sont enregistrés dans ce référentiel. Elles sont réparties dans 5 familles : stratégie, cadrage projet, expérience utilisateur, interface utilisateur et socle technologique.

Une AFNOR Spec a également vu le jour pour mesurer et réduire l'impact environnemental de l'IA sous le nom "Référentiel général pour l'IA frugale". 

En conclusion, l’intelligence artificielle (IA), bien qu'en pleine expansion, n’est pas exempte d’impacts sociaux et environnementaux. Chez Spécinov, nous croyons qu’il est possible de concilier innovation technologique et numérique responsable. Cela implique de repenser notre usage de l’IA, de privilégier des pratiques éthiques et de limiter son empreinte écologique. L’adoption de réglementations comme l’AI Act en Europe ou la création de référentiels d'IA responsable montrent que des efforts sont en marche pour encadrer cette technologie. Toutefois, il appartient à chacun de nous d’adopter une approche critique et raisonnée dans l’utilisation de ces outils, pour garantir un avenir numérique plus durable et respectueux.  

Sur la même thématique