Creative / Ethical Design Studio

Me, Myself, and AI(E)



L’intelligence artificielle (IA) est devenue un outil incontournable dans de nombreux secteurs, y compris dans mes domaines : la stratégie de communication, le design, le branding, le graphisme et le développement web. Curieux et geek, forcément, dès 2022, j’ai testé1 Dall-E, ChatGPT, puis Faraday, Gemini, MidJourney, Bing CoPilot, Codeium, Arc Max, Perplexity, DuckDuckAI, Leo AI… Malgré ses prouesses indéniables, l’IA laisse souvent un goût d’inachevé, et les réitérations ou les corrections manuelles restent fréquentes. Alors, est-ce une révolution ou une illusion ? Et surtout, peut-on concevoir une IA éthique et responsable ?

Table des matières

L’IA : un gain de temps, mais à quel prix ?

L’IA touche d’innombrables aspects de notre vie quotidienne et passe souvent complètement inaperçue pour celleux qui n’ont pas une compréhension profonde de la technologie et de la façon dont elle est mise en œuvre : assistants numériques (chatbots, dont ChatGPT), assistants vocaux, recommandations personnalisées sur les sites e-commerce et de streaming, guidage GPS et enceintes connectées sont des exemples où l’IA est utilisée. Comparable à Akinator, en plus sophistiquée évidemment, l’IA repose avant tout sur des modèles statistiques et prédictifs. Elle ne reproduit nullement les sensibilités et les intelligences naturelles ou organiques.

« Ces systèmes sont très impressionnants dans certains domaines. Mais il y en a d’autres qu’ils ne peuvent pas encore réaliser, et il nous reste encore beaucoup de travail de recherche à accomplir avant d’y parvenir. »

Demis Hassabis / Cofondateur et PDG de Google DeepMind

Selon un sondage de février 2023, 36% des Français·es trouvent que l’IA est un concept flou. Néanmoins, parmi les sondé·es, beaucoup l’utilisent déjà. Toujours en France, l’IA s’installe progressivement dans les entreprises : fin 2024, entre 30 et 40% d’entre elles l’utilisent ou développent leurs agents. L’étude Hopes and Fears 2024 de PwC montre que 48% des salariés français ont déjà utilisé une IA générative à titre professionnel et qu’ils sont déjà 21% à l’utiliser au moins une fois par mois.

Les bénéfices de l’IA dans certains secteurs comme la médecine, la recherche, l’éducation sont probablement des « no-brainer » et un progrès technologique qu’il faut embrasser. Mais plus globalement, qu’en pensez ? Faut-il voir les IA comme des nouveaux outils complémentaires ou avoir peur que nos métiers soient remplacés par l’une d’elles ?

Dans mon quotidien, bien moins essentiel, j’admets utiliser régulièrement l’IA pour simplifier certaines tâches : comme la génération de concepts, et/ou la correction de code ou de textes. Je me restreins à une règle : être capable de comprendre un minimum ses réponses afin de les vérifier voire les corriger. Ses avantages sont indéniables en termes de rapidité et d’efficacité : elle permet notamment de dégrossir une mission, exécuter des tâches fastidieuses ou répétitives, de gagner du temps afin de se concentrer sur ce qui a plus de valeur ajoutée, etc.

Cependant, cette automatisation n’est pas sans défauts :

  • Qualité variable : les résultats générés nécessitent souvent une relecture approfondie et des ajustements. D’ailleurs, je suis plutôt fier quand je corrige le code ou les textes de l’IA ! (Oui, je lui renvoie mes retours en fanfaronnant, histoire de me convaincre que je peux améliorer son apprentissage…)
  • Dépendance croissante : plus on utilise l’IA, plus on risque de s’éloigner d’une maîtrise humaine complète des processus. Le « Vibe Coding »2 est d’ailleurs une aberration selon moi… 🙄

L’IA n’est donc pas (encore) une menace. C’est un avantage concurrentiel pour celleux qui outre-passent ces imperfections techniques. Toutefois, l’IA soulève des questions environnementales et éthiques qui ne peuvent être ignorées. D’où certains boycotts…

Les impacts environnementaux : une bombe à retardement

Le marché de l’IA représentait 241 milliards de dollars en 2023. Pensé par les géants de la tech comme une autre source de profits, on ne sait pas toujours comment ils gagnent de l’argent au vu des coûts, mais ce n’est certainement pas philanthropique et désintéressé ! C’est la « Start-up Nation » et ses investissements massifs. En tant qu’industrie de la rentabilité, elle vise à réduire les coûts partout où c’est possible (sans aucun scrupule), et générer de nouveaux monopoles économiques.

Loin d’être immatérielle, l’IA repose sur un écosystème et des infrastructures lourdes qui consomment énormément de ressources. Ce n’est pas sans conséquence :

  • Épuisement des ressources naturelles : la fabrication des composants nécessaires aux data centers, aux réseaux et aux terminaux mobilise des quantités astronomiques de métaux rares.
  • Consommation énergétique : le matériel dédié à l’IA représentent déjà une part significative de la consommation mondiale d’électricité. De nombreux pays dépendent encore d’énergies fossiles. D’ici 2030, les émissions de gaz à effet de serre liées à l’IA pourraient tripler.
  • Pollution des sols et des eaux : l’extraction et la transformation des métaux rares, l’artificialisation des terrains pour construire les infrastructures contribuent à la dégradation écologique.

Face à ces constats alarmants, il devient crucial de repenser nos usages pour limiter ces impacts.

Vers une IA éthique et responsable ?

Peut-on réellement parler d’éthique dans le domaine de l’IA ? Plusieurs aspects méritent réflexion :

  • Gains contre-productifs : perso, je sais comment occuper le temps gagné… mais dans d’autres contextes, notamment chez les salariés, j’ai l’impression que c’est un prétexte pour multiplier la charge… Le temps libéré par l’IA est souvent réinvesti dans de nouvelles tâches, ce qui annule tout véritable gain et contribue à une surcharge de travail toujours plus épuisante.
  • Exploitation humaine : derrière les algorithmes se cachent d’innombrables travailleurs sous-payés dans des pays en développement. Leur rôle est indispensable pour préparer les données nécessaires à l’entraînement des modèles.
  • Responsabilité : par son usage de plus en plus démocratisé, des gardes-fous sont nécessaires pour éviter les dérives des IA (qui tournent parfois au drame). L’utilisateur a aussi sa part à assumer.
  • Confiscation démocratique : les géants du numérique monopolisent les choix technologiques et imposent leurs visions du monde sans débat public.
  • Confidentialité et sécurité des données : l’une des inquiétudes soulevée par les IA concerne le stockage et l’utilisation des données, et donc la propriété intellectuelle…
  • Biais systémiques : les IA reproduisent souvent des biais sociaux présents dans leurs jeux de données, aggravant ainsi les discriminations existantes.
  • Info-pollution : des groupes terroristes, des militant⋅es d’extrême droite, des arnaqueurs utilisent déjà les deepfakes pour falsifier l’image et la voix de personnes existantes à des fins critiquables.
  • Complexification du paysage numérique : l’IA va conforter et amplifier la fracture numérique qui touche actuellement 15% de la population française.

Les IA génératives agissent comme un miroir grossissant de la société : elle peut en amplifier les progrès (diffusion du savoir, innovation sociale) mais aussi les travers (biais, infox, inégalités). L’IA éthique demeure une oxymore. Pour rendre l’utilisation de l’IA plus acceptable et durable, il s’agit avant tout de responsabiliser tous les acteurs, des investisseurs aux concepteurs, en passant par les usagers. Plusieurs axes sont à parfaire :

  • Écoconception : développer des IA frugales qui consomment moins de ressources.
  • Transparence : exiger une meilleure visibilité sur les processus d’entraînement et les sources de données utilisées.
  • Réglementation : encadrer l’IA avec des lois comme l’AI Act européen, qui impose des règles strictes selon les niveaux de risque (de « haut risque » à « risque inacceptable »), afin de garantir transparence, sécurité et respect des droits fondamentaux tout en responsabilisant les développeurs et les utilisateurs.
  • Alternatives éthiques : soutenir des initiatives comme celles des Designers Éthiques, Green IT ou FramamIA qui questionnent les démarches des entreprises, les outils et les usages afin d’établir un cadre responsable pour le bien commun.

Me, Myself, and Aïe…

Je me suis laissé le temps de la réflexion depuis mes premiers prompts. Alors que les avis sont déjà très tranchés, je reste très partagé sur les IA, entre son efficacité indéniable et ses limites techniques, éthiques et écologiques. À ce jour, dans le cadre d’un usage professionnel raisonné, je ne peux ni les rejeter, ni les idolâtrer. Pour ma part, il est probablement encore trop tôt pour une conclusion définitive, mais je demeure convaincu d’une chose : il est vital de rester critique dans une démarche responsable. J’aurai tendance à proscrire les usages ludiques. Il ne faut pas sous-estimer l’effet rebond3. Les pour et les contres cités plus haut le justifient. L’avenir de l’IA (et/ou de la planète, ça marche aussi !) dépendra non seulement des avancées technologiques mais surtout des choix collectifs que nous ferons pour encadrer son développement.

  1. Attention, je ne passe pas mon temps à multiplier les outils, les tests et les requêtes… Si j’ai passé 2-3h sur la majorité des outils cités, c’est un grand maximum. Par contre, j’utilise essentiellement CoPilot intégré à VS Code, et Perplexity. ↩︎
  2. Popularisé en 2025 par Andrej Karpathy, le « Vibe coding » est une approche de « programmation » où l’utilisateur décrit un problème en langage naturel à une IA afin qu’elle génère le code correspondant. Le développeur devient facultatif, et le prompteur s’occupe uniquement de la supervision, des tests et des ajustements des prompts et du code. Cette méthode vise à démocratiser le développement logiciel, mais soulève des questions sur la compréhension réelle du code et ses limites dans des projets complexes. ↩︎
  3. L’effet rebond désigne le phénomène par lequel les gains d’efficacité apportés par une innovation technologique sont annulés (voire dépassés) par une augmentation des usages ou des consommations. Exemple : l’amélioration de l’efficacité énergétique des appareils électroniques peut conduire à une augmentation de leur nombre ou de leur usage, annulant ainsi les économies d’énergie initiales. ↩︎
Avatar de Dareth NHANG