Le plan de la Région Grand Est concernant l’IA, un exemple de prétention injustifiée à résoudre les problèmes humains qualitatifs
Le plan de la Région Grand Est concernant l’IA , un exemple de prétention injustifiée à résoudre les problèmes humains qualitatifs
Si l’on en juge par l’abondance des ouvrages, des articles et des colloques qui lui sont actuellement consacrés, la question de l’intelligence artificielle (IA) fait débat, sauf peut-être au niveau des institutions de développement économique (notamment l’institution régionale) où il s’agit prioritairement d’investir pour ne pas se laisser distancer.
La spécificité de ces investissements porteurs d’une mutation sociétale requiert pourtant une attention toute particulière et appelle quelques éclaircissements. L’IA soulève des controverses sur sa définition, son périmètre et ses conditions d’application, sur ses capacités réelles, sur les opportunités qu’elle génère mais également et peut-être davantage, sur les risques et les coûts politiques, sociaux et environnementaux qu’elle induit.
Selon certains auteurs, il ne s’agit pas « d’intelligence » mais d’une nouvelle forme d’agir efficace issue du traitement de données par des machines numériques qui est dispensée précisément d’intelligence et qui pour cette raison même doit être régulée et orientée suivant des « principes éthique adaptés » (simplifiés, formalisés et mathématisés) au langage machine.
De façon analogue on peut contester son caractère immatériel car il s’agit avant tout d’une industrie presque ordinaire, forte consommatrice de ressources et en quête de profits monétaires. Il vient cependant s’ajouter une dimension supplémentaire, l’IA est présentée par les principaux acteurs du numérique (GAFAM) comme une innovation de rupture, une science ultime et une solution universelle pour optimiser les comportements individuels, les stratégies d’entreprises et les politiques publiques.
Nous disposons pourtant de suffisamment d’éléments et d’arguments solides, fondés sur la connaissance des limites de la rationalité substantive (fondée sur des données quantifiées exploitées par des algorithmes, en mode semi-ouvert) pour interroger ce projet sur le fond et émettre quelques réserves. L’enjeu de l’IA s’avère par conséquent essentiellement de nature économique et politique, le bien-être humain, en dépit des prétentions affichées, n’est peut-être pas la priorité.
En premier lieu nous souhaitons attirer l’attention du lecteur sur le contraste entre l’engouement de la Région Grand Est pour l’IA et la quasi-absence de débat sur cette question de société. Certes la gestion des problèmes majeurs contemporains requiert une adaptation fine des politiques nationales au niveau de chaque territoire, ainsi qu’une réflexion, une planification et une organisation à toutes les échelles.
Les concepts de subsidiarité, de décentralisation et de biorégionalisme reviennent en force pour cette raison même. Mais inversement il devient difficile de proposer une analyse compétente des questions régionales en limitant son attention à cette seule échelle géographique. Les innombrables effets de débordement, d’interdépendance et d’allotopie demandent désormais aux instances locales en charge des affaires relatives aux besoins humains et aux ressources disponibles, de comprendre, d’anticiper et de prévoir l’évolution des situations au-delà de leur pré-carré.
Il apparaît bien aujourd’hui que les questions régionales les plus urgentes comme les politiques régionales et locales qui tentent d’apporter des réponses adaptées aux nombreuses difficultés pour continuer à faire société, sont très largement interpellées soit par des considérations universelles (l’adaptation au changement climatique, la perte de biodiversité, les pollutions, la raréfaction des ressources, les NTIC, l’IA, etc., pour n’en citer que quelques-unes) soit par des interdépendances intra-nationales ou internationales de plus en plus prégnantes ou nécessaires (solidarité, approvisionnement, sécurité, etc.)
A l’inverse des procédures organisationnelles antérieures qui raisonnaient par blocs de compétences et de spécialisation, les régions et les territoires locaux doivent désormais se positionner sur tous les grands sujets de société : la gestion de l’eau, l’usage des espaces naturels, les inégalités sociales, la mobilité, l’éducation, la solidarité, etc.
Prenons l’exemple de l’IA. A travers le document régional intitulé : « Le plan IA Grand-Est. L’intelligence collective au cœur de l’Europe ».
La Région Grand Est a donc décidé, sans attendre, et parallèlement au plan national IA et à la stratégie nationale correspondante (2018-2022 & 2021-2025) en faveur de l’IA (avec des financements publics très importants, la création d’un écosystème comprenant des instituts interdisciplinaires et installation d’un Comité de l’IA générative) de créer un institut régional dédié à l’IA (Grand Est 4 IA), d’engager un grand plan IA avec l’ensemble des acteurs (chercheurs, entreprises – fournisseurs, utilisateurs et startuper), à partir d’une rhétorique désormais bien rodée :
« Projetons nous dans l’avenir, soyons audacieux et créatifs »
Nos objectifs : « Booster la compétitivité des entreprises par l’IA » ;
« Soutenir l’excellence scientifique, assurer son rayonnement et sa valorisation » ;
« Dynamiser les startups en IA » ;
« Développer les compétences en IA », « garantir une IA éthique, transparente et inclusive » cf. Le plan IA Grand-Est, juin 2019
Ces objectifs tous louables, ne semblent guère crédibles, compte tenu de l’état des connaissances sur l’IA aujourd’hui (cf. bibliographie). Les entreprises du numérique et les institutions privées et publiques qui en assurent le développement et la promotion (comme OpenAI issue des GAFAM et Elon Musk ou d’autres y compris en France) effectuent un pari pascalien qui concerne l’humanité et qui n’est visiblement pas fondé prioritairement sur une éthique transparente et inclusive.
On peut même faire l’hypothèse que l’IA est intrinsèquement un projet de société qui tend intrinsèquement à exclure toute considération éthique (au sens de la réflexion humaine conduite par tout un chacun – a fortiori tout responsable -, en son for intérieur, sur le sens de notre action, dans son rapport avec le bon, le juste, le beau et le bien, en s’ouvrant à tous les points de vue). La seule manière d’inculquer très approximativement des « principes éthiques » à une machine est de spécifier des normes et des interdits dans sa programmation.
L’univers de l’IA n’a rien d’éthique du côté de la machine et elle est peu présente également (en dépit des revendications) du côté de l’humain. Car la question centrale qui domine chez nos élus régionaux et nationaux, comme chez les promoteurs et acteurs économiques de l’industrie du numérique, au vu des récents débats, suite à l’affaire Sam Altman qui a conduit à opérer un virage complet vers des finalités business, est davantage : où sommes-nous situés dans la concurrence et quelles sont nos perspectives de gains monétaires et politiques ?
Il nous semble que le débat et la réflexion critique ont cruellement manqués à tous les niveaux dans ces orientations politiques dominées par la crainte de se faire distancer dans un processus de concurrence généralisée lui-même postulé sans prise de recul critique. Sans être expert de l’IA il est toutefois possible de s’informer sur le fonctionnement de l’IA générative sur ses a priori implicites et explicites qui existaient déjà dans le corpus de l’analyse économique et que nous pouvons rappeler ici.
1 - Qu’est-ce que l’IA et quelles sont les limites d’un traitement purement quantitatif des problèmes humains du quotidien ?
L’IA (acronyme de l’intelligence artificielle), comme système sociotechnique, adossée à une science autant appliquée que fondamentale, comporte de très nombreux problèmes définitionnels autant sur les techniques utilisées et les approches scientifiques associées (connexionniste, probabiliste, cognitiviste, symbolique, statistique, etc.) que sur ses objets d’étude (vision, langage, raisonnement, prospective, etc.), mais également sur ses finalités ultimes et ses modalités de déploiement.
Les experts eux-mêmes peinent à définir l’IA générative, son fonctionnement précis et ses contours, c’est la raison pour laquelle elle fonctionne un peu comme une transcendance et se prête par conséquent à des métaphysiques. Ils sont cependant unanimes pour dire qu’il s’agit d’un système numérique asémantique, basé principalement sur le calcul de corrélations.
Sa diffusion a une portée politique mais elle opère en dehors de tout dispositif démocratique, en reposant sur les choix sociotechniques des grandes firmes du numérique et des grandes administrations, via le marché (y compris les marchés fi-face sous la forme de services en apparence gratuit), ce qui soulève un grand nombre d’interrogations.
Nous mettrons l’accent sur sa prétention, à notre sens abusive, à prendre en charge les problèmes humains complexes en réduisant leur reformulation à des approches strictement quantitatives. En ce sens l’IA incarne un moment historique particulier où les neurosciences associées aux sciences de l’ingénieur, du roboticien, de l’informaticien, de l’économiste et du mathématicien, donnent l’illusion d’être en mesure d’avoir réponse à tout de manière objective et neutre. Cette croyance dans les capacités illimitées de la formalisation technique n’est pas une nouveauté. Beaucoup de réalisations (de la cybernétique à la science économique, en passant par l’informatique) nous y préparaient depuis les années 50.
L’IA est l’aboutissement d’un long processus de numérisation de toute chose, pour être transformée en donnée exploitable (une obsession bien actuelle mais également une survivance de la croyance selon laquelle la nature – y compris humaine - est écrite dans un seul langage mathématique) et de la place accordée depuis quelques décennies au numérique et aux automates numériques dans notre société.
Il a ses qualités, il a aussi ses limites et ses défauts, mais surtout le numérique (dans les systèmes informatiques comme dans l’IA) respecte des protocoles et des approches qui lui sont consubstantielles et dont il ne peut jamais s’écarter. Il est aveugle à tout ce qui ne relève pas d’une métrique et du calcul.
Le robot conversationnel CHAT GPT par exemple montre ses limites et les biais attachés à ses bases de données. Pour un traitement machine, il faut nécessairement réduire toute question à des bases de données quantifiables, exploitables numériquement (actuellement en code binaire) et concevoir des algorithmes pour les traiter (même si ensuite c’est la machine qui prend en charge le process dans un dispositif neuronal dit de deep learning).
De ce fait l’IA ne produit aucun « modèle » de connaissance, elle détecte des corrélations statistiques et produit dans un langage humain du vraisemblable (pour les humains qui lui prêtent plus de signifié que n’en portent ses signifiants). L’IA ne reconnait pas (et ne pourra jamais reconnaître), le « sens », le « qualitatif », « la vie », « l’ambivalence », « la pensée ouverte », « l’à peu près », « la finitude », le « symbolique » et davantage encore « la conscience », « l’intuition », « les sentiments », « le toucher » etc.
Pur système numérique (certes complexe mais quasi-fermé) elle peut au mieux imiter ces facultés, les approximer, tout simplement parce qu’un signal numérique est binaire, parce qu’un circuit électrique ne peut être que ouvert ou fermé, parce que le système numérique binaire (dans l’attente des IA quantiques) ne connait que deux états, soit 0 soit 1. Bien que les bases de données qui servent à l’alimenter, puissent être extrêmement nombreuses, l’IA n’aura toujours accès qu’à une très petite fraction de la « réalité » partagée par les humains.
Cela n’empêche pas les GAFAM qui poussent au développement de l’IA de nous présenter cette technique comme le nouvel eldorado pour la conduite des affaires humaines.
2 - L’IA va- t-elle changer notre vie, jusqu’à quel point ? La question de l’éthique
L’IA suscite des propos qui relèvent autant de l’espoir technophile que du fantasme et/ou du délire mégalomane de certains grands industriels du numérique. Dans la littérature techno-optimiste les fantasmes côtoient les questions scientifiques. On assimile fréquemment le cerveau humain à un ordinateur, on invoque les performances supérieures des ordinateurs quantiques, on évoque l’IA générale, (AGI), « l’IA de niveau humain » voire, « l’IA superhumaine », toutes « bénéfiques pour l’humanité ».
On se hasarde à imaginer « une vie 3.0 basée sur du silicium plutôt que sur du carbone ». On évoque sans complexe la « singularité » et les problèmes de sécurité qu’elle pourrait générer. On exprime certaines fois le souhait d’une « IA éthique » parfois celui d’une « IA déresponsabilisée » (notamment en introduisant le hasard dans les prises de décision des machines).
On invoque au besoin les principes d’une éthique de la technologie, souvent inspirée des principes de la bioéthique (autonomie du sujet, équité, bienfaisance, non malfaisance), sans trop savoir comment les transposer.
On revendique avec force une intelligence éthique ou une éthique du numérique (objectivité, neutralité, autonomie, etc.) mais on peine à leur donner un contenu.
En pratique, outre l’intervention ponctuelle de régulateurs, les firmes conceptrices des robots conversationnels se contentent bien souvent d’une couche très superficielle de « bien-pensance » qui abuse de mot-valise (frugal, inclusif, responsable, durable), laissant craindre une prochaine spécialisation des IA selon la couleur politique des usagers (bulle informationnelle), mais bien évidemment les machines sont incapables de démontrer une réflexion, une problématisation et a fortiori, une profondeur de réflexion.
En réalité l’éthique ne peut pas être assimilée ici aux normes inculquées à une machine, elle suppose toujours une réflexion personnelle ou collective située qui prend en compte la tension existant entre la compréhension d’un contexte historique et culturel donné, d’une part, et les invariants du questionnement humain, d’autre part.
Ainsi, en matière d’IA, les utopies côtoient aisément les dystopies. Les promoteurs de ces outils numériques ne cessent de le répéter : l’humanité va par l’IA, changer d’ère radicalement, voire de civilisation. La technophilie aveugle nous guette, les discours enthousiastes pullulent, en réalité l’ignorance (notamment concernant les limites du calcul à reproduire certaines fonctions cognitives) côtoie la naïveté.
Les IA sont déjà presque partout (dans presque tous les secteurs d’activité, les transports, la santé, l’énergie, l’assurance, la finance, l’éducation, l’édition, etc.) sans jamais avoir fait l’objet de choix démocratiques. Elles se sont imposées au nom de leur prétendue efficacité et du fait d’un engouement sans limite pour les nouveautés technologiques.
Les citoyens ne sont pas invités à donner leur consentement éclairé dès lors que l’utilisateur consommateur consent aux conditions sans trop connaître la contrepartie de l’échange sur le marché biface dans lequel il s’est engagé (« J’approuve toutes les conditions d’utilisation… et j’autorise l’accès à mes données »). Il n’a en fait pas vraiment le choix. Ce sont surtout les milieux d’affaires et les acteurs économiques qui investissent dans l’IA qui vont exploiter les potentiels de la nouvelle situation qu’ils ont généré. Ils en profitent pour contourner la démocratie et le politique et au final en effet, pour changer notre vie sans notre consentement, en jouant sur les aveuglements volontaires du consommateur.
L’IA est en passe de redéfinir des pratiques quotidiennes, des métiers, voire de supprimer des emplois (et d’en générer de nouveaux), non parce qu’elle possède en soi des qualités opérationnelles qui disqualifient l’humain mais parce qu’en s’appuyant sur l’IA, les investisseurs dans le secteur public comme dans le secteur privé, sont en mesure de redéfinir, sans avoir à se justifier « le travail socialement nécessaire » (pour reprendre la terminologie de l’analyse marxienne pour désigner le consensus autour de la quantité et de la qualité de travail).
La démocratie ne semble pas concernée par les investissements réalisés dans le champ des techniques numériques (internet, réseaux sociaux, numérisation, Big-data, NTIC, IA). A travers l’IA, comme avec les réseaux sociaux, qui s’adressent en priorité au consommateur, les marchés empiètent sur la sphère politique, sans susciter de réaction.
3 - Les enjeux de l’usage de l’IA sont considérables car sa mise en œuvre repose sur plusieurs hypothèses et sur plusieurs strates d’opacité
Il y a en premier lieu l’opacité intrinsèque, propre à la technique d’analyse des données de ces dispositifs électroniques. Ils mettent en rapport des bases de données suivant une logique de corrélation statistique qui échappe même à leurs inventeurs pour en extraire des relations (de corrélation) qui reposent plus sur la vraisemblance que sur la vérité d’une causalité démontrée. La vraisemblance est produite par le nombre gigantesque d’itérations (d’opérations réalisées) et le nombre également très important de bases de données mobilisées.
Mais l’opacité préoccupante n’est pas seulement dans les algorithmes du fonctionnement de la machine, elle réside surtout d’une part, dans les arcanes de la constitution des bases de données (qui implique des hypothèses et des choix initiaux non explicités et comportant des biais) mais aussi et surtout, d’autre part, dans la manière de définir le problème qui sera traité par l’IA (la formule de l’algorithme qui choisit un nombre très élevé mais fini de bases de données jugées pertinentes, processus qui peut être confié lui-même à la machine).
Dans le processus automatisé ne figurent que des relations statistiques quantitatives qui maximisent la proximité et minimisent la dispersion, sans jamais poser la question du sens (car dans un algorithme la question du sens n’est jamais posée et ne peut jamais l’être). C’est à ce niveau qu’émerge une nouvelle strate d’opacité. Lorsque l’on décide de confier à l’intelligence artificielle un problème dans un domaine quelconque (juridique, santé, transport, littérature, criminalité, etc.) on choisit d’écarter la question du sens et de s’en remettre exclusivement au traitement statistique de bases de données.
Ce choix épistémique fondamental qui est en général celui des sciences dites dures est également celui de l’analyse économique pour le traitement des questions économiques (par le truchement de l’analyse de données).
Le choix de l’IA revient à décréter le caractère « ergodique » des systèmes et des problèmes humains, à les considérer comme pouvant relever d’un traitement équivalent à celui qui est mis en œuvre dans sciences de la nature et dans la sphère économique. La rationalité qui s’applique à la résolution est également particulière, elle relève de ce qu’on appelle la « rationalité substantive » (définitivement et complètement inscrite dans le programme de résolution : par exemple, lorsqu’il s’agit de maximiser sous contraintes un résultat monétaire, minimiser un coût, une distance, optimiser un processus quelconque) et non « la rationalité procédurale » (c.à.d. : adaptative, selon les circonstances, par étapes et sans référence à un optimum absolu) qui caractérise le comportement humain. La rationalité procédurale est en particulier celle des organisations qui n’appliquent pas aveuglement des critères quantitatifs.
Se priver de la poursuite d’une recherche selon les circonstances, en univers ouvert, pour ne s’en tenir qu’à des bases de données certes réactualisées mais figées, en univers quasi-fermé, n’est certainement pas la meilleure solution pour traiter des problèmes humains complexes et qualitatifs. Cette réflexion épistémique n’est pourtant pas menée car toute l’IA repose sur la croyance et le pari dans la puissance des données numériques et celle des algorithmes.
4 - Dans le champ quantitatif l’IA est un outil performant qui peut parfois se révéler très utile
L’IA peut en effet constituer un outil d’aide à la décision pour les travailleurs intellectuels, sous réserve qu’ils soient formés à l’esprit analytique et critique des résultats produits par l’IA. En général un bon professionnel peut dans son domaine apprécier la valeur ajoutée apportée par la machine, il peut également démêler aisément le vrai du faux, distinguer les pistes prometteuses de celles qui sont de fausses bonnes idées (notamment pour les applications à la recherche).
Il est certain que les ordinateurs, l’internet et les NTIC, d’une part, le Big-data et l’IA générative d’autre part, sont capables d’effectuer en un temps record (extrêmement court) des millions d’opérations et surpassent de très loin les performances notamment calculatrices des humains.
L’IA peut extraire de l’information pertinente de milliers voire de millions de bases de données, elle peut aussi résoudre aisément par exemple des équations quadratiques et d’une manière générale, traiter en un temps record, et partant « résoudre » techniquement (mais certainement pas socio-techniquement) toutes sortes de problèmes ramenés à une formulation numérique.
L’IA est dans certain cas un outil d’aide à la décision et à la créativité des praticiens (scientifiques, ingénieurs, architectes, artistes, fonctionnaires, militaires, financiers, etc.).
Certes, il est fortement recommandé de ne pas s’interroger sur les choix qui ont présidés à la constitution des bases de données (on risque d’y découvrir des biais), mais plus le domaine se prête à la rationalité substantive, à l’axiologie, à la modélisation formalisée, plus le recourt à l’IA semble justifié. Le problème majeur est que l’IA n’est pas cantonnée à son domaine de compétence, elle est abusivement utilisée (en tordant la réalité, en simplifiant outrageusement la complexité), pour répondre à des problèmes qualitatifs.
5 - Dans le champ qualitatif, en revanche, l’IA présente de bien piètres résultats
Dans les domaines (comme la philosophie, la politique, la pédagogie, la psychologie, la sociologie, la planification, la prospective, la communication interpersonnelle, etc.) dans lesquels les problèmes ne se laissent pas réduire exclusivement à des données et des algorithmes, dans lesquels des problèmes d’interprétation ou de choix des doctrines se posent, les performances de l’IA générative (type CHAT GPT) semblent à peine acceptables (au niveau d’une mauvaise copie d’étudiant), bourrées de biais, d’approximations, d’erreurs, de tergiversations supposées intégrer le pour et le contre, dans un équilibre bienséant exigé par les régulateurs.
La force de l’intelligence humaine c’est de savoir manipuler des données situées dans l’espace, dans le temps et continument changeantes, de faire son miel avec de l’incertain, de l’indéfini du symbolique, du polysémique et de l’abstrait. Aucun risque que l’IA nous arrive à la cheville dans ces domaines cognitifs. Ce n’est pas une question de temps ou d’amélioration des performances, c’est lié intrinsèquement aux propriétés des dispositifs numériques. Mais ces limites peinent à être reconnues. La prétention de l’IA à l’hégémonie sur l’ensemble des données dans tous les domaines de la vie collective et individuelle est aujourd’hui fortement revendiquée.
Il suffit parfois qu’une voix synthétique féminine et douce formule des banalités pour qu’on lui prête une intelligence et qu’on s’extasie sur la performance de la machine, en oubliant la pauvreté du contenu des propos tenus, le caractère convenu et stéréotypé des réponses et qu’on attribue au discours tenu une profondeur dont il est dénué (seuls les humains savent faire miroiter la polysémie des mots). Il s’agit en réalité d’un discours parfois compassionnel (« je ne suis qu’une simple machine qui s’efforce d’aider les humains à surmonter des défis considérables ») qui se plait avant tout à séduire et revendique indument un changement d’ère historique pour l’humanité …
Il s’agit surtout d’un changement très profitable (en termes de pouvoir et de gains monétaires illimités) pour ses instigateurs. Nous ne demandons pas aux ingénieurs de l’IA d’insérer un supplément d’âme (dont elle n’est pas dotée) dans ses analyses (ce serait bien pire, de faire semblant) mais d’admettre que sans ce supplément d’âme (spécifique à l’humanité), dans le traitement des problèmes qualitatifs, l’objectivité et la neutralité prennent une forme sinistre et grotesque. Les humains sont, le fait est connu et affirmé depuis l’antiquité grecque, des animaux politiques qui ont besoin d’échanger entre eux et de contrôler collectivement leurs projets et leur destin.
Les humains peuvent-ils s’en remettre aveuglement à l’IA ? Peuvent-ils raisonnablement mettre leur destin entre les mains des sociétés du numérique qui sont derrière en embuscade ? Certainement pas.
6 - Le plus gros risque, c’est indiscutablement que les décideurs privés et publics tordent dans une reformulation approximative et réductrice toutes nos problématiques (santé, choix politiques, choix productifs, planification, design, éducation, loisirs, etc.) afin qu’elles puissent être digérées et traitées (sous forme de recommandations ou de solutions préconisées) par les machines numériques.
L’IA, avant même d’être une aventure technologique plus ou moins passionnante est du point de vue des investisseurs et des financiers, un investissement qui doit être rentabilisé, il ne faut pas l’oublier. Même entachée de préjugés et d’espoirs disproportionnés, l’IA ne doit pas décevoir ses inventeurs, ses utilisateurs et surtout ses financeurs. Elle doit, coûte que coûte, continuer à faire illusion et pour cela elle doit s’imposer au plus grand nombre dans les entreprises et les administrations.
Loin de la science-fiction et ses dystopies dans lesquelles les machines numériques et les robots renversent le pouvoir des humains (en apprenant par exemple à empêcher leur interruption), il est bien plus probable que c’est le pouvoir de contrôle de certains hommes et de certaines institutions qui va s’exercer et s’employer à réduire comme peau de chagrin, la complexité de la vie sociale, politique, économique, philosophique, éthique, etc., résumée à un ensemble simplifié de données quantifiables.
Ce réductionnisme caractérise d’ores et déjà l’analyse économique (dans laquelle on privilégie au détriment de tout le reste, le prix, les quantités, les relations fonctionnelles entre ces variables dans un espace au fonctionnement simplifié et concurrentiel : le marché). Le projet de l’IA généralisée est en réalité un projet d’extension supplémentaire de la rationalité économique et financière. Un projet qui permettra de livrer toutes sortes de questions aux traitements de l’IA (certes avec une très faible valeur ajoutée intellectuelle) mais la rentabilité des machines sera ainsi assurée.
L’IA aura acquis l’exclusivité de la quête des solutions d’optimisation dans les transports, la santé, la gestion des matières premières et de l’énergie, l’information, la finance, la création artistique. L’IA est une prise de pouvoir économique et politique des GAFAM déguisée sous de belles intentions (nous mobilisons les sciences et les techniques numériques pour faire le bien de l’humanité). Cette confusion qui assimile l’optimisation au bien est consternante.
Nous assistons à une sorte de coup de force politique qui ne dit pas son nom. Comment s’opère la prise de pouvoir ? De manière très simple, à travers un dialogue implicite à l’issue duquel l’humain profane, désemparé devant la puissance technique (invisibilisée puisque l’IA fonctionne comme une boîte noire et par conséquent supposée très performante), mais également devant la puissance économique et financière de l’industrie du numérique alliée à la science, reconnait volontiers ses propres faiblesses, oubliant qu’elles sont des richesses …
- Vous savez optimiser ? Vous pouvez traiter en quelques millisecondes des centaines de milliers de données et en extraire l’information la plus judicieuse ? – Non ! - Vous avez une meilleure solution ? – Heuu !... - Non alors circulez, n’entravez pas le progrès avec des considérations irrationnelles. Laissez-nous vous orienter dans vos choix quotidiens par une expertise qui surpasse de très loin vos propres capacités. Laissez-nous faire…. L’IA, dernier avatar du néolibéralisme ? C’est très possible en effet. Cessons d’idolâtrer les nouvelles technologies et de donner les clefs de la démocratie aux concepteurs des systèmes numériques, pour davantage privilégier la compréhension des effets qu’elles produisent sur l’individu et sur la collectivité.
René Kahn
ovipal
2 mars 2024
Éléments de bibliographie
AGGERI, Franck. (2023), L’innovation, mais pour quoi faire ? Essai sur un mythe économique, social et managérial, Paris, Seuil.
ANDLER Daniel (2023), Intelligence artificielle, intelligence humaine : la double énigme, Gallimard
BABINET Gilles (2015), Big data, penser l’homme et le monde autrement, Le Passeur
BARRAU Aurélien (2023), L’Hypothèse K. La science face à la catastrophe écologique, Grasset
BENBOUZID Bilel & al. (2022), « Quatre nuances de régulation de l’intelligence artificielle
Une cartographie des conflits de définition », in Réseaux 2, n°232-233, pp. 29-64, La Découverte
BENSAUDE-VINCENT, Bernadette. (2009), Les vertiges de la technoscience. Façonner le monde atome par atome, Paris, La Découverte.
BERTOLUCCI Marius (2023), L’homme diminué par l’IA, Hermann
BIRNBAUM Jean (dir.)(2022), Etre humain ? , Gallimard
CELLARD Loup & PARKER Christine (2024) « Verdir l’IA : un cheval de Troie pour étendre son usage ? », in AOC media 31/01/
COUTELLEC, Léo. (2013), De la démocratie dans les sciences. Épistémologie, éthique et
pluralisme, Paris, Editions Matériologiques
CRAWFORD Kate (2022), Contre-Atlas de l’intelligence artificielle, les coûts politiques, sociaux et environnementaux de l’IA, Zulma essais
DELMAS Philippe (2019), Un pouvoir implacable et doux. La Tech ou l’efficacité pour seule valeur, Fayard
DEVILLERS Laurence (2017), Des robots et des hommes. Mythes, fantasmes et réalité, Plon
DUFOUR Dany-Robert (2019), Baise ton prochain. Une histoire souterraine du capitalisme, Babel
FLORIDI Luciano (2023), L’éthique de l’intelligence artificielle, Principes, défis et opportunités, Mimésis philosophie
GOMEZ Pierre-Yves (2019), L’esprit malin du capitalisme, Desclée de Brouwer
GRINBAUM Alexei (2018), Les robots et le mal, Desclée de Brouwer
HÉRAUD Jean-Alain & KAHN René (2023), « Recherche et innovation, une approche critique de l’éthique et de la responsabilité revendiquées », in Innovations, 3, n°72, pp.181-207
KYROU Ariel (2020), « Dans les imaginaires de l’IA » in Multitudes, 1 n°78, pp 75-83
LE CUN Yann (2019), Quand la machine apprend, La révolution des neurones artificiels et de l’apprentissage profond, Odile Jacob
LINDEN Isabelle (2020), « Entre rêves et illusions… L’intelligence artificielle en question », in Revue d'éthique et de théologie morale 3, (N° 307), pp. 11 – 27, Editions du Cerf
MOULIER-BOUTANG Yann (2020), Le troisième âge de l’intelligence augmentée dite artificielle, in Multitudes 1 n°78, pp.86-96
QUET Mathieu (2022), Flux, comment la pensée logistique gouverne le monde, Zones
RIFKIN Jeremy (2022), L’âge de la résilience, La terre se réensauvage, il faut nous réinventer, LLL
SADIN Éric (2021), Faire sécession. Une politique de nous-mêmes, L’Echappée
SADIN Éric (2018), L’intelligence artificielle ou l’enjeu du siècle. Anatomie d’un antihumanisme radical, L’Echappée
SADIN Éric (2023), La vie spectrale. Penser l’ère du métavers et des IA génératives, Grasset
TEGMARK Max (2018), La vie 3. Etre humain à l’ère de l’intelligence artificielle, Dunod
WOLF Susan (2023), Le sens dans la vie, Éliott
WOLFF Francis (2019/2021), Plaidoyer pour l’universel, Fayard
WOLFF Francis (2023), Notre humanité, d’Aristote aux neurosciences, Hachette Pluriel
A découvrir aussi
- SRADDET Grand Est, l’offensive économique régionale et son utopie néolibérale sont-elles compatibles avec les objectifs de qualité de vie pour les habitants ?
- Révolution numérique, démocratie et politique dans l’espace urbain
- Pour faire société : repenser le projet territorial (régional, local et urbain
Inscrivez-vous au site
Soyez prévenu par email des prochaines mises à jour
Rejoignez les 897 autres membres