Il y a eu de nombreux commentaires au cours de l’année dernière sur les dangers potentiels de l’intelligence artificielle (IA). Même de la part de sommités de l’IA comme Elon Musk, Yoshua Bengio, Geoffrey Hinton, Yann Le Cun, ou Gary Marcus. Mais ce ne sont peut-être pas les bonnes personnes à écouter à cet égard, parce que les menaces de l’IA sont fondamentalement politiques. La plupart des scientifiques et experts techniques, aussi intelligents soient-ils, n’ont pas de formation en sciences politiques. Ils n’ont généralement pas l’état d’esprit nécessaire pour penser à la politique, à l’exception de l’impact de la réglementation sur leur secteur. On ne s’attend pas à ce qu’un inventeur comprenne les implications politiques et sociales de son invention.
L’angle mort des menaces de l’IA
Cela explique pourquoi ces experts font généralement des commentaires plutôt naïfs et banals concernant les menaces de l’IA. La proposition de demander aux entreprises de faire une pause est une bon exemple. Toujours pour des raisons à priori cohérentes : «le gouvernement doit absolument s’impliquer», «les humains peuvent blesser d’autres personnes avec l’IA», nous ne voulons pas que «l’IA tombe entre de mauvaises mains», parce que des «mauvais acteurs» pourraient utiliser l’IA, etc. De plus, les menaces potentielles de l’IA semblent parfois être tantôt minimisées et tantôt exagérées. Ce que toutes ces évaluations de la menace par l’IA ont en commun, c’est qu’elles ne reconnaissent jamais le «mauvais acteur» avec le pire bilan : l’État.
Ceci est clairement un angle mort des discours contre l’IA. Pour ces scientifiques de l’IA, la distinction fondamentale entre l’État et la société est inexistante ; c’est toujours un «nous» collectif qui doit gérer les menaces potentielles de l’IA. C’est précisément l’avertissement que Murray Rothbard a exprimé si clairement dans Anatomie de l’État (1974) : «Avec la montée de la démocratie, l’identification de l’État à la société s’est redoublée… L’utile terme collectif « nous » a permis de jeter un camouflage idéologique sur la réalité de la vie politique».
Bien qu’il soit difficile de distinguer l’État de la société en cette ère d’interventionnisme étatique et de capitalisme de connivence, il est essentiel de le faire. L’État, selon la définition Weberienne, est «une communauté humaine qui revendique (avec succès) le monopole de l’usage légitime de la force physique sur un territoire donné». L’État est donc, par sa nature même, radicalement différent du reste de la société. Comme Ludwig von Mises averti dans Le Gouvernement omnipotent (1944) : «Le gouvernement est essentiellement la négation de la liberté». En d’autres termes, la liberté souffre lorsque la coercition de l’État augmente. Bien que le pouvoir des entreprises puisse influencer le gouvernement afin d’obtenir un traitement préférentiel lorsque l’État de droit peut être contourné (comme c’est souvent le cas), il est clair qui tient les rênes. Il faut abandonner le mythe d’un «État bienveillant».
Vu sous cet angle, pour toute nouvelle technologie, il est nécessaire de se demander dans quelle mesure l’État contrôle cette technologie et son développement. À cet égard, le bilan de l’IA est médiocre, puisque la plupart des grands acteurs de l’IA (comme Google , Microsoft , OpenAI , Meta , Anthropic, etc.), leurs fondateurs, et leurs technologies de base, ont été pris en charge dès le début de manière importante par le gouvernement américain, qui a financé et subventionné la recherche et des infrastructures. La DARPA (Defense Advanced Research Projects Agency) et la NSF (National Science Foundation) ont financé les premières recherches qui ont rendu les réseaux neuronaux viables (c’est-à-dire la technologie de base de tous les principaux laboratoires d’IA d’aujourd’hui).
Cette évolution n’est pas du tout surprenante, puisque l’État cherche naturellement à utiliser tous les moyens possibles pour maintenir et étendre son pouvoir. Selon Rothbard, «ce que l’Etat craint par-dessus tout, bien sûr, c’est toute menace fondamentale à son propre pouvoir et à sa propre existence». Ainsi, les menaces de l’IA doivent être vues de deux manières. D’une part, l’État peut utiliser activement l’IA pour renforcer son pouvoir et son contrôle sur la société (comme indiqué ci-dessus), mais d’autre part, l’IA pourrait également représenter un défi pour l’État, en renforçant l’autonomie de la société tant économiquement que politiquement.
L’IA fera-t-elle pencher l’équilibre du pouvoir ?
La menace de l’IA doit donc être évaluée en fonction de l’impact potentiel qu’elle peut avoir sur l’incertain équilibre du pouvoir entre l’État et la société, ou, pour l’exprimer plus sociologiquement, entre la minorité dirigeante et la majorité dirigée. Cette relation dépend de qui profite le plus des nouveaux instruments de pouvoir, tels que l’imprimerie, la banque moderne, la télévision, Internet, les médias sociaux, et désormais l’intelligence artificielle. Dans certains cas, l’État a utilisé ces outils pour renforcer son contrôle, mais certaines utilisations peuvent renforcer la société. Par exemple, la télévision est un médium qui a sans doute renforcé la position de la minorité dirigeante, alors que les réseaux sociaux renforcent actuellement l’influence politique de la majorité aux dépens de la minorité au pouvoir. La même question concerne donc l’IA : renforcera-t-elle l’État aux dépens de la société, ou l’inverse ?
Comme vu ci-dessus, l’État s’est impliqué dans l’IA il y a longtemps, déjà au stade théorique. Aujourd’hui, Palantir, la société du libertarien de façade Peter Thiel, fournit un logiciel d’analyse basée sur l’IA pour les agences gouvernementales américaines afin d’améliorer leur pouvoir de surveillance et de contrôle de la population, en créant une base de données citoyenne nationale centralisée (y compris la possibilité cauchemardesque d’une «police prédictive»). La société Anthropic a aussi fait équipe avec Palantir et Amazon Web Services pour donner accès à ses modèles d’IA aux services de renseignement et de défense américains. Et Meta mettra également ses modèles d’IA génératifs à la disposition du gouvernement américain.
Il est vrai que de telles initiatives pourraient, en théorie, rendre la bureaucratie de l’État plus efficace, mais cela pourrait aussi accroître la menace pour la liberté individuelle. Quoi qu’il en soit, cette évolution est considérée comme «normale» et ne soulève aucune crainte parmi les journalistes et les experts de l’industrie de l’IA.
Du point de vue de la société, l’IA finira par conduire à des changements radicaux dans les entreprises et à des augmentations de productivité, bien au-delà de la révolution que fut Internet au début du siècle. Les conséquences politiques pourraient être importantes, puisque l’IA peut donner à chaque individu un assistant de recherche personnel et fournir un accès plus simple à la connaissance, même dans les domaines où il y a des garde-fous. Les tâches routinières peuvent être prises en charge par l’IA, ce qui va libérer du temps pour des tâches à plus forte valeur ajoutée, y compris l’engagement politique. Par exemple, l’IA peut faciliter la compréhension et la vérification de l’activité gouvernementale, par exemple en résumant la législation en langage clair, en analysant les données budgétaires, en vérifiant les faits en temps réel, réduisant ainsi l’écart de connaissances entre les gouvernements et les citoyens ordinaires.
Bien sûr, cette autonomisation politique accrue de la société pourrait être entravée si l’accès à l’IA est conditionné. Si l’État garde son influence sur l’IA, il pourrait affaiblir les dissidents et discréditer les journalistes indépendants qui utilisent l’IA, par la surveillance, la manipulation, ou pire ; cela arrive dans les pays dans lesquels l’État ne se sent que vaguement lié par ses limites constitutionnelles. C’est malheureusement le cas non seulement aux États-Unis, mais aussi dans la plupart des États et organisations supranationales.
L’avenir de l’IA, comme l’AGI (générale) , IA agentique et IA physique ne fera que rendre cette discussion plus importante. Ces évolutions augmenteront la possibilité de violations des droits par l’État, mais aussi les possibilités et les contre-mesures possibles au niveau individuel et collectif. Beaucoup dépendra de la question de savoir si les nombreuses fonctions d’IA du futur seront principalement ouvertes, décentralisées et chiffrées. Cet avenir est encore incertain, mais le cadre politique présenté ci-dessus reste valable.
Les enjeux politiques liés à l’IA sont bien plus conséquents que ceux que les experts qui développent l’IA évoquent. Les menaces de l’IA sont similaires aux menaces que représentent toutes les nouvelles technologies, si elles sont utilisées de manière malveillante par l’État. Il est donc essentiel pour le public non seulement de connaître l’IA et d’en exploiter le potentiel, mais aussi de la voir dans le contexte plus large de la lutte politique pour la liberté.
Finn Andreen est un libertarien suédois résidant en France. Il est titulaire d’un master en génie physique de l’Université KTH de Stockholm et diplômé de HEC à Paris. Il est membre du Mises Institute et du Cercle Bastiat en France. Ce texte est une traduction d’un texte publié par le Mises Institute.