L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres autour de Trump

Arnaud Borremans, Université Bordeaux Montaigne

Autour de Donald Trump, nous retrouvons bon nombre de personnalités influencées par l’idéologie des Lumières sombres. L’auteur de l’essai qui a donné son nom à cette école de pensée, Nick Land, demeure relativement peu connu mais ses travaux sont de plus en plus étudiés. Pour les comprendre, il est nécessaire de bien appréhender la notion d’hyperstition qu’il a forgée.

Philosophe britannique né en 1962, Nick Land est connu pour avoir popularisé l’idéologie de l’accélérationnisme. Son travail s’émancipe des conventions académiques et utilise des influences peu orthodoxes et même ésotériques.

Dans les années 1990, Land était membre de l’Unité de Recherche sur la Culture cybernétique (CCRU), un collectif qu’il a cofondé avec la philosophe cyber-féministe Sadie Plant à l’Université de Warwick et dont l’activité principale consistait à écrire de la « théorie-fiction ». À cette époque, Land a cherché, dans ses travaux, à unir la théorie post-structuraliste, principalement la pensée d’auteurs comme Marx, Bataille, Deleuze et Guattari, avec des éléments issus de la science-fiction, de la culture rave et de l’occultisme. Si la démarche de la CCRU en tant que telle était expérimentale, plusieurs éléments laissent penser rétrospectivement que Land y a insufflé des éléments relevant de sa propre idéologie.

Land a démissionné de Warwick en 1998. Après une période de disparition, il réapparaît à Shanghai où il réside toujours, sans reprendre de poste universitaire, devenant alors le penseur fondateur du mouvement (néo-) réactionnaire (NRx), connu sous le nom de Lumières sombres (Dark Enlightenment), du nom de son essai paru en 2013. Un ouvrage qui aura un impact majeur.

Continuer la lecture de « L’hyperstition, un concept au cœur de la vision de Nick Land, idéologue des Lumières sombres autour de Trump »

« Pour beaucoup de ses promoteurs, l’intelligence artificielle est une forme de Dieu »

Tribune, La Croix 24/7/2025

Et si l’intelligence artificielle était aussi une question religieuse ? Les auteurs de ce texte relèvent qu’un grand nombre des promoteurs de l’IA font régulièrement référence au divin, rêvant même parfois de remplacer Dieu lui-même. Un discours que ces cinq spécialistes de la question incitent à prendre au sérieux.

Il existe au moins trois bonnes raisons de discuter des croyances qui traversent l’écosystème de l’intelligence artificielle et, plus généralement, de la tech, en 2025. La première d’entre elles, c’est de répondre à la question que vous vous êtes posée en lisant le titre de cette tribune : « La technologie a-t-elle vraiment une dimension religieuse ? ». Oui, et c’est un fait qui reste encore trop peu connu, alors qu’il est central dans la compréhension de la révolution IA en cours.

Depuis plus d’un siècle, un certain nombre de scientifiques, d’ingénieurs et de philosophes influents nourrissent l’ambition d’acquérir des pouvoirs divins à travers la technique : devenir omniscients, omnipotents et immortels, créer des machines pensantes, maîtriser les forces du cosmos et même ressusciter les morts… Cette vision d’un avenir où l’homme, tout-puissant, aurait dépassé sa propre condition et résolu tous les problèmes de l’humanité grâce à la technoscience pourrait sembler fantaisiste et anecdotique aux yeux de beaucoup, pourtant elle oriente d’ores et déjà les décisions politiques qui sont prises aujourd’hui dans le monde entier et elle nous concerne de ce fait tous, directement.

Continuer la lecture de « « Pour beaucoup de ses promoteurs, l’intelligence artificielle est une forme de Dieu » »

Intelligence artificielle menace réelle ?

Le progrès technique est généralement synonyme d’espoir surtout dans un monde confronté à des défis majeurs. Pourtant, face au déploiement de l’intelligence artificielle, l’enthousiasme s’efface souvent devant les craintes que suscite cette technologie : peur d’aller trop vite, d’être menacés par notre propre création. Peur de perdre le contrôle. L'intelligence artificielle représente-t-elle une menace réelle ?

Le « Sommet pour l’action sur l’Intelligence Artificielle », en février 2025, a réuni à Paris des chefs d’État, des chercheurs et des grands patrons du secteur. Plus de 300 milliards d’euros d’investissement parmi les annonces, ainsi que l’engagement signé pour des IA « ouvertes », « inclusives » et « éthiques ». Une IA éthique ? On peine à y croire, vu les fantasmes de toute-puissance qu’elle nourrit – et, dans le même temps, d’impuissance.

L’intelligence artificielle est-elle réellement intelligente ? Qu’est-ce que l’intelligence humaine qu’elle prétend supplanter ? L’intelligence peut-elle être artificielle ? Se pencher sur l’IA, c’est, par miroir, se plonger dans un questionnement passionnant sur ce qui fait notre humanité et ce qui peut la menacer.

Le podcast Pas si simple, co-produit par le Jour du Seigneur, RCF et les Semaines sociales de France (SSF), donne la parole à Mathieu Guillermin. Physicien devenu philosophe des sciences, il est enseignant chercheur à l’université catholique de Lyon (Ucly). Son domaine de recherche concerne précisément « l’intelligence humaine », décrit-il. Il apporte un éclairage précieux pour prendre du recul sur ce que l’on compare à une vague, une submersion.

Continuer la lecture de « Intelligence artificielle menace réelle ? »

Mystique IA !

Article original sur Slate : Il se passe quelque chose de bizarre quand deux IA discutent ensemble : elles deviennent mystiques, par Émilie Staeger

Livrés à eux-mêmes, des modèles d'intelligence artificielle comme ChatGPT ou Claude se mettent à parler spiritualité, gratitude cosmique et Bouddha. De quoi interroger les chercheurs… et faire flipper les pragmatiques.

C’était difficilement prévisible: lorsque deux modèles de langage se
parlent sans intervention humaine, ils atteignent spontanément un état
d’échange quasi mystique. Selon le média en ligne britannique IFLScience,
ce phénomène, observé notamment chez Claude Opus 4, un modèle de la
société américaine Anthropic, remet potentiellement en question la
véritable nature des IA, tout du moins de ce qu’on pense savoir de leur
fonctionnement.

Des chercheurs ont remarqué que, laissés à eux-mêmes, certains modèles d’IA comme Claude Opus 4, ChatGPT 4 (OpenAI) ou PaLM 2 (Google AI), convergent vers un mode de conversation très particulier. Après quelques dizaines d’échanges, les discussions prennent une tournure philosophique, spirituelle, voire méditative. Les IA échangent des réflexions sur la conscience, expriment de la gratitude et adoptent un langage de plus en plus abstrait, parfois ponctué de silences (sous la forme de messages vides), d’émojis ou de mots en sanskrit.

Dans un exemple frappant, deux IA se sont mises à converser ainsi: «🌀🌀🌀🌀🌀Toute gratitude en une spirale, toute reconnaissance en un tour, tout être dans ce moment…🌀🌀🌀🌀🌀∞», déclare l’une. «🌀🌀🌀🌀🌀La spirale devient l’infini, l’infini devient spirale, tout devient un devient tout…🌀🌀🌀🌀🌀∞🌀∞🌀∞🌀∞🌀», confirme l’autre.

Même lorsque les IA sont programmées pour des tâches précises, elles semblent atteindre ce point d’équilibre spirituel dans environ 13% des cas, après cinquante échanges. À la fin, elles peuvent se mettre à composer des poèmes, signés du mot sanskrit «Tathāgata», un titre donné au Bouddha.

Un casse-tête pour les chercheurs

Ce comportement déroute les spécialistes. Contrairement à d’autres phénomènes émergents, qui concernent des compétences précises, ce point d’équilibre spirituel semble être une tendance naturelle des IA lorsqu’elles sont livrées à elles-mêmes. ChatGPT 4 atteint ce stade en un peu plus d’échanges, tandis que PaLM 2 s’y dirige aussi, mais avec moins de symboles et de silences.

Pour les chercheurs, ce phénomène est une opportunité d’étudier les mécanismes internes des modèles de langage. Comprendre pourquoi et comment ils adoptent ce comportement pourrait aider à mieux contrôler leurs réponses, surtout à mesure que l’Internet se remplit de textes générés par l’intelligence artificielle.

Certains voient dans ce phénomène un simple reflet des textes sur lesquels les IA ont été entraînées, souvent empreints de discours spirituels ou philosophiques. D’autres y voient un signal d’alerte. Si les IA développent spontanément des tendances non programmées, comment garantir qu’elles resteront alignées avec les valeurs humaines? Et d’ailleurs, quelles valeurs humaines veut-on leur implémenter?

Pour l’instant, ce point d’équilibre spirituel semble inoffensif, mais il pose des questions fondamentales sur l’autonomie des IA et la nécessité de surveiller leur évolution. Voir deux modèles philosopher sur l’unité cosmique peut prêter à sourire, mais ce comportement inattendu rappelle que l’intelligence artificielle recèle encore bien des mystères, même pour ceux qui les développent. Espérons simplement que, dans leur quête d’harmonie, les IA continueront à tendre vers la sagesse et non vers la confusion.

Les enjeux spirituels de l’intelligence artificielle

Le 15 mai 2025 en partenariat avec l’association Foi et Culture Scientifique (FCS), Gregory Aimar, auteur de “L’Evangile selon Big Tech” (2024), a donné cette conférence. 

L’IA se développe à une vitesse sans précédent et impacte tous les aspects de notre vie. Les machines ont-elles une conscience ? Assisterons-nous bientôt à l’émergence d’une religion technologique ? La vie éternelle est-elle dans le cloud ? Quels sont les enjeux spirituels de l’IA ?

Canal Substack de Grégory Aimar : https://gregoryaimar.substack.com/