La crise de daronnie de la Silicon Valley
Au courant du mois d’avril, j’ai passé trois jours à San Francisco, en immersion au congrès Wisdom 2.0. Voici mon carnet de bord.
Défragmenter ses traumas grâce aux psychédéliques et à la méditation
D’ailleurs, l’un des moments forts de la conférence aura ainsi été l’intervention de Rick Doblin, le fondateur de MAPS (Multidisciplinary Association for Psychedelic Studies), l’association qui milite depuis quarante ans pour la réhabilitation des psychédéliques à des fins thérapeutiques. Guilleret, aux cheveux bouclés, et doté d’un physique de hobbit, il s’enorgueillit fièrement sous les clameurs d’une salle presque hilare après son récit de test d’ecstasy sur des pieuvres : “nous sommes confiants qu’à l’horizon de juin 2024, la MDMA sera déclassifiée comme substance interdite et autorisée lé-ga-le-ment à des fins thérapeutiques”. Pour tous les thérapeutes présents dans la salle qui utilisent les psychédéliques de façon underground, pouvoir enfin travailler en toute légalité constituerait un immense soulagement. On comprend mieux pourquoi ils se lèvent de leurs sièges et acclament le conférencier comme si Michael Jordan venait de claquer un énorme dunk.
Le futur dessiné lors des trois jours de conférence par la juxtaposition de ces thématiques tient peut-être précisément dans cette convergence entre les techniques orientales et l’usage des psychédéliques. À première vue, cela semble un étrange mariage (dans la tradition, le bouddhisme s’oppose à toute prise d’intoxicants). Et pourtant, il se pourrait bien que ces deux technologies de l’esprit ayant profondément étendu leurs racines en Californie depuis la période hippie finissent par se retrouver. C’est tout le propos de Spring Washam, enseignante de méditation afro-américaine, souriante et décontractée vêtue d’une robe traditionnelle amérindienne. Elle a partagé un témoignage poignant sur ses propres impasses à gérer ses traumas après de nombreuses années de méditation. C’est cette stagnation qui l’a poussée un jour à franchir le rubicon de l’orthodoxie bouddhiste et à boire l’ayahuasca. Aujourd’hui, en pionnière, elle ouvre un chemin spirituel encore controversé dans la communauté des méditants en organisant des retraites d’un genre unique et à la popularité grandissante, combinant ayahuasca et pleine conscience. Elle justifie ce tandem inédit en insistant : “Nous n’avons plus le temps. Dans ce moment critique pour le sort de l’humanité, il nous faut des technologies qui accélèrent la guérison, la planète en a besoin”.
Il semblerait qu’à la fuite en avant algorithmique, les sages préconisent un autre chemin, qu’on pourrait résumer par cette maxime zen “hâtez-vous, lentement”.
Car pour une part des enseignants de méditation réunis, le salut passe davantage par une convergence des technologies de l’esprit (méditation, chamanisme, et — dans une moindre mesure — psychologie traditionnelle) que par le développement d’un agent conversationnel qui rédige les mails à notre place pour nous faire gagner 5 minutes afin de pouvoir passer plus de temps sur TikTok. À l’autre bout du spectre, Sam Altman, le CEO d’OpenAI semble avoir un tout autre avis.
L’IA et le liquide bleu
Ainsi, lorsqu’il pénètre finalement sur scène ce samedi 30 avril 2023 en fin d’après-midi, Sam Altman sait qu’au cours des trois jours qui ont précédé son intervention de nombreuses peurs se sont exprimées ainsi que du désemparement, et beaucoup, beaucoup de scepticisme et d’anxiété.
Le visage blême et le corps prostré, il s’apprête à faire son examen de conscience. C’est Jack Kornfield, éminent enseignant de méditation et figure tutélaire de la spiritualité occidentale, qui posera les questions. C’est d’ailleurs à lui qu’on doit la présence du CEO d’OpenAI. Car depuis six mois qu’est sorti ChatGPT, Sam Altman donne très peu d’interviews, et encore moins en public. Il sait qu’il s’expose à de nombreuses critiques. Mais Jack Kornfield l’a convaincu, car… c’est son guide personnel. Il l’accompagne depuis de nombreuses années à la manière de Steve Jobs qui était toujours suivi du moine zen Otogawa Kôbun.
Avant que les micros ne s’ouvrent, la salle est suspendue à cet échange, car elle sent bien que dans la séquence historique que nous sommes en train de vivre avec le décollage de l’IA, ce court échange est un moment privilégié. Tout le monde veut savoir si le créateur de ChatGPT a une éthique et un coeur qui bat. On veut sentir s’il est un gars bien, et si l’on peut vraiment remettre le futur de l’humanité entre ses mains. Nous serons pour le moins déçus car la conversation prend une tournure assez convenue et nous n’apprendrons pas grand chose, hormis que Sam Altman « médite le soir pour gérer son stress » (on le comprend), et que « [son] conseil d’administration est composé de 7 personnes » (censés sauver le monde). Comme à son habitude, il répond de façon mécanique aux questions, d’un ton monocorde. C’est fascinant de voir à quel point cet échange ressemble en tout point à celui entre un humain (Jack Kornfield) et ChatGPT (Sam Altman). Les réponses de ce dernier sont attendues, claires et consensuelles. On est loin du style fleuri et poétique du maître de méditation.
Finalement le moment le plus marquant de ces trois jours, (et la seule standing ovation) reviendra à Christopher Plowman, le CEO d’une application de méditation extrêmement populaire, Insight Timer. Dans un plaidoyer enflammé, il a comparé l’IA au liquide bleu dans le film Don’t Look Up (Adam McKay, 2021).
Selon lui, toute notre attention est siphonnée par le potentiel salvateur des technologies, ce qui nous empêche de voir le désastre écologique en cours. Lors de sa conférence, il a plusieurs fois plaidé pour une régulation de l’IA, alors que dans le contexte de la Silicon Valley, cette notion s’apparente à un gros mot. À de nombreuses reprises, il a invectivé le public à demander des comptes à Sam Altman et pourtant, c’est toujours le même constat : à ce stade, l’humanité ne dispose pas d’organe de régulation internationale habilitée à gérer des problèmes de cette l’échelle globale. Pas davantage pour gérer la crise climatique que pour la définition d’une charte des valeurs de l’IA. Alors, où va-t-on ? Se fondant une approche historique, Plowman se rangera du côté de ceux qui pensent que les égoïsmes nationaux et le capitalisme nous empêcheront de trouver des solutions intelligentes, mais que de l’inévitable explosion du système que produira cette crise renaîtra une nouvelle forme d’équilibre. Rendez-vous à l’édition de 2083 de Wisdom 2.0 pour en juger.
Plus d'articles
Vulnérabilité, féminisme et santé mentale
Avec le début de cette nouvelle année de cours, c’est l’occasion pour moi de faire un petit point pédagogique sur ce que mes dernières expériences d’enseignement m’ont
La méditation est-elle soluble dans les algorithmes ?
Une application de méditation est-elle un enseignant spirituel comme un autre ? Pour tâcher d’y répondre, il convient d’abord de savoir de quoi on parle. Une application de
Loopings, saison 1
Parfois, ça se joue à un détail. Un oeil qui brille, le calme au feu rouge, la douceur d’une peau toute lisse, une façon de reposer son enfant. Dans mon parcours de médi