Numéro onze
Retrouvez le numéro onze de
Third : Le corps, le numérique et nous
Retrouvez le numéro onze de
Third : Le corps, le numérique et nous
Éric Fourneret (EF) : Aujourd’hui, les neurotechnologies, et en particulier les interfaces cerveau-machine, représentent un domaine de recherche en plein développement, mais encore très expérimental. Mon travail se concentre en particulier sur les implants cérébraux appliqués à des personnes en situation de handicap sévère : patients paraplégiques ou atteints du « locked-in syndrome », c’est-à-dire pleinement conscients, mais totalement incapables de bouger ou de parler. L’enjeu est de permettre à ces personnes de retrouver une forme de communication avec leur environnement, en décodant leur activité cérébrale pour piloter un curseur, une prothèse ou un exosquelette. C’est une avancée majeure, mais qui ne concerne encore qu’une dizaine de patients dans le monde.
Au-delà de ces applications très ciblées, les neurotechnologies se développent aujourd’hui autour de quatre grandes finalités.
Une finalité scientifique : il s’agit d’abord d’explorer le cerveau pour mieux en comprendre le fonctionnement. Malgré les outils de pointe dont nous disposons, le cerveau reste pour une large part une « boîte noire », un système d’une complexité encore largement inconnue. Les neurotechnologies nous permettent d’avancer par indices, de cartographier certaines zones, de corréler certaines fonctions, mais le cœur du processus cognitif reste profondément mystérieux.
Une finalité thérapeutique : les applications médicales sont aujourd’hui les plus concrètes. On travaille sur le traitement de maladies neurologiques comme l’épilepsie, ou sur l’accompagnement de troubles du spectre autistique. Il s’agit de soulager, de stabiliser, parfois de rééduquer certaines fonctions grâce à une lecture plus fine ou plus continue de l’activité cérébrale.
Une finalité de renforcement : dans un cadre éducatif ou médico-social, on utilise des dispositifs non invasifs comme le « neurofeedback ». Ce sont des casques équipés d’électrodes qui permettent à un enfant, par exemple, de visualiser en temps réel son activité cérébrale et d’apprendre à mieux la réguler. On cherche ici à améliorer la concentration ou certaines capacités attentionnelles, sans pour autant intervenir sur la structure biologique du cerveau.
Une finalité d’augmentation : c’est celle dont on parle le plus, souvent portée par les discours transhumanistes. L’idée serait d’accroître les capacités cognitives d’un individu en bonne santé, de « booster » la mémoire, l’intelligence ou la rapidité de traitement mental. Mais sur ce terrain, la réalité scientifique est très en retrait par rapport aux promesses. Les résultats sont pour l’instant extrêmement limités, voire inexistants. Nous sommes encore très loin d’un cerveau augmenté.
EF : Évidemment, il n’existe pas un fonctionnement unique des implants cérébraux : chaque dispositif dépend de la pathologie concernée, de la zone cérébrale ciblée, de la technologie utilisée. Néanmoins, on peut en dégager quatre grands principes qui structurent leur logique, du cerveau à la machine, et parfois, de la machine au cerveau.
Tout d’abord, il faut déjà une connexion. Tout commence par la mise en relation du cerveau avec un dispositif artificiel. Cette connexion peut être invasive (par implant intracrânien) ou non invasive (casque externe, électrodes posées sur le cuir chevelu). Le but est de capter l’activité électrique des neurones, c’est-à-dire les signaux électriques produits par certaines zones du cerveau lorsqu’une intention d’action ou de langage se manifeste. De plus en plus, la recherche tend vers des connexions sans fil, via des systèmes de transmission en Wi-Fi, pour éviter les câbles traversant le crâne, qui compliquent les mouvements et posent des problèmes d’hygiène ou de sécurité.
Ensuite, il y a le traitement du signal. Une fois connectés, les implants captent un flux massif d’informations électriques, y compris des signaux parasites : respiration, rythme cardiaque, mouvements internes du corps. L’enjeu est donc de filtrer ce « bruit », pour ne garder que les signaux pertinents : ce qu’on appelle les potentiels d’action. Ce travail de tri est assuré par des algorithmes, souvent couplé à l’intelligence artificielle, qui apprennent à reconnaître les signatures neuronales associées à des intentions précises.
Une fois le signal traité, il faut le traduire en commande compréhensible à la fois par la machine, mais également par l’être humain en retour. Cela suppose un langage commun, en l’occurrence les mathématiques. Par exemple, si un patient pense à lever son bras droit, l’implant doit transmettre à un bras robotisé l’ordre de se lever — au bon moment, à la bonne vitesse, avec la bonne trajectoire. Cette conversion est le cœur de l’interface cerveau-machine : transformer l’intention en mouvement artificiel.
Enfin, pour que l’action soit vraiment fluide, il faut qu’un retour sensoriel parvienne au cerveau. Pour reprendre l’exemple du bras robotique, si un patient l’utilise pour saisir un verre, il faut que son cerveau puisse « sentir » la pression exercée, sans quoi il risque de le briser ou de le faire tomber. Mais lorsque le système nerveux ne peut plus transmettre ces informations (parce que la moelle épinière est endommagée, par exemple) on doit créer un retour artificiel. Cela peut passer par des stimulations électriques, des vibrations, ou d’autres signaux envoyés vers le cerveau pour simuler une sensation de contact, de résistance, de poids. Ce dialogue entre la machine et le cerveau est ce que l’on appelle l’interaction bidirectionnelle, qui tend à être la plus fluide et la plus fine possible.
EF : L’usage des neurotechnologies fait émerger une série de questions éthiques majeures, que l’on ne peut pas aborder séparément tant elles s’enchevêtrent. Quatre grands enjeux me paraissent fondamentaux.
Le premier concerne l’hybridation entre l’humain et la machine. Introduire un dispositif artificiel au sein du système nerveux central, c’est modifier le fonctionnement même de ce qui nous constitue : notre cerveau. Ce geste technique interroge profondément notre conception de l’humain. Car si le cerveau nous singularise dans l’ordre du vivant, que devient notre identité lorsque cette activité cérébrale dépend d’algorithmes ou d’implants ? La question n’est pas tant de savoir si l’humain change – il change en permanence – mais ce que devient notre compréhension de l’humain lorsque la technologie en devient une partie fonctionnelle.
Le deuxième enjeu, plus fantasmagorique mais non moins sérieux, touche à l’accès à notre vie mentale et à la lecture de l’esprit. Peut-on lire l’esprit comme on lit un signal ? Par exemple, certaines recherches sont parvenues à reconstituer des images vues en rêve à partir d’ondes cérébrales. Cela peut sembler fascinant, mais cela soulève une inquiétude éthique majeure : ce qui relevait jusqu’ici de l’expérience intérieure, inaccessible et strictement personnelle, pourrait devenir observable, partageable voire exploitable. L’esprit, qui était un espace de solitude inviolable, pourrait devenir un terrain d’analyse.
Troisième problème : l’inadéquation des cadres conceptuels actuels. Aujourd’hui, le débat éthique autour des neurotechnologies repose essentiellement sur deux grands modèles : d’un côté, celui de la thérapie, centré sur la réparation et le soin. De l’autre, celui de l’« enhancement », c’est-à-dire l’amélioration des performances cognitives chez des individus en bonne santé. Ces deux cadres dominent la réflexion, structurent les discours et orientent les politiques. Mais la réalité est bien plus nuancée : la plupart des dispositifs actuels ne guérissent pas au sens strict, et ne relèvent pas non plus d’un simple désir de performance. Ils sont compensatoires. Dès qu’on les retire, les capacités retrouvées s’effacent. Ce ne sont ni des traitements curatifs, ni des outils d’optimisation : ce sont des soutiens continus, des béquilles technologiques. Or, penser ces technologies avec des modèles binaires revient à forcer la réalité à entrer dans des catégories qui ne lui correspondent pas. C’est pourquoi il devient urgent de concevoir des cadres éthiques intermédiaires, capables d’appréhender cette zone grise.
Enfin, le quatrième enjeu, décisif à l’ère des données, concerne les données cérébrales collectées. Ces données sont d’une nature inédite, bien plus sensibles qu’un clic ou une recherche sur internet. Or, les cadres juridiques actuels (comme le RGPD) n’ont pas été conçus pour elles. Comment protéger ces données sans freiner la recherche médicale qui a besoin de les analyser et de les partager ?
EF : L’émergence des neurotechnologies crée des pouvoirs d’action inédits sur l’être humain : sur son comportement, ses émotions, voire sur ses souvenirs. Ces nouvelles capacités techniques ne sont pas de simples prolongements d’outils déjà existants : elles introduisent la possibilité d’agir directement sur le cerveau, et donc sur ce que nous appelons la vie mentale, l’intériorité, ou encore l’identité personnelle.
Or, tout nouveau pouvoir technologique implique nécessairement de nouvelles responsabilités. C’est là que réside aujourd’hui l’un des grands défis : ces responsabilités n’ont pas encore été clairement définies, ni juridiquement, ni éthiquement. Et tant que ces responsabilités ne sont pas partagées et structurées, nous resterons dans l’incapacité de fixer des seuils éthiques stables, notamment entre usages thérapeutiques et non thérapeutiques.
EF : En effet, une fois les résultats produits ou les technologies développées, rien ne garantit qu’ils ne seront pas réutilisés à des fins très différentes, voire problématiques, comme la surveillance ou la discrimination. Or, la responsabilité éthique ne s’arrête pas au laboratoire.
C’est pourquoi il devient fondamental de déplacer le moment de la réflexion éthique. Il ne s’agit pas de l’ajouter après coup, une fois la technologie disponible, mais de l’intégrer dès la phase de conception. Cette approche, qu’on appelle l’éthique « by design », consiste à anticiper les usages potentiellement problématiques et à construire des garde-fous techniques dès le départ, de manière à rendre certains détournements tout simplement impossibles.
Prenons l’exemple d’un implant cérébral destiné à externaliser la parole. Si l’on veut préserver l’autonomie de la personne, il faut intégrer, dès la conception du dispositif, un mécanisme de validation volontaire avant chaque expression. Cela permet d’éviter que l’intelligence artificielle ne parle à la place de l’individu, ou qu’elle simplifie ou modifie ses pensées dans un souci de fluidité, comme cela peut arriver avec les suggestions automatiques sur nos téléphones.
En résumé, un cadre éthique structuré ne repose pas uniquement sur des principes extérieurs à la technologie. Il doit être incorporé à l’intérieur même du dispositif, dès sa conception. C’est à cette condition que la technique restera au service de la volonté humaine, et non l’inverse.
EF : Les neurotechnologies viennent profondément bousculer notre rapport à la conscience, en ce qu’elles mettent en évidence une réalité que les sciences cognitives et les neurosciences défendent depuis plusieurs décennies : il n’y a plus, aujourd’hui, de fondement scientifique à la séparation entre le corps et l’esprit. Ce que nous appelons « esprit » (pensées, émotions, souvenirs, volonté) émerge nécessairement de processus physico-chimiques dans le cerveau. Autrement dit, sans matière cérébrale, pas d’expérience intérieure.
D’un point de vue scientifique, la vieille séparation cartésienne entre corps et esprit ne tient plus. Pourtant, cette distinction reste très présente dans notre imaginaire collectif, qui demeure fortement dualiste : on admet plus facilement qu’un dispositif agisse sur le corps qu’il n’interfère avec ce que l’on perçoit comme notre esprit ou notre conscience. Mais là où certains y verraient une croyance surannée, j’y vois plutôt l’expression de l’idée selon laquelle nous sommes prêts à tolérer certaines atteintes au corps, mais que nous opposons une résistance bien plus forte dès lors qu’il s’agit de notre intériorité. Cette distinction n’a peut-être plus de fondement scientifique, mais elle reste éthiquement et socialement essentielle, parce qu’elle protège une forme de subjectivité, de dignité, et d’individuation.
Ensuite, sur la question plus spécifique encore du libre arbitre, je dirais que la réalité est plus nuancée. Nous ne sommes ni complètement libres, ni totalement déterminés. En ce sens, j’ai tendance à adopter une position dite « compatibiliste ». Je considère que nous sommes traversés par des influences biologiques, sociales et culturelles, mais que nous avons aussi la capacité de réfléchir à ces influences, de les questionner et d’y consentir — ou non. Cette forme de liberté ne suppose pas une autonomie totale, mais plutôt une possibilité d’accord ou de désaccord avec les déterminismes qui nous façonnent.
C’est là toute l’ambiguïté révélée par les neurotechnologies : elles peuvent, par exemple, modifier une humeur ou influencer un comportement. Mais cela ne signifie pas que notre volonté disparaît. Cela signifie que la volonté elle-même est un processus situé, enraciné dans un corps, qu’on ne peut plus penser comme séparé d’une « conscience pure ».
En définitive, les neurotechnologies nous forcent à abandonner l’illusion d’un sujet absolument libre et souverain, sans pour autant nous condamner au pur déterminisme. Elles nous poussent à repenser la conscience comme un processus incarné, relationnel, fragile — et à redéfinir les frontières éthiques de ce qui doit pouvoir être modifié, et de ce qui doit rester, autant que possible, inviolable.
Tout cela dépasse largement le cadre des neurotechnologies. Et ces enjeux touchent l’ensemble de notre rapport contemporain aux technologies. Les travaux en neurosciences ont par exemple montré l’impact neurologique massif des écrans sur le développement cérébral des enfants : un usage précoce et prolongé peut entraîner des retards significatifs dans la maturation du cerveau. Ce seul exemple montre à quel point la technologie, même sans implantation directe, peut modifier en profondeur nos structures cognitives et nos comportements.
La grande différence avec les neurotechnologies réside dans leur réversibilité : on peut éteindre un écran, retirer un casque à électrodes, mais on ne peut pas « désimplanter » facilement un dispositif cérébral. Mais au fond, l’enjeu est le même : comment protéger l’autonomie, l’intégrité et la capacité de discernement des individus dans un monde façonné par des dispositifs technologiques de plus en plus puissants et omniprésents ?
Ce qui est peut-être le plus préoccupant, ce n’est pas la technologie en elle-même, mais le fait que certaines générations naîtront dans un monde où ces outils sont la norme. Et une norme intériorisée est bien plus difficile à interroger : on ne résiste pas à ce qu’on n’a jamais vu autrement. Cela soulève une responsabilité collective, notamment intergénérationnelle, dans la manière dont nous préparons les plus jeunes à vivre dans un environnement technologique qu’ils n’ont pas choisi.
Il ne s’agit donc pas de rejeter la technologie, mais de poser la bonne question : quelle société technologique voulons-nous construire ? Et surtout : est-elle viable dans le temps, compatible avec la vitesse d’adaptation du cerveau humain et respectueuse de nos limites cognitives et sociales ? Aujourd’hui, nous développons les technologies plus vite que nous ne sommes capables de les intégrer. Cette tension permanente entre accélération technique et lenteur humaine crée un déséquilibre qui finit par nous épuiser.
Penser l’éthique des technologies, neuro ou non, c’est donc aussi une manière de réintroduire de la temporalité humaine dans un progrès qui, sans régulation, risque d’aller plus vite que notre capacité à en mesurer les conséquences.
Éric Fourneret montre que les neurotechnologies bouleversent notre conception du corps et de l’esprit : la conscience n’existe pas hors du cerveau, et la volonté est toujours incarnée et située. Ces dispositifs interrogent l’éthique de notre rapport aux technologies et soulignent la nécessité d’une réflexion intégrée dès la conception, pour protéger l’autonomie et la dignité. Un entretien éclairant sur les défis de l’humain augmenté et de la responsabilité collective.