| | | | | | | Edition du 22 Octobre 2021 |
| |
|
| Edito La stimulation cérébrale profonde gagne enfin ses lettres de noblesse…
Avant-Propos : Chers lecteurs et lectrices de RT Flash Pour permettre à RT Flash de continuer à paraître chaque semaine en 2022 et de faire en sorte que l'abonnement soit toujours gratuit et que notre Lettre ne soit pas polluée par la publicité, je vous demande de faire un don à l'Association ADIST qui gère RT Flash. A ce jour, vous avez été 31 donateurs et donatrices à répondre à notre attente et l'ADIST a ainsi collecté 2.171 euros. C'est nettement insuffisant. Vous êtes très nombreux, chaque semaine, à ouvrir RT Flash, que ce soit sur le web ou sur les réseaux sociaux, mais peut-être n'y restez-vous pas assez longtemps pour acquérir l'impression que RT Flash vous est utile, sinon nécessaire pour acquérir des connaissances nouvelles. Ce n'est que lorsque vous aurez une réelle impression que la lecture de RT Flash vous est nécessaire que vous pourrez acquérir l'impression que faire un don pour que RT Flash continue à être publié, semaine après semaine, est utile. Bonne nouvelle : L'ADIST a été qualifiée d'Association d'Intérêt Général. Les dons qui sont faits à notre association ouvrent droit à une réduction fiscale de 66 % en respect des articles 200 et 238 du Code Général des Impôts. Ainsi si vous nous faites le plaisir de faire un don de 30 euros, vous bénéficierez d'une réduction de 20 € sur vos impôts et si votre bonté allait jusqu'à 300 euros de don pour permettre à RT Flash de survivre, ce serait une réduction de 200 euros que vous constateriez sur le montant des impôts qu'il vous faudrait régler. Sans vous tous qui acceptez de faire des dons, RT Flash n'existerait plus. Nous avons bien conscience de la précarité de notre situation mais vous remercier chaque semaine avec des articles et un édito dont les rédacteurs et moi-même sommes totalement bénévoles nous apporte beaucoup de joie et de bonheur. René Trégouët Sénateur Honoraire Créateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash Si vous voulez aider RT Flash, lettre d'informations scientifiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant : Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 %. EDITORIAL : C’est en 1987 que la stimulation cérébrale profonde (SCP), une technique promise à un immense avenir, a franchi une étape décisive, avec la découverte d’Alim Louis Benabid, qui était alors jeune neurochirurgien au CHU de Grenoble. Celui-ci devait pratiquer une thalamotomie sur un patient atteint de Parkinson. Il eut alors l’idée d’observer d’abord l’effet sur le thalamus d’un courant à haute fréquence (HF), dans les 80 à 100 hertz. Il constata, à sa grande surprise, que cette stimulation électrique faisait disparaître le symptôme ! Le Docteur Benabib venait de montrer qu’on pouvait traiter, de manière réversible et modulable, une dysfonction cérébrale sans avoir à détruire une zone normale. Depuis cette avancée, il y a 34 ans, Alim-Louis Benabid et le neurologue Pierre Pollak au CHU de Grenoble, n’ont cessé de perfectionner et d’étendre les indications de cette technique. Aujourd’hui, la stimulation cérébrale profonde a permis de réduire significativement les symptômes moteurs de 200.000 personnes atteintes par la maladie de Parkinson, sans toutefois permettre de guérir cette maladie. Aux Etats-Unis, des chercheurs de l'Université Carnegie Mellon, dirigés par le Professeur Gittis ont trouvé un moyen de rendre la stimulation cérébrale profonde plus précise, ce qui entraîne des effets thérapeutiques plus durables (Voir Science Daily). Ce type de stimulation permet aux chercheurs et aux médecins d'utiliser de fines électrodes implantées dans le cerveau pour envoyer des signaux électriques dans la région précise du cerveau qui contrôle les mouvements. Mais cette technique a une limite de taille : les patients doivent recevoir une stimulation électrique continue pour obtenir un soulagement de leurs symptômes, et quand la stimulation s’arrête, les symptômes réapparaissent immédiatement. En 2017, cett e équipe a identifié les familles spécifiques de neurones qui pourraient être ciblés pour apporter un soulagement durable des symptômes moteurs dans la maladie de Parkinson. Dans ce travail, le laboratoire a utilisé l'optogénétique, une technique qui utilise la lumière pour contrôler les neurones génétiquement modifiés. Le problème, c’est que l'optogénétique ne peut pas encore être utilisée sur l'homme. Pour surmonter cet obstacle, ces chercheurs ont mis au point chez l’animal un nouveau protocole de stimulation qui repose sur de brèves salves d’impulsions électriques. Et les résultats sont là, puisque cette nouvelle approche produit des effets thérapeutiques quatre fois plus durables que la méthode conventionnelle de SCP. Teresa Spix, qui a co-dirigé ces recherches, souligne avec humilité que « Bien qu’il existe de nombreuses théories qui visent à explique les effets de la SCP, nous devons avouer que nous ne savons pas vraiment comment cette technique fonctionne. Mais notre approche par impulsions brèves semble apporter un plus grand soulagement des symptômes ». Cette équipe devrait bientôt commencer un essai randomisé en double aveugle sur des patients atteints de la maladie de Parkinson, afin d’évaluer le potentiel thérapeutique de cette nouvelle technique de stimulation électrique. Il y a quelques jours, une autre étude, publiée dans la prestigieuse revue Nature, fait état d’une nouvelle avancée de la SCP qui mérite d’être évoquée. Ce travail évoque le cas d’une patiente, Sarah, souffrant de dépression sévère et ayant épuisé toutes les possibilités de traitement. Un dispositif novateur de stimulation cérébrale profonde, expérimenté au centre médical de l’Université de Californie à San Francisco, a finalement permis une amélioration spectaculaire de son état. La patiente âgée de 36 ans a déclaré que la thérapie lui avait redonné «une vie digne d’être vécue», lui permettant de rire spontanément pour la première fois depuis longtemps (Voir Nature Medicine). Cet essai est jugé très prometteur par la communauté scientifique, et le Docteur Marion Plaze, psychiatre à l’hôpital Sainte-Anne, à Paris, commentant ces recherches, souligne que « Pour la première fois, des chercheurs sont parvenus dans le champ de la psychiatrie à mettre au point une stimulation cérébrale profonde personnalisée, adaptée au profil neurologique et clinique de la patiente ». « Ce travail offre de nouvelles perspectives de soins pour tous les malades en échec thérapeutique », ajoute-t-elle. La dépression est le trouble neuro-psychiatrique le plus répandu. Il se caractérise par une absence d’envie de vivre, un état mélancolique, et touche, selon l’OMS, au moins 300 millions de personnes dans le monde, dont 3 millions en France. Ce trouble peut, dans certains cas, altérer gravement et durablement la vie professionnelle et personnelle des malades, notamment pour un tiers des malades qui résistent à tous les traitements connus. Pour ces patients réfractaires, la stimulation cérébrale profonde peut parfois être envisagée mais cet outil reste d’une utilisation complexe. Il suppose l’implantation chirurgicale, sous le cuir chevelu, d’électrodes reliées à un neurostimulateur placé sous la peau, souvent au niveau pectoral, et qui va permettre de délivrer des impulsions électriques dans une région précise du cerveau. Toute la difficulté réside dans le fait d’arriver à cibler correctement la zone à stimuler, car les réseaux neuronaux impliqués dans la dépression sont multiples et les tableaux de symptômes varient sensiblement selon les patients. A cause de ces nombreux facteurs à prendre en compte, la stimulation cérébrale profonde donne des résultats malheureusement très variables selon les malades. Pour améliorer l’efficacité de cette technique, encore largement empirique, l’équipe californienne a essayé de proposer un traitement personnalisé à Sarah. Les médecins ont commencé par implanter provisoirement des électrodes dans plusieurs régions du cerveau pour explorer l’effet d’une stimulation. Parallèlement, la patiente devait évaluer son humeur en répondant régulièrement à des questionnaires. Cette approche a permis aux chercheurs d’ajuster progressivement leur outil et de montrer que les états émotionnels de Sarah correspondaient à certains schémas d’activité électrique dans l’amygdale, une aire cérébrale impliquée dans la gestion des émotions. Ils ont ensuite identifié une région cérébrale susceptible d’interagir avec ces schémas : le striatum ventral. Au cours d’une seconde phase, ces scientifiques ont implanté un dispositif permanent comportant un capteur dans l’amygdale pour détecter les fluctuations électriques anormales et tenter de les stabiliser grâce à une autre électrode placée dans le striatum ventral. Mais la grande nouveauté est que, contrairement aux dispositifs actuels qui stimulent leur cible de manière continue, le système expérimenté dans cet essai mis en place délivre des impulsions intermittentes (dont la durée optimale a été estimée à six secondes) et adaptatives, c’est-à-dire uniquement déclenchées par l’activité anormale d’une région du cerveau. Cette stimulation modulée et personnalisée a permis d’obtenir une amélioration des symptômes au bout de deux semaines, et une rémission co mplète a été constatée trois mois plus tard. Selon Mircea Polosan, qui a participé à ces recherches, « Cette approche individualisée sera sans doute le moyen optimal de soigner des patients très sévères et résistants aux autres traitements ». Une autre approche, La stimulation électrique à courant continu, ou tDCS, permet de moduler l’excitabilité du cortex cérébral dans une région donnée du cerveau et d’augmenter les effets d’une thérapie. Un courant électrique de faible amplitude (moins de 2mA chez les enfants) est appliqué sur le crâne à l’aide d’électrodes. Ce courant induit va permettre de moduler l’activité électrique des neurones, pour une durée de stimulation comprise entre 10 et 30 minutes. Cette stimulation peut être, soit anodique, elle va alors augmenter l’activité des neurones, soit cathodique, elle va au contraire réduire cette activité neuronale. Ce type de stimulation électrique présente l’avantage d’être facile à mettre en œuvre, mais il reste un vaste champ de recherche &agra ve; explorer pour mesurer les effets d’une combinaison de cet outil de stimulation électrique avec d’autres thérapies, et déterminer la durée optimale des séances à programmer pour soulager les patients.. Développé dans le cadre d’un projet européen, l’essai clinique STIPED, qui porte sur 517 patients, tente actuellement d’évaluer l’efficacité de la tDCS chez des enfants et adolescents souffrant de troubles du spectre autistique (TSA). STIPED explore une approche novatrice et individualisée, en matière de prise en charge de troubles mentaux, s’appuyant notamment sur un service de téléassistance permettant un contrôle à distance de la sécurité et des paramètres de stimulation électrique. Fin 2019, la stimulation cérébrale profonde (SCP) a également été utilisée pour la première fois pour prendre en charge un toxicomane américain aux opioïdes et aux benzodiazépines. L’intervention neurochirurgicale, la pose d’un stimulateur cérébral, a été réalisée par l’équipe du Docteur Ali Rezai à l’institut Rockefeller de Neuroscience de l’Université de Virginie Occidentale (Etats-Unis). La SCP pourrait devenir à l’avenir un outil précieux pour mieux prendre en charge le gigantesque problème de santé publique que représente les trois millions d’Américains qui sont devenus dépendants aux opioïdes (500 000 décès en 20 ans aux Etats-Unis selon le CDC) (Voir WVU Today). L’année dernière, des chercheurs des Instituts de technologie avancée de Shenzhen de l'Académie chinoise des sciences ont développé une nouvelle technique de neuromodulation par ultrasons qui semble pouvoir moduler l'excitabilité neuronale. Une étude réalisée sur des primates a montré que 30 min de traitement par ultrasons pulsés de faible intensité permet de réduire considérablement, de l’ordre de 40 % la fréquence des crises. Sur les échantillons de biopsie de patients épileptiques, la stimulation par ultrasons pourrait inhiber les activités épileptiformes avec une efficacité supérieure à 65 %. Evoquons également le rôle croissant qu’est appelée à prendre la stimulation électrique dans la prise en charge des douleurs rebelles et chroniques qui affectent 12 millions de nos concitoyens. Comme le soulignait avec raison le neurochirurgien et spécialiste de la douleur, Marc Lévêque, il y a quelques jours dans un article du « Monde », seuls 3 % de ces patients sont correctement pris en charge dans des centres antidouleur, ce qui n’est pas digne d’un pays comme la France. En outre, précise ce scientifique, la stimulation transcrânienne, technique efficace et peu coûteuse, qui soulage significativement un patient sur deux, n’est toujours pas remboursée par la sécurité sociale dans notre pays. Quant à la stimulation médullaire, qui a fait la preuve de son efficacité contre les douleurs neuropathiques, seuls deux mille patients peuvent en bénéficier chaque année. Il serait souhaitable que l’Etat et les autorités de santé prennent rapidement les mesures qui s’imposent pour mettre un terme à cette situation tout à fait anormale qui entrave gravement l’accès des patients à ces nouveaux outils de prise en charge de la douleur, qui ont fait la preuve de leur efficacité. Mais si ces nouveaux outils de stimulation électrique permettent déjà d’étonnantes avancées dans le traitement et la prise en charge de nombreuses pathologies neurologiques et psychiatriques, ils pourraient bien, dans un proche avenir, être également utilisés pour améliorer les performances cognitives de sujets en bonne santé, si l’on en croit de récentes et passionnantes recherches (Voir Boston University). En 2019, Rob Reinhart et John A. Nguyen de l'Université de Boston ont en effet montré que l'électrostimulation pouvait améliorer la mémoire de travail de sujets septuagénaires, au point de la ramener au même niveau de mémorisation que celui de sujets jeunes. Il est à présent bien établi que la mémoire de travail commence à perdre en capacité au début de la trentaine, à mesure que certaines régions du cerveau se déconnectent et perdent en coordination. Après 60 ans, ces circuits neuronaux deviennent moins performants, ce qui explique que certaines personnes vont alors éprouver des difficultés cognitives notables, même en l'absence de démences comme la maladie d'Alzheimer. De manière remarquable, Reinhart et Nguyen ont réussi à identifier des déficits qui s’expriment dans le couplage et la synchronisation des ondes électriques produites par les circuits neuronaux lors du déclin cognitif. Mais ces scientifiques sont allés plus loin : ils ont également réussi à améliorer les performances cognitives de sujets âgés en utilisant des courant s électriques pour stimuler de façon non invasive les zones du cerveau ayant perdu leur rythme. Ces chercheurs ont réalisé des expérimentations sur deux groupes, composés, l’un de sujets jeunes, et l’autre de septuagénaires. Ces deux groupes devaient visualiser une image, puis, après une brève pause, déterminer si une deuxième image était légèrement différente de la première. Au début de ces tests, les sujets jeunes se sont montrés bien plus rapides et précis que les plus âgés. Mais, à partir du moment où les sujets plus âgés ont bénéficié de 25 minutes d'une stimulation électrique personnalisée, délivrée par des électrodes à travers le cuir chevelu, la différence entre les deux groupes s’est progressivement réduite, ju squ’à disparaître… « Ces résultats ouvrent un vaste champ de recherche et de nouveaux traitements, y compris pour retarder le déclin cognitif des personnes qui ne souffrent d’aucune pathologie particulière », s'enthousiasme Rob Reinhart, qui ajoute, « Il est extraordinaire de penser que l’on peut cibler et modifier à la demande, par électrostimulation, le fonctionnement d’un circuit cérébral de la même façon qu'un neurotransmetteur chimique dans le cerveau », ajoute-t-il. Je termine ce rapide tour d’horizon sur les progrès remarquables de la stimulation cérébrale en évoquant la rencontre de cette technique de SCP avec l’IA, qui ouvrent de toutes nouvelles perspectives comme le montre une récente étude publiée par des chercheurs de la Mayo Clinic et de Google Research. Ces scientifiques ont développé un nouvel algorithme d'intelligence artificielle (IA) qui permet d’améliorer les appareils de stimulation cérébrale pour traiter les maladies neurologiques. Associées à l’IA, ces techniques vont pouvoir élargir leur champ thérapeutique et soulager des personnes atteintes de maladies psychiatriques et de lésions cérébrales directes, telles que celles associées aux accidents vasculaires cérébraux (AVC). Ces travaux sur les réseaux cérébraux, qui apportent cet espoir, viennent d’être publiés dans la revue PLoS Computational Biology (Voir PLOS). Ces chercheurs ont développé un nouveau type d'algorithme appelé « basis profile curve identification » ou identification de la courbe de profil de base, qui permet de repérer bien plus vite quelles sont les zones du cerveau qui interagissent directement les unes avec les autres, ce qui rend bien plus facile le placement des électrodes pour stimuler le cerveau en fonction des caractéristiques cérébrales de chaque patient. Le Docteur Kai Miller, neurochirurgien de la Mayo Clinic et auteur principal de l'étude, résume ainsi ces travaux : « Ce type d'algorithme peut nous aider à mieux traiter les patients atteints d'épilepsie, de troubles moteurs comme dans la maladie de Parkinson et de maladies psychiatriques comme les troubles obsessionnels compulsifs ou encore la dépression ». En France, Rebrain, une toute jeune start-up créée en début d’année, par Emmanuel Cuny, professeur de neurochirurgie à l’Université de Bordeaux, et Nejib Zemzemi, docteur en mathématiques appliquées à l’Institut national de recherche en sciences et technologies du numérique (INRIA), travaille également sur une plate-forme logicielle appelée OptimDBS qui utilise l’IA pour identifier avec précision les zones à stimuler dans le cerveau. Grâce à leur technologie innovante, les fondateurs de la start-up Rebrain sont optimistes dans l’avancée de leur projet, car l’efficacité de leur dispositif a été cliniquement prouvée. Toutes ces recherches récentes confirment que ces nouveaux outils de stimulation cérébrale personnalisée, modulable et portable, sont appelés à jouer demain un rôle majeur, seuls ou en association avec les nombreux médicaments disponibles, pour mieux traiter une multitude de pathologies qui restent, aujourd’hui encore, souvent sans solutions thérapeutiques satisfaisantes, qu’il s’agisse des maladies neurologiques, comme Alzheimer, Parkinson ou l’épilepsie, de douleurs chroniques, ou de troubles psychiatriques, comme l’autisme, la dépression ou encore les TOC. Mais ce qui encore plus fascinant, c’est que ces nouveaux outils, qui présentent l’immense avantage d’être potentiellement réversibles, semblent également en mesure de pouvoir améliorer, dans des proportions qui restent à évaluer de manière rigoureus e, nos facultés cognitives, mémoire, concentration, calcul… Il faudra cependant veiller à ce que ces futurs outils « d’augmentation cérébrale et cognitive », qui verront immanquablement le jour dans quelques années, fassent l’objet d’une évaluation médicale et psychologique approfondie et soient utilisés dans un cadre éthique clair qui empêche leur détournement à des fins qui pourraient être nuisibles pour leurs utilisateurs, mais également pour nos sociétés… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | Basé sur une classe spéciale de composés cristallins appelés pérovskites, ce dispositif pourrait permettre de détecter rapidement les neutrons provenant de matériaux radioactifs, par exemple dans un réacteur nucléaire endommagé, ou transportés de manière néfaste, expliquent les chercheurs. Les pérovskites à base d’éléments organiques et inorganiques sont pressenties pour devenir des matériaux révolutionnaires dans le domaine des cellules photovoltaïques. Mais leurs atouts ne se limitent pas à convertir la lumière du soleil en énergie. Ces cristaux ordonnés peuvent aussi être utilisés pour détecter des types spécifiques de rayonnement, de la lumière visible aux rayons gamma. Les matériaux pérovskites cristallins sont économiques et faciles à fabriquer. Leur structure cristalline et leur composition spécifiques leur permettent d’interagir très efficacement avec les photons d’une manière qui n’est pas encore totalement comprise, mais les électrons générés sont prêts à être exploités dans des applications pratiques. Le détecteur de neutrons à pérovskite repose sur les travaux que l’auteur principal, Pavao AndriÄeviÄ (aujourd’hui chercheur postdoctoral en physique à l’Université technique du Danemark), a réalisés pendant ses études doctorales à l’EPFL avec László Forró (aujourd’hui à l’Université de Notre-Dame, États-Unis). Ils ont mis au point des matériaux pérovskites capables de détecter un large éventail de rayonnements, de la lumière visible aux rayons gamma. Mais les neutrons – qui sont des particules neutres, et non des photons – sont restés hors de portée des détecteurs à pérovskite. Jusqu’à présent. Les pérovskites développées par l’équipe d’Andricevic et de Forró sont des monocristaux contenant du plomb et du brome d’un composé appelé tri-bromure de plomb méthylammonium. Pour tenter de détecter directement les neutrons, l’équipe a d’abord placé ces cristaux dans la trajectoire d’une source neutronique. Cela a été réalisé avec l’aide de Gabor Nafradi (Rutherford Appleton Laboratory, Royaume-Uni) et par l’équipe du professeur Pautz (Laboratoire de physique des réacteurs, EPFL). En heurtant les cristaux, les neutrons pénètrent dans le noyau des atomes du cristal au point d’atteindre un état d’énergie plus élevé. Lorsqu’ils se détendent et se désintègrent, des rayons gamma sont produits. Ces photons gamma chargent la pérovskite, et un courant peut être mesuré. Mais ce courant était si faible que l’équipe a compris qu’il fallait quelque chose de plus pour réaliser un détecteur de neutrons pratique. Et ce petit plus a été trouvé dans une fine feuille de gadolinium métallique, qui absorbe beaucoup mieux les neutrons que le cristal de pérovskite nu. Lorsque ces neutrons interagissent avec les atomes de gadolinium, ils sont excités et passent à un état d’énergie plus élevé. Et lorsqu’ils se désintègrent, ils émettent un rayonnement gamma. Le gadolinium est beaucoup plus efficace que la pérovskite pour créer des photons gamma. Cette dernière avait déjà été développée comme un excellent détecteur de gamma. La combinaison des deux était simple et très efficace. Ils ont ajouté une électrode de carbone et les électrons produits dans la pérovskite étaient faciles à mesurer, explique László Forró, « il suffit d’utiliser un voltmètre ou un ampèremètre ». Pour améliorer encore le détecteur, l’équipe a ensuite fait croître le cristal de pérovskite autour de la feuille. Ces pérovskites particulières sont remarquables car leur structure cristalline n’est pas affectée par la présence d’un corps étranger en leur sein. « La propriété de ce matériau est telle qu’il peut absorber n’importe quoi, d’une mouche à un crocodile, en passant par le gadolinium. Il se développe donc autour de l’objet, et reste cristallin. C’est donc une caractéristique vraiment fabuleuse de ce matériau », explique Márton Kollár, chimiste de l’équipe. Un avantage supplémentaire du dispositif est qu’il peut mesurer la direction et la taille du flux de neutrons. Ce pourrait donc être un dispositif de balayage très utile s’il était adopté par une entreprise commerciale. « C’est simple, économique et rentable », déclare László Forró. Maintenant qu’ils ont démontré que le dispositif fonctionne, la prochaine étape est le perfectionnement et la commercialisation potentielle. « C’est une démonstration de principe, cela fonctionne. Et maintenant, nous pouvons réfléchir à la configuration d’un détecteur très efficace », explique László Forró. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Lutter contre le dérèglement climatique, trouver des alternatives aux énergies fossiles, atteindre les objectifs fixés par les plans de transition énergétique prévus par les états, dont la Suisse : le besoin d’utilisation des énergies renouvelables se fait de plus en plus pressant. Mais pour les intégrer dans le réseau électrique, il est nécessaire d’assurer un moyen de stocker à grande échelle l’énergie qu’elles génèrent. « Les énergies renouvelables sont soumises aux conditions météorologiques, entraînant des variations de production », indique Danick Reynard, du Laboratoire d’électrochimie physique et analytique (LEPA) de l’EPFL. Or le réseau ne peut pas supporter de variations excessives. C'est là qu'intervient l'hydrogène comme moyen de stockage de l'énergie. Les chercheurs du LEPA travaillent depuis plusieurs années sur ces deux domaines, le stockage et la production d’hydrogène. Ils viennent de démontrer la possibilité de coupler une batterie redox à flux traditionnelle - l’une des méthodes les plus prometteuses actuellement pour le stockage d’énergie stationnaire à grande échelle - à des réacteurs catalytiques, qui permettent de produire de l’hydrogène propre à partir des liquides de la batterie. Cette batterie à flux offre la même efficacité que celles traditionnelles, mais est plus flexible et avec une plus grande capacité de chargement. Elle permet en plus de générer de l’hydrogène propre et de manière moins coûteuse. Les batteries redox à flux ont la forme de deux immenses cuves séparées par des cellules électrochimiques. Deux électrolytes liquides (des substances conductrices), l’un positif, l’autre négatif, circulent à travers ces cellules pour générer des réactions d’échange d’électrons. Comme les batteries à lithium-ion, utilisées dans nos téléphones par exemple, elles conservent l’énergie sous forme électrochimique. Par contre, elles ont une durée de vie beaucoup plus longue et disposent d’une puissance et d’une capacité flexibles, pouvant rapidement être adaptées à l’offre et à la demande d’électricité. Les chercheurs du LEPA ont développé une telle batterie redox à flux, qu’ils ont couplée à des réacteurs catalytiques. Ces derniers peuvent produire l’hydrogène à partir des liquides circulant dans les cuves. « L’hydrogène est en effet produit par un processus chimique catalytique qui utilise l’énergie de la batterie pour « casser » des molécules d’eau en deux parties : de l’hydrogène et de l’oxygène », explique Danick Reynard. « Par contre, cet hydrogène est « vert » uniquement si l’électricité utilisée pour recharger la batterie provient d’énergie renouvelable ». Ce système présente de nombreux avantages, aussi bien au niveau du stockage que de la production d’hydrogène. Les batteries à flux traditionnelles, lorsqu’elles sont complètement chargées, ne peuvent plus stocker d’énergie. « Avec notre dispositif, lorsque la batterie est complètement chargée, nous pouvons décharger le liquide dans les réacteurs externes. Cela produit de l’hydrogène, qui peut être stocké et utilisé ultérieurement, libérant de la place de stockage dans la batterie » souligne Danick Reynard. Ce dispositif pourrait particulièrement intéresser le domaine des transports. L’arrivée de véhicules propres signifiera en effet des besoins supplémentaires, et des pièces de consommation en électricité et en hydrogène propre. Ces batteries pourront alors absorber ces pics de consommation en fournissant rapidement l'électricité nécessaire au réseau. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| | | Selon une étude réalisée par des chercheurs anglais de l'Université d'Oxford et du Collège universitaire de Londres (UCL), dans notre galaxie, la vitesse de rotation sur elle-même de la Voie lactée (210 kilomètres par seconde) ralentirait, sous l'effet de la mystérieuse matière noire, dont la nature reste à ce jour inconnue. Ces recherches ont en effet montré que la rotation de la barre d’étoiles qui traverse le noyau de la Voie lactée connaît un ralentissement d’au moins 24 % depuis sa formation. « Nous avons pour la première fois des preuves de ce ralentissement », a confié à Space.com, Ralph Schoenrich, cosignataire de l’étude. Les chercheurs tirent leur conclusion d’observations réalisées avec le télescope spatial européen Gaia d’un courant d’étoiles baptisé Hercule, qui tournent autour de la Voie lactée à la même vitesse que la barre en rotation, et sont en quelque sorte “piégées” sous l’effet de la gravitation. Ce phénomène, appelé résonance, permet de prédire que, si la rotation de la barre ralentissait, ces &eacut e;toiles s’éloigneraient vers l’extérieur de la Galaxie. Les scientifiques ont observé cette migration par l’analyse chimique d’Hercule. Ses étoiles sont riches en métaux lourds, une caractéristique des étoiles situées au centre de la Galaxie, dix fois plus riches en métaux que celles en périphérie. Quant à l’origine du ralentissement de la rotation de la Voie lactée ? Les chercheurs ont leur idée : selon Schoenrich, « ce contrepoids ralentissant la rotation doit être sûrement la matière noire », cette masse manquante de l’Univers qui résiste aux observations des astronomes. « Jusqu’à présent, nous n’avons pu déduire le rôle de la matière noire qu’en cartographiant le potentiel gravitationnel des galaxies et en soustrayant la contribution de la matière visible ». « Bien que la matière noire soit apparemment abondante dans le cosmos, sa nature reste inconnue », précise l'étude. Article rédigé par Georges Simmonds pour RT Flash UCL | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | En février dernier, une rare vague de froid polaire a balayé le Texas, causant des dizaines de morts et des coupures d'électricité massives durant des jours. Cet épisode climatique extrême a par ailleurs provoqué des dommages record, estimés à quelque 200 millions de dollars. S'il est désormais établi que le réchauffement climatique entraîne de redoutables vagues de chaleur, la question de son influence sur de telles ondes de froid fait toujours l'objet d'intenses discussions scientifiques. Pour la première fois, une grande étude a réussi à montrer un lien entre les changements provoqués par le réchauffement climatique dans l'Arctique et des vagues de froid hivernal dans l'hémisphère nord, aux États-Unis, mais aussi en Asie. Cela semble très contre-intuitif et inattendu d'avoir ce réchauffement très prononcé dans l'Arctique, et cela provoque un refroidissement dans d'autres régions, reconnaît auprès de l'AFP Mathew Barlow, l'un des coauteurs de l'étude. Et pourtant, malgré ce paradoxe, les chercheurs sont formels. « J'étais un peu surpris que les résultats soient si clairs, que nous ayons été capables d'établir un lien aussi direct » confie ce professeur de sciences climatiques à l'Université du Massachusetts Lowell. L'Arctique est la région de la planète qui se réchauffe le plus vite. Mais deux phénomènes sont en réalité à l'œuvre : d'une part, la fonte rapide de la banquise et, d'autre part, une augmentation de la couverture neigeuse en Sibérie, notamment. La fonte des glaces provoque un fort réchauffement, l'océan absorbant alors plus de chaleur, tandis que la neige supplémentaire en Sibérie, qui réfléchit davantage les rayons du soleil, entraîne un léger refroidissement. Dans une réaction en chaîne indirecte et complexe, ces deux évolutions combinées entraînent un bouleversement de la circulation atmosphérique. Les chercheurs se sont concentrés sur leur effet sur le vortex polaire. Il s'agit de très forts vents soufflant près du pôle en hiver, et situés en haute altitude, dans la stratosphère (l'atmosphère est constituée de la troposphère, dans laquelle nous vivons, puis de la stratosphère juste au-dessus). En temps normal, le vortex polaire forme un cercle capable de contenir l'air froid. Mais sous l'influence du changement climatique dans l'Arctique, il s'affaiblit et devient ovale, explique Mathew Barlow. Les perturbations atmosphériques montant du sol, plus importantes, rebondissent alors lorsqu'elles atteignent le vortex polaire, en étant redirigées vers la surface. Cette modification dans le mouvement des dépressions pousse le courant-jet (jet-stream en anglais) vers le sud, explique le chercheur. Le courant-jet est un courant aérien qui souffle de l'ouest vers l'est. Et lorsque vous poussez le courant-jet vers le sud, il apporte de l'air froid avec lui. La force de cette étude est de combiner deux approches. D'abord, l'analyse des observations directes réalisées sur les quarante dernières années. Les chercheurs ont sélectionné les périodes où le vortex polaire était étiré en forme d'ovale : ils ont ainsi remarqué qu'avant chacun de ces épisodes, les températures changeaient de façon plus prononcée dans l'Arctique, en raison par exemple de chutes de neige plus fortes ou d'une fonte des glaces particulièrement prononcée. Et que, dans les semaines qui suivaient, il faisait plus froid en Amérique du Nord. Ensuite, ils ont utilisé un modèle climatique afin de vérifier le lien de cause à effet en faisant varier les différents paramètres. Cette découverte peut avoir de nombreuses implications. En premier lieu, identifier ce mécanisme pourrait permettre de mieux anticiper des vagues de froid extrême, peut-être même plusieurs semaines à l'avance, espère Mathew Barlow. Ces travaux montrent par ailleurs qu'il est indispensable de mieux se préparer à la possibilité d'ondes de froid extrême même si, de façon générale, le globe se réchauffe. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| Des chercheurs Sud-Coréens dirigés par Hyung Suk Oh et Woong Hee Lee du Centre de recherche sur l’énergie propre de l’Institut coréen des sciences et de la technologie, en collaboration avec Jae Soo Yoo de l’Université Kyung Hee, ont mis au point des électrodes catalytiques tungstène-argent en forme de branches de taille nanométrique, capables d’extraire du monoxyde de carbone à haut rendement du système de conversion électrochimique du dioxyde de carbone. Ces électrodes peuvent également être utilisées pour combiner le système de conversion du dioxyde de carbone avec des cellules solaires en silicium afin d’obtenir un système de photosynthèse artificielle à grande échelle pouvant fonctionner dans des environnements solaires réels. Le catalyseur mis au point peut être appliqué à des systèmes de production de monoxyde de carbone qui fonctionnent en convertissant le dioxyde de carbone gazeux en monoxyde de carbone ; ceux-ci ont montré une augmentation de plus de 60 % du rendement en monoxyde de carbone par rapport au catalyseur à l’argent conventionnel et sont restés stables, même après 100 heures d’expérimentation. Ces chercheurs ont pu vérifier l’efficacité et la durabilité accrues de leur nouveau matériau catalytique à l’aide de la microscopie électronique et de l’analyse en temps réel, et il a été découvert que la structure tridimensionnelle du catalyseur et la structure cristalline de la forme en branches ont contribué au rendement élevé. Les chercheurs ont ensuite utilisé ce catalyseur pour développer un système de photosynthèse artificielle en combinant un système de conversion du dioxyde de carbone avec des cellules solaires en silicium commercialisées de 120 cm2, et le système a fonctionné sans problème. Ce système a montré un rendement élevé de conversion de la lumière du soleil en composé de 12,1 %, ce qui est la valeur la plus élevée rapportée pour tous les systèmes de photosynthèse artificielle basés sur des cellules solaires en silicium développés à ce jour. Le système a également réussi à convertir le dioxyde de carbone en monoxyde de carbone avec une efficacité élevée uniquement en présence de la lumière du soleil dans un environnement extérieur. Comme le souligne le Dr Hyung Suk Oh, « Nous avons mis au point un système de photosynthèse artificielle significatif qui fonctionne directement grâce à la lumière du soleil dans des environnements solaires réels en utilisant des cellules solaires au silicium commercialisées. Si la technologie de photosynthèse artificielle à haut rendement peut être mise en pratique sur la base de cette étude, nous pouvons réduire les émissions de gaz à effet de serre en convertissant le dioxyde de carbone rejeté par les aciéries et les usines pétrochimiques en monoxyde de carbone, et nous pouvons produire des composés chimiques de base fabriqués dans les usines pétrochimiques grâce à la méthode de photosynthèse artificielle, qui pratique la ‘neutralité carbone’ ». Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Les précipitations extrêmes s’intensifient d’année en année. Les exemples se multiplient partout dans le monde. La Belgique et l’Allemagne, suivies par la Chine, viennent ainsi de subir, il y a quelques semaines, des pluies intenses causant des inondations dévastatrices en ce mois de juillet 2021. Les activités humaines étaient jusque-là suspectées dans l’augmentation de ces phénomènes extrêmes. Une équipe de chercheurs de l’Université de Californie, à Los Angeles, vient d’en apporter la preuve. L’intensification des précipitations extrêmes due aux activités humaines est prévue de manière robuste par les modèles climatiques pour les décennies à venir. Le réchauffement climatique est encore là en cause. Cela s’explique par la relation de Clausius-Clapeyron : plus l’atmosphère est chaude, plus elle peut contenir d’humidité, et donc engendrer des pluies plus intenses. « Un degré de température en plus induit en moyenne 7 % d’humidité supplémentaire », précise Mathieu Vrac, chercheur au laboratoire des sciences du climat et de l'environnement à Paris, qui n’a pas participé à l’étude. Cette augmentation des températures influence également les structures de circulation atmosphérique, telles que le jet stream, qui jouent u n grand rôle dans la répartition de l’humidité et des précipitations. Si ces courants se modifient, cela impacte spatialement et quantitativement les précipitations. En ce qui concerne les précipitations passées, il était jusque-là difficile de conclure sur ce lien entre activités humaines et événements extrêmes. Cette trace du rôle de l’Homme était complexe à détecter au sein des observations. La première difficulté se situe dans la nature des phénomènes observés. « Il y a une grande variabilité des précipitations, à la fois spatiale et temporelle », explique Mathieu Vrac. Les études portant sur les précipitations sont ainsi issues d’observations locales, et il était difficile de généraliser à l’échelle du globe. Une autre difficulté se situe au niveau des données d’observations, qui vont être très inégales d’une base de données à une autre. Les variations temporelles et spatiales des précipitations étaient le principal obstacle à l’étude de manière globale de ce phénomène de précipitations extrêmes. Pour pallier ce problème, les scientifiques se sont servis d’un réseau de neurones, un dispositif d'intelligence artificielle. C’est un système informatique dont le fonctionnement imite celui des neurones du cerveau humain. Ce système a été entraîné par une technique de machine learning. Il s’agit d’une méthode d’apprentissage qui consiste à fournir au réseau une très grande quantité de données. Le réseau s’entraîne et apprend en quelque sorte par lui-même, par l’expérience qu’il se forge à partir de ces données. Il apprend alors à distinguer les précipitations extrêmes issues des modèles prenant en compte les modifications climatiques dues à l’activité humaine, de celles entrant dans la variabilité naturelle du climat. Le réseau a ainsi été entraîné à partir de modèles climatiques couvrant une période de 1920 jusqu’à 2099. L’avantage de ce réseau, c’est qu’il est capable de prendre en compte les incertitudes liées aux différences spatiales et temporelles des précipitations. Les études sur les précipitations extrêmes se focalisent habituellement sur les événements à venir. En utilisant des simulations informatiques du climat futur, il est possible d’estimer l’intensité des précipitations extrêmes pour telle ou telle année. « Dans cette étude, ils ont retourné le problème. A partir des précipitations extrêmes fournies par les modèles climatiques, ils recherchent statistiquement en quelle année elles ont le plus de chances de se produire », explique Mathieu Vrac. Et à partir de cela, ils ont regardé s’il y avait une tendance à l’évolution de ces valeurs maximales annuelles en fonction du temps. Ce qui est le cas. Leur étude s’est concentrée entre les années 1982 et 2015. Et pour les événements extrêmes de cette période, ils ont trouvé un signal anthropique, observable dans toutes les bases de données. Ce signal, la trace des activités humaines, ne cesse d’augmenter avec le temps. C’est donc encore là l’augmentation des températures dues aux activités humaines, telles que les émissions de gaz à effet de serre, qui entraînent ces intensifications des précipitations extrêmes. Cette étude apporte donc une preuve supplémentaire du rôle de l’Homme dans le changement climatique actuel. Mais ce résultat est à prendre à l’échelle mondiale. Mathieu Vrac signale que « ce résultat peut cacher des variabilités régionales, qui peuvent être extrêmement distinctes du signal global ». Il rappelle également qu’on ne parle ici que des extrêmes. En parallèle de l’évolution de ces extrêmes, avec des pluies plus intenses, il peut aussi y avoir des diminutions des précipitations moyennes, mais aussi des sécheresses. Une des poursuites de cette étude pourrait être ainsi d’apporter des informations plus localisées sur ces changements de précipitations. Pour Mathieu Vrac, « il serait possible de le faire avec une méthode similaire, cela serait une perspective intéressante pour donner une vision plus précise de ces changements de précipitation. Le but serait alors d’apporter une information locale à tout un chacun ». Article rédigé par Georges Simmonds pour RT Flash La Recherche | | | |
| La transition énergétique comme moteur de relance économique locale ! Tel est l’engagement pris par la communauté d’agglomération Pau Béarn Pyrénées qui ambitionne d’atteindre la neutralité carbone à l’horizon 2040. Elle entend même favoriser la production d’énergies renouvelables, et plus particulièrement l’émergence d’une filière hydrogène. C’est dans ce cadre que la commune a confié l’exploitation de l’unité de dépollution des eaux usées de Lescar et la construction d’unités de méthanisation au groupement composé de Storengy, Egis, Sogea/Vinci et Camborde Architectes, et mené par Suez. Le contrat signé entre les différentes entités du projet, d’un chiffre d’affaires cumulé de 79 millions d’euros, sera effectif à compter du 1er janvier 2022 pour une durée de 17 ans. « L’Agglomération Pau Béarn Pyrénées s’appuie sur les expertises scientifiques et techniques de SUEZ et de ses partenaires pour poursuivre son adaptation au changement climatique. Les eaux usées constituent un élément majeur dans la dynamique écologique de ce territoire qui bénéficiera d’ici deux ans de deux premières - techniques et technologiques – mondiales visant à accroître la production de biométhane », a déclaré Maximilien Pellegrini, directeur général délégué Eau France de Suez. L’unité de Lescar, connectée avec les infrastructures du site environnemental Cap Ecologia, jouera un rôle central en devenant une véritable « station de production d’énergies et de ressources issues des eaux usées ». La future « Biofactory » à énergie positive nécessitera 2 ans de travaux et développera 10 énergies vertes : biométhane, méthane de synthèse, Biochar (valorisable énergétiquement par ValorBéarn ou en compostage pour l’amendement agricole), chaleur, électricité, engrais azoté, oxygène, hydrogène vert, eau réutilisée, cultures maraîchères. Le projet reposera sur deux procédés technologiques pour augmenter la quantité de biométhane produit par la nouvelle unité de méthanisation. « L’ultra-déshydratation par carbonisation hydrothermale », cette nouvelle technologie, divise par 4 le volume de boues d’épuration tout en consommant 3 à 4 fois moins d’énergie qu’un sécheur thermique conventionnel. Autre avantage, cette technologie produit une nouvelle matière supplémentaire, le Biochar, facilement valorisable. La « méthanisation catalytique », ce second procédé innovant mis en place par Storengy (filiale d’Engie), transformera la totalité du CO2 émis en méthane de synthèse. De plus, cette technologie permettra de porter la production supplémentaire, à terme, à 4400 MWh/an de gaz vert et d’obtenir un bilan carbone sans équivalent. Par ailleurs, la production totale du biométhane par le site sera de 13.000 MWh/an, soit l’énergie équivalente au chauffage de 1200 foyers, précise Suez. Article rédigé par Georges Simmonds pour RT Flash Environnement Magazine | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Valneva, société spécialisée dans les vaccins, a annoncé, par la voix de Thomas Lingelbach, son directeur, et Adam Finn, responsable de l’essai et professeur en pédiatrie à l’Université de Bristol, des résultats initiaux positifs pour l’essai pivot de Phase 3 Cov-Compare de son candidat vaccin inactivé et adjuvanté contre la COVID-19, VLA2001. Un total de 4012 participants âgés de 18 ans et plus a été recruté sur 26 sites au Royaume-Uni dans le cadre de l’essai pivot de Phase 3 COV-COMPARE. L’essai a rempli ses deux critères d’évaluation principaux : VLA2001 a démontré une supériorité face au vaccin AZD1222 (ChAdOx1-S), en termes de moyenne des titres d’anticorps neutralisants, ainsi qu’une non-infériorité en termes de taux de séroconversion, deux semaines après la deuxième injection (soit au 43ème jour) chez les adultes âgés de 30 ans et plus. Les réponses des cellules T mesurées chez un sous-groupe de participants ont montré que VLA2001 a généré des cellules T produisant de l'interféron gamma spécifique contre les protéines S (74,3 %), N (45,9 %) et M (20,3 %). VLA2001 a été généralement bien toléré. Le profil de tolérance de VLA2001 s’est révélé plus favorable, de façon statistiquement significative, en comparaison avec l’autre vaccin utilisé dans l’essai. Un nombre significativement inférieur d’effets indésirables surveillés sept jours après vaccination a été constaté chez les participants âgés de 30 ans et plus, que ce soit en termes de réactions à l’endroit de l’injection (73,2 % pour VLA2001 contre 91,1 % pour AZD1222 (ChAdOx1-S), p<0.0001) ou de réactions systémiques (70,2 % VLA2001 contre 91,1 % pour AZD1222 (ChAdOx1-S), p<0.0001). Aucun effet indésirable grave non sollicité (SAE) n’a été constaté. Moins d’un pour cent des participants à l’essai a signalé des effets secondaires présentant un intérêt particulier dans les deux groupes vaccinés. Les participants du plus jeune groupe vacciné avec VLA2001 ont présenté un profil de sécurité comparable à celui du groupe plus âgé. La fréquence des cas de COVID-19 (critère exploratoire) était semblable dans les deux groupes vaccinés. L’absence totale de cas sévères de COVID19 suggère que les deux vaccins utilisés dans l’étude pourraient prévenir les cas sévères de COVID-19 causés par les variants en circulation (principalement le variant Delta). Adam Finn, investigateur principal de l’essai, professeur en pédiatrie à l’Université de Bristol a indiqué : « Les faibles niveaux de réactogénicité, les réponses anticorps fonctionnelles élevées et les fortes réponses des cellules T observés avec ce vaccin à virus entier inactivé et adjuvanté sont à la fois impressionnants et extrêmement encourageants. Il s'agit d'une approche beaucoup plus traditionnelle de fabrication de vaccins que les vaccins qui ont été déployés jusqu'à présent au Royaume-Uni, en Europe et aux Etats-Unis, et ces résultats suggèrent que ce candidat vaccin est en bonne voie pour jouer un rôle important dans la lutte contre la pandémie ». Thomas Lingelbach, Directeur Général (CEO) de Valneva a indiqué : « Ces excellents résultats confirment les avantages souvent associés aux vaccins à virus entier inactivés. Nous sommes déterminés à faire enregistrer notre candidat vaccin différencié le plus rapidement possible et nous continuons de croire que nous pourrions apporter une contribution majeure à la lutte mondiale contre la pandémie de COVID-19. Nous avons hâte de proposer une solution vaccinale alternative aux personnes qui n'ont pas encore été vaccinées ». Article rédigé par Georges Simmonds pour RT Flash Valneva | | | |
| Les exercices aérobiques ou encore "cardio", sont des exercices d'endurance (course à pied, marche rapide, vélo, natation), qui exigent un apport important en oxygène ; ils permettent d'intensifier le rythme et la profondeur de la respiration. Il a été démontré que ces exercices aérobiques sont excellents pour la santé cardiovasculaire. Une étude réalisée en 2019 par l'Université de Columbia a également montré que ce type d'exercice était bénéfique pour le maintien d'une bonne santé cognitive. En 2020, des chercheurs brésiliens, en coopération avec leurs collègues de l'Université de Copenhague au Danemark et de l'Université Harvard aux États-Unis, ont découvert que les exercices aérobiques réguliers permettaient également de réduire les risques de maladies métaboliques, comme le diabète, en relançant la production de microARN, qui diminuent avec l'âge et jouent un rôle important en modulant l'expression de gènes clés dans différents organes, comme le foie, le pancréas et les muscles. Récemment, une nouvelle étude présentée à l'occasion du congrès de la Société Européenne de Cardiologie a montré, dans le cadre d'un essai contrôlé et randomisé sur 120 patients qui présentaient une fibrillation atriale, que la pratique régulière d'exercices aérobiques pendant six mois réduisait sensiblement les risques de récidive de fibrillation atriale et permettait même, à terme, de supprimer les médicaments pris pour traiter cette pathologie. Avec un million de patients concernés (dont les deux tiers ont plus de 75 ans) et 225 000 nouveaux cas par an, la fibrillation atriale (FA) est le trouble du rythme cardiaque le plus fréquent en France ; elle est associée notamment à un risque élevé d'accident vasculaire cérébral (AVC) et de mortalité. L'extension de la pratique des exercices aérobiques à partir de 60 ans permettrait à peu de frais de diminuer de manière efficace les risques de fibrillation atriale chez les seniors. Article rédigé par Georges Simmonds pour RT Flash Columbia University PNAS ESC | | | |
| Dans la maladie d'Alzheimer, il a été montré que, dans un premier temps, des plaques bêta-amyloïdes s’accumulent de manière anormale au niveau des neurones, ce qui cause des lésions cérébrales. Dans un second temps, apparaissent des enchevêtrements neurofibrillaires, qui obstruent l'intérieur des neurones, en particulier ceux du cortex entorhinal, responsables de la formation des souvenirs et de la mémoire. Jusqu’à présent, les chercheurs pensaient que ces deux phénomènes étaient responsables de la neuroinflammation des neurones. Celle-ci est due à l'activation des cellules immunitaires résidentes du cerveau, appelées cellules microgliales. Mais dans une étude réalisée par des chercheurs de l'école de médecine de l'Université de Pittsburgh (États-Unis), ceux-ci ont montré que cette neuroinflammation est en réalité le principal moteur de la propagation de la protéine Tau. Bien que des études sur des cellules en culture et des animaux de laboratoire aient accumulé de nombreuses preuves que l'activation microgliale entraîne la propagation des fibres de tau dans la maladie d'Alzheimer, ce processus n'a jamais été prouvé chez l'humain. Ici, les chercheurs ont utilisé l'imagerie en direct pour examiner en profondeur le cerveau de personnes atteintes à différents stades de la maladie d'Alzheimer et de personnes âgées en bonne santé. Ils ont alors constaté que la neuroinflammation était plus répandue chez les personnes âgées et qu'elle était encore plus prononcée chez les patients présentant des troubles cognitifs légers et ceux atteints de démence associée à la maladie d'Alzheimer. L'analyse bioinformatique a confirmé que la propagation de protéine tau dépendait de l'activation microgliale - un élément clé qui relie les effets de l'agrégation de la plaque bêta-amyloïde à la propagation de tau et, en fin de compte, aux troubles cognitifs et à la démence. « De nombreuses personnes âgées ont des plaques bêta-amyloïdes dans leur cerveau mais ne progressent jamais vers le développement de la maladie d'Alzheimer », souligne Tharick Pascoal, professeur adjoint de psychiatrie et de neurologie et auteur principal de l’étude. « Nous savons que l'accumulation amyloïde ne suffit pas à elle seule à provoquer la démence - nos résultats suggèrent que c'est l'interaction entre la neuroinflammation et la pathologie amyloïde qui déclenche la propagation de tau et conduit finalement à des lésions cérébrales étendues et à des troubles cognitifs ». Selon les auteurs de l’étude, cette découverte suggère qu’un traitement ciblant spécifiquement la neuroinflammation pourrait être efficace chez les personnes atteintes de la maladie d'Alzheimer à un stade précoce puisqu’il pourrait contribuer à inverser ou du moins à ralentir l'accumulation de la protéine tau pathologique dans le cerveau et à éviter la démence. « Notre recherche suggère qu'une thérapie combinée visant à réduire la formation de la plaque amyloïde et à limiter la neuroinflammation pourrait être plus efficace que de traiter chaque pathologie individuellement », conclut le Professeur Pascoal. Article rédigé par Georges Simmonds pour RT Flash UPMC | | | |
| Une étude réalisée par des chercheurs de l'Institut Max Planck de Rostock (Allemagne) a montré que, plus un individu travaille tard, plus il repousse les risques de développer des troubles cognitifs. Les auteurs de l’étude ont travaillé sur les données de la Health and Retirement Study, concernant 20 000 Américains âgés de 55 à 75 ans actifs à un moment donné entre 1996 et 2014. Ils ont pris en compte des facteurs sociodémographiques, comportementaux et de santé variables et stables dans le temps, ainsi que des facteurs de risque de déclin cognitif. Les chercheurs ont également tenu compte de l’âge de départ à la retraite selon le sexe, du niveau professionnel et du niveau de scolarité. Enfin, les auteurs ont analysé si les symptômes dépressifs ou la santé pouvaient fonctionner comme des mécanismes liant la retraite et la fonction cognitive. Résultats : le fait de rester actif sur le marché du travail jusqu’à l’âge de 67 ans permettrait de ralentir le déclin cognitif et protègerait contre la détérioration des fonctions cognitives, dont celle provoquée par la maladie d'Alzheimer. Cet effet protecteur semble se maintenir quel que soit le sexe et le niveau d'instruction ou de profession. « Dans cette étude, nous abordons la retraite et la fonction cognitive en partant du principe qu'elles arrivent toutes deux vers la fin d'un long parcours de vie », explique Angelo Lorenti, chercheur au Max Planck Institute for Demographic Research (MPIDR) en Allemagne et co-auteur de l’étude. « Il commence par les origines sociales d'une personne en termes d'ethnicité, de sexe et de statut social et économique au début de la vie, se poursuit avec le niveau d'éducation et de profession et les comportements de santé, et va jusqu'à des facteurs plus proches tels que le statut de partenaire et la santé mentale et physique. Tous ces types de facteurs s'accumulent et interagissent tout au long de la vie pour affecter à la fois la fonction cognitive et l'âge de la retraite ». Selon cette étude, en maintenant le cerveau actif, en stimulant ses fonctions cognitives, l’individu retarde l’apparition des troubles cognitifs. L’activité professionnelle y contribue donc fortement mais elle n’est pas la seule à pouvoir avoir un effet protecteur. En effet, les chercheurs notent que d’autres activités cognitivement ou socialement attrayantes comme le bénévolat, le fait de suivre des formations ou encore d’aider des proches, peuvent aussi protéger le cerveau contre le déclin de ses facultés. Article rédigé par Georges Simmonds pour RT Flash Slash Gear | | | |
| Les traumatismes crâniens sont des chocs violents causés à la tête par une chute, une agression, un accident sportif ou de la circulation... Il s’agit d’une des principales causes de décès et d’invalidité chez les enfants et les jeunes adultes, quel que soit le pays. Les séquelles neurologiques associées se traduisent par des troubles moteurs ou cognitifs, transitoires ou définitifs. Ces séquelles sont dues à la lésion elle-même, mais aussi à des saignements internes, à l’inflammation ou encore à un stress oxydant qui favorise la mort neuronale. À ce jour, il n’existe aucune solution thérapeutique satisfaisante pour les contrer. La prise en charge des traumatismes crâniens repose donc uniquement sur des mesures individuelles et palliatives. Mais à Lille, le laboratoire Inserm dirigé par Luc Buée, en collaboration avec la Taipei Medical University de Taïwan, estime que les lysats plaquettaires pourraient apporter un bénéfice aux victimes de ces accidents. Ce produit correspond à un cocktail de molécules issues de plaquettes sanguines prélevées dans le cadre des dons de sang mais non utilisées pour la transfusion. « Les plaquettes favorisent la cicatrisation des plaies et la réparation des tissus. Elles contiennent en effet une centaine de facteurs de croissance, de protéines, de substances nutritives et de molécules anti-inflammatoires "réparatrices" », expliquent David Blum et Thierry Burnouf, coresponsables d’une étude tout juste parue dans la revue Brain. C’est pourquoi de nombreuses équipes s’y intéressent dans le cadre du développement de la médecine régénérative : l’utilisation de lysats plaquettaires est déjà expérimentée dans le traitement de l’arthrose, pour favoriser la cicatrisation des plaies diabétiques, ou encore contre des maladies du système nerveux central. Les équipes de David Blum et Thierry Burnouf viennent quant à elles de la tester dans des modèles cellulaires et animaux de traumatisme crânien. Dans deux modèles de souris souffrant de traumatisme crânien, les chercheurs ont appliqué le lysat plaquettaire directement au contact de la plaie. Puis ils ont poursuivi son administration par voie intranasale, à raison d’une dose quotidienne pendant six jours. « Appliquer un produit sur une lésion peut être difficile. Et comme la voie intranasale permet le passage des molécules jusqu’au cerveau, nous privilégierons ce mode d’administration pour la suite », expliquent les chercheurs. « Grâce à ce traitement, les souris ont développé beaucoup moins de troubles moteurs que les animaux qui n’ont pas reçu le lysat. La différence observée entre les deux groupes d’animaux est tout à fait significative », poursuivent-ils. En étudiant l’effet du traitement au niveau du site lésé, ils ont en outre constaté un niveau d’inflammation et de stress oxydant moindre chez les animaux traités, ainsi qu’une meilleure expression de protéines impliquées dans le fonctionnement synaptique, c’est-à-dire dans la communication entre neurones « Cette biothérapie ne cible pas un mécanisme spécifique, mais un ensemble complémentaire de voies de signalisation qui participent à la neuroprotection. Si nos résultats se confirment, nous disposerons d’une réserve abondante de molécules bioactives simplement en extrayant le contenu de plaquettes inutilisées. Un remède à la portée de tous, dans les pays riches comme dans ceux à ressources limitées », s’enthousiasment-ils. L’équipe lilloise développe d’ores et déjà des procédés reproductibles et fiables, qui répondent aux normes de bonnes pratiques, pour une future production industrielle de lysats plaquettaires. En parallèle, les chercheurs préparent des études pour cibler d’autres maladies du système nerveux central. Un essai clinique devrait démarrer d’ici trois ans, à l’initiative de David Devos, chez des patients atteints de maladie de Charcot, caractérisée par une dégénérescence des motoneurones. D’autres projets concernent les maladies de Parkinson et d’Alzheimer. À terme, les chercheurs envisagent même de tester ces lysats plaquettaires contre le vieillissement cérébral. « La production de nouveaux neurones diminue avec le temps : le contenu du lysat pourrait prolonger cette neuro genèse », supposent-ils. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| L'analyse de la composition génétique des milliards de bactéries dans l'intestin humain et des liens pouvant relier certains groupes de gènes bactériens, ou «signatures génétiques», aux maladies, relevait jusque-là de l’impossible, en regard des volumes de données à traiter. Mais des travaux d’une équipe de l’École de médecine de Harvard montrent qu’avec l’aide des sciences computationnelles, il devient aujourd’hui possible de relier l’énorme quantité de données génétiques des bactéries de l'intestin humain à plusieurs maladies humaines. En pratique, très bientôt, l’analyse d’un simple échantillon fécal pourrait nous permettre de faire un check up complet. « Nous ne sommes jamais vraiment seuls, même pas dans notre propre corps, car nous hébergeons ces milliards de bactéries, champignons, virus et autres micro-organismes qui composent le microbiome humain », relèvent les chercheurs de la Harvard Medical School (HMS) et du Joslin Diabetes Center (Massachusetts). Leur objectif, analyser ce mélange de bactéries résidentes pour diagnostiquer tout un spectre de conditions, allant de l'obésité à la sclérose en plaques. Avec très prochainement, une application diagnostique toute simple, un test d’échantillon du microbiome. Les chercheurs ont commencé par collecter des données sur le microbiome de 13 groupes de patients à travers l’analyse de plus de 2.500 échantillons fécaux. Ensuite, ils ont analysé les données pour identifier les liens entre 7 maladies et des millions d'espèces microbiennes, de voies métaboliques microbiennes et de gènes microbiens. A l’aide de plusieurs modèles statistiques, les scientifiques ont pu identifier les caractéristiques du microbiome les plus puissamment associées à la maladie. De toutes les caractéristiques microbiennes – espèces, voies et gènes – les gènes microbiens présentent le pouvoir prédictif le plus fort. En d'autres termes, les groupes de gènes bactériens, ou signatures génétiques, plutôt que la simple présence de certaines familles bactériennes, sont plus étroitement liés à la présence d'une condition/maladie donnée. Quelques exemples de résultats « concrets » : ici, les chercheurs parviennent à relier des ensembles de gènes bactériens à la présence d'une maladie coronarienne, d'une cirrhose du foie, d'une maladie inflammatoire chronique de l'intestin (MICI), d'un cancer du côlon et d'un diabète de type 2. Trois de ces conditions (la maladie coronarienne, la MICI et la cirrhose du foie) apparaissent partager de nombreux gènes bactériens. En d'autres termes, les personnes dont le microbiome comprend ces gènes bactériens sont plus susceptibles d'avoir une ou plusieurs de ces 3 conditions. L'analyse d'un seul échantillon fécal pour un check up complet : ces travaux représentent une avancée significative dans la compréhension de la relation entre microbiote intestinal et maladies : ces premières données qui restent encore à élargir avec d’autres relations entre gènes bactériens et maladies, vont bientôt permettre le développement de nouveaux outils diagnostiques permettant de prédire et/ou d’évaluer le risque d'une personne pour toute une gamme de maladies, relève le chercheur Braden Tierney, du programme de sciences biologiques et biomédicales de la HMS : «Nous identifions des marqueurs génétiques qui vont conduire à des tests, ou à un seul test, permettant d’identifier les associations avec toute une série de conditions médicales ». Il reste cependant à découvrir si ces bactéries, identifiées comme associées, sont également impliquées dans le développement de la maladie ou ne sont que de simples « spectatrices » dans ce processus. Mais au-delà des perspectives de test prédictif unique, ces travaux nous enseignent que les signatures génétiques des microbes comptent plus que la présence d'une famille bactérienne donnée pour présager un risque. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des chercheurs de la faculté de médecine de l’Université de Colombie-Britannique et du BC Cancer Research de Vancouver ont découvert une toute nouvelle piste thérapeutique qui pourrait permettre de détruire de manière très efficace les tumeurs dites "solides", qui représentent la majorité des cancers : cette voie implique une enzyme dont dépendent ces tumeurs pour s’adapter et survivre lorsque les niveaux d’oxygène sont faibles. Pour se développer, les tumeurs solides dépendent de l'apport sanguin qui leur fournit l'oxygène et les nutriments. Au fur et à mesure que les tumeurs progressent, ces vaisseaux sanguins sont incapables d'apporter de l'oxygène et des nutriments à chaque partie de la tumeur, ce qui entraîne des zones à faible teneur en oxygène autour de ces tumeurs. Au fil du temps, cet environnement pauvre en oxygène entraîne une accumulation d'acide à l'intérieur des cellules tumorales. Pour surmonter ce stress, les cellules cancéreuses doivent donc s’adapter en libérant des enzymes qui neutralisent les conditions acides de leur environnement. Cela leur permet de survivre, mais aussi de devenir une forme plus agressive de tumeur capable de se propager à d'autres organes. L'une de ces enzymes est appelée anhydrase carbonique IX (CAIX). Comme les tumeurs ont absolument besoin de l'enzyme CAIX pour survivre à mesure que leur environnement s’appauvrit en oxygène, ces chercheurs ont eu l'idée d'inhiber cette enzyme pour essayer d'empêcher les cellules tumorales de se développer. Ils ont identifié un composé - baptisé SLC-0111, qui bloque l'enzyme CAIX et fait actuellement l'objet d'essais cliniques. Ces scientifiques ont par ailleurs montré que l’enzyme jouait un rôle dans le processus qui contrôle une forme de mort cellulaire appelée ferroptose, qui se produit lorsque le fer s'accumule et affaiblit le métabolisme de la tumeur et les membranes cellulaires. Ces recherches ont montré que l'enzyme CAIX empêche les cellules cancéreuses de mourir à cause de la ferroptose. « La combinaison d'inhibiteurs de la CAIX, dont le SLC-0111, avec des composés connus pour provoquer la ferroptose entraîne une mort cellulaire catastrophique et bloque la croissance de la tumeur », souligne le Docteur Shoukat Dedhar, qui a dirigé l’étude. Les chercheurs travaillent désormais à élaborer des médicaments pouvant induire la ferroptose, dans le but d'empêcher le développement des tumeurs cancéreuses solides… Article rédigé par Georges Simmonds pour RT Flash Science Advances | | | |
| Des scientifiques de l'EPFL ont développé de nouvelles protéines contrôlées chimiquement et utilisées pour allumer et éteindre des activités cellulaires comme le ferait une ampoule électrique. Pour commencer, Sailan Shui et ses collègues ont modélisé par ordinateur des protéines qui ne se trouvent pas dans la nature. Elle a ensuite assemblé les protéines pour former des interrupteurs "off" et "on". « La première étape du travail a été de combiner deux protéines synthétiques et de vérifier qu’elles fonctionnent ensemble. L’une fait office de ciment, comme une colle, et l’autre est un récepteur de médicament. Il fallait aussi trouver deux protéines qui restent unies par des liens stables et forts », indique la chercheuse. Une fois ces composés protéiques fabriqués, il a fallu trouver une troisième molécule capable, soit de lier les deux protéines afin qu’elles ne forment qu’une et s’activent, soit de les séparer de sorte qu’elles se désactivent. Sailan Shui a conçu ses systèmes pour qu'ils réagissent à un médicament cliniquement approuvé. La scientifique a utilisé du Venetoclax, une petite molécule qui sert d’habitude de médicament anticancéreux et en a détourné la fonction initiale. « J’ai employé ce médicament comme un interrupteur “on” et “off” pour les protéines », explique-t-elle. Quand ce médicament se trouve en présence des protéines, il possède le pouvoir de les activer ou au contraire de les séparer et de les désactiver. « Dans notre cas, ces petites molécules font office d’interrupteur. Ce sont elles qui activent ou désactivent la protéine en question. » La chercheuse peut dès lors contrôler quand et pendant combien de temps elle souhaite que ces protéines restent actives ou arrêtées. Le but est de recourir à ces « protéines interrupteurs » comme un intermédiaire avec les cellules du corps humain. « Nous pouvons placer ces interrupteurs de protéines dans les cellules et ils sont prêts à être sollicités, mais ils n’agissent pas sans notre impulsion. Quand on décide de les utiliser, nous pouvons alors observer la réponse cellulaire », déclare Sailan Shui. « Ce type de circuit protéique, où la même petite molécule peut effectuer deux fonctions antagonistes, pourrait s’avérer une option prometteuse pour contrôler la sécurité et l’efficacité des cellules modifiées », ajoute Bruno Correia, directeur du laboratoire. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|