| | Edito Comment les énergies renouvelables vont nous permettre d'atteindre le « zéro carbone »
Selon l'Agence internationale de l'énergie (AIE), la production mondiale d'électricité augmentera de 45 % d’ici 2040, pour atteindre environ 38 700 TWH par an, contre 26 000 TWH en 2018. Parallèlement, la part de la production électrique dans la production totale d’énergie devrait passer de 18 % aujourd’hui à au moins 25 % en 2040. Autre évolution significative, et lourde de conséquences pour l’ensemble de la chaîne de production et de distribution d’énergie, la part des énergies renouvelables - éolien et solaire principalement - dans la production électrique, qui est actuellement d’environ 18 %, devrait dépasser, au niveau mondial, les 50 % dans 20 ans. En Europe, sur l’ensemble des 27 pays de l’Union européenne, les énergies renouvelables ont déjà assuré en 2020 40 % de la production d’électricité, contre 34 % pour les combustibles fossiles, et ces énergies propres devraient représenter 70 % de la production électrique européenne en 2040. Quant à la France, sa production d’électricité d’origine renouvelable, qui représente actuellement 23 % de sa consommation d’électricité, devrait en représenter 40 % en 2030 et plus de la moitié en 2040, ce qui signifie qu’à cet horizon, à consommation stabilisée, et dans l’hypothèse d’une réduction de la part du nucléaire (qui passerait de 75 % à moins de la moitié de la production électrique nationale), c’est environ 200 TWH suppl& eacute;mentaires d’électricités renouvelables, (essentiellement solaire et éolienne) qui seront produits en France (hors hydraulique), soit plus de six fois la production renouvelable actuelle (30 TWH en 2020). Mais pour parvenir à produire plus de la moitié de notre électricité (et sans doute la totalité en 2050) à partir d’énergies renouvelables, par nature intermittentes et difficilement prévisibles, les questions du stockage, de la transformation de cette énergie et de l’équilibrage permanent du réseau électrique, vont devenir absolument fondamentales. Aujourd’hui, les principales technologies utilisées pour stocker l’énergie sont (mais la liste n’est pas exhaustive), le pompage-turbinage, l’hydrogène, les batteries géantes, le stockage par air comprimé, et, dernière venue mais appelée à jouer un rôle central, le « Power-To-Grid », qui intègrent à grande échelle les véhicules électriques dans la chaîne de distribution et de stockage de l’ ;énergie. Toutes ces technologies vont devoir être mises à contribution, de manière combinée et intelligente, comme le souligne notamment une étude très intéressante, réalisée par des chercheurs du Cired et de l’Institut I4CE. Ces chercheurs ont passé en revue 315 scénarios de coûts des technologies d’énergie renouvelable projetés en 2050, afin d’essayer de déterminer le mix national électrique optimal, c’est-à-dire celui susceptible de satisfaire la demande d’énergie pour chaque heure de l’année, sans importations ou exportations d’électricité, et sans flexibilité de la demande en réponse aux inévitables fluctuations de la production massive des énergies intermittentes (éolien et solaire) (Voir étude). Dans cette étude, le scénario central repose sur une hypothèse de mix énergétique constitué à 46 % d’éolien terrestre, 31 % de photovoltaïque, 11 % d’éolien marin, 3 % de biogaz, 3 % d’hydraulique de lac et 6 % d’hydraulique de rivière. Dans ce scénario, le coût de production électrique s’élève à 52 euros par mégawattheure, un coût proche de celui de notre modèle actuel. Ce scénario repose principalement sur trois moyens de stockage d’énergie : les stations de transfert d’énergie par pompage (STEP), le « Power-to-gas », et les batteries géantes. Mais le point le plus intéressant de ce travail est qu’il est possible de compenser l’intermittence intrinsèque de la production d’électricit&eacu te; éolienne et photovoltaïque par des dispositifs et technologies de stockage dont la capacité n’excède pas 15 % des capacités totales de production, ce qui reste économiquement acceptable. Dans l’état actuel des technologies et de leurs coûts de fabrication et d’exploitation, les STEP, qui exploitent les lois de la thermodynamique et le potentiel d’énergie entre deux bassins situés à des niveaux différents, restent incontestablement les moyens de stockage massif d’électricité les plus efficaces et les moins onéreux. Mais l’implantation de ces STEP est toutefois limitée par des contraintes géographiques et géologiques, ainsi que par leur coût initial de construction et leur impact sur l’environnement. Pourtant, dans les pays qui ont la chance de disposer de régions montagneuses, les STEP, qui existent depuis plus d’un siècle, ont trouvé depuis quelques années, avec la montée en puissance des énergies renouvelables, un nouveau souffle, comme moyens de stockage et de régulation des flux &eacu te;lectriques. C’est par exemple le cas du complexe hydroélectrique d’Émosson, à cheval sur la frontière franco-suisse, qui se compose de deux centrales, l’une Suisse et l’autre Française, qui peuvent fournir une puissance cumulée de 390 MW. Cet ensemble, depuis 12 ans, est en train d’être agrandi et modernisé et devrait, à la fin de l’année, disposer d’une capacité de stockage accrue de 18 GWh, pour une puissance de 900 MW. Au terme de ces travaux titanesques, cette STEP pourra ainsi injecter sur le réseau une puissance équivalente à un réacteur nucléaire (900 MW), mobilisable en quelques minutes. Grâce à ses 25 millions de m³ contenus dans le lac supérieur, et son dénivelé de 425 mètres, cette station géante pourra fournir du courant pendant 20 heures d’affil& eacute;e et sera particulièrement adaptée au stockage de l’électricité excédentaire provenant des éoliennes et panneaux solaires photovoltaïques. Notons également qu’en dépit de son coût total de deux milliards d’euros, cette installation hors normes de 18 GWh aurait coûté deux fois et demie plus chère, si c'était un système composé de batteries géantes qui avait été utilisé. Notre pays n’exploite malheureusement que 7 stations de pompage-turbinage, représentant une puissance totale de moins de 6 GWH, soit environ le quart de la puissance hydroélectrique française installée. Mais dans le cadre de la loi de programmation de l’énergie, et de la feuille de route concernant le déploiement des énergies propres et la diminution de nos émissions de CO2, EDF et RTE ont décidé de développer fortement l’ensemble des moyens de stockage de l’électricité, à commencer par les STEP. En octobre 2019, EDF a ainsi terminé l’extension de la centrale de La Coche, une centrale hydroélectrique située au Grand-Aigueblanche, près de Moûtiers (Savoie). Cette centrale a vu sa production augmentée de 20 %, passant de 550 à 650 GWh par an. EDF a également achevé, en octobre 2020 la modernisation de la centrale de Romanche-Gavet, en Isère, qui dispose à présent d’une puissance de 97 MW et peut produire, 0,56 TWh par an. Cet effort nécessaire en faveur des STEP va se poursuivre et la Programmation Pluriannuelle de l’Energie (PPE) fixe pour objectif une augmentation des capacités de production des STEP allant jusqu’à 2 GW d’ici 2030, soit un tiers de plus qu’aujourd’hui. Plus globalement, EDF compte investir 8 milliards d’euros dans différentes solutions de stockage, notamment l’installation de 10 GW de nouvelles capacités de stockage. Mais dans ce nouveau paysage énergétique, les batteries géantes de très grande capacité font, elles aussi, des progrès spectaculaires, en termes de rapport coût-efficacité (mais resteront néanmoins pour de longues années plus coûteuses à puissance disponible égale que les STEP). Le groupe LS Power est par exemple actuellement en train de déployer en Californie, au sud de San Diego, le plus grand système de stockage par batteries lithium-ion au monde, qui va pulvériser l’actuel record en la matière (l'installation de Tesla en Australie de 193 MWh de capacité de stockage). Baptisée « Gateway », cette installation de 250 MW va pouvoir stocker pendant plusieurs heures jusqu’à 1 000 MWh d’électricité. Cet énorme complexe de stockage par batteries pourra être rechargé lors des p ics de production solaire et des périodes de moindre consommation. D’ici 25 ans, la Californie devra se doter d’une quinzaine de complexes similaires, de façon à pouvoir disposer à terme d’au moins 15 000 MW de capacités de stockage par batteries, un seuil nécessaire pour atteindre son objectif d’un mix électrique entièrement issu des énergies renouvelables en 2045. Une autre technologie de stockage pourrait bien venir compléter cette panoplie dans les années à venir : le stockage par air liquide. Le chantier de la plus grosse batterie à air liquide de la planète a débuté il y a quelques mois au Trafford Energy Park, près de Manchester en Angleterre. Ce projet, piloté par Highview Power, devrait être opérationnel en 2022 et permettra l’alimentation en énergie de 200 000 habitations pendant cinq heures par jour. Selon Highview Power, sa batterie à air liquide pourra stocker environ 250 MWh d’énergie, ce qui représente le double de la capacité de stockage de la plus grande batterie chimique du monde. Cette mégabatterie s’inscrit dans le cadre de la nouvelle feuille de route que vient d’annoncer le Premier Ministre anglais, et qui vise à produire d’ici seulement dix ans la totalité de l’électricité britannique à partir des énergies renouvelables, principalement de l’éolien marin en ce qui concerne la Grande-Bretagne. Autre idée qui fait son chemin : intégrer stockage et production d’énergie dans un même outil. Dans cette perspective, Siemens Gamesa et Siemens Energy ont annoncé, il y a quelques semaines, un partenariat pour fabriquer une « éolienne à hydrogène » qui devrait intégrer un électrolyseur directement dans la turbine pour transformer l'énergie éolienne en hydrogène. Aujourd’hui, il faut le rappeler, la grande majorité de l’hydrogène produite (par vaporeformage ou électrolyse) n’est pas « verte », car elle nécessite de grandes quantités d’énergies fossiles. Ces nouvelles éoliennes équipées d’électrolyseurs feront d’une pierre, deux coups : fournir une solution compétitive pour produire de d'hydrogène vert et permettre &agrav e; ces éoliennes, les plus puissantes du monde (jusqu’à 14MW), de fonctionner en partie déconnectées du réseau, ce qui augmentera leur capacité de régulation et de « lissage » de la production d’énergie. Le « Power-to-Gas », que j'ai souvent évoqué dans cette lettre, représente également une solution d'avenir permettant de transformer l'électricité issue d'énergies renouvelables en hydrogène, qui peut être utilisé directement comme carburant, ou stocké et injecté dans les réseaux de gaz naturel. À court terme, le réseau gazier pourrait accueillir de 2 % à 6 % d’hydrogène en volume. Mais les grands opérateurs gaziers estiment, après plusieurs retours d’expérimentations, qu’il est possible de monter jusqu’à 20 % d’hydrogène dans les réseaux de gaz, moyennant leur mise aux normes. Le potentiel de cette technologie est énorme, puisque l'ADEME l’évalue pour la France à environ 30 TWh par an, à l’horizon 2035. Selon l’Ademe, le Power-to-gas serait en outre en mesure d’assurer 30 % (140 TWh) de la production de gaz vert en 2050, sachant qu’à cette échéance, il serait envisageable de produire jusqu’à 460 térawattheures (TWh) de gaz renouvelable injectable en France métropolitaine – un volume largement suffisant pour répondre à une demande totale de gaz prévue d’ici 2050. Il faut également souligner que le potentiel du Power-to-Gas pour stocker sous forme chimique l’électricité excédentaire provenant des pics de production des énergies renouvelables va encore être augmenté par le développement d’une nouvelle technologie appelée à un grand avenir, la méthanisation par induction magnétique. Cette remarquable innovation, mise au point par le Laboratoire de physique et chimie des nano-objets de Toulouse, consiste à convertir par catalyse, à l’aide de nanoparticules magnétiques, du CO2 en méthane par hydrogénation. Ce procédé révolutionnaire, dont l’efficacité énergétique est très intéressante (de l’ordre de 70 % pour les grandes installations), est particulièrement complémentaire à la technologie Power-to-gas pour valoriser le surp lus d’électricité provenant des énergies renouvelables. Cette électricité, comme nous l’avons vu, est d’abord transformée en hydrogène par électrolyse de l’eau. Mais elle peut ensuite être convertie en méthane grâce à une réaction de méthanisation. Parallèlement au développement combiné et coordonné de ces différents moyens de stockage, qui permettent une bonne complémentarité d’ensemble, il existe à présent des solutions technologiques pour assurer la stabilité du système électrique, comme vient de le souligner le récent rapport réalisé conjointement par l'Agence internationale de l'énergie (AIE) et le gestionnaire du réseau de transport d'électricité français (RTE), concernant la faisabilité technique pour un système électrique incluant une forte proportion d'énergies renouvelables à l'horizon 2050. Selon cette étude, il est techniquement possible de concevoir et de réaliser un réseau électrique 100 % renouvelable, mais à condition d’intégrer au fonctionnement et à la gestion de ce ré seau plusieurs avancées technologiques. En premier lieu, il faut développer de nouveaux services de fréquences, appelés « réglage rapide de fréquence » ou « inertie synthétique/virtuelle ». Il s’agit de convertisseurs spécifiques qui ont pour objectif d’ajuster la production renouvelable très rapidement, pour répondre à un écart du signal de fréquence. Ce rapport préconise également le large déploiement de compensateurs synchrones, dont les moteurs fournissent de l'inertie et de la puissance de court-circuit, et contribuent donc à la stabilité du système. Enfin, ce rapport recommande d’avoir recours aux contrôles « grid-forming » pour les convertisseurs de puissance, afin de permettre aux centrales éoliennes et photovoltaïques de générer leur propre onde de tension. Ma is cette dernière technologie n’a jamais été déployée à très grande échelle et doit encore faire l’objet d’études de faisabilité. L’ensemble de ces avancées techniques, combinées aux différents moyens de stockage massif que j’ai évoqué, devaient permettre de transformer nos réseaux électriques de telle manière qu’ils puissent fonctionner efficacement, en toute sécurité, à partir de sources renouvelables fluctuantes. Mais une autre technologie, dont le potentiel s’avère considérable, pourrait bien venir bouleverser et enrichir ce paysage du stockage intelligent de l’énergie. Je veux parler des batteries équipant les voitures électriques, qui peuvent être utilisées de trois manières ingénieuses pour le stockage massif de l’énergie. D’abord, grâce à un système Vehicle-to-Grid (V2G), dans lequel les véhicules électriques deviennent autant de « mini-centrales » de stockage, ce qui permet « d’éponger » les pics de production électrique, et de les restituer dans le réseau en cas de forte demande. En second lieu, lorsque ces batteries arrivent en fin de vie, elles peuvent toujours être réutilisées pour le stockage stationnaire de l’énergie. Enfin, le V2G peut également devenir une source d’énergie domestique complémentaire : dans cette configuration, le propriétaire d’un véhicule électrique peut alors utiliser l’énergie stockée dans la batterie pour alimenter son domicile. A titre d’exemple, le projet pilote Parker au Danemark a permis de montrer la capacité des véhicules électriques à venir alimenter ponctuellement le réseau électrique via le V2G. En se connectant au réseau pendant plus de 12 000 heures, la flotte des 10 véhicules électriques de Frederiksberg Forsyning a permis de lisser les fluctuations d’énergie sur le réseau et de maintenir une bonne régularité de sa fréquence. Renault pour sa part a démarré en mars 2019 les tests de son écosystème V2G, au Portugal et aux Pays-Bas. Dans cette expérimentation, qui va être dupliquée en France, quinze Zoé ont été équipées d’un système de charge bidirectionnelle qui leur permet d’être alternativement outil de stockage ou moyen de production d’énergie. Mitsubishi va, quant à lui, prochainement proposer une solution énergétique clé en main autour de son SUV hybride Outlander Phev, en Allemagne et au Japon. Ce système intégré sera composé de véhicules équipés de chargeurs bidirectionnels, d’une batterie domestique, de panneaux photovoltaïques à installer sur sa maison et d’un outil numérique de gestion de l’énergie. Il faut également signaler, dans la région Occitanie, le projet « Flexitanie », dédié au V2G, qui est lancé depuis l'automne 2020. Il vise également à stocker dans les batteries des voitures l'électricité excédentaire issue des énergies renouvelables, puis à la réinjecter dans le réseau, pour alimenter, selon les cas, un quartier, un bâtiment précis, ou directement le réseau électrique. Ce projet permettra d'alimenter une flotte d'une centaine de berlines compactes Nissan Leaf réparties entre une dizaine d'industriels de la région, soit l'équivalent d'une centrale de production de 1 MW. Selon les dernières prévisions, et si l’on tient compte du fort développement de la mobilité électrique enregistrée en 2020, il pourrait y avoir un million de voitures électriques en circulation dans notre pays dès 2025, 5 millions en 2030, et 15 millions en 2040, soit une voiture sur trois. Dans une telle perspective, le V2G pourrait devenir dès le milieu de cette décennie un nouveau et puissant moyen de stockage et de régulation de notre réseau (mais aussi une micro-source d’alimentation domestique d’énergie électrique), qui va devoir intégrer une part croissante d’électricité provenant de sources renouvelables et intermittentes. Reste que, pour pouvoir intégrer et combiner en temps réel de manière intelligente, rentable et résiliente, l’ensemble de ces nouveaux outils de stockage et de régulation de nos réseaux d’énergie, il faudra recourir à une puissance de calcul sans doute cent fois plus importante que celle utilisée aujourd’hui pour la gestion de nos infrastructures d’énergie. Pour relever ce défi, il faudra certainement recourir à de nouveaux outils d’IA capables d’effectuer très rapidement des modélisations et des prévisions d’une grande fiabilité. C’est pourquoi, de la même façon qu’on ne peut plus séparer les problématiques liées à l’énergie domestique et à l’énergie de la mobilité, qui sont appelées à converger, on ne peut pas non plus dissocier la transition urgente de notre système énergétique vers le « zéro carbone » de la montée en puissance des nouveaux outils numériques, 5G, IA, ordinateur quantique, qui seront demain plus que jamais indispensables au contrôle de ce système énergétique, qui sera, c’est le juste prix à payer pour contrer le réchauffement climatique et protéger l’environnement, à la fois plus décentralisé, très diversifié, entièrement connecté à l’Internet des objets et d’une extrême complexité de gestion. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Des chercheurs du célèbre Massachusetts Institute of Technology (MIT) aux États-Unis ont réussi à mettre au point un nouveau type de réseau neuronal "liquide", capable de modifier les paramètres de ses propres équations. Dans la phase d'entraînement de l'IA, le réseau neuronal est utilisé pour construire des algorithmes en traitant un grand nombre de données. Cette nouvelle approche prend en compte les données chronologiques afin de traiter non pas des points fixes mais des séquences. Les chercheurs se sont inspirés du nématode Caenorhabditis elegans dont le système nerveux, composé de seulement 302 neurones, est capable d'opérations complexes. Le réseau neuronal liquide utilise des équations différentielles imbriquées afin de changer les paramètres des équations dans le temps, ce qui le rend beaucoup plus flexible. Il est ainsi capable de mieux traiter des données contenant du bruit, comme le flux vidéo d'une voiture autonome lorsqu'il pleut. Les réseaux neuronaux sont comparés à des boîtes noires, où il est possible d'observer les entrées et sorties, mais pas ce qui se passe à l'intérieur. La possibilité de modifier ces équations permet aux chercheurs de mieux comprendre le fonctionnement du réseau, ce qui est normalement impossible. De plus, cette approche utilise un nombre plus limité de neurones que les réseaux classiques, ce qui réduit la puissance de calcul nécessaire. Le réseau de Hasani a excellé dans une batterie de tests. Il a nettement devancé les autres algorithmes de séries chronologiques de pointe pour prédire avec précision les valeurs futures dans des ensembles de données, allant de la chimie atmosphérique aux modèles de trafic. De plus, la petite taille du réseau lui a permis d'atteindre ces performances pour un faible coût énergétique. Les chercheurs indiquent que le réseau neuronal liquide devrait permettre des avancées dans tous les domaines où les conditions peuvent évoluer rapidement. Cela inclut les voitures autonomes, le pilotage des robots, le traitement automatique du langage naturel, le diagnostic médical ou encore le traitement des vidéos. Article rédigé par Georges Simmonds pour RT Flash MIT | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Pour la première fois aux États-Unis, un chirurgien, Jonathan Vigdorchik, qui travaille à l’hôpital new-yorkais Hospital for Special Surgery, a procédé à des opérations de remplacement du genou sur deux patients souffrant d’arthrite grave, en utilisant un outil de réalité virtuelle. Grâce à la réalité augmentée, ce dernier a pu suivre son plan chirurgical en détail tout au cours de l’opération grâce à des lunettes qui l’informaient en temps réel des données critiques à prendre en compte. Il explique : « À de nombreux moments lors des opérations, la réalité augmentée m’a fourni les informations me permettant de vérifier que mes coupes étaient exactes, degré par degré, millimètre par millimètre ». Une aide qui a permis un retrait plus précis de l’os et du cartilage, ainsi qu’un positionnement plus précis de l’implant. Examinés cette semaine, les patients qui ont tous deux la cinquantaine, semblent se porter à merveille. Avant d’arriver à la phase opératoire, il a évidemment fallu préparer ces deux procédures. Pour cela, le docteur Vigdorchi a pris des clichés tomographiques des genoux de ses patients, qu’il a ensuite téléchargés dans NextAR (plate-forme cloud de Medacta) afin qu’ils soient modélisés en 3D. Ce sont notamment ces modèles qui ont permis de faire toute la planification préopératoire. Ce sont ensuite des lunettes de réalité augmentée créées par la société Vuzix qui ont permis d’afficher des paramètres chirurgicaux critiques en temps réel lors des opérations. Parmi d’autres facteurs, le chirurgien a pu notamment visionner les modèles 3D des jambes de ses patients, avec les diagrammes des coupes prévues. Des diagrammes par ailleurs interactifs : si le chirurgien, le docteur Vigdorchi, effectuait ses coupes à la perfection, alors une ligne verte apparaissait. Au contraire, si celles-ci n’étaient pas assez précises, alors c’était une ligne rouge qui prenait place. Pour Jonathan Vigdorchik, cela ne fait aucun doute : à l’avenir, la réalité augmentée permettra d’effectuer de meilleures procédures, ce qui permettra d'obtenir des récupérations plus rapides de la part des patients, ainsi qu’un meilleur fonctionnement des implants. Article rédigé par Georges Simmonds pour RT Flash Freethink | | ^ Haut | |
|
| | | Face au défi climatique, la production d’électricité à partir des énergies renouvelables ne cesse de se développer mais celle-ci est grosse consommatrice d'espace. Pour surmonter ce problème, deux sociétés, Oceans of Energy et The Seaweed Company, viennent d’installer une ferme photovoltaïque en mer du Nord ; celle-ci est recouverte de panneaux photovoltaïques abritant des bassins pour la culture d’algues comestibles. La barge devrait produire 15 tonnes d’algues chaque année et absorber au passage 1,8 tonne de dioxyde de carbone. Grâce aux cellules solaires, elle développe en parallèle une puissance maximale de 50 kW. Ses concepteurs n’ont toutefois pas communiqué les caractéristiques détaillées du dispositif. Le projet s’inscrit dans le cadre de l’initiative européenne « H2020United » dont l’objectif est de mutualiser les espaces marins. Ainsi, des fermes éoliennes offshore accueillent déjà des élevages de moules et de l’algoculture en Hollande. Oceans of Energy prévoit de multiplier les parcs combinés en mer à plus grande échelle. Depuis un an, la société exploite une ferme solaire capable de résister à des vagues atteignant 13 mètres de haut et se dit prête à réaliser des sites développant de 100 à 5000 MW de puissance. « En utilisant seulement 5 % de la mer du Nord néerlandaise, nous pouvons couvrir la moitié de la demande en énergie des Pays-Bas » affirme la start-up. Article rédigé par Georges Simmonds pour RT Flash Offshore Energy | | | |
| Comment tirer profit au maximum des ressources énergétiques à disposition localement, telle que la biomasse issue de la consommation des ménages, de l’agriculture ou de l’agroforesterie ? En partant de cette question, une équipe de chercheurs de l’EPFL a posé les bases d’une solution d’optimisation énergétique intégrant ces ressources aux réseaux électriques et gaziers. En adoptant des méthodes de gazéification, le modèle est capable de transformer les divers flux de biomasse en hydrogène, puis en méthane à l’aide de piles à combustible à oxyde solide réversibles (solid oxide cell - rSOC). Cette technologie, dont le Groupe des matériaux pour l’énergie de l’EPFL (GEM), basé à Sion, s’est fait une spécialité, permet de stocker de l'électricité sous forme de méthane et, inversement, de reconvertir le méthane en électricité, avec de bons rendements dans les deux sens. Ce qu’on appelle biomasse est tout ce qui est organique : bois, résidus agricoles et alimentaires, déjections d’animaux, etc. Source énergétique principale avant l’avènement de l’ère industrielle et des énergies fossiles (charbon puis pétrole), elle reste utilisée à raison de 10 % de l’énergie primaire mondiale. Elle est considérée comme renouvelable, tant que sa régénération est au moins égale à sa consommation, et donc qu’elle n’entraîne pas de déforestation ni de concurrence à la production de nourriture. Elle est valorisée sous forme de biocarburants, pour produire de la chaleur, de l’électricité, du gaz et différents produits chimiques ou cosmétiques. L’idée développée par les chercheurs du GEM est de proposer des configurations optimales d’usines, qui traiteraient la biomasse à différentes échelles (entre 1 et 100 mégawatts) et dans un triple but. Elle peut premièrement produire directement de l’électricité, qui est injectée dans le réseau électrique. Aux heures où celui-ci est déjà suffisamment alimenté, elle peut utiliser la matière organique pour fabriquer de l’hydrogène, ou du méthane, composant principal du gaz naturel, qui est injecté dans le réseau du gaz. « Le but de cette étude est de concevoir le design optimal d’une telle usine et aussi de sa chaîne d’approvisionnement en ressources de biomasse », explique Maria Perez Fortes, du GEM. « Nous l’avons appliqué à deux exemples concrets, représentatifs du Nord et du Sud de l’Europe : le Danemark et l’Italie. Dans chaque cas, il s’agissait d’évaluer les besoins du réseau électrique en place, la quantité et le type de biomasse à disposition, les coûts de son transport, etc. L’objectif est d’assurer l’équilibre du réseau électrique, en augmentant la part de ressources renouvelables, afin que l’on puisse consommer de l’électricité lorsqu’il y en a beaucoup, et en produire lorsqu’il en manque. C’est pourquoi nous nous basons sur la technologie de piles à oxyde solide, la seule qui soit parfaitement réversible entre production d’électricité et de gaz ». Les avantages du système proposé sont sa flexibilité et son utilisation continue dans l’un ou l’autre mode de production, et donc d’éviter des périodes d’arrêt. Il permet un usage multiple - produire ou stocker l’électricité ou le gaz -, ainsi que l’adaptation de l’offre aux besoins. Il se révèle également intéressant pour compléter les autres modes locaux de production d’électricité renouvelable, tels le solaire ou l’éolien, qui dépendent des conditions météorologiques. On vise donc à optimiser les différents réseaux de distribution d'électricité et de gaz et leur interconnexion, en y intégrant les diverses ressources locales de biomasse et permettant un flux d’électricité constamment ajusté en temps réel pour une gestion globale. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des chercheurs du MIT ont conçu de petites molécules qui forment spontanément des nanorubans lorsque de l’eau est ajoutée. Ces molécules intègrent dans leur conception un domaine «aramide» inspiré du Kevlar, qui fixe chaque molécule en place et conduit à des nanorubans plus résistants que l’acier. Ces petites molécules qui s’assemblent spontanément en nanorubans avec une force sans précédent conservent leur structure en dehors de l’eau. La nouvelle molécule a trois composants principaux : une partie externe qui aime interagir avec l’eau, des aramides au milieu pour la liaison et une partie interne qui a une forte aversion pour l’eau. Les chercheurs ont testé des dizaines de molécules répondant à ces critères avant de trouver le design qui a conduit à de longs rubans d’épaisseur nanométrique. Ces scientifiques ont ensuite mesuré la résistance et la rigidité des nanorubans pour comprendre l’impact de l’inclusion d’interactions de type Kevlar entre les molécules. Ils ont découvert que les nanorubans étaient étonnamment robustes – plus résistants que l’acier. Le groupe a mis au point une stratégie par laquelle des nanorubans amphiphiles d’aramides alignés étaient tirés en de longs fils qui pouvaient être séchés et manipulés. Ainsi, l’équipe a montré que les fils pouvaient supporter 200 fois leur propre poids et avoir des surfaces extraordinairement élevées – 200 mètres carrés par gramme de matériau. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | La ceinture de pluies tropicales, autrement connue sous le nom de « zone de convergence intertropicale », proche de l’Equateur, est une zone humide où se rencontrent des vents des hémisphères Nord et Sud, créant ainsi de fortes précipitations. En se basant sur 27 modèles de projection, une équipe de chercheurs de l’Université de Californie affirme dans cette étude que, d’ici l’an 2100, la ceinture des pluies se sera déplacée vers le nord au niveau de l’Afrique orientale et de l’océan Indien, et vers le sud au niveau des océans atlantique et pacifique. « Un processus qui pourrait avoir des conséquences en cascade sur la disponibilité de l’eau et de la nourriture à travers le monde », a affirmé Antonios Mamalakis, l’un des auteurs de l’étude. Ce déplacement des zones de pluies pourrait avoir de lourdes conséquences sur les populations qui vivent dans ces régions. Madagascar pourrait par exemple faire face à des vagues de sécheresse encore plus intenses, alors que le pays est déjà touché par une sécheresse sans précédent. L’ONU a même demandé à la mi-janvier une aide d’urgence de 76 millions de dollars pour venir en aide aux populations du sud de Madagascar, qui ne peuvent plus se nourrir à cause de la sécheresse. Si la ceinture de pluies se déplace vers le Nord, ce seront donc potentiellement des millions de personnes qui souffriront de la sécheresse à travers le monde. Cet effet pourrait par ailleurs être plus rapide dans certaines régions, en fonction des émissions de gaz à effet de serre et des conditions météorologiques : « en Asie, les réductions prévues des émissions d'aérosols, la fonte des glaciers dans l'Himalaya et la perte de la couverture neigeuse dans les régions du nord, provoquées par le changement climatique, entraîneront un réchauffement de l'atmosphère plus rapide que dans d'autres régions », affirme James Randerson, l’un des co-auteurs de l’étude. Article rédigé par Georges Simmonds pour RT Flash NCC | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des chercheurs américains de l’UCLA sont parvenus à relancer le cerveau de deux patients souffrant de lésions cérébrales graves et se trouvant dans un état de conscience minimale à long terme, en utilisant des ultrasons. Cette prouesse scientifique n’est pas une première. En 2016, déjà, la même équipe de chercheurs est parvenue à relancer le cerveau d’un homme de 25 ans alors dans le coma. Martin Monti, qui a dirigé les équipes de recherche, avait reconnu que ce petit miracle reposait sur une part de chance. Dans cette nouvelle étude, toujours dirigée par Martin Monti, ce sont deux patients qui ont pu voir leur cerveau relancé, balayant toute présomption de chance. « Je considère que ce nouveau résultat est beaucoup plus significatif car ces patients chroniques étaient beaucoup moins susceptibles de récupérer spontanément que le patient aigu que nous avons traité en 2016 - et tout rétablissement se produit généralement lentement, sur plusieurs mois et plus généralement des années, pas sur des jours et des semaines, comme nous le montrons », a affirmé le professeur de psychologie et de neurochirurgie et co-auteur principal du nouvel article. « Il est très peu probable que nos découvertes soient simplement dues à une guérison spontanée ». Les scientifiques ont tenté de réveiller le cerveau par ultrasons de trois patients. Le troisième, un homme de 58 ans qui avait subi un accident de voiture cinq ans et demi avant le traitement et qui était peu conscient, n’en a pas bénéficié contrairement aux deux autres. L’un est un homme de 56 ans qui avait subi un accident vasculaire cérébral et qui était dans un état de conscience minimale, incapable de communiquer, depuis plus de 14 mois. Après le premier de deux traitements, il a démontré, pour la première fois, la capacité de répondre de manière cohérente à deux commandes distinctes : la capacité de laisser tomber ou de saisir une balle, et la capacité de regarder vers des photographies séparées de deux de ses proches lorsque leurs noms ont été mentionnés. Il a pu également hocher la tête ou la secouer pour indiquer “oui” ou “non” lorsqu'on lui a posé des questions telles que « X est-il votre nom ? » et « Y est-il le nom de votre femme ? » Dans les jours qui ont suivi le deuxième traitement, il a également démontré, pour la première fois depuis l'AVC, la capacité d'utiliser un stylo sur du papier et de porter une bouteille à sa bouche, ainsi que de communiquer et de répondre aux questions. « Surtout, ces comportements sont des marqueurs diagnostiques de l'émergence d'un trouble de la conscience », a observé Martin Monti. L’autre patiente qui a bénéficié du traitement est une femme de 50 ans qui avait été victime d'un arrêt cardiaque deux ans auparavant. Dans les jours qui ont suivi le premier traitement, elle a pu, pour la première fois depuis des années, selon sa famille, reconnaître un crayon, un peigne et d'autres objets. « Ce qui est remarquable, c'est que les deux ont présenté des réponses significatives quelques jours seulement après l'intervention », s’est félicité le co-auteur principal de l’étude. « C'est ce que nous espérions, mais c'est stupéfiant de le voir de vos propres yeux. Voir deux de nos trois patients qui avaient été dans une maladie chronique s'améliorer de manière très significative dans les jours suivant le traitement est un résultat extrêmement prometteur ». Les scientifiques ont utilisé une technique appelée ultrasons focalisés de faible intensité qui se servent de la stimulation sonore pour exciter les neurones du thalamus, une structure en forme d'œuf qui sert de hub central au cerveau pour fonctionner. « Après un coma, la fonction du thalamus est généralement affaiblie », a expliqué Martin Monti. Les médecins ont utilisé un appareil de la taille d'une soucoupe qui crée une petite sphère d'énergie acoustique pouvant viser différentes régions du cerveau pour exciter les tissus cérébraux. Les chercheurs ont placé l'appareil à côté de la tête de chaque patient et l'ont activé 10 fois pendant 30 secondes chacune sur une période de 10 minutes. Chaque patient a subi deux séances, à une semaine d'intervalle. L’objectif des chercheurs est de poursuivre les travaux et d’aboutir à la confection d’un appareil portable peu coûteux. Le traitement semble bien toléré par les patients, ont noté les chercheurs. Ils n'ont constaté aucun changement dans la pression artérielle, la fréquence cardiaque ou les taux d'oxygène dans le sang des patients et aucun autre événement indésirable. Article rédigé par Georges Simmonds pour RT Flash Brain Stimulation | | | |
| Les preuves s’accumulent depuis le début de la pandémie : les hommes présentent des symptômes plus sévères de la COVID-19 et ils en meurent aussi davantage que les femmes. Il est vrai que l’âge est fortement associé à un risque accru de décès chez les deux sexes, mais au-delà de 30 ans, les hommes présentent un risque de mortalité nettement plus élevé, ce qui fait des hommes âgés le groupe le plus vulnérable. Dans l’ensemble, les données recueillies à ce jour montrent que le risque de décès chez les hommes est 1,7 fois plus élevé que chez les femmes, notent l'immunobiologiste Akiko Iwasaki et ses collègues de l’Université Yale, qui se sont intéressés aux processus biologiques qui causent cette différence entre les sexes. Si les différences entre les sexes sont étroitement liées aux rôles sociaux et à des facteurs comportementaux, des mécanismes biologiques influent également sur la gravité de la COVID-19. Selon ces recherches, cette différence importante de mortalité selon le sexe aurait au moins deux explications biologiques majeures. La première tient de la biologie fondamentale. Les femmes possèdent deux chromosomes X, les hommes en ont un. Les chromosomes X sont importants, car ils sont riches en gènes qui régulent la réponse immunitaire, explique Akiko Iwasaki. Alors que l'un de ces chromosomes X chez la femme est réduit au silence, dans certains cas, des gènes clés des deux chromosomes X peuvent activer le système immunitaire inné, le système d'alerte précoce qui détecte les agents pathogènes. En fait, les femmes disposent de renforts du système immunitaire à un stade précoce des infections, alors que les hommes, avec leur seul chromosome X, n’en possèdent pas, explique-t-elle. Une deuxième explication est liée aux hormones sexuelles. Des travaux menés sur des souris infectées par le SRAS-CoV ont permis de constater une mortalité plus élevée chez les mâles. Les chercheurs pensent que l’effet protecteur de l'hormone sexuelle femelle, l'œstrogène, en serait la cause. Selon eux, la présence d'œstrogènes peut contribuer à supprimer l'ACE2, un récepteur à la surface de nombreuses cellules qui est utilisé par le SRAS-CoV-2 pour pénétrer dans les cellules. Chez l’homme, l'âge amplifie et parfois sabote la réponse immunitaire à l'infection par la COVID-19. Au début de la soixantaine, la réponse immunitaire des hommes semble perdre de la vigueur face au coronavirus. Les chercheurs ont découvert que le schéma d'expression des gènes qui contrôle les réponses immunitaires innées aux infections virales, première ligne de défense contre les agents pathogènes, diminue nettement chez les hommes entre 62 et 64 ans. Cette réponse immunitaire commence à faiblir environ six ans plus tard chez les femmes. Les scientifiques ont également constaté chez les hommes qu’une réaction compensatoire excessive d'autres molécules du système immunitaire peut en même temps conduire à une inflammation dommageable. Cette inflammation peut déclencher ce que l'on appelle la tempête de cytokines qui entraîne de graves dommages aux poumons et à d'autres tissus, ce qui est la marque des cas graves de COVID-19, notent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| En ces temps de contestation et de remise en cause grandissante de l'utilité globale de la vaccination et des bénéfices immenses apportés par les vaccins en matière de santé publique, il est toujours bon d'en revenir aux faits. Une étude d'une ampleur sans précédent réalisée par l'Université de Cambridge (UK), vient de montrer que, sans vaccination contre 10 maladies, la mortalité des enfants de moins de 5 ans serait de 45 % plus élevée dans les pays à faible revenu et à revenu intermédiaire. En résumé, la vaccination pédiatrique aura évité, sur la période 2000 à 2030, 69 millions de décès. Il s'agit de la plus grande étude de modélisation de l'impact de la vaccination dans les pays à faible revenu et à revenu intermédiaire, menée à ce jour. Les chercheurs britanniques ont pris en compte, sur une période de 30 ans, la vaccination contre 10 agents pathogènes majeurs (dont la rougeole, le rotavirus, le HPV, le HVB..) dans 98 pays. Les résultats indiquent que si les progrès en matière de couverture vaccinale se poursuivent, ces bénéfices en matière de santé publique et de réduction de mortalité continueront à progresser dans les décennies à venir. L’étude a impliqué 16 groupes de recherche indépendants pour modéliser, dans 98 pays, cet impact de la vaccination infantile contre 10 agents pathogènes : hépatite B (HepB), Haemophilus influenzae type b (Hib), papillomavirus humain (HPV), encéphalite japonaise (JE), rougeole, Neisseria meningitidis sérogroupe A (MenA), Streptococcus pneumoniae, le rotavirus, le virus de la rubéole et le virus de la fièvre jaune (FJ). Plusieurs modèles ont été appliqués pour chaque pathogène (20 modèles en tout). En comparant un scénario sans programme de vaccination à des scénarii où des programmes de vaccination avaient été mis en œuvre, les chercheurs ont pu estimer l'impact sur les décès. Les résultats démontrent entre 2000 et 2019 une augmentation du nombre moyen de vaccins reçus par enfant, à la fois pour les vaccins existants tels que la rougeole et pour les nouveaux vaccins tels que le rotavirus. La modélisation conclut notamment que, grâce aux programmes de vaccination, les personnes nées en 2019 encourent un risque de décès réduit de 72 % de ces 10 maladies -au cours de leur vie-par rapport à l’absence de vaccination. Selon ces travaux de 2000 à 2019, les vaccinations ont évité 37 millions de décès, ce chiffre devrait atteindre 69 millions de décès pour la période 2000-2030. En termes d'impact de la vaccination sur la vie des personnes nées entre 2000 et 2030, la vaccination permettra d'éviter 120 millions de décès, dont 65 millions chez des enfants de moins de 5 ans. Comme le souligne le Docteur Katy Gaythorpe, de l'Imperial College de Londres, co-auteur de l’étude, « En estimant à quel point les taux de mortalité seraient plus élevés sans programmes de vaccination en place, notre étude souligne à quel point il est crucial de maintenir des niveaux de couverture vaccinale élevés ». Article rédigé par Georges Simmonds pour RT Flash The Lancet | | | |
| On savait déjà qu'une consommation régulière de cannabis pouvait, chez certains sujets, augmenter les risques de développer des troubles schizophréniques, surtout lorsque cette consommation a commencé tôt. Une récente étude réalisée par des chercheurs australiens de l’Université du Queensland a également montré que la consommation régulière de cannabis augmentait les risques de dépression, d’addiction et d’isolement à 35 ans. Cette fois, une nouvelle recherche menée par des scientifiques irlandais de l'université de médecine et des sciences de la santé RCSI a montré que les adolescents qui consomment fréquemment du cannabis sont plus enclins à connaître une baisse de leur quotient intellectuel (QI) au fil du temps. Ces recherches ont montré que les jeunes qui avaient fumé du cannabis au moins une fois par semaine pendant six mois pouvaient perdre, en moyenne, 2 points de leur QI au fil du temps par rapport à ceux qui ne consomment pas cette drogue. Une analyse plus approfondie a suggéré que cette baisse des points de QI était principalement liée à la réduction du QI verbal. La recherche a compris une revue systématique et une analyse statistique de sept études longitudinales portant sur 808 jeunes qui ont consommé du cannabis au moins une fois par semaine pendant au moins 6 mois. Les résultats ont été comparés à ceux de 5 308 jeunes qui n'ont pas consommé de cannabis. Les jeunes ont été suivis jusqu'à 18 ans en moyenne, avec une étude allant jusqu'à 38 ans. « Des recherches antérieures nous indiquent que les jeunes qui consomment du cannabis ont souvent de pires résultats dans la vie que leurs pairs et courent un risque accru de maladies mentales graves comme la schizophrénie », a indiqué l'auteur principal de l'article, Mary Cannon, professeur d'épidémiologie psychiatrique et de santé mentale des jeunes à la RCSI. Ces résultats confirment les méfaits de la consommation de cannabis chez les jeunes, au moment où leur cerveau se forme. « La consommation de cannabis chez les jeunes est très préoccupante car le cerveau en développement peut être particulièrement vulnérable au cours de cette période », a conclu le Docteur Emmet Power, chercheur clinique à RCSI et premier auteur de l'étude. Enfin, rappelons que, contrairement à une légende tenace, une consommation régulière de cannabis peut augmenter les risques de développer certains cancers. En 2014, l'équipe du Docteur Schwartz a par exemple montré, à partir de données issues de 369 hommes atteints de cancer des testicules et 979 hommes en bonne santé, que la consommation de cannabis était impliquée dans le développement des tumeurs séminomateuses. Les fumeurs de cannabis auraient en effet un risque augmenté de 70 % de cancer des testicules par rapport aux non-fumeurs. Il semblerait donc que le cannabis ne soit pas une drogue "douce", festive et inoffensive, comme le croient malheureusement de nombreux jeunes… Article rédigé par Georges Simmonds pour RT Flash CUP DAR | | | |
| Selon une étude réalisée par l'Université de Californie-Los-Angeles (UCLA), le fait de passer de quarante-cinq à cinq jours de radiothérapie, en délivrant des doses plus importantes, permet d’obtenir les mêmes résultats dans le traitement du cancer de la prostate. Avec cette technique, le taux de guérison à quatre ans des patients, atteints de formes agressives, était de 82 %, avec des effets secondaires rares. Des études précédentes avaient déjà prouvé l’intérêt de cette méthode chez des patients atteints d’un cancer de la prostate peu agressif. 344 hommes avec des cancers de la prostate agressifs ont participé à cette recherche. Ils ont reçu une radiothérapie sur cinq jours, avec un dosage plus fort, appelée radiothérapie stéréotaxique. « C’est une technique de haute précision basée sur l’utilisation de microfaisceaux convergents permettant d’irradier à haute dose de très petits volumes », explique l’Institut national du cancer sur son site. En plus d’un taux de guérison important, les chercheurs ont constaté que peu d’hommes ont ressenti des effets secondaires : 2 % d’entre eux ont eu des problèmes urinaires et 1 % des troubles intestinaux. Pour l’équipe de recherche, cette méthode de traitement pourrait améliorer le quotidien des hommes atteints d’un cancer de la prostate. « La radiothérapie conventionnelle, qui implique des consultations quotidiennes pour le traitement, peut être pesante pour de nombreux patients », expliquent les chercheurs, « réduire la radiothérapie de six semaines et demie à cinq jours est une avancée significative, qui pourrait améliorer la qualité de vie globale des hommes atteints d’un cancer de la prostate ». Article rédigé par Georges Simmonds pour RT Flash UCLA | | | |
| Des chercheurs de l’Université de Washington (États-Unis) ont découvert l'existence d'une variation des cycles du sommeil au cours du cycle lunaire de 29,5 jours. Dans les trois à cinq jours qui précèdent la Pleine Lune, les gens s'endorment plus tard - d'environ 30 minutes en moyenne - et dorment moins longtemps - de 46 à 58 minutes en moyenne, que ce soit à la campagne ou en ville. Par le passé, d'autres études avaient montré l'impact sur le sommeil de l'accès à l’électricité. Cet impact s'est retrouvé dans ces travaux récents. Les participants urbains à l'étude se couchent en moyenne plus tard et dorment moins que ceux qui vivent dans une zone rurale, privés d'électricité. Mais tous ont montré des oscillations dans leurs cycles de sommeil en lien avec celui de la Lune. Et les chercheurs estiment aujourd'hui que leurs données sont plus fiables que celles qui ont pu être publiées par le passé. La plupart, en effet, s'appuyaient sur des déclarations des participants aux études. Cette fois, elles sont issues de moniteurs posés sur les poignets des volontaires. « Le phénomène pourrait correspondre à une adaptation qui a permis à nos ancêtres de profiter d'une source naturelle de lumière dans la soirée », indique Leandro Casiraghi, chercheur à l'Université de Washington, dans un communiqué. En effet, dans sa phase ascendante et lorsque l'on se rapproche de la Pleine Lune, notre satellite naturel arrive généralement haut dans le ciel après le coucher du Soleil. Alors qu'en phase de décroissance, la Lune se lève plus tard et n'éclaire le paysage qu'en milieu de nuit. Ainsi, les chercheurs font un parallèle avec l'influence de la lumière artificielle sur notre horloge circadienne. « Elle nous fait nous endormir plus tard. Et cela nous fait dormir moins parce qu'en général, nous n'utilisons pas de lumière artificielle pour avancer le matin ». Article rédigé par Georges Simmonds pour RT Flash Science Advances | | | |
| Les laboratoires pharmaceutiques Merck et Ridgeback Biotherapeutics ont annoncé des avancées dans la conception d'un médicament administré par voie orale contre le Covid-19 : leur antiviral en cours de test a eu des effets positifs dans la réduction de la charge virale. Le molnupiravir est l'objet de nombreux espoirs depuis la fin d'année dernière lorsque des chercheurs d'une université de Géorgie aux Etats-Unis ont démontré, comme le rapportait L'Indépendant, que sa molécule pouvait bloquer la transmission du virus en moins de 24 heures. Cette fois les laboratoires avancent sur la capacité de ce médicament par voie orale à baisser, voire supprimer la charge virale des personnes contaminées. « Sachant qu'il y a un besoin non satisfait de traitements antiviraux contre le SARS-CoV-2, nous sommes encouragés par ces résultats préliminaires », a déclaré dans un communiqué Wendy Painter, la cheffe des médicaments du laboratoire Ridgeback Biotherapeutics, qui présentait les résultats d'une nouvelle étude sur le médicament. « Nous continuons à faire des progrès dans nos programmes cliniques de phase 2/3 évaluant le molnupiravir en ambulatoire et en milieu hospitalier et prévoyons de fournir des mises à jour le cas échéant », a déclaré le Docteur Roy Baynes, vice-président principal et chef du développement clinique mondial, directeur médical des laboratoires de recherche Merck. Selon cette étude de phase 2a, le molnupiravir a réduit de façon significative la charge virale chez les patients au bout de cinq jours de traitement. Ses résultats, "à savoir une diminution plus rapide de la charge virale chez des individus ayant le Covid-19 en phase initiale et ayant reçu du molnupiravir, sont prometteurs", a assuré William Fischer, l'un des directeurs de l'étude et professeur de médecine à l'Université de Caroline du Nord. Parmi les 202 adultes non hospitalisés étudiés qui présentaient des signes ou des symptômes de Covid-19 dans les 7 jours précédents et testés positifs, les chercheurs ont constaté au jour 5 une réduction à 0 % de la charge virale chez les sujets ayant reçu du molnupiravir, contre 24 % par rapport à ceux ayant reçu un placebo. Article rédigé par Georges Simmonds pour RT Flash Merck | | | |
| Avec une majorité de survivants à des cancers du sang avancés près de quatre ans après avoir reçu un traitement unique, la molécule UM171, mise au point à l’Institut de recherche en immunologie et en cancérologie (IRIC) de l’Université de Montréal et expérimentée en clinique à l’Hôpital Maisonneuve-Rosemont, continue sa progression dans l’arsenal anticancer. « Non seulement la plupart des patients sont en bonne santé, mais ils ne sont pas dépendants d’un cocktail de médicaments qu’une bonne partie des greffés de la moelle osseuse doivent prendre pendant plusieurs années », mentionnait le découvreur de cette molécule, l’hématologue Guy Sauvageau, quelques jours avant Noël. Actuellement, près de 70 patients recrutés au Canada et aux États-Unis, dont plusieurs ne répondent pas aux traitements les mieux reconnus en oncologie, sont suivis par différentes équipes à la suite d’un protocole expérimental avec UM171. Il est encore trop tôt pour parler de guérison ‒ la durée de la rémission doit dépasser cinq ans ‒, mais les résultats sont très encourageants. Jusqu’à maintenant, la majorité des patients qui souffraient de leucémies à très haut risque de récidive demeurent en rémission. Si les choses continuent de progresser à ce rythme, on pourrait doubler le nombre de patients traités d’ici la fin de 2021. Un nouveau pas vient d’être franchi dans la compréhension de la molécule UM171 ‒ élaborée par le groupe de chimistes sous la direction d’Anne Marinier, de l’IRIC, et baptisée ainsi en l’honneur de l’Université de Montréal ‒, alors que Guy Sauvageau publie avec son équipe un article dans Cell Stem Cell qui décrit son mécanisme d’action. « Enfin, on sait comment UM171 fonctionne ! » a-t-il lancé à quelques jours de la levée de l’embargo. Dans l’article intitulé « UM171 preserves epigenetic marks that are reduced in ex vivo culture of human HSCs via potentiation of the CLR3-KBTBD4 complex », les 15 auteurs expliquent comment la molécule utilise un nouveau mécanisme moléculaire pour gérer l’épigénome des cellules souches et comment elle pourrait même contribuer à leur rajeunissement épigénétique. La première auteure de cet article important est Jalila Chagraoui, chercheuse associée au laboratoire du Docteur Sauvageau à l’IRIC. La grande surprise qu’ont eue les chercheurs de l’IRIC est justement cette faculté de la molécule d’agir comme une fontaine de jouvence sur les cellules souches du sang. On observe en laboratoire que, trois jours après l’administration de la molécule, les cellules souches présentent un épigénome semblable aux cellules initiales, alors qu’en l’absence d’UM171 ces cellules subissent un vieillissement prématuré de leur épigénome. C’est la raison pour laquelle les patients greffés avec ces cellules rajeunies ressentent très rapidement une amélioration globale de leur qualité de vie. Non seulement UM171 rajeunit ces cellules, mais celles-ci deviennent plus compétentes à produire un système immunitaire amélioré. Ainsi, après six mois, la plupart des patients n’ont plus besoin d’immunosuppresseurs, un médicament nécessaire pour annuler la réaction de rejet qui accompagne la greffe de moelle osseuse. Les applications potentielles de cette molécule sont multiples. « On pourrait éventuellement s’attaquer à des maladies auto-immunes et à des maladies inflammatoires comme la maladie de Crohn ou les colites ulcéreuses », indique le professeur Sauvageau. Depuis plus de 25 ans, Guy Sauvageau travaille sur la piste des cellules souches de cordons ombilicaux capables de coloniser en quelque sorte les cellules sanguines défectueuses causant la leucémie myéloïde aigüe, un des cancers du sang les plus répandus chez l’adulte. Dès les premiers signes prometteurs des effets de la molécule in vitro, on est passé aux recherches chez les modèles animaux. « Nous avons bénéficié d’un passage accéléré aux essais cliniques chez l’humain en vertu des rares effets secondaires observés et compte tenu du nombre limité de traitements efficaces pour ce type de maladie », relate-t-il. L’article publié récemment vient en quelque sorte éclairer les mécanismes moléculaires et épigénétiques en jeu lorsqu’une cellule souche accueille UM171. « C’est un peu comme si l’on avait mis la charrue devant les bœufs », illustre le chercheur, pour qui la recherche fondamentale a autant de valeur que ses applications en médecine humaine. Cette aventure à rebours n’est pas exceptionnelle, puisque l’histoire de la médecine regorge de situations où l’on a appliqué des traitements efficaces sans en comprendre parfaitement les mécanismes d’action. Article rédigé par Georges Simmonds pour RT Flash UDEM | | | |
| Le laboratoire américain Eli Lilly a annoncé des résultats encourageants, dans le cadre d'un essai clinique de phase 2, concernant le Donanemab, un nouvel anticorps monoclonal utilisé pour traiter la maladie d’Alzheimer. L’essai en question intégrait 272 patients au stade précoce de la maladie d’Alzheimer. Or, en 76 semaines de traitement au Donanemab, leurs dépôts de protéine bêta-amyloïde ont diminué de 32 % par rapport à ceux des patients du groupe témoin (placebo). Il s’agit ici d’une amélioration plus que considérable, témoignant de l’efficacité du médicament. Les responsables du laboratoire Eli Lilly ont évoqué une diminution des symptômes de la maladie. Il est question d’un rétablissement considérable des fonctions cognitives des patients. Il en va de même au niveau de leurs fonctions vitales. Néanmoins, ces améliorations n’ont pas fait l’objet d’une constatation sur tous les points de contrôle. Le laboratoire se prépare actuellement à la troisième et dernière phase de l’essai clinique. Cette dernière devrait concerner pas moins de 500 personnes. Article rédigé par Georges Simmonds pour RT Flash PharmaTimes | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|