| | | | | | | Edition du 13 Décembre 2024 |
| |
|
| Edito L'accès à l'eau pour tous sera l'un des grands défis de ce siècle
CAMPAGNE DE DONS 2024 Je suis déçu. J'espérais après mon appel solennel aux dons adressé la semaine dernière aux anciens donateurs que nous atteindrions facilement notre objectif de 15000€. Mais malheureusement nous n'y sommes pas parvenus. Il manque encore 4500€ pour permettre à notre association ADIST de pouvoir assurer le fonctionnement de notre site www.rtflash.fr et la mise en ligne de notre lettre RT Flash chaque vendredi pendant toute l'année 2025. Je le dis à nouveau : cette somme de 15000€ est nécessaire pour le fonctionnement technique de RT flash et n'est en rien destinée à rémunérer un membre de notre petite équipe. Chaque membre de cette petite équipe passe plusieurs dizaines d'heures chaque semaine pour débusquer dans la presse scientifique et technologique mondiale des informations qui très souvent n'ont pas encore été reprises dans la presse française et personnellement je passe beaucoup d'heures pour préparer et rédiger l'éditorial de chaque semaine Depuis 26 ans nous donnons bénévolement beaucoup de temps à RT Flash et nous ne le regrettons pas car ces exercices intellectuels nous maintiennent en très bonne forme. Mais je regrette que la mécanique ne suive pas. En faisant appel à vos dons je me bats pour faire tourner des serveurs, pour utiliser des logiciels spécifiques, pour acheter des images et pour rémunérer à des prix très bas un spécialiste qui fait tourner tout cela. La ligne d'une totale gratuité de RT flash, et de refuser toute publicité, fait que nous avons un lectorat particulier très souvent constitué d’étudiants qui n'ont pas beaucoup de moyens financiers. Mon appel aux dons ne s'adresse pas à eux car le maigre argent dont ils disposent doit avoir pour eux d'autres finalités plus essentielles. Mais il doit y avoir dans le lectorat de RT Flash des personnes ayant plus de moyens dont le budget ne serait pas bouleversé par le don qu'elles pourraient faire à notre association à ADIST. Je suis déçu mais je garde une totale confiance en mes lecteurs. Si vous décidez, enfin, de faire un don, faites-le vite, car si votre don nous parvenait après le 31 Décembre, vous ne pourriez pas bénéficier en 2024 d’une réduction d’impôt égale aux 66% de votre don. Merci de faire un don via Hello Asso en cliquant sur le lien suivant : https://www.helloasso.com/associations/adist/formulaires/10 Bien cordialement René Trégouët Sénateur Honoraire Rédacteur en Chef de RT Flash Président de l’ADIST EDITORIAL : L'accès à l'eau pour tous sera l'un des grands défis de ce siècle Selon l'ONU, la consommation mondiale d'eau, qui n'était encore que 2000 km3 en 1960 aurait atteint les 4700 km3 en 2020, soit 600 m3 en moyenne, tous usages confondus, par an et par terrien. On estime que sur les 35 millions de Km3 d'eau douce que recèle notre Terre (principalement contenus dans les glaciers), seuls 630 000 km3 d’eau douce (à peine 2 % des réserves totales) sont facilement disponibles sur Terre. Cette eau est essentiellement stockée dans les rivières, les lacs et les roches aquifères souterrains. Cette eau douce est une ressource en grande partie renouvelable qui devrait, en théorie, être inépuisable et suffire aux besoins humains. Mais la réalité est bien plus complexe et bien différente car cette immense ressource en eau est répartie de manière inégale, à la fois sur le plan spatial et en matière d'usages. Il fau t notamment rappeler que 10 pays se partagent 62 % des réserves d'eau douce de la planète, Brésil, Russie, Canada, USA, Chine, Colombie, Indonésie, Pérou, Inde, Birmanie. S'agissant des usages, la FAO estimait en 2021 que dans le monde, l'agriculture représente 72 % de tous les prélèvements d'eau. Le reste se répartit entre l'industrie (18 %) et la consommation domestique (10 %). C'est ce qui explique que 4 milliards de personnes, presque la moitié de l'humanité, connaissent des restrictions sévères d'eau au moins un mois par an. Il existe en effet une énorme disparité en matière de ressources en eau potable et de conditions d’accès à cette eau, entre pays développés et pays émergents : l'écart est de 1 à 50 entre la consommation moyenne journalière d'eau d'un Africain (15 litres) et celle d'un Américain (600 litres). Sachant que cette consommation d'eau devrait continuer à croire de 1,5% par an, elle pourrait atteindre environ 7300 km3 par an en 2050, soit 750 litres par et par terrien. Pour mieux se rendre compte à quel point cette consommation mondiale est devenue colossale, il faut se représenter un cube de 16, 5 km de côté : c'est la quantité d'eau consommée par l'humanité chaque a nnée. Autre élément de comparaison, il ne faut à présent que 5 ans pour que notre planète consomme l'équivalent du gigantesque volume du lac Baïkal en Russie, dont l'énorme volume (23 600 km3) représente environ 20 % de l'eau douce retenue dans les lacs et les rivières de la planète. En septembre 2023, une nouvelle étude internationale publiée dans Science (Voir Scienc Advances) a fait grand bruit en montrant qu'une nouvelle limite planétaire (la sixième en 9 ans) avait été largement dépassée : le cycle de l’eau douce, qui comprend, d'une part, "l’eau verte", contenue dans les sols et les plantes, et, d'autre part, "l’eau bleue", présente dans les rivières, lacs et nappes phréatiques. Ce concept de limites planétaires a été développé et affiné depuis 2009 par le Stockholm Resilient Center, sous l'égide du grand scientifique Johan Rockström, directeur de l'Institut de Potsdam pour le climat et Président de la Commission de la Terre de l'ONU. Il s’agit de neuf grands processus biophysiques et biochimiques don t la perturbation par les activités humaines menace la stabilité et la résilience de notre planète, vu comme un vaste système énergétique, physique et biologique : l’érosion de la biodiversité, la perturbation des cycles de l’azote et du phosphore, le changement d’usage des sols, introduction d’entités nouvelles dans la biosphère, le cycle de l’eau douce, l’acidification des océans, l’appauvrissement de la couche d’ozone, et enfin l’augmentation de la présence d’aérosols dans l’atmosphère. Cette nouvelle étude montre que les surfaces terrestres connaissent des perturbations, plus sèches ou plus humides, dans 18 % des zones étudiées pour l’eau bleue, et 16 % pour l’eau verte. A présent ces valeurs dépassent nettement les valeurs de référence à ; ne pas dépasser, à savoir 10 %, pour les eaux bleues et 11 % pour les eaux vertes. En 2015 les chercheurs Fernando Jaramillo et Georgia Destouni, de l’Université de Stockholm, avaient déjà calculé que l’humanité consommait chaque année 4 485 km³ d’eau douce. Soit plus que la limite soutenable fixée à 4 000 km³ par an (Voir Science). Cette perturbation accélérée du cycle mondial de l'eau a été confirmée en 2023 (Voir Science) par une vaste étude, associant le Centre Boulder du Colorado et le CNES de Toulouse internationale, qui révèle que la moitié des lacs et réservoirs du monde perdent de l'eau, essentiellement à cause du réchauffement climatique et de l'utilisation excessive d'eau douce par les humains. Sur la période allant de 1992 à 2020, l'étude montre de manière saisissante, grâce à une analyse fine des images satellite, que ces pertes d'eau des lacs représentent l'équivalent de toute la consommation en eau des États-Unis en 2015. Cette étude révèle que les lacs perdent non seulement de l'eau dans les zones arides, mais également dans les régions humides. Selon ces recherches, environ la moitié des pertes en eau des lacs naturels est due aux activités humaines et aux températures en hausse, qui provoquent une évaporation accrue. Il faut en effet rappeler que l'augmentation de seulement 1 degré de la température provoque une hausse de 7 % de l'évaporation de l'eau dans l'atmosphère. L'autre facteur important serait lié au manque de précipitations. « Dans les deux cas, ces pertes considérables d'eau utilisable sont liées au changement climatique », souligne le Pr Balaji Rajagopalan. Ces études sont en cohérence avec les recherches de l'OMM qui estiment qu'au cours des 20 dernières années, le stockage de l’eau dans les terres a diminué d’un centimètre par an, en tenant compte de la surface, du sous-sol mais aussi de l’humidité ; du sol. Cette situation alarmante vient d'être encore confirmée, il y a seulement quelques jours, par une étude internationale, utilisant des observations de satellites de la NASA, qui montrent que la quantité totale d'eau douce sur Terre a chuté brusquement à partir de 2014, puis est restée à son plus bas niveau depuis, ce qui conforte l'hypothèse selon laquelle la Terre est entrée dans une nouvelle ère de sécheresse sévère et persistante. L'analyse de ces nombreuses mesures par satellite a montré que la quantité moyenne d’eau douce stockée sur terre, à savoir l’eau de surface des lacs et rivières et l’eau des aquifères souterrains, était inférieure de 1 200 km³ aux niveaux moyens constaté entre 2002 à 2014; Comme le souligne le Pr Matthew Rodell, l’un des chercheurs et hydrologue au Goddard Spa ce Flight Center de la NASA (à Greenbelt, dans le Maryland), « Ces pertes représentent une quantité d'eau douce phénoménale, correspondant à deux fois et demie le volume du lac Érié, ou encore au quart de la consommation mondiale d'eau potable » (Voir NASA). Alors que la consommation globale d'eau ne cesse d'augmenter et que les ressources immédiatement disponibles se réduisent, 700 millions d’individus, soit 9 % de la population mondiale, n’ont toujours pas accès à l’eau potable en 2022, selon l’OMS. Et il faut y ajouter les 1,5 milliard de personnes pour lesquelles cet accès reste intermittent, précaire et distant de plusieurs km. Au total, c'est donc 2,2 milliards de personnes, soit plus du quart de l'Humanité, qui ne dispose toujours pas d'un accès à l'eau permanent, fiable et contrôlé. Le rapport de la Commission Mondiale sur l'Economie de l'Eau, publié il y quelques semaines, confirme également la gravité de la situation en matière de raréfaction des ressources mondiales disponibles d'eau douce. Selon cette étude, la demande globale en eau douce devrait dépasser de 40 % l’offr e d’ici la fin de la décennie. Et si des mesures fortes ne sont pas prises d’ici 2050, les difficultés croissantes d'accès à l’eau réduiront le PIB mondial d’environ 8 %, mais cette baisse serait de 15% pour les pays pauvres, plus vulnérables (Voir The Guardian). Dans un tel scenario, cinq milliards de personnes pourraient avoir des difficultés à accéder à de l’eau potable, selon l’Organisation météorologique mondiale (OMM). Cela représentera plus de la moitié de la population mondiale. Il faut bien comprendre que ces perturbations du cycle de l’eau sont étroitement liées au changement climatique. La destruction accélérée des zones humides et la déforestation accrue depuis 50 ans ont eu pour effet de réduire sensiblement la capacité de stockage des puits de carbone naturels, accélérant ainsi le réchauffement climatique. Dans une boucle rétroactive positive qui est l'exemple même du cercle vicieux, la hausse des températures a provoqué, en retour, des sécheresses catastrophiques à répétition et des incendies géants de plus en plus fréquents. Au final, on voit donc à quel point les dérèglements hydrique et climatique s'entretiennent et s'amplifient mutuellement et constituent bien les deux aspects d'un même phénomène global. Une des nombreuses conséquences négat ives de ce cycle infernal est l'enneigement de plus en plus faible constaté sur l’Himalaya. Une étude publiée en juin dernier par des scientifiques du Centre international pour le développement intégré des montagnes (Icimod), basé au Népal, montre que la persistance de la neige en 2023 a été 18,5 % en dessous de la normale, soit la valeur la plus faible depuis 22 ans. La neige et la glace de l'Himalaya constituent une source d'eau essentielle pour les 1,65 milliard de personnes vivant dans les pays d'Asie du Sud-Est. L'Icimod avait déjà montré que, sous l'effet des émissions humaines de CO2, les glaciers de la planète avaient fondu 65 % plus vite entre 2011 et 2020 que lors de la décennie précédente (Voir Hindust an Times). Et l'Europe ne sera pas épargnée par ce phénomène catastrophique : une étude internationale publiée en décembre 2023 montre que, sans mesures plus fortes pour réduire nos émissions de CO2, les glaciers alpins européens risquent de perdre entre 34 % et 46 % de leur glace d'ici 2050. Au niveau mondial, le secteur agricole est de loin les plus gourmand en eau et absorbe 72 % des l'eau prélevée par l'Humanité. Une étude réalisée en 2018 par l'Université d'Oxford montre que plus de 30 % de l'eau utilisée dans le monde servent à l'élevage (Voir Science). Dans la production de viande et d'autres produits d'origine animale, la plus grande partie de l'eau est utilisée pour la culture des aliments destinés aux animaux d'élevage. Quant à la culture d'aliments pour animaux, elle occupe à présent plus de 80 % des terres agricoles du monde et consomme la majeure partie de l'eau utilisée par l'agriculture mondiale. Parmi tous les produits d'origine animale, la viande de bœuf est celle qui consomme le plus d'eau. La production d'un kilo de viande de b&oeli g;uf nécessite jusqu'à 15 000 litres d’eau et les trois viandes les plus consommées (bœuf, porc, poulet), consomment en moyenne 10 000 litres par kg. En revanche les œufs ne nécessitent que 3200 litres par kg, les céréales, 1650 litres, les fruits 1000 litres et les légumes, à peine 350 litres par kg. On ne s'étonnera donc pas qu'aujourd'hui l'élevage rejette 7 gigatonnes de GES par an dans l'atmosphère, soit 15 % de l'ensemble des émissions humaines. Il est vrai que la consommation mondiale de viande a été multipliée par 7 depuis 1950, passant de 45 à 363 millions de tonnes par an. Et selon la FAO, la consommation de viande pourrait encore augmenter de 28 % d'ici 2050, atteignant 465 millions de tonnes, soit 48 kg par an et par habitant, contre 44 kg par an aujourd'hui... On le voit, pour parvenir à maîtriser la demande mondiale d'eau, puis à la faire redescendre au milieu du siècle à 4000 Km3 par an dans le monde (soit une réduction de la consommation d'eau de 30 % par Terrien d'ici 2050), seuil jugé supportable pour notre planète par de nombreux experts et scientifiques, le principal levier qu'il faut actionner est celui qui vise à réduire d'un quart la production totale de viande dans le monde et, parallèlement, à réduire également d'un quart la production des cultures les plus gourmandes en eau (riz, soja, maïs, canne à sucre, avocats, amandes) pour les remplacer par des cultures plus sobres, comme le sorgho, le tournesol les légumineuses, les tubercules. Combinée à l’adoption des techniques agronomiques et de méthodes d'irrigation plus économes en eau (par exemple le riz basmati sur champ nivel&e acute;, qui permet d'augmenter le productivité de 30 % tout en diminuant de 30 % les besoins en eau), cette réorientation de l'agriculture au profit des protéines végétales et des fruits et légumes à faible empreinte hydrique pourrait permettre, à terme, de diminuer de 20 à 30 % la consommation mondiale d'eau, soit 900 à 1000 km3 d'eau économisée par an, une quantité équivalent à celle de l’eau perdue au niveau mondial à cause des fuites. Le deuxième levier à actionner pour réduire la consommation effrénée d'eau est le recyclage systématique et généralisé de l'eau, à tous les niveaux d'utilisation. La Citée-État de Singapour est devenue l'une des références en la matière. Avec sa densité de population très élevée, cette île de 699 km2 a dû faire face à une pénurie en eau accrue et a développé le recyclage massif de ses eaux usées, grâce à un traitement innovant, combinant microfiltration, osmose inverse et rayonnement UV. Cette eau, baptisée « Newater », est utilisée à la fois pour des applications industrielles et la climatisation et pour les usages domestiques. Autre exemple remarquable, la Namibie, le pays le plus aride d'Afrique australe. Ce Pays reçoit en moyenne 280 millimè tres de pluie par an, dont 80 % sont perdus par évaporation. Ce pays pauvre est devenu un modèle en gestion durable de l'eau (Voir Nature Africa). Mise en service dès 1960 et modernisée en 2002, la station de recyclage des eaux de Goreangab (GWRP) a été la première au monde à produire de l'eau potable purifiée directement à partir d'eaux usées. Aujourd'hui, la station assure le tiers de la consommation d'eau de la ville et a permis de réduire sensiblement les prélèvements dans les nappes phréatiques de Windhoek. Cette installation exemplaire repose sur un procédé appelé réutilisation directe de l'eau potable (DPR) qui élimine les polluants et les contaminants des eaux usées. Suivant l'exemple de la Namibie, les États-Unis vont se doter de leur première installation de réutilisation directe des eaux usées à El Paso, au Texas, où, comme en Namibie, l'eau recyclée sera directement réinjectée dans le réseau de distribution d'eau potable. La ville transformera jusqu'à 45 000 m3 d'eaux usées en eau potable purifiée de haute qualité, ce qui en fera la plus grande installation du genre au monde. La mégapole de Los Angeles a prévu de mettre en service une installation hybride qui fournira un million de m3 par jour. Actuellement, la Californie traite et réutilise près de 900 millions de mètres cubes, soit environ 18 % des eaux usées qu’elle produit. Mais cet état-pionnier veut aller encore plus loin et souhaite multiplier par trois cette quantité d’eau recyclée d’ici à 2030. En France, seules 0,6 % des eaux usées sont réutilisées. Contre 8 % pour l’Italie et 15 % pour l’Espagne. Ce retard n'est plus acceptable dans notre pays qui a connu des épisodes de sécheresse plus fréquents et plus intenses au cours de ces dernières années. La réutilisation des eaux usées traitées est heureusement enfin devenue une priorité pour l'Etat, comme pour les collectivités locales. Un an et demi après la présentation du « Plan-eau », visant à recycler au moins 10 % des eaux usées d'ici 2030, les verrous réglementaires les plus importants ont enfin sauté au cours des derniers mois et permettent enfin aux industriels et agriculteurs d'utiliser bien plus facilement les eaux usées pour leurs activités. En 2014, une vaste étude a montré qu'un litre d'eau potable sur cinq est perdu dans de s fuites de canalisations, ce qui représente environ 4 milliards d'euros de perte, soit un total de 1 300 milliards de litres d'eau (ou encore 1,3 km3). Le taux de fuite est en moyenne en France de 3 400 litres par jour pour chacun des 850 000 kilomètres de canalisations d'eau qui parcourent le pays. Les experts estiment que pour descendre en dessous de 10 % de fuites, il faudrait doubler le rythme annuel des investissements, pour atteindre les 3 milliards d'euros par an. Il y a quelques semaines, une autre étude du Cercle de l’eau sur le financement de la politique de l’eau en France a évalué qu'il va falloir investir 13 milliards d'euros de plus chaque année pour faire face aux conséquences du changement climatique. Dans ce contexte de stress hydrique chronique et croissant, lié au changement climatique, on comprend bien que la prévention des fuites d'eau constitue, avec la réorientation de l'agriculture et le recyclage généralisé, le 3ème levier à actionner pour maîtriser notre consommation d'eau. L'ONU rappelle souvent que les fuites d'eau sont encore responsables d'un tiers des pertes de ce précieux liquide, entre sa production et sa consommation, ce qui représente la quantité énorme de 1400 Km3, qui est perdue chaque année, soit l'équivalent annuel de la consommation américaine et chinoise, une perte estimée à 40 milliards de dollars par an... Pourtant il existe aujourd'hui des outils numériques puissants qui permettent de prévenir et de détecter très efficacement ces fuites, et de mieux maîtriser les dépenses d'infrastructur es et d’entretien des réseaux de distribution. Prism est un logiciel révolutionnaire développé par l'Ecole nationale du génie de l’eau et de l’environnement de Strasbourg. Ce système d'analyses de données par IA permet de prendre des décisions pertinentes pour optimiser la performance des systèmes de distribution d’eau, tout en limitant les pertes et en contrôlant les coûts. En réduisant les pertes d’eau et en optimisant la gestion des réseaux, les collectivités locales pourraient réaliser des économies considérables. Nevers Agglomération a lancé il y a un an une expérimentation autour de l’utilisation de l’IA pour optimiser la recherche de fuites sur le réseau d’eau potable. Ce système utilisant l'IA permet de réduire de 95 % le temps moyen de repérage des fuites sur le réseau. La prochaine étape du projet va intégrer une dimension prédictive à cet outil en décelant les signaux précurseurs permettant d’anticiper l’apparition d’une fuite plusieurs jours à l’avance. La Métropole du Grand Nancy a présenté, il y a quelques semaines, pour la première fois en France, un drone aquatique développé par Xylem pour inspecter son réseau et détecter des micro-fuites. Ce système utilise un robot de la taille d’une balle de tennis, équipé de capteurs acoustiques ultrasensibles, qui circule dans les canalisations en fonctionnement, sans interrompre le service aux usagers, et peut repérer de minuscules fuites, de seulement 0,1 litre par minute. Pour stabiliser, puis réduire la consommation mondiale d'eau à partir de 2050, il va donc falloir actionner simultanément, et de façon coordonnée ces trois puissants leviers, transition agricole, recyclage généralisé et prévention intelligente des fuites. A ces solutions techniques, s’ajoute bien entendu un autre levier de nature économique et politique, concernant la gouvernance de l'eau, qui doit devenir plus transparente et plus démocratique et l'évolution profonde des modes de tarification des consommations d'eau, qui vont devoir tenir compte beaucoup plus des différents types d'usages et des impacts finaux sur l'environnement que des volumes consommés. J’évoque enfin une innovation remarquable développée par l’université de l’Illinois à Urbana-Champaign (UIUC). L'idée de ces chercheurs est de tirer parti ingénieusement de l’évaporation océanique, favorisée par la montée des températures, pour constituer des réservoirs en eau potable. Il s'agit de capter l'air saturé en eau, à l'aide de structures d’extraction, implantées près du rivage. L'eau ainsi stockée serait ensuite acheminée par des canalisations vers les lieux de consommation. Ce procédé présente plusieurs avantages décisifs : il requiert bien moins d’énergie que les méthodes existantes et son impact écologique est bien plus faible. Selon l'étude, une surface de captage de 210 m de large et 100 m de haut pourrait fournir un volume suffisant d’hu midité récupérable pour répondre aux besoins quotidiens en eau potable d’environ 500 000 personnes. Ces systèmes de récupération d'eau douce simples, fiables, efficaces et peu onéreux, utilisés à grande échelle dans les pays émergents, pourraient permettre de faciliter l’accès à une eau abondante et de qualité pour les populations côtières qui représentent 3,8 milliards de personnes (Voir University of Illinois). C'est en combinant de manière intelligente et adaptée, en tenant compte des contextes géo-climatiques et besoins locaux très différents, ces différents leviers d'action, agriculture sobre et raisonnée, recyclabilité, gestion numérique des ressources et de la distribution, tarification plus équitable intégrant l’empreinte écologique et innovation dans la production locale d'eau douce à faible empreinte énergétique, que l'humanité parviendra à restaurer durablement le cycle naturel de l'eau, gravement perturbé par les activités humaines et pourra assurer la disponibilité de cette ressource inestimable et symbole de vie pour les générations futures. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | Environ la moitié de l'énergie mondiale est consommée sous forme de chaleur. Face au changement climatique et aux efforts que nous déployons en faveur de la transition énergétique, l’exploitation du Soleil en tant que source d’énergie électrique et thermique semble s’intensifier dans les quatre coins du globe. Malheureusement, le caractère intermittent de l’énergie solaire freine ce développement. En effet, cette énergie est disponible uniquement quand notre étoile brille. La technique du stockage moléculaire pourrait changer la donne en permettant d’emmagasiner l’énergie solaire thermique dans des molécules. Cette approche est d’autant plus prometteuse dans la mesure où elle permet de conserver l’énergie solaire pendant des semaines, voire des mois, sans perte. La technologie moléculaire est ainsi beaucoup plus intéressante que les méthodes de stockage thermique traditionnelles, telles que le stockage hydraulique, qui conservent brièvement l’énergie. Connues sous le nom de photocommutateurs, les molécules utilisées dans cette technique stockent la chaleur de façon prolongée à travers des liaisons chimiques. Des chercheurs de l’Université Johannes Gutenberg de Mayence (JGU) et de l’Université de Siegen en Allemagne annoncent avoir réalisé une percée importante dans ce domaine. Autant dire qu’il s’agit d’une avancée qui promet de révolutionner la façon dont on profite de l’énergie solaire pour répondre à nos besoins en matière d’énergie thermique. Les photocommutateurs sont conçus pour absorber l’énergie solaire pour ensuite la libérer sous forme de chaleur. Cependant, les dispositifs actuels présentent une efficacité qui est loin d’être satisfaisante en raison de leur incapacité à exploiter efficacement le spectre solaire. En effet, ils ne fonctionnent qu’avec la lumière ultraviolette qui ne représente qu’une petite fraction de ce dernier. Pour résoudre ce problème, le professeur Heiko Ihmels de l’Université de Siegen et ses collègues ont développé une méthode de collecte indirecte de l’énergie solaire comparable au mécanisme mis en œuvre par les plantes pour la photosynthèse. Celle-ci nécessite l’utilisation d’un composé appelé sensibilisant pour améliorer la capacité d’absorption de la lumi& egrave;re visible. Cette approche a permis aux chercheurs d’augmenter l’efficacité du stockage de l’énergie solaire de plus d’un ordre de grandeur. Et il s’agit d’une avancée particulièrement utile en ces temps où nous avons besoin de solutions de stockage d’énergie thermique efficaces et durables pour lutter contre les effets du changement climatique et réduire nos émissions de carbone. Pour vérifier l’efficacité de leur technologie, les scientifiques ont mené un test au cours duquel le dispositif nouvellement conçu a été soumis à plusieurs cycles de charge et de décharge. Les résultats auraient été particulièrement prometteurs. « Non seulement nous avons réussi à repousser considérablement la limite de la collecte de lumière, mais nous avons également amélioré ; l’efficacité de la conversion de la lumière en énergie chimique stockée », s’est réjoui Till Zähringer, auteur principal de l’étude. Article rédigé par Georges Simmonds pour RT Flash JGU | | | |
| Des ingénieurs chimistes de l’EPFL ont développé une nouvelle méthode de production de catalyseur, motivés par la perspective de transformer des gaz à effet de serre, comme le dioxyde de carbone, en produit chimique à haute valeur ajoutée, comme le méthanol. Les catalyses représentent un outil crucial pour l’industrie chimique. On les emploie fréquemment pour la fabrication de produits pétrochimiques. Avec leur procédé, les scientifiques ont mis au point une manière de construire – à un degré de précision proche de l’atome – des clusters métalliques sur des supports solides, lesquels peuvent améliorer l’activité catalytique. Leurs résultats sont publiés dans Nature Catalysis. « Il s’agit de fabriquer autant de produit que possible par heure et par quantité de catalyseur. Nous avons découvert que, lorsqu’un catalyseur est préparé à un degré de précision quasi atomique, on obtient un matériau plus actif », explique Jeremy Luterbacher, professeur au Laboratoire de procédés durables et catalytiques de l’EPFL. « Cette technique est particulièrement intéressante avec des réactions complexes, comme celle du dioxyde de carbone avec l’hydrogène gazeux pour obtenir du méthanol renouvelable ». Les catalyseurs du futur devront transformer le dioxyde de carbone – un gaz à effet de serre qui représente la plus importante source de carbone renouvelable sur Terre – en gaz à haute valeur ajoutée, comme le méthanol. Ce processus se déroule à travers une réaction chimique appelée hydrogénation. Une réaction complexe, parce qu’elle peut produire d’autres choses que du méthanol. Il est difficile d’élaborer une catalyse à même de transformer assez rapidement le CO2 en méthanol sans autre sous-produit. Pour créer un catalyseur solide, on dépose une particule métallique sur un autre matériau qui présente une grande surface de contact, comme une poudre poreuse, afin de maximiser le contact avec le réactant. Jeremy Luterbacher et son équipe se sont demandé s’ils pouvaient maîtriser et accélérer les réactions en contrôlant précisément la composition du catalyseur. Par exemple, en sélectionnant exactement la bonne quantité de matériaux pour contrôler avec quelle force les réactants se lieraient au catalyseur. Dans une précédente recherche, ils avaient déjà découvert qu’il était possible de déposer sur des supports métalliques de petits amas de métal, à un degré de précision approchant l’atome. Cette méthode, baptisée liquid-phase atomic layer deposition (ALD), est idéale pour créer des sites précis de catalyse active, en vue de permettre une réaction. De fait, en déposant ces petits amas de plusieurs métaux à une échelle quasi atomique, l’équipe de l’EPFL a pu hydrogéner du dioxyde de carbone à une vitesse plus de 10 fois supérieure à celle d’un catalyseur de même composition, mais élaborée sans leur méthode. Ils ont employé de l’oxyde de magnésium comme support – lequel se lie généralement de manière trop forte au dioxyde de carbone pour être réactif – qu’ils ont déposé sur des îlots de zirconium – un matériau qui se lie généralement de manière trop faible au dioxyde de carbone. Ensuite, ils ont ajouté du cuivre pour activer l’hydrogène. En combinant ces éléments dans de justes proportions, les scientifiques semblent avoir trouvé la formule idéale po ur générer rapidement de grandes quantités de méthanol, et très peu d’autres sous-produits. « L’oxyde de magnésium est largement reconnu comme un matériau stable pour capturer le CO2, mais sa forte affinité a limité son usage en tant que support de catalyse. Nous avons transformé cette limite en opportunité en l’associant au zirconium » explique Seongmin Jin, ancien postdoc au laboratoire et premier auteur de l’étude. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | L'Union européenne dispose-t-elle d'assez de terres disponibles pour décarboner son territoire avec des panneaux solaires et des éoliennes ? Une nouvelle étude du Bureau européen de l’environnement l’affirme : « seule la moitié des terres jugées propices à l’énergie renouvelable, en excluant les réserves naturelles et les zones agricoles de grande valeur, sont nécessaires pour décarboner l’UE d’ici à 2040 ». Dans l’Union européenne, les terres agricoles représentent 47,9 % des terres totales, les aires protégées 18,6 % et les zones urbanisées 5,5 %. En prenant en compte les contraintes agricoles, environnementales et de protection de la biodiversité, ainsi que des facteurs techniques, le rapport estime que les terres propices au développement des énergies renouvelables représent ent 5,2 % des terres totales de l’Union européenne. L’étude lancée par cette fédération de 180 organisations environnementales européennes estime qu’il faudrait mobiliser seulement 2,2 % des terres totales de l’UE pour les projets solaires et éoliens – actuels et futurs. Cela permettrait d’éliminer progressivement les combustibles fossiles, mais aussi l’énergie nucléaire, en Europe. Ces projections se basent sur l’atteinte des objectifs du scénario pour les infrastructures énergétiques (PAC) compatible avec l’Accord de Paris. Ce scénario, élaboré par un large consortium de réseaux d’ONG, dont le Bureau européen de l’environnement, vise à limiter le réchauffement climatique à 1,5°C d’ici la fin du siècle. Pour cela, il projette un triplement de la génération d’électricité, l’&eacu te;lectrification des procédés industriels, du chauffage et des transports. 50 % de l’énergie seraient obtenues par des sources renouvelables en 2030, puis 100 % en 2040. Ce scénario repose sur une baisse de la demande énergétique d’environ 50%, un rôle limité pour les gaz et carburants non fossiles, basés uniquement sur l’hydrogène renouvelable et l’atteinte de la neutralité carbone d’ici 2040. Un premier enseignement important est que les villes et leurs toits ne peuvent accueillir que peu d’énergies renouvelables. Les villes, villages et zones industrielles ne représentent que 19 % des terres propices aux énergies renouvelables, estime l’étude. La majorité des terrains appropriés pour un déploiement durable d’énergie renouvelable se trouve ainsi dans les zones rurales, avec 78 % pour l’énergie solaire au sol et 83 % pour l’énergie éolienne terrestre. Au-delà des terres dégradées, le rapport invite à faire coexister les énergies renouvelables avec l’agriculture et la protection de la nature. « Les énergies renouvelables peuvent prospérer sans nuire aux réserves alimentaires ni aux habitats naturels », résume Cosimo Tansini, chargé de mission énergies renouvelables au Bureau européen de l’environnement, via un communiqué. « Les données montrent que l’Europe dispose de suffisamment de terres pour une expansion durable des énergies renouvelables, et ce en excluant les zones riches en biodiversité et les terres agricoles productives, en particulier dans les régions rurales ». Tous les pays n’ont pas le même potentiel. Par exemple, l’Allemagne et l’Italie ne disposent pas de terres suffisamment adaptées aux énergies renouvelables si l’on exclut les réserves naturelles et les zones agricoles productives. Au contraire, l’Espagne et la Roumanie en présentent en abondance, bien au-delà de leurs besoins énergétiques. En ce sens, l’ONG souligne l’importance de la solidarité et des interconnexions énergétiques. Elle défend l’idée d’un "super-réseau" européen pour connecter les ressources, équilibrer la distribution de l’énergie et parvenir à une décarbonation à l’échelle de l’UE. Article rédigé par Georges Simmonds pour RT Flash EEB | | | |
| La pollution de l’air tue 7 millions de personnes par an selon l’Organisation mondiale de la santé et constitue l’un des principaux défis de notre siècle. Des outils spectroscopiques avancés pour la détection des gaz dans l’environnement, capables de surveiller avec précision plusieurs gaz en temps réel et avec une grande sensibilité, sont donc de la plus haute importance pour le monde. Des chercheurs dirigés par le professeur Christos Markos à la DTU Electro au Danemark ont présenté une nouvelle méthode de synthèse de plusieurs lignes spectrales optiques étroites, accordées avec précision et de manière indépendante dans la région du proche infrarouge et de l’infrarouge moyen. Le laser a été combiné à la photo-acoustique et les chercheurs ont démontré la capacité d’un système robuste à surveiller plusieurs gaz en temps réel et avec une grande sensibilité. Le système mis au point repose sur la technologie émergente des fibres anti-résonantes à cœur creux remplies de gaz, dont les auteurs sont parmi les leaders mondiaux. Deux fibres à cœur creux différentes remplies de gaz actifs sont combinées dans une configuration en cascade g&eacut e;nérant de fortes impulsions laser ciblant le dioxyde de carbone et le dioxyde de soufre. Le dispositif repose sur deux fibres optiques creuses remplies de gaz qui agissent comme des filtres ultra-sélectifs. La première fibre contient du méthane sous pression, tandis que la seconde renferme de l’hydrogène. Cette configuration permet de générer des rayons laser parfaitement adaptés pour identifier les « signatures » spécifiques des gaz recherchés dans l’air. L’atout majeur du système réside dans sa capacité à analyser plusieurs gaz en même temps, là où les technologies actuelles doivent les détecter un par un. Les chercheurs soulignent que « chaque rayon laser cible spécifiquement un gaz sans interférence avec les autres molécules présentes ». Cette nouvelle technique permet une analyse de plusieurs gaz en quelques secondes, une précision accrue grâce à des lasers ultra-fins et enfin une fiabilité supérieure aux systèmes existants. Un tel système peut être utilisé dans l’industrie lourde et le transport maritime pour surveiller les émissions nocives et les émissions de gaz à effet de serre. Cela fait partie de la nouvelle réglementation de l’UE qui a fixé comme objectif pour 2030 de réduire les émissions nettes de gaz à effet de serre d’au moins 55 % par rapport aux niveaux de 1990. Les premiers tests ont démontré l’efficacité du système pour détecter le CO2 et le SO2. Ces deux gaz jouent un rôle central dans la qualité de l’air et le changement climatique. Le CO2 est le principal gaz à effet de serre d’origine huma ine, tandis que le SO2 contribue aux pluies acides et à la pollution urbaine. Article rédigé par Georges Simmonds pour RT Flash DTU | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Récemment, une autre recherche identifiait un lien entre l’épilepsie et l’autisme. Cette nouvelle étude, menée à l'Académie chinoise des sciences et publiée dans la revue Genomic Psychiatry, identifie un lien génétique entre le trouble bipolaire et l'épilepsie et pose la question d’une nouvelle ère de recherche collaborative entre neurologie et psychiatrie pour mieux comprendre et traiter les troubles cérébraux complexes. L’étude apporte des preuves de ce lien génétique entre le trouble bipolaire de type I (TB-I) et l'épilepsie, via l’analyse de données d'association pangénomique (GWAS) de populations européennes, portant au total sur plus de 26.000 cas d'épilepsie et 25.000 cas de BD-I, ainsi que sur des témoins exempts de ces 2 troubles. Les chercheurs ont utilisé des méthodes statistiques avancées pour identifier les fondements génétiques partagés par ces troubles apparemment distincts. Cette analyse montre une corrélation génétique positive significative entre le trouble bipolaire et l'épilepsie ; ces recherches ont permis l'identification d'environ 1.300 variantes génétiques impliquées dans les 2 pathologies. Ces conclusions permettent de repenser de manière tout à fait nouvelle le lien entre l'épilepsie et le trouble bipolaire. Elles concordent aussi avec l'observation clinique selon laquelle les stabilisateurs de l'humeur sont efficaces dans le traitement des 2 maladies. Ce gène SP4 révèle en effet de fortes associations avec le trouble bipolaire et l'épilepsie. La protéine SP4, modulée par l'activité neuronale, avait déjà été liée à la gestion des troubles de l'humeur grâce à sa stabilisation par le lithium, un stabilisateur de l'humeur courant. Ce lien soulève une quest ion importante : le gène SP4 pourrait-il être une cible clé pour le développement de traitements plus efficaces pour le trouble bipolaire mais aussi l'épilepsie ? En démontrant des fondements génétiques communs, cette recherche suggère que d'autres troubles neuropsychiatriques pourraient avoir plus de points communs qu'on ne le pensait auparavant et pose la question de savoir comment ce chevauchement génétique pourrait aider à mieux comprendre d'autres troubles cérébraux, tels que la schizophrénie ou les troubles du spectre autistique (TSA). C‘est aussi une confirmation du potentiel des approches de médecine personnalisée : la compréhension des bases génétiques de ces troubles pourrait conduire à des traitements plus ciblés en fonction du profil génétique d'un individu. Enfin, concrètement, l’étude met également en lumière la relation complexe entre la régulation de l'humeur et l'activité épileptique dans le cerveau et engage à identifier quel s mécanismes neurobiologiques spécifiques relient l'instabilité de l'humeur caractéristique du trouble bipolaire aux perturbations électriques observées dans l'épilepsie. Article rédigé par Georges Simmonds pour RT Flash EurekAlert | | | |
| Pouvoir réactiver certaines fonctions cognitives essentielles, en particulier en cas de maladie d’Alzheimer, est un objectif vital, poursuivi par de nombreuses équipes de recherche. Ces neuroscientifiques viennent de faire la démonstration que cette réactivation pourrait être possible circuit par circuit, fonction par fonction : un système, Cal-light, permet en effet de cartographier la mémoire au niveau cellulaire et de marquer sélectivement une fonction spécifique du cerveau. Ainsi, il serait possible de réactiver le bon circuit pour rétablir le bon comportement. Ces travaux, publiés dans la revue Nature Neuroscience, confirment une avancée possible, avec cette technologie, dans la compréhension de la structure macro de la mémoire et dans le développement de stratégies plus efficaces pour prévenir ou ralentir les maladies neurodégén ératives. Les chercheurs de la Johns Hopkins Medicine (Baltimore) précisent que cette recherche pourrait servir de base à la réactivation ou à l’ingénierie des circuits de mémoire en particulier chez les patients atteints de la maladie d’Alzheimer. D’une part parce que cette technique va permettre de mieux cerner la structure de la mémoire à l’échelle du cerveau mais aussi de réactiver, sélectivement ou de manière ciblée, des neurones ayant différentes fonctions dans différentes zones du cerveau. Dans ces expériences, les chercheurs ont d’abord permis aux souris d’explorer leur environnement et de mieux s’y repérer grâce à une série de repères visuels, notamment des triangles, des cercles et des bandes de différentes couleurs. Les souris pouvaient ainsi mieux repérer et mémoriser leur abri. Ensuite, les chercheurs ont ajouté un signal auditif incitant les souris à rechercher rapidement cet abri. Pour marquer de manière sélective les neurones impliqués dans la mémoire ou le souvenir de l’abri, les chercheurs ont utilisé un système de commutation d'expression génétique (optogénétique) activé par la lumière appelé "Cal-light", développé par la même équipe en 2017. Une fois ces gènes identifiés dans le noyau accumbens, l’activation de leur expression via la lumière a permis de réactiver, précisément, la mémoire de recherche et la localisation spatiale de l’abri ; les souris ont donc adopté un comportement de recherche de l'abri, alors que ni stimuli auditif ni présence réelle de l'abri… Ainsi, l’équipe montre que la stimulation par Cal-light des neurones dans 2 zones du cerveau– le noyau accumbens, ou "centre du plaisir" du cerveau, responsable de la transmission des comportements dépendants de la dopamine, et la substance grise périaqueducale dorsale (dPAG), responsable du comportement défensif, permet la réactivation de la "mémoire spatiale",ce qui permet aux souris de retrouver la localisation de leur abri. La réactivation de ce circuit précis de la mémoire dans le cerveau, incite le modèle à reproduire son comportement naturel, même sans stimuli de peur- lié à un circuit et une fonction spécifique du cerveau, explique l’auteur principal, le Docteur Hyungbae Kwon, professeur de neurosciences à la Johns Hopkins. Ces expériences pourraient permettre enfin de comprendre comment d’autres mammifères dont les humains se comportent, perçoivent, ressentent et mémorisent leur environnement ; la réactivation spécifique de certains circuits cérébraux pourrait constituer une nouvelle stratégie de traitement de la maladie d’Alzheimer. Article rédigé par Georges Simmonds pour RT Flash Nature Neuroscience | | | |
| En France, près de 10 millions de personnes souffrent d'arthrose, selon l’Institut national de la santé et de la recherche médicale (Inserm). Cette pathologie est liée à la destruction du cartilage d’une ou plusieurs articulations, entraînant des douleurs importantes. L'arthrose est une maladie invalidante, d'autant plus qu’il n’existe actuellement aucun traitement curatif pour cette pathologie. Les solutions proposées aux patients permettent seulement de soulager la douleur et d'améliorer leurs conditions de vie. Des chercheurs de l'Institut Wake Forest, en Caroline du Nord, ont trouvé une piste intéressante qui pourrait mener au développement de traitements contre l’arthrose. « Sans une meilleure compréhension de ce qui est à l’origine et de ce qui permet la progression de l'arthrose, il est difficile de développer un traitement efficace », indique Johanna Bolander, l’une des chercheuses à l'origine de l'étude, dans un communiqué. « Au départ, nous avons étudié les problèmes des articulations touchées par l'arthrose, et nous avons utilisé ces informations pour développer un traitement cellulaire par immunothérapie ». Le principe de l’immunothérapie est de cibler les cellules immunitaires du patient pour qu'elles se défendent contre les agents pathogènes. Chez les personnes souffrant d’arthrose, lorsqu'il y a une lésion traumatique, elle entraîne une inflammation de la membrane synoviale (le tissu recouvrant la surface interne de l'articulation et qui joue un rôle protecteur chez les personnes non atteintes) ainsi que des lésions du cartilage. « Avec le temps, l'inflammation s'aggrave, ce qui entraîne une dégradation du cartilage qui tapisse les os articulaires et une inflammation chronique des tissus environnants », précise Gary Poehling, un autre chercheur. « Pour les patients, cela provoque une douleur intense, un gonflement et limite souvent les activités quotidiennes ». Au cours de leur étude, les chercheurs ont voulu comprendre ce qui entrave la guérison chez les patients souffrant d’arthrose. Ils ont donc isolé les cellules du liquide articulaire de personnes souffrant d’arthrose et ont observé que, isolées du fluide articulaire, elles pouvaient supporter les processus nécessaires à la réparation fonctionnelle des tissus. En revanche, lorsque les scientifiques ont ajouté du liquide articulaire, les capacités des cellules se sont altérées. Autrement dit, c’est le liquide qui provoque l’inflammation et non les cellules. Les chercheurs ont donc utilisé cette découverte pour développer une nouvelle thérapie cellulaire injectable combinant deux types de cellules : celles qui ciblent et réduisent l’inflammation et celles qui régénèrent le cartilage. « C'est vraiment la com munication dynamique entre ces deux populations cellulaires qui est cruciale pour l'efficacité du traitement », ajoute Anthony Atala, l’un des auteurs de l'étude. Les premiers résultats sont convaincants : les experts ont observé que cette thérapie réduit l’inflammation et guérit les lésions du cartilage dans la membrane synoviale. Des essais complémentaires doivent être menés pour confirmer ce résultat qui, à terme, pourrait déboucher sur un premier traitement contre l’arthrose, un espoir pour les nombreuses personnes atteintes. Selon l’Inserm, 65 % des plus de 65 ans souffrent de cette maladie. Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| Des chercheurs de l’Université de Géorgie ont montré qu'en plus de réduire le taux de cholestérol et de garder le cerveau en bonne santé, les acides gras oméga-3 et oméga-6 peuvent aider à prévenir une variété de cancers. L'étude, qui s'appuie sur des données recueillies auprès de plus de 250 000 personnes, a révélé que des niveaux plus élevés d'acides gras oméga-3 et oméga-6 étaient associés à un risque plus faible de développer un cancer. « Des niveaux plus élevés d'oméga-3 et d'oméga-6 ont été associés à des taux plus faibles de cancer », a déclaré Yuchen Zhang, auteur principal de l'étude et doctorant au Collège de santé publique de l'UGA. « Ces résultats suggèrent qu e chacun devrait s'efforcer de consommer plus de ces acides gras dans son alimentation ». Les participants ayant des niveaux plus élevés d’oméga-3 présentaient des taux plus faibles de cancer du côlon, de l'estomac et du poumon. Des niveaux élevés d’oméga-6 ont entraîné une diminution des taux de 14 cancers différents, notamment du cerveau, du mélanome malin, de la vessie et bien d’autres. L'étude s'est appuyée sur les données d'une étude menée au Royaume-Uni auprès de plus de 250 000 personnes suivies pendant plus d'une décennie. Parmi ces participants, près de 30 000 ont développé une forme de cancer au cours de la période d'étude. Des recherches antérieures ont établi des liens entre les niveaux d’acides gras et le risque de développer un cancer. Cependant, aucune étude n’a pu déterminer de manière concluante si les acides gras oméga-3 et oméga-6 réduisaient les taux de cancer ou augmentaient les chances de survie à un diagnostic de cancer. Il est important de noter que les bénéfices de niveaux élevés d’acides gras ne dépendaient pas d’autres facteurs de risque comme l’IMC, la consommation d’alcool ou l’activité physique. Les oméga-3 et oméga-6 sont essentiels à la santé humaine. Ils sont présents dans les poissons gras, les noix et certaines huiles végétales comme l'huile de canola. Article rédigé par Georges Simmonds pour RT Flash Medical Xpress | | | |
| La sclérose latérale amyotrophique provoque en effet la dégénérescence progressive des motoneurones — les cellules qui contrôlent les muscles volontaires du corps. Situés dans le cortex cérébral et dans la partie antérieure de la moelle épinière, leur destruction provoque une paralysie progressive des membres, ainsi que des muscles qui commandent la respiration et la déglutition. Ouvrir une voie vers les motoneurones : des recherches précédentes ont montré qu’il était possible d’ouvrir temporairement la barrière hémato-encéphalique en injectant des microbulles dans la circulation sanguine : celles-ci vibrent sous l’effet d’ultrasons de faible intensité, ce qui produit un stress mécanique sur la paroi des vaisseaux. La barrière-hémato-encéphalique est alors perturbée, et laisse passer les molécules thérapeutiques dans le cerveau pendant quelques heures. Séverine Boillée et ses collègues, en collaboration avec le Professeur Alexandre Carpentier (AP-HP, Sorbonne Université), sont les premiers à évaluer précisément l’efficacité et l’innocuité de cette technique dans la maladie de Charcot en ciblant, cette fois, la moelle épinière. Le but ? Administrer à des souris modèles de la SLA un traitement qui a déjà montré son potentiel chez l’animal – l’hormone de croissance IGF1 – au plus près des motoneurones. Pour faciliter l’action de la molécule thérapeutique, les chercheurs ont utilisé des ultrasons pulsés dans la région lombaire des animaux, à raison d’une fois par semaine pendant cinq semaines. Leurs résultats sont très encourageants : une seule session a permis de concentrer fortement IGF1 dans la moelle épinière. Et au bout de cinq semaines, les animaux traités par ultrasons ont vu leur espérance de vie augmenter par rapport à ceux qui avaient reçu l’hormone de croissance seule, ou le placebo. « Nous avons également observé un phénomène étonnant. Les souris qui ont reçu des ultrasons sans médicament ont, elles aussi, vécu plus longtemps que les contrôles, précise Séverine Boillée. Autrement dit, les ultrasons seuls sont efficaces pour ralentir l’évolution de la maladie, alors que IGF1 n’a montré aucun bénéfice ». Et si les ultrasons pulsés pouvaient être utilisés comme un outil thérapeutique à part entière dans la maladie de Charcot ? D’autres études seront bien sûr nécessaires pour comprendre le mécanisme qui a permis de prolonger la vie des souris. Mais l’équipe est déjà sur une piste : les ultrasons auraient eu un effet sur les cellules immunitaires. « Après cette démonstration, les outils nécessaires à l‘utilisation des ultrasons au niveau de la moelle épinière doivent maintenant être développés chez l’humain », précise la chercheuse. Mais les outils cliniques qui permettent d’intervenir sur le cortex cérébral, eux, sont déjà prêts : le Pr. Alexandre Carpentier, la Pr Gaëlle Bruneteau (AP-HP) neurologue au centre SLA de Paris, et la start-up CarThera vont lancer prochainement l’essai thérapeutique SonoSLA, qui évaluera l’absence de toxicité des ultrasons et la tolérance du dispositif chez les patients SLA, puis leur efficacité sur les symptômes. « Cette stratégie pourrait ouvrir de véritables perspectives thérapeutiques pour les malades », conclut Séverine Boillée. Article rédigé par Georges Simmonds pour RT Flash Institut Du Cerveau | | | |
| Une équipe de cancérologues de l'Université du Michigan a développé une technique sonore non invasive basée sur des ondes ultrasonores pour détruire de manière ultra ciblée et mécaniquement des cellules cancéreuses du foie. Cette technologie a un nom, l’histptripsie sonore. Actuellement en cours d’essai clinique sur des souris, cette découverte publiée dans la revue Cancer, pourrait améliorer la prise en charge de cette pathologie. À l’image d’une échographie qui utilise des ondes sonores pour photographier des images d’organes et de tissus, les scientifiques utilisent une technique similaire pour cibler de manière très précise une tumeur du foie. La technique permet de décomposer les tumeurs, tuer les cellules cancéreuses et stimuler le système immunitaire de manière à empêch er une nouvelle propagation. Les chercheurs ont remarqué que la technique en elle-même détruit seulement 50 % à 75 % du volume de la tumeur hépatique, mais le système immunitaire élimine ensuite le reste de la tumeur. Environ 80 % des animaux modèles ne présentent ensuite aucun signe de récidive ou de métastases. « Même si nous ne ciblons pas la totalité de la tumeur, nous parvenons à la faire régresser suffisamment pour réduire le risque de métastases futures », commente dans l’étude l’auteur principal, le Docteur Zhen Xu, professeur de génie biomédical à l'Université du Michigan. Il faut savoir que le cancer du foie se classe parmi les 10 principales causes de décès liés au cancer dans le monde. Selon l'Institut national du cancer, 11 658 nouveaux cas de cancer du foie ont été recensés en France en 2023, dont près de 80 % concernent des hommes. Même avec plusieurs options de traitement, le pronostic reste médiocre avec des taux de survie à 5 ans inférieurs à 18 %. La forte prévalence de la récidive tumorale et des métastases après le traitement met en évidence un besoin clinique non satisfait. Ces résultats suggèrent que l'histotripsie n'augmente pas le risque de développer des métastases après l'ablation. « Des études futures sont nécessaires pour étudier la sécurité, l'efficacité et les effets biologiques de cette technique, en vue d'une éventuelle transposition en clinique », concluent les auteurs de l’étude. Article rédigé par Georges Simmonds pour RT Flash MDPI | | | |
| La maladie d'Alzheimer se caractérise par l'accumulation de plaques bêta-amyloïdes et par l'agglutination de "protéines tau" dans le cerveau. Cette accumulation perturbe la communication cellulaire et entraîne la mort des cellules nerveuses. Cette perte massive de cellules s'accompagne de la dégradation des capacités cognitives et de la perte de mémoire pour lesquelles la maladie est connue. Une nouvelle étude menée, entre autres, par le professeur Bart De Strooper (VUB-KU Leuven Centre for Brain Research), a examiné comment la perte de cellules nerveuses pourrait être évitée à l'aide d'inhibiteurs spécifiques. Les chercheurs se sont ainsi penchés sur plusieurs sortes de souris, en s'appuyant sur les recherches qu'ils avaient menées l'année dernière. L'année dernière, les chercheurs ont cartographié certains déclencheurs qui provoquent la fameuse nécroptose dans les cellules, le processus de réactions biochimiques successives qui entraînent la mort des cellules nerveuses. Pour comprendre ce processus et la façon de le stopper, l'équipe de recherche a étudié le rôle de la nécroptose dans plusieurs sortes de souris atteintes de la maladie d'Alzheimer. Les chercheurs ont constaté que la nécroptose était activée chez les souris présentant des agglutinations de "protéines tau", mais pas chez les souris ne présentant que des plaques amyloïdes. Ces résultats suggèrent qu'il existe une forme retardée de nécroptose liée à la maladie et activée par une forme spécifique de “tau”. Article rédigé par Georges Simmonds pour RT Flash DHnet | | | |
| Le processus d'identification de médicaments candidats prometteurs à petites molécules ciblant les points de contrôle du cancer pourrait devenir plus rapide et plus intelligent grâce au dépistage virtuel, selon les chercheurs de Weill Cornell Medicine. Les inhibiteurs de points de contrôle sont un type d’immunothérapie qui traite le cancer en relâchant les freins des cellules immunitaires, afin qu’elles soient libérées pour attaquer les cellules cancéreuses. Actuellement, tous les inhibiteurs de points de contrôle approuvés sont de grosses protéines fabriquées en laboratoire, appelées anticorps monoclonaux, qui doivent être perfusées dans la circulation sanguine. Ils bloquent la liaison des protéines de point de contrôle avec leurs protéines partenaires, empêchant ainsi le signal "off" qui empêche l’act ivation des cellules T immunitaires. Ces résultats démontrent un moyen de cribler virtuellement des millions de composés pour trouver de petites molécules susceptibles de se lier à des points de contrôle permettant au système immunitaire de lancer une attaque contre le cancer. Les petites molécules présentent un avantage car elles sont généralement biodisponibles par voie orale pour une administration plus facile, un dosage adapté et une meilleure observance du patient. Ils peuvent également pénétrer plus efficacement dans les tumeurs en raison de leur plus petite taille. La difficulté de cibler les protéines des points de contrôle immunitaires réside dans leurs surfaces plates et dynamiques qui ne se lient pas facilement aux petites molécules. Pour résoudre ce problème, les Docteurs Gabr et Abdel-Rahman se sont penchés sur les structures co-cristallisée s des points de contrôle immunitaires liés aux anticorps monoclonaux. Les chercheurs ont utilisé un outil informatique qui identifie les sites d’interaction clés au sein des interfaces protéine-protéine des protéines de point de contrôle liées aux anticorps monoclonaux. Cela les a aidés à générer des cartes "pharmacophores", des modèles tridimensionnels qui montrent les caractéristiques essentielles des interactions de liaison. Ils ont ensuite calculé des propriétés telles que l'étroitesse de liaison des molécules et les scores de "pharmacobilité", qui sont essentiels à la conception rationnelle d'inhibiteurs à petites molécules. Cette analyse a guidé le criblage virtuel d’une base de données comprenant des millions de petites molécules disponibles dans le commerce. Les résultats potentiels identifiés imitent les interactions de liaison des anticorps monoclonaux avec leurs points de contrôle cibles. Les composés les plus prometteurs ont ensuite été testés pour confirmer l’affinité de liaison (l’étroitesse de l’interaction de la molécule avec la protéine du point de contrôle) et la spécificité (la capacité du composé à se lier uniquement à la cible prévue). Ils ont également testé les composés dans les cellules pour évaluer l’impact fonctionnel des petites molécules sur l’activité des points de contrôle immunitaire. Cette étude a identifié une molécule appelée MG-T-19, qui inhibe fortement TIM-3, un récepteur de point de contrôle exprimé par une grande variété de cellules immunitaires. TIM-3 est un point de contrôle inhibiteur qui, lorsqu'il est bloqué, peut revigorer les réponses des lymphocytes T contre les tumeurs. Un autre composé appelé MG-V-53 a été identifié comme un inhibiteur de VISTA ayant une activité antitumorale in vivo. VISTA est un autre point de contrôle inhibiteur impliqué dans l’évasion immunitaire des tumeurs. « Les petites molécules identifiées dans cette étude présentent non seulement de fortes affinités de liaison, mais montrent également une activité prometteuse dans des modèles murins, notamment en réduisant le volume des tumeurs. Cela suggère leu r potentiel de développement thérapeutique », a déclaré le Docteur Gabr. Article rédigé par Georges Simmonds pour RT Flash Ma Clinique | | | |
| Des chercheurs de l’Inserm de Caen travaillent sur une nouvelle piste visant à repérer et détruire les caillots de sang responsables des AVC. Cette équipe a synthétisé des particules baptisées PHySIOMIC permettant de repérer et détruire les minuscules caillots de sang responsables des accidents vasculaires cérébraux (AVC), avec plus de précision et moins de toxicité pour l’organisme que le procédé actuel. Efficace chez la souris, il faut encore tester PHySIOMIC sur deux « gros animaux », puis l’être humain, et définir une procédure pour le produire en série avant de le commercialiser, ce qui n’arrivera pas avant « cinq à dix ans », selon Thomas Bonnard. « Un AVC ischémique est causé par un caillot qui va migrer à partir de l’artère carotide et aller boucher la circulation sanguine dans le cerveau, tuant ainsi des neurones. Aujourd’hui, les gros caillots, on sait les voir en IRM (imagerie par résonance magnétique NDLR) » retrace le chercheur Thomas Bonnard, « par contre, les plus petits caillots, ou “microthrombi”, on ne savait pas les détecter ». L’agent de contraste PHySIOMIC est constitué de microparticules d’oxyde de fer et polydopamine : un assemblage de molécules du neurotransmetteur dopamine par lequel les neurones communiquent habituellement, utilisé ici comme matériau. Une fois injecté dans la circulation sanguine, il va se fixer au microcaillot et sera visible en IRM grâce à ses propriétés magnétiques. Il y a « des inquiétudes » avec les agents de contrastes utilisés actuellement à base de Gadolinium, « associé dans le passé à certains risques de complication rénales », selon Thomas Bonnard. Ce n’est pas le cas, d’après le chercheur, de PHySIOMIC : « Il n’aura jamais d’effets toxiques, puisqu’il utilise exclusivement des matériaux qui sont déjà présents dans l’organisme ». Le "MIC" de PHySIOMIC signifie "Mussel Inspired Clusters" (agglomérat inspiré des moules, en anglais) car la moule, pour se fixer à son rocher, utilise également la dopamine. « Quand on injecte quelque chose dans le sang, des protéines viennent » s’agglutiner « dessus et participent à la fixation au microcaillot », décrit Charlène Jacqmarcq, 30 ans. Une fois repérés, les microthrombi doivent être détruits, une recherche qui revient à Audrey Picot, thésarde de 27 ans au laboratoire BB@C, qui ajoute à PHySIOMIC un activateur tissulaire du plasminogène (tPA). Seul traitement pharmacologique aujourd’hui délivré aux victimes d’AVC, le tPA présente un risque de saignement qui sera diminué par le ciblage de l’agent de contraste PHySIOMIC, selon M. Bonnard. « On a mis en place une collaboration avec l’entreprise pharmaceutique australienne CSL Behring, ainsi qu’Inserm Transfert, pour développer cet outil diagnostique et le faire devenir un outil théranostique : ça signifie qu’il va venir à la fois diagnostiquer, rendre visibles les microcaillots, permettre leur dégradation et restaurer le flux sanguin chez les patients », précise Mme Picot. Article rédigé par Georges Simmonds pour RT Flash Sud Ouest | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Stockholm vient d'inaugurer une innovation mondiale en transport maritime urbain avec le lancement de "Nova", le premier ferry électrique à foils en service régulier. Ce Candela P-12 a pris son premier départ mardi 29 octobre à 7h15 depuis Tappström, une banlieue de la capitale suédoise. Porté par ses moteurs électriques, "Nova" a parcouru silencieusement les 15 km jusqu’à l’hôtel de ville, volant à un mètre au-dessus de l’eau et couvrant le trajet en un peu plus de 30 minutes, soit près de la moitié du temps habituel. Conçue par une entreprise du royaume scandinave, Candela, cette navette comprend un moteur électrique ainsi qu’une coque équipée de deux ailes (des foils). « Lorsque l’eau coule sur elles, une force de levage est créée et le bateau s’élève » au-dessus de la surface, explique un porte-parole du constructeur, Mikael Mahlberg, à la télévision publique SVT. L’hydroptère de 10 tonnes, long de 12 mètres, “décolle” à partir d’une vitesse de 18 nœuds (33 km/h), à l’exception de ses foils, fixés à la coque par quatre branches métalliques. Pour les usagers des navettes de Stockholm, cet hydroptère promet un transport plus rapide, silencieux et écologique. En effet, ses foils contrôlés par ordinateur élèvent la coque au-dessus de l'eau, réduisant de 80 % la consommation d'énergie par rapport aux bateaux traditionnels. Cette configuration unique minimise également le sillage, permettant au ferry d’atteindre une vitesse de croisière de 25 nœuds, bien supérieure à celle des ferries diesel actuels, sans troubler les eaux environnantes. Ce projet pilote est une collaboration entre Candela, Trafikverket, et la région de Stockholm, visant à démontrer le potentiel des ferries électriques à foils pour un transport urbain plus rapide, abordable et sans émissions. Fonctionnant à l’énergie 100 % renouvelable, "Nova" bénéficie d’une autonomie suffisante pour s’aligner sur les horaires des ferries traditionnels et se recharge sur un simple chargeur rapide pour voitures électriques. Avec une population en forte croissance, la banlieue d’Ekerö se trouve à seulement 15 km du centre-ville, mais les embouteillages et les restrictions de vitesse allongent souvent le trajet à une heure. Le "Nova", quant à lui, raccourcit le temps de déplacement à 30 minutes, rapprochant les résidents d’Ekerö du cœur de la capitale. Ce ferry, opérationnel jusqu’à la fin de l’automne 2024, reprendra son service au printemps 2025, jusqu’en août. Le succès de cette initiative pourrait inspirer des solutions similaires dans d’autres villes, où les voies d'eau, sous-utilisées en raison des coûts et des défis environnementaux, pourraient redevenir des axes de transport viables et durables. Article rédigé par Georges Simmonds pour RT Flash Electrive | | | |
| Le projet LIMITLESS (Linear Induction Motor Drive for Traction and Levitation in Sustainable Hyperloop Systems), mené par l’EPFL, la Haute École d’ingénierie et de gestion du canton de Vaud (HEIG-VD) et Swisspod Technologies, vise à créer un nouveau système de transport durable et efficace, basé sur une infrastructure légère. Le consortium a franchi une étape importante en parcourant l’équivalent à échelle réelle d’un trajet en Hyperloop de 141,6 km (11,8 km à échelle réduite) et en atteignant des vitesses de pointe de 488,2 km/h (40,7 km/h à échelle réduite) dans un environnement contrôlé à basse pression. Les résultats ont été dévoilés récemment lors de l’événement Hyperloop Day à l’EPFL. Ce record a été réalisé dans le centre d’essai Hyperloop, situé sur le campus lausannois de l’EPFL. Cette structure, conçue comme une piste circulaire, permet le prototypage et l’essai rapides des différentes technologies nécessaires à Hyperloop. L’infrastructure présente un diamètre de 40 centimètres et une circonférence de 125,6 mètres. Il s’agit d’une version réduite (1:12) du système Hyperloop décrit dans la thèse de doctorat de l’EPFL de Denis Tudor, CEO de Swisspod, permettant une corrélation directe entre les résultats d’essai et la performance à échelle réelle. Ce succès est déterminant pour le secteur du transport à grande vitesse, démontrant les principes fondamentaux de la technologie Hyperloop et sa viabilité pour l’avenir des voyages durables et rapides. Composé de deux éléments principaux, un véhicule entièrement électrique et une infrastructure de tubes à basse pression, l’Hyperloop pourrait révolutionner les voyages intracontinentaux tout en étant durable. Les scientifiques s’appuient sur une infrastructure passive, permettant d’accroître l’efficacité et de réduire les coûts de mise en œuvre. Par conséquent, l’essentiel des efforts se concentre sur le développement d’un nouveau moteur à induction linéaire (LIM), un composant clé du système de propulsion de l’Hyperloop, conçu pour offrir de meilleures performances à des vitesses élevées. Il est le sujet de la thèse de doctorat de Simone Rametti au Laboratoire des systèmes électriques distribués (DESL) de l’EPFL. « Le projet LIMITLESS permet de comprendre plusieurs aspects fondamentaux liés à la propulsion électromagnétique à grande vitesse des capsules Hyperloop. En exploitant ces connaissances, nous avons pu intégrer les fonctionnalités de lévitation et de propulsion dans un seul et même moteur avec un rendement de conversion énergétique très élevé », explique Mario Paolone, professeur au DESL. Dans le cadre du projet LIMITLESS, soutenu par Innosuisse, l’équipe a effectué un total de 82 tests. Les expériences ont reproduit la trajectoire d’une capsule Hyperloop dans un environnement contrôlé à basse pression (50 millibars). Le plus long trajet a couvert une distance de 11,8 km, tandis que la vitesse maximale atteinte était de 40,7 km/h. Dans un système grandeur nature, cela se traduit par un trajet de 141,6 km, soit environ la distance entre Genève et Berne, ou entre San Francisco et Sacramento, et par des vitesses allant jusqu’à 488,2 km/h. Cette performance a été obtenue avec une capsule entièrement autonome en termes de navigation, d’alimentation en énergie et de propulsion. L’infrastructure ne transfère aucune énergie à la capsule qui contient l’unique source d’énergie pour sa propulsion et sa lé vitation. Les prochains tests prévus à l’EPFL ont pour objectif de valider des versions plus efficaces de la propulsion et de la lévitation de l’Hyperloop, basées sur le LIM, ainsi qu’à explorer les capacités, les limites et les perspectives du système dans le monde réel. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|