| | Edito La révolution énergétique passe aussi par la géothermie et la valorisation de la chaleur
On le sait peu, mais produire, stocker et restituer de manière propre la chaleur est un enjeu économique climatique et social au moins aussi important que celui des énergies renouvelables. La moitié de l’énergie planétaire est en effet gaspillée en chaleur perdue. En 2020, l’ensemble des énergies renouvelables a assuré près du quart de la chaleur finale consommée en France et la consommation de chaleur en France compte pour « près de 50 % de notre consommation énergétique et reste aujourd’hui très majoritairement produite par des énergies fossiles et importées, émettrices de carbone », rappelle le Syndicat des énergies renouvelables (SER). En 2020, la production de chaleur renouvelable s’est élevée à près de 152 TWh en France métropolitaine. Reste que cette prod uction renouvelable est encore très inférieure au niveau prévu dans le Plan National d'Action (PNA) en faveur des énergies renouvelables, qui prévoyait que 33 % de nos besoins de chaleur soient couverts par des sources renouvelables en 2020. La loi de transition énergétique pour la croissance verte de 2015 fixe, quant à elle, pour objectif de porter la part de la chaleur renouvelable à 38 % de nos consommations de chaleur à l’horizon 2030. En 2020, le deux-tiers de la production de chaleur renouvelable en France métropolitaine ont été fournis par le bois, qu’il s’agisse des appareils domestiques ou des chaufferies bois-énergie. Outre le bois, les 8,5 millions de pompes à chaleur aérothermiques en service en France (chauffe-eau thermodynamique, pompe à chaleur air-air ou air-eau) ont permis de produire 35 TWh de chaleur en 2020 et de couvrir ainsi 5 % des besoins annuels de chaleur en France métropolitaine. Heureusement, les innovations territoriales, industrielles et techniques, se multiplient pour exploiter plus efficacement, et de manière écologique, les énormes gisements de chaleur perdue. C’est par exemple le cas de l’usine Stellantis de Charleville-Mézières, qui s’est réorganisée de manière à récupérer le maximum de "chaleur fatale". Dans ce cas, le d éfi consistait à récupérer et valoriser la chaleur générée par un processus dont la production d’énergie n’est pas l’objectif principal. Et ces sources importantes de chaleur perdue sont légions. Il y a bien sûr l’industrie, mais également les bureaux, les hôpitaux, les stations d’épuration ou encore les centres d’hébergement de données, qui sont autant de sources de chaleur récupérable, mais pratiquement pas exploitée. L’usine Stellantis de Charleville-Mézières, soutenue par EDF et l’État, a commencé par injecter la chaleur de récupération issue de ses fours dans le réseau de chauffage urbain de la ville. Dans un second temps, cette installation a également réussi à utiliser directement cette chaleur pour chauffer ses propres bâtiments. L’opération est "gagnant-gagnant". Elle permet à Stellantis de réduire sa facture de gaz d’un tiers, tout en bénéficiant au territoire avoisinant. A présent, cette chaleur enfin récupérée permet de chauffer gratuitement 3 000 équivalents-logements et d’économiser 7 000 tonnes d’émissions de CO2 par an. Selon la Fédération des Services Énergie Environnement (FEDENE), la marge de progression en matière chaleur fatale reste énorme et il y aurait au moins 15 TWh de chaleur fatale récupérable et rentable à exploiter. Plus globalement, l’ADEME a estimé à 110 TWh le gisement potentiel national, rien que dans l’industrie. Parmi ces 110 TWh, la moitié se trouve dans les secteurs de l’agroalimentaire et de la chimie. A Malataverne, dans la Drôme, la société Hevatech a mis au point, après dix ans de recherche, Turbosol, un procédé de conversion de la chaleur fatale en électricité qui a été récompensé par de nombreux prix. Cette technologie a été développée pour les industriels de la fonderie, de la métallurgie, de la cimenterie et de l’incinération de déchets, autant de secteurs très gros consommateurs de chaleur. Turbosol capte les rejets de chaleur supérieurs à 300°C via deux échangeurs. Le premier chauffe de l’huile tandis que le second chauffe de l’eau et la transforme en vapeur. L’huile est fractionnée en micro-gouttelettes et mélangée à la vapeur. La vapeur, une fois détendue, entraîne les gouttelettes à près de 200 mètres par seconde via un a ccélérateur diphasique qui active une turbine hydraulique couplée à un alternateur. Outre la production d’électricité, Turbosol fournit également une chaleur résiduelle d’environ 80 à 90°C qui sert à chauffer des locaux et l’eau sanitaire. Cette année, l’imprimeur Maury va doter son usine de Manchecourt (Loiret) de ce système remarquable qui va permettre une économie de 1200 mégawatts-heures (MWh) d’électricité par an et réduire de plus de 80 tonnes les émissions de CO2. En 2021, des chercheurs du Centre d’Energétique et de Thermique de Lyon (CETHIL, CNRS / INSA Lyon) et de l’Institut d’Electronique et des Systèmes (IES, CNRS /Université de Montpellier) ont réalisé une avancée importante dans ce domaine de la conversion thermophotovoltaïque. Là où les chercheurs ne parvenaient pas à produire assez d'électricité ou sinon avec des températures très élevées, des scientifiques lyonnais sont parvenus à produire 7 kW par m2 de surface chauffante à seulement 450°. En approchant la surface émettrice à faible distance de la cellule photovoltaïque infrarouge, une densité de puissance électrique mille fois plus élevée que celle des études précédentes a été obtenue (Voir CETHIL). Il y a quelques jours, des scientifiques japonais ont découvert une substance commune qui peut stocker et libérer de manière réversible et rapide des quantités relativement importantes de chaleur de faible qualité sans se décomposer (Voir Tohoku University). Cette innovation repose sur un minéral d'oxyde de manganèse en couches contenant des ions potassium et de l'eau cristalline. En chauffant jusqu'à 200 degrés ce matériau, celui-ci stocke dans ses molécules d'eau de l’énergie. Il suffit ensuite de refroidir ce matériau en dessous de 120° pour qu’il libère la chaleur stockée. « Notre matériau a une longue durée de vie, peut stocker et libérer de manière réversible de grandes q uantités de chaleur par unité de volume, et se charge et se décharge rapidement », explique le Professeur Tetsu Ichitsubo qui a dirigé ces travaux. Outre-Rhin, une équipe de chercheurs de l’Université Martin Luther de Halle-Wittenberg (MLU) et de l’Université de Leipzig a réussi pour sa part à mettre au point un matériau dit "à changement de phase stabilisé", capable de stocker la chaleur de manière écologique, stable et peu onéreuse. Selon ces chercheurs, ce matériau étonnant est capable d’absorber et stocker une grande quantité de chaleur en changeant de forme, de solide à liquide. Ce substrat est si performant qu’il pourrait servir à fabriquer des panneaux chauffants à intégrer dans les murs des bâtiments et habitations. Ces panneaux, 24 fois plus efficaces que le béton pour stocker la chaleur, captureraient la chaleur naturelle le jour et pourraient la libérer la nuit (Voir Science Direct). Et qui dit récupération et exploitation propres de la chaleur dit géothermie. Notre pays a la chance d’être particulièrement gâté par la nature dans ce domaine, ce qui lui a permis de doubler sa puissance installée en géothermie profonde. Cette méthode, qui ne cesse de se perfectionner, permet aujourd’hui de chauffer près d’un million de Français. Son exploitation est en plein essor sur l’aquifère du Bassin Parisien, qui compte 54 installations de géothermie profonde en fonctionnement. Mais le reste de la France représente aussi un potentiel de développement de la filière. Au total, près d’un tiers du territoire français possède une ressource de géothermie profonde valorisable. Avec seulement 7 TWh produits en France, en 2020 – contre 35 prévus par la Programmation pluriannuelle de l'énerg ie –, la quantité de chaleur renouvelable produite par géothermie est malheureusement bien en deça des objectifs nationaux qui visaient les 48 TWh en 2028. Heureusement, l‘objectif de production de 5,2 TW de chaleur produite par la géothermie profonde devrait être atteint en 2028, ce qui correspond à deux millions de foyers qui pourront être chauffés grâce à cette technologie prometteuse à cette échéance. Autre avantage énergétique majeur, et peu connu, la géothermie peut également produire avec une excellente efficacité énergétique du froid renouvelable, et se substituer ainsi aux climatiseurs gourmands en énergie et émetteurs de gaz à effet de serre. À l’échelle de la Métropole du Grand Paris, la consommation actuelle en énergie thermique (chauffage, eau chaude sanitaire, climatisation) est estimée à 51 TWh par an. Il y a quelques semaines, une étude du Bureau de recherches géologiques et minières (BRGM) a montré que la géothermie de surface pourrait en théorie couvrir plus de la moitié de ces besoins, si tous les bâtiments disposaient des systèmes de distribution adéquats exigés par les pompes à chaleur. Dans ce domaine, le Syndicat des Energies Renouvelables propose une mesure intéressante qui pourrait accélérer la transition domestique vers les réseaux de chaleur "verts" : l’aide au raccordement à 100 euros par logement des immeubles utilisant encore des énergies non renouvelables pour le chauffage, alors qu’un tuyau de réseau de chale ur passe dans leur rue. Cette mesure aiderait les résidents à faire leur transition énergétique en baissant leur facture de chauffage, avec un temps de retour sur investissement très rapide. L’exemple du réseau de chauffage urbain de Vélizy-Villacoublay est très intéressant. Cette commune du bassin parisien souhaite couvrir au moins 60 % de la demande de chaleur par la géothermie et elle a choisi l’entreprise Engie Solutions qui propose une nouvelle technologie innovante, le forage multidrains. En ayant recours à des drains en forme de U, cette technique permet de multiplier par quatre les traversées dans le réservoir géothermique par rapport à un forage conventionnel. En étendant sensiblement la surface d’échange dans l’aquifère, ce système multidrains augmente considérablement la quantité de chaleur exploitable du forage, ce qui rend la centrale géothermique plus efficiente et plus rentable. A Vélizy-Villacoublay, l’eau géothermale puisée à 64°C, grâce à cette nouvelle techno logie, parvient à fournir au réseau de chaleur de la commune une puissance calorifique de plus de 16 MW. Engie Solutions a ainsi réussi à doubler le débit de production des puits en le portant à 400 m3/heure. Cette expérimentation, saluée par de nombreux acteurs de l’énergie, confirme que cette technique permet d’atteindre le seuil de rentabilité dans de nombreux projets géothermique qui n’auraient pas pu être économiquement viables il y a encore quelques années. De l’avis de nombreux spécialistes, le potentiel de cette technologie, à la fois pour produire à un coût compétitif de la chaleur propre et inépuisable et réduire les émissions de gaz à effet de serre, est considérable, surtout dans notre pays. La chaleur interne de la Terre est produite essentiellement par la radioactivité naturelle des roches par désintégration de l'uranium, du thorium et du potassium. De manière logique, plus on descend en profondeur, plus le niveau de chaleur monte, augmentant en moyenne de 3°C tous les 100 mètres. Aujourd’hui, c’est surtout la géothermie de surface qui est exploitée, via les pompes à chaleur devenues très performantes, pour produire de la chaleur, mais demain, nous l’avons vu, le avancées technologiques permettront de récupérer de manière rentable les énormes quantités de chaleur piégées à plusieurs kilomètres de profondeur. Certains pays ou régions, en raison de leurs particularités géologiques, utilisent déjà la géothermie à grand échelle. C’est le cas de l’Islande, île volcanique s’il en est, qui tire 90 % de sa chaleur et un tiers de son électricité de la géothermie. Les Philippines produisent 25 % de leur électricité par géothermie. L’Indonésie, qui possède 40 % des ressources géothermiques du globe, produit déjà 15TWh d’électricité par an grâce à la chaleur de la Terre (5 % de sa consommation). En Afrique, le Kenya est devenu le géant géothermique de ce continent en plein essor. Il produit presque la moitié de son électricité grâce à la géothermie. En Europe, l’Italie est sans conteste le leader de la géothermie (10 % des capacité ;s mondiales installées) et le fameux site géothermique de Larderello, représente une production de 800MW, couvrant un tiers des besoins électriques de la Toscane. Il y a quelques semaines, une société américaine, Quaise Energy, issue du Massachusetts Institute of Technology (MIT), a annoncé avoir mis au point une nouvelle technique permettant d’envisager d’exploiter la géothermie de très grande profondeur, qui reste à ce jour hors d’atteinte des technologies existantes. Baptisé "Gyrotron", ce système de forage à ondes millimétriques s'appuie sur une technologie futuriste qui n’a encore jamais été utilisée à grande échelle. Cette technique consiste à utiliser des ondes à haute fréquence pour réchauffer la roche et la faire fondre à mesure de la descente (Voir New Atlas). Quaise Energy envisage de forer sur environ cinq kilomètres au moyen d'une foreuse classique, puis de poursuivre la descente à environ vingt kilomètres en liquéfiant la roche. L’ensemble de ce forage prendrait trois mois et demi selon les ingénieurs de cette société. Une telle profondeur permet d'atteindre des températures de près de cinq cents degrés et surtout d’exploiter le fabuleux potentiel énergétique de l’eau supercritique -10 fois plus important à masse égale - se trouvant à de telles profondeurs. La chaleur ainsi récupérée alimenterait en énergie et en électricité toute une région pendant au moins un siècle. Cette société espère tester sa foreuse à gyrotron d'ici fin 2023. Si cette technologie remplit ses promesses et permet d’exploiter les gisements de chaleur extrême, quasi-inépuisables, enfouis dans les entrailles de la terre, cela pourr ait bouleverser le paysage énergétique mondial en mettant à disposition de l’humanité une nouvelle source de chaleur et d’énergie propres et décarbonées… Mais en attendant cette possible rupture technologique majeure, nous pourrions déjà mieux exploiter l’énorme potentiel que représente la géothermie de basse intensité, surtout pour décarboner plus vite le secteur du bâtiment. On l’oublie souvent mais le bâtiment (résident et tertiaire) consomme près de 700 TWh par an et est le secteur d'activité le plus gourmand en énergie - 46 % de la consommation totale de la France - devant l'industrie (27 %) et le secteur des transports (24 %). En outre, ce secteur émet 26 % de nos émissions de CO2. Si nous voulons réduire massivement notre dépendance, encore bien trop grande, aux énergies fossiles, notamment dans le bâtiment - et nous allons y être obligés bien plus vite que nous le pensions, sous l’effet de la nouvelle situation géopolitique provoquée par l’agress ion russe en Ukraine - nous devons tripler d’ici 2030 le nombre de pompes à chaleur installées, de manière à ce qu’à cette échéance les deux tiers de nos 36 millions de logement en soient équipés. Combinées à la montée en puissance des énergies renouvelables et un effort sans précédent de rénovation thermique visant à éliminer les 6 millions de "passoires thermiques" d’ici 10 ans, ces pompes à chaleur, à présent très performantes, pourraient nous permettre de nous passer des énergies fossiles dans le bâtiment à l’horizon 2040 et d’atteindre la nécessaire neutralité carbone en 2050. Par son cadre naturel et géologique exceptionnel, notre pays à tous les atouts en mains, et toutes les compétences scientifiques et industrielles nécessaires, pour devenir un leader mondial en matière de récupération de la chaleur, de thermoélectricité et d’exploitation massive de la géothermie, qu’elle soit de surface, profonde ou demain, extrême. Nous devons sans tarder lancer un grand plan sur 10 ans, pour fédérer les énergies et les savoirs dans ce domaine stratégique pour retrouver notre indépendance énergétique et construire un avenir durable et prospère pour les générations futures… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | Aujourd’hui, la production industrielle d’écrans plats, dont les écrans tactiles et panneaux photovoltaïques, nécessite l’utilisation d’un alliage d’oxyde d’indium et d’étain, qui possèdent des propriétés de transparence et de conductivité. Mais face à l’explosion de la demande mondiale, l’indium tend à se raréfier et ses prix explosent. D’où l’intérêt de solutions alternatives. Le vanadate de strontium (formule chimique SrVO3) qui associe oxygène, vanadium et strontium, éléments qui existent à l’état naturel sous forme d’alliages, est une piste alternative étudiée par le Crismat à Caen (Calvados), laboratoire de cristallographie et sciences des matériaux, unité mixte de recherche du CNRS, de l’ENSICAEN et de l’Universi té de Caen. « Nous travaillons depuis toujours sur les oxydes (oxydes de cuivre, oxydes de manganèse...) et leurs fonctions potentielles pour des applications électroniques, ce qui nous a conduits naturellement vers l'oxyde de vanadium susceptible d'avoir des propriétés d’optique et de conductivité intéressantes pour l'électronique, quand il est combiné au strontium », explique Wilfrid Prellier, directeur du Crismat et à la tête d’une équipe de chimistes et physiciens en sciences des matériaux. Dit autrement, les éléments oxygène (O) vanadium (V) et strontium (Sr) existent individuellement, mais seule la combinaison des trois - en vanadate de strontium (SrVO3) - peut donner accès aux propriétés de transparence et de conductivité que recherche l’électronique. Après avoir obtenu en 2017 un financement de l’Agence nationale de la recherche (ANR), le Crismat et ses partenaires se sont attelés avec des laboratoires extérieurs (universités de Rennes, Versailles Saint Quentin, Paris-Saclay et Poitiers) à synthétiser le vanadate de strontium, puis à "préparer" ce nouveau matériau. L’enjeu était qu’il puisse être fixé en une très fine couche (quelques dizaines de nanomètres) sur du verre, utilisé dans les écrans. Cela a donné lieu à deux découvertes, dont les résultats ont été publiés en septembre 2021 dans la revue scientifique Advanced Functional Materials éditée par Wiley, référence dans le domaine des sciences de matériaux. « Nous avons mis au point une solution chimique "tampon" (à base de calcium et de niobium) permettant d’accrocher la couche d’oxyde de vanadate de strontium. Nous avons réussi à cristalliser cet oxyde de vanadate de strontium en le chauffant à 500 degrés - moins que les températures habituelles de 700-800 degrés pour la cristallisation - pour qu’il devienne transparent et conducteur », explique Wilfrid Pellier. Et de préciser : « Sans cette cristallisation, le matériau est à l'état amorphe et n'a pas les propriétés optique s (transparence) ni de conductivité recherchées ». Les étapes suivantes pour le Crismat vont être le changement d'échelle pour sa découverte, l'adaptation de son procédé aux usages du grand public et la prise de contact avec les acteurs industriels. « En tant que laboratoire académique » relève Wilfrid Prellier, « nous avons besoin d’être mis en relation avec la recherche appliquée ». Les enjeux économiques sont énormes. Article rédigé par Georges Simmonds pour RT Flash Crismat | | ^ Haut | |
|
| | | Selon une étude menée par les professeurs Lin Yangting et Lin Honglei, de l’Institut de géologie et de géophysique de l’Académie chinoise des sciences (IGGCAS), l’atterrisseur de la mission chinoise Chang’e 5 a détecté des signes indubitables de la présence d’eau sur la surface lunaire. Plusieurs études et observations faites depuis l’orbite au cours de la dernière décennie ont pointé la présence d’eau, sous forme de H₂O ou Hydroxyle (OH, combinaison d’une molécule d’oxygène avec une molécule d’hydrogène) sur la surface lunaire. Mais les mêmes résultats n’avaient jamais été obtenus par des analyses directement dans le sol. La mission Chang’e 5 visait à collecter des échantillons de sol lunaire et à les renvoyer sur Terre. Pour cela, ell e était composée d’un module orbital (Orbiter), d’un module d’atterrissage (Lander), d’un module de remontée (Ascender) et d’une capsule de retour (Returner).] L’atterrisseur a atteint la surface de la Lune le 1er décembre 2021. 1,7 kg d’échantillons ont été prélevés et transférés vers le module de remontée, qui a décollé le 3 décembre. Le 5 décembre, il a retrouvé l’orbiteur, qui a transféré les échantillons dans la capsule de retour et a commencé le voyage de retour vers la Terre. En passant devant notre planète, l’orbiteur a éjecté la capsule, qui a atterri à l’intérieur de la Mongolie le 16 décembre 2021. Selon le site Physique, tout en collectant des échantillons, l’atterrisseur a utilisé un instrument appelé spectromètre minéralogique lunaire (LMS) pour effectuer une analyse spectrale du régolithe (sol lunaire) et d’une roche. Après avoir compensé l’&eacut e;mission de chaleur de la surface lunaire, qui pourrait fausser les données, les scientifiques ont trouvé « sans aucun doute » une absorption spectrale de l’ordre de 2,85 micromètres (µm), cohérente avec ce qui était attendu pour authentifier la présence d’eau. Les données indiquent une quantité d’eau dans le sol lunaire de 120 parties par million, ce qui est cohérent avec l’implantation solaire : c’est-à-dire que les molécules d’eau sont transportées par le vent solaire et se retrouvent piégées dans le sol. L’analyse de la roche a montré une concentration encore plus élevée, 180 parties par million. La différence de composition indique que la roche peut s’être formée dans une région différente, composée de basalte, et éjectée vers le site de Chang’e 5 par un impact de météorite. La recherche d’eau, sous forme d’H₂O ou d’Hydroxyl, était l’un des objectifs de la mission indienne Chandrayaan-2, qui tenta sans succès de se poser sur la Lune en septembre 2021. Le contact avec l’atterrisseur, appelé Vi kram, était alors perdu. Il était à 2,1 km de la surface. On suppose que la surface de la Lune contient également de l’eau sous forme de glace, au fond des cratères et des vallées qui ne sont pas éclairées par la lumière du soleil. S’il est confirmé, ce serait une ressource inestimable pour les futures missions habitées, à la fois à court terme et celles visant à établir une présence humaine permanente. En plus de soutenir les astronautes, l’eau peut également être utilisée pour produire de l’oxygène afin de maintenir une atmosphère respirable et comme source de carburant pour les fusées. Cela ferait de la Lune, grâce à sa faible gravité, un bon point de départ pour l’exploration du système solaire. Article rédigé par Georges Simmonds pour RT Flash Science Advances | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Selon une étude publiée par le think tank européen Idate Digiworld, l’accès à internet par la fibre optique produirait moins d’effets secondaires négatifs pour l'environnement. L’organisme d’étude estime que, d’un point de vue environnemental, la fibre est la meilleure technologie d’accès à internet. Son empreinte en termes de CO2 est la plus faible. Elle « consomme trois fois moins d’énergie que la xDSL et dix fois moins que la 4G » résument les auteurs du rapport. Résultat : en 2030, la réduction d’émissions de CO2 grâce à la fibre atteindra 1,6 gigatonne. A l’appui de sa démonstration, Idate Digiworld cite une étude réalisée par l’agence allemande environnementale, selon laquelle les accès via la technologie FTTH (la fibre) ont cinq fois moins d’impact que la VDSL en ce qui concerne les émissions de gaz à effet de serre mesurées en grammes de CO2 émis par heure (0,5 et 2,5 g). Dans son étude, l’Idate Digiworld indique que les réseaux de fibre concernent évidemment le secteur des télécoms et le secteur numérique, mais aussi les nombreuses industries qui peuvent utiliser cette technologie pour leurs propres besoins internes. Pourtant, lors d’entretiens menés avec des industriels français et européens, le think tank « a observé la faible prise en considération des réseaux fibrés dans les stratégies de réduction d’emprei nte carbone des entreprises ». La fibre réduit l’impact carbone des connexions fixes et mobiles, assure le think tank. Dans le domaine domestique, les solutions développées avec la fibre, en s’appuyant sur l’intelligence artificielle et l’internet des objets, offriront une utilisation plus optimale de la consommation d’énergie, du chauffage et de l’eau. Les perspectives seront aussi prometteuses dans le domaine industriel. « Nous concluons que les industriels devraient mieux considérer le recours à la fibre. Alors que tous les industriels développent aujourd’hui des programmes de réduction des émissions de CO2, nous voulons insister sur l’importance de considérer les réseaux de fibres comme des leviers clés », conclut le rapport. Article rédigé par Georges Simmonds pour RT Flash IDW | | | |
| Des scientifiques de la Northwestern University et LanzaTech ont utilisé des bactéries pour décomposer le dioxyde de carbone (CO2) rejeté afin de créer des produits chimiques industriels bénéfiques. Ces chercheurs ont choisi, conçu et amélioré une souche bactérienne, puis ont montré sa capacité à transformer le CO2 en acétone et isopropanol (IPA). En plus d’éliminer les gaz à effet de serre de l’air, ce nouveau procédé de fermentation gazeuse n’utilise pas de combustibles fossiles, qui sont normalement nécessaires pour produire de l’acétone et de l’IPA. Après avoir effectué une analyse du cycle de vie, les chercheurs ont découvert que le système à carbone négatif pourrait réduire les émissions de gaz à effet de serre de 160 % par rapport aux méthodes traditionnelles s’il était largement adopté. « En exploitant notre capacité à nous associer à la biologie pour fabriquer ce qui est nécessaire, où et quand il le faut, sur une base durable et renouvelable, nous pouvons commencer à tirer parti du CO2 disponible pour transformer la bioéconomie », indique Michael Jewett, co-auteur principal de l’étude, Northwestern University. Les produits chimiques industriels essentiels, l’IPA et l’acétone, se trouvent pratiquement partout, avec un marché mondial combiné atteignant 10 milliards de dollars. Largement utilisé comme an tiseptique et désinfectant, l’IPA est à la base de l’une des deux formules de désinfectant suggérées par l’Organisation mondiale de la santé, qui sont très efficaces pour détruire le virus SARS-CoV-2. Alors que l’acétone est un solvant pour de nombreux plastiques et fibres synthétiques, les outils de nettoyage, la résine de polyester diluant et le dissolvant pour vernis à ongles. Bien que ces produits chimiques soient extrêmement précieux, ils sont produits à partir de ressources fossiles, ce qui entraîne des émissions de CO2 qui contribuent au réchauffement climatique. Pour produire ces produits chimiques de manière plus durable, l’équipe a créé une nouvelle méthode de fermentation gazeuse. Les scientifiques ont utilisé des outils de biologie artificielle pour reprogrammer la bactérie afin qu’elle fermente le CO2 pour créer de l’IPA et de l’acétone. Les équipes pensent que les souches modifiées et le processus de fermentation seront étendus à une échelle industrielle. Le procédé pourrait également être appliqué pour formuler des procédés simplifiés pour produire d’autres produits chimiques utiles. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | L’hypertension artérielle est la pathologie chronique la plus fréquente en France ; elle toucherait un adulte sur trois, selon l’Inserm. Cette maladie se caractérise par une pression anormalement élevée du sang dans les vaisseaux sanguins. On estime à présent qu’une tension normale est de 120/80. Le premier chiffre est la pression systolique, elle équivaut à la pression maximale, lorsque le cœur se contracte pour se vider de sang. 80 est la pression diastolique, c’est-à-dire minimale lorsque le cœur se relâche pour se remplir. On parle d’hypertension artérielle lorsque ces chiffres dépassent 149/90 au cabinet du médecin et 135/85 à domicile. En effet, en cas de suspicion d’hypertension artérielle, le médecin demande souvent au patient de faire des relevés chez lui plusieurs fois par jour pendant trois jours. Selon l’Inserm, un patient hypertendu sur trois serait résistant aux traitements disponibles, ce qui pose un vrai défi de santé publique, car l’hypertension fait le lit de pathologies cardiovasculaires graves. Selon une étude réalisée par l’Université de Californie, consommer des aliments riches en flavanols - des antioxydants présents dans certains fruits, légumes, thé et cacao - pourrait contribuer à réduire la tension artérielle chez les personnes qui souffrent d’hypertension. Pour parvenir à cette conclusion, les chercheurs ont analysé les tests urinaires de plus de 25 000 adultes au Royaume-Uni et plus précisément la présence du biomarqueur flavan-3-ol. Celui-ci indique la quantité de flavanols que ces participants ingèrent. Ainsi, la pression systolique était inférieure de 1,9 millim ètre de mercure (mmHG) chez les hommes et d’environ 2,5 mmHG chez les femmes ayant le plus fort taux de flavan-3-ol. Au final, l’étude montre que, plus les participant consomment de flavanols, plus ils réduisent intrinsèquement leur tension artérielle. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| La détection des cancers est un enjeu majeur de santé publique, mais les méthodes disponibles actuellement, par exemple les IRM ou les mammographies, sont souvent chères et invasives, ce qui limite leur utilisation à grande échelle. Des méthodes alternatives comme l’utilisation de l’odorat animal sont à l’étude pour dépasser ces contraintes. Une équipe regroupant des scientifiques du CNRS, de l’Université Sorbonne Paris Nord, de l’Institut Curie et de l’Inserm, a mis en évidence les performances d’une espèce de fourmis, Formica fusca, dans ce domaine. Après un apprentissage de quelques minutes, ces insectes, qui utilisent l’olfaction pour leurs tâches quotidiennes, sont parvenus à différencier des cellules humaines saines de cellules humaines cancéreuses. En analysant les composés émis par les différentes cellules, les scientifiques ont démontré que chaque lignée cellulaire avait bien sa propre odeur qui pouvait être utilisée par les fourmis pour les détecter. L’efficacité de cette méthode doit être évaluée grâce à des tests cliniques sur un organisme humain complet ; mais cette première étude montre le potentiel élevé des fourmis, capables d’apprendre très rapidement, à un moindre coût, tout en étant efficaces. Cette étude souligne en outre que l’utilisation des fourmis pourrait potentiellement être adaptée à une gamme d'autres tâches complexes de détection d'odeurs, notamment la détection de stupéfiants, d'explosifs, d'aliments avariés ou d'autres maladies (paludisme, infections, diabète par exemple). En ce qui concerne la détection du cancer, les recherches vont à présent viser à élargir la gamme des odeurs liées au cancer pouvant être détectées par les fourmis, notamment en incluant la détection des odeurs émises par le corps. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Une étude norvégienne réalisée par l’Université de Bergen a montré qu’il était possible de gagner 10 ans d’espérance de vie en consommant plus de végétaux, de légumes secs et de fibres, et en réduisant sa consommation de viande, de produits transformés et de graisses saturées. Pour arriver à cette conclusion, les chercheurs ont travaillé à partir de données qui suivent les différentes causes de maladies et de décès dans 204 pays du monde entier. Ces travaux montrent qu’on gagne également deux ans d’espérance de vie en mangeant 25 grammes de fruits à coque par jour, ce qui correspond à une poignée de noix, d’amandes ou de pistaches. Arrêter de manger de la viande rouge et transformée permettrait de gagner encore plus d’un an et demi de durée de vie. La consommation de poisson, en revanche, est bénéfique. Et sans surprise, les boissons sucrées font partie des produits à éviter. L'étude souligne la nécessité de manger beaucoup de fruits et les légumes, au moins 400 grammes par jour. Enfin ces recherches montrent qu’il y a un net bénéfice pour la santé à changer son alimentation à tout âge : même en changeant son alimentation après 60 ans, on peut encore gagner 8 ans d’espérance de vie, selon ces travaux. Et l’adoption d’une meilleure alimentation à 80 ans peut encore permettre d’augmenter son espérance de vie de près de trois ans et demi ! Article rédigé par Georges Simmonds pour RT Flash Plos | | | |
| La fibrillation atriale est une pathologie traitre car souvent silencieuse, qui touche 40 millions de personnes dans le monde et près de 800 000 personnes en France, dont plus de la moitié des seniors de plus de 80 ans. Ce trouble se caractérise par un rythme cardiaque irrégulier et anormalement rapide. Pour être correctement traité, il doit être dépisté dès l’apparition des premiers symptômes : fatigue, palpitations, essoufflement ou encore vertiges. Bien que les causes de la fibrillation auriculaire restent mal identifiées, les facteurs de risque et des comorbidités associées à la fibrillation atriale sont la surcharge pondérale, l’apnée du sommeil, le diabète, l’hypertension et la prise d’alcool. Le risque de fibrillation atriale, un rythme cardiaque irrégulier qui peut entraîner de graves complications telles qu'un accident vasculaire cérébral, une insuffisance cardiaque et des crises cardiaques dues à l'hypertension, pourrait être réduit en appliquant un contrôle intensif de la pression artérielle, selon une étude menée par les scientifiques de l'école de médecine de Wake Forest. Ce travail montre que les personnes ayant une pression artérielle systolique de 140 courent un risque accru de 26 % de fibrillation auriculaire par rapport à celles ayant une pression artérielle systolique inférieure à 120. Selon l'auteur principal de l'étude, Elsayed Z. Soliman, professeur d'épidémiologie et de prévention à l’école de médecine de Wake Forest, « il s'agit de la première preuve d'un essai contrôlé randomisé qui a montré un bénéfice dans la réduction du risque de fibrillation auriculaire à la suite d'un contrôle agressif de la pression artérielle à une cible inférieure à 120 mmHg ». Ces recherches ont utilisé les données disponibles avec l'essai SPRINT (Systolic Blood Pressure Intervention Trial) recueilli par la NIH, l’institut national de santé américain, qui comprend les lectures de la pression artérielle de 8 022 participants randomisés dans l'un des deux groupes ayant une pression artérielle inférieure à 140 ou inférieure à 120 mm Hg. Pour la répartition, 4 003 participants ont été placés dans le groupe qui a reçu des mesures intensives de contrôle de la pression artérielle, et 4 019 participants ont été maintenus dans les autres groupes qui ont reçu des mesures standard de réduction de la pression artérielle (objectif inférieur à 140 mm Hg). Cette étude montre que seuls 88 cas de fibrillation atriale se sont produits dans le groupe ayant subi des mesures intensives de c ontrôle de la pression artérielle, tandis que 118 cas se sont produits dans le groupe ayant subi des mesures standard de contrôle de la pression artérielle, soit une réduction du risque de 25 %. Selon les chercheurs, les résultats obtenus montrent que l'administration de mesures intensives de réduction de la pression artérielle réduit certainement le risque de fibrillation atriale, indépendamment du sexe, de la race ou des niveaux de pression artérielle. Pour Elsayed Soliman, « l’hypertension est le facteur de risque modifiable le plus courant de la fibrillation atriale. Et maintenant, nous avons une voie potentielle de prévention ». Article rédigé par Georges Simmonds pour RT Flash NIH | | | |
| L’huile d’olive n’en finit pas de dévoiler ses vertus. Une étude de l’Université de Barcelone avait déjà montré que sa consommation régulière réduisait sensiblement les risques de cancer du côlon. Mais une autre étude récente dirigée par le Docteur Guasch-Ferré, de l’Ecole de Santé Publique d’Harvard, a montré, en analysant les données d’une vaste population composée de 60 582 infirmières et de 31 801 médecins, suivis de 1990 à 2018, qu’une consommation plus élevée d’huile d’olive s’est trouvée associée à une diminution de 17 % du risque de décès par cancer, de 29 % du risque de décès par maladie neurodégénérative et de 18 % du risque de décès par affection respiratoire... Enfin, rappelons que le Professeur Gary Beauchamp (Université de Pennsylvanie), un chercheur mondialement réputé pour ses travaux sur l'olfaction et la gustation, a montré en 2005 que l'huile d'olive extra vierge nouvellement pressée contient de l'oléocanthal, une substance qui agit comme un puissant composé anti-inflammatoire naturel, selon le même mécanisme que celui de l'ibuprofène. Selon ses recherches, un verre d’huile d’olive vierge équivaudrait à 200 mg d’ibuprofène, mais sans les effets secondaires de ce médicament… Article rédigé par Georges Simmonds pour RT Flash Harvard | | | |
| Une équipe internationale de recherche, regroupant notamment des chercheurs, généticiens et cardiologues de nombreux instituts de recherche dont l’Icahn School of Medicine at Mount Sinai (New York), du Victor Chang Cardiac Research Institute (Australie) ou encore de la Technische Universität München, ont identifié les gènes les plus impliqués dans les risques de maladies coronariennes. Cette étude de très grande ampleur a repéré avec plus de précision les gènes susceptibles de provoquer une maladie coronarienne. Elle a également identifié où exactement dans le corps se situe l'effet principal de ces gènes ; enfin, ce travail a permis de classer, par ordre d’importance, 162 de ces gènes (dont beaucoup n’étaient pas connus), dans le risque de maladie coronarienne. L’étude a été menée auprès de 600 patients atteints de maladie coronarienne et 150 témoins exempts de maladie coronarienne. Tous les participants ont subi une chirurgie à thorax ouvert pour un pontage coronarien ou pour d'autres raisons médicales. L'équipe a utilisé le superordinateur du mont Sinaï – appelé "Minerva" – pour rassembler et analyser les données de milliers de gènes. Ces recherches ont confirmé que le gène PHACTR1 fait partie des 2 principaux gènes responsables des maladies coronariennes. Ce gène provoque non seulement des maladies coronariennes, mais également toute une gamme d'autres maladies vasculaires, notamment la migraine, la dysplasie fibromusculaire et une dissection spontanée des artères coronaires. Les résultats de cette étude vont permettre d’améliorer les tests g&eacut e;nétiques actuels qui permettent de dépister les patients à risque élevé de maladie coronarienne. À l'heure actuelle, ces tests ne sont pas suffisamment précis. Ainsi, l’étude ouvre l’opportunité d’un diagnostic plus précis, au-delà d’une meilleure compréhension des causes des crises cardiaques. Article rédigé par Georges Simmonds pour RT Flash CGPM | | | |
| Des chercheurs de l’Université Rice (Houston-Texas) ont réussi à éliminer des cancers de l’ovaire et du côlon chez la souris, en utilisant des "micro-usines moléculaires" implantables, de la taille d'une tête d'épingle, pour délivrer en continu des doses élevées d'interleukine-2, un composé naturel qui active les globules blancs pour combattre le cancer. Ces micro-sphères productrices de médicament peuvent être implantées par chirurgie mini-invasive. Chacun contient des cellules conçues pour produire de l'interleukine-2 qui sont enfermées dans une coque protectrice. Omid Veiseh, professeur adjoint de bio –ingénierie, dont le laboratoire a produit le traitement, a déclaré que les essais cliniques sur l'homme pourraient commencer dès cet automne. L'équipe n'a choisi que des composants qui s'étaient auparavant avérés sûrs, dans des essais cliniques, pour une utilisation chez l'homme. « Une fois implantées, ces micro-usines pharmaceutiques continuent de fabriquer la dose de médicament nécessaire chaque jour, jusqu'à ce que le cancer soit éliminé », précise Omed Veiseh, qui a co-dirigé ces travaux. « Grâce à cette nouvelle approche, nous avons pu éradiquer les tumeurs chez 100 % des animaux atteints d'un cancer de l'ovaire et chez sept des huit animaux atteints d'un cancer colorectal », précise-t-il. L'interleukine-2 est une cytokine, une protéine utilisée par le système immunitaire pour reconnaître et combattre les maladies. Il s'agit d'un traitement contre le cancer déjà approuvé par la FDA, mais ces micro-usines de médicaments provoquent une réponse immunitaire plus forte que les schémas thérapeutiques existants, reposant surl'interleukine-2, car ces implants délivrent directement des concentrations plus élevées de la protéine aux tumeurs. Ces chercheurs soulignent que cette nouvelle approche pourrait également être appliquée pour traiter les cancers du pancréas, du foie, des poumons et d'autres organes. Ces implants pourraient être placés à proximité des tumeurs à détruire, et chaque type de cancer serait, dans ce cas, ciblé en utilisant une cytokine différente… Article rédigé par Georges Simmonds pour RT Flash Rice | | | |
| Une vaste étude menée auprès de 312.400 participants, exempts de diabète, présentée lors de la Conférence annuelle de l’American Heart Association (AHA), révèle que boire un peu de vin pendant les repas est associé à un risque plus faible de diabète de type 2. Au cours du suivi de près de 11 ans, environ 8.600 (3 %) des participants ont développé un diabète de type 2. Ces recherches montrent que la consommation de vin pendant les repas s’avère associée à une réduction du risque de diabète de type 2 de 14 % par rapport à l’abstinence. L’étude précise que ce bénéfice d'une consommation modérée d'alcool sur le risque de diabète de type 2 n’existe que chez les participants consommant un peu de vin pendant les repas. Cette étude confirme une autre vaste étude publiée en 2020, et réalisée sur 112 000 participants (Voir Wine spectator) p ar la TH Chan School of Public Health de l'Université de Harvard, qui a montré que les personnes menant une vie saine (pas de tabac, alimentation équilibrée et exercice quotidien), qui boivent un peu de vin uniquement pendant les repas, augmentent sensiblement leur espérance de vie et réduisent leurs risques de déclin cognitif... Selon, le Docteur Eric Rimm, professeur d'épidémiologie et de nutrition à Harvard, « Notre étude montre clairement que les femmes qui ont une consommation modérée de vin ont une espérance de vie plus longue de 3 ans, par rapport à celles qui ne boivent pas du tout d’alcool. Quant aux hommes qui ont une consommation modérée de vin, ils vivent en moyenne un an de plus que ceux qui ne boivent pas du tout d’alcool ». Cette vaste étude conforte l’hypothèse selon laquelle les effets de l’alcool sur la santé et la longévité sont complexes et subtils, et ne sont pas identiques, en fonction de la manière de consommer et du type d’alcool ingéré. Article rédigé par Georges Simmonds pour RT Flash STD | | | |
| Depuis une vingtaine d'années, on assiste à une augmentation importante, de l'ordre de 50 %, de l'incidence (nombre de nouveaux cas par an) du cancer du côlon chez les sujets de moins de 50 ans. Bien qu'elles ne soient pas clairement identifiées, les causes de cette inquiétante augmentation sont sans doute multiples et intriquées : alimentation déséquilibrée (pas assez de fruits et légumes, trop de graisses saturées, d'alimentation transformée, de viande et d'alcool, pas assez de fibres), mais aussi manque d'exercice et sédentarité ravageuse : une récente étude de l'Anses montre en effet, de manière édifiante, que seuls 5 % des adultes en France ont une activité physique suffisante pour être protectrice contre plusieurs cancers, dont celui du côlon. ... Rappelons les recommandations de l'Anses : pratiquer 30 minutes, 5 fois par semaine, une activité cardiorespiratoire comme monter les escaliers ou faire du vélo, courir, marcher à bonne allure, effectuer du renforcement musculaire 1 à 2 fois par semaine (porter une charge lourde, jouer au tennis, faire de la natation), réaliser des exercices d’assouplissement comme de la gymnastique, de la danse ou encore du yoga, 2 à 3 fois par semaine (Voir étude complète au lien). Article rédigé par Georges Simmonds pour RT Flash Anses | | | |
| Des chercheurs de l’école de Médecine de l’Université de New-York ont montré que la prévalence de l’isolement social augmente chez les personnes âgées, et qu’en raison non seulement du vieillissement des populations mais aussi du lien notable entre la solitude et le risque de démence, la prévalence des démences pourrait donc croître simultanément et rapidement. L’étude a analysé les données rétrospectives de 2.308 participants à l’étude Framingham, exempts de démence à l’inclusion et âgés en moyenne de 73 ans. Ces participants ont été évalués sur le plan neuropsychologique, ont passé une IRM cérébrale et ont renseigné la fréquence du sentiment de solitude et d’autres symptômes dépressifs, comme des troubles du sommeil ou un manque d’appétit. Les participants ont également été évalués pour les facteurs de risque génétique de la maladie d’Alzheimer (notamment allèle APOE ε4). Les participants ont été suivis sur 10 ans. Cette étude montre que 144 des 2.308 participants ont déclaré se sentir seuls 3 jours ou plus au cours de la semaine précédente ; au cours du suivi, 329 des 2.308 participants ont été diagnostiqués avec la maladie : parmi les 144 participants "solitaires", 31 ont développé une démence. L’étude montre par ailleurs que les participants plus jeunes âgés de 60 à 79 ans mais solitaires apparaissent plus de 2 fois plus susceptibles de développer une démence. Au final, la solitude était associée à un risque multiplié par 3 de démence chez les participants plus jeunes non porteurs de l’allèle APOE ε4. Article rédigé par Georges Simmonds pour RT Flash Neurology | | | |
| Nouvelle avancée majeure en cancérologie : des chercheurs de l'Université de Californie San Francisco (UCSF) ont réussi à tirer parti d'un médicament approuvé par la FDA pour stopper la croissance des tumeurs provoquées par des mutations du gène RAS, qui sont notoirement difficiles à traiter et représentent environ un décès par cancer sur quatre. Ces scientifiques ont exploité l'appétit des cellules cancéreuses pour une forme réactive de fer ; ils ont modifié un médicament anticancéreux pour qu'il n'agisse que dans ces cellules riches en fer, laissant les autres cellules fonctionner normalement. Dans leurs recherches, ces chercheurs se sont focalisés sur les cancers pancréatiques et gastro-intestinaux à mutation RAS. Le gène RAS joue un rôle dans le tassement des voies de la cellule qui la pousse nt à se développer et à se diviser. Les traitements actuels, comme le cobimétinib, réussissent à bloquer cette activité de croissance excessive déclenchée par la mutation, mais ils le font également dans de nombreux autres tissus non cancéreux, entraînant des effets secondaires graves. Ces travaux ont montré que de nombreuses tumeurs provoquées par la forme KRAS des mutations RAS ont des taux élevés de fer ferreux et sont plus agressives. Pour tirer parti de cette caractéristique ferrique, ces scientifiques ont synthétisé une nouvelle version du cobimétinib - surnommé TRX-cobimetinib- portant un petit capteur moléculaire de fer ferreux, qui désactive efficacement le cobimétinib jusqu'à ce qu'il rencontre du fer ferreux dans les cellules cancéreuses. Ces chercheurs ont ensuite testé le composé dans des modèles murins de plusieurs cancers induits par le KRAS et ont découvert qu'il était tout aussi efficace que cobimétinib dans la destruction des tumeurs. Les chercheurs ont ensuite combiné le TRX-cobimétinib avec d'autres médicaments anticancéreux synergiques pour fournir des traitements combin&eacut e;s qui se sont avérés encore meilleurs pour inhiber la croissance tumorale. Au final, les chercheurs espèrent bientôt proposer non pas un seul médicament nouveau, mais une dizaine de nouvelles combinaisons thérapeutiques actionnant cette voie ferrique spécifique, à l’œuvre dans les cancers difficiles à traiter, liés à cette fameuse mutation du gène RAS. Article rédigé par Georges Simmonds pour RT Flash UCSF | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|