| | | | | | | Edition du 09 Octobre 2020 |
| |
|
| Edito Nous allons sortir de l’ère du Pétrole, mais pas pour les raisons que nous imaginions…
Avant Propos : Chaque semaine, jusqu'à la fin de notre campagne de dons qui se terminera au 31 Décembre, je vous ferai un bref résumé de l'état d'avancement de cette campagne d'adhésions et de dons à notre Association pour permettre à RT Flash de survivre. Au moment où je clos cet édito, nous avons atteint les 6.120 euros d'adhésions et de dons. Je veux remercier les 88 personnes qui ont déjà adhéré à notre Association. Nombreuses parmi ces 88 personnes sont celles qui ont ajouté un don à leur adhésion. Si vous voulez aider RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant : Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 % Editorial : La consommation mondiale de pétrole a dépassé, début 2020, les 95 millions de barils par jour. Le baril, unité de volume utilisée dans les milieux industriels et financiers, équivaut à 159 litres, ce qui signifie que l’Humanité "boit" chaque jour plus de 15 milliards de litres de cette énergie fossile. Au cours de ces 50 dernières années, la consommation mondiale de pétrole a plus que quadruplé, passant d’un milliard de tonnes par an, à plus de 4,5 milliards de tonnes par an. Plus de la moitié de ce pétrole sert à alimenter les moteurs des véhicules : voitures, camions, bateaux, trains et avions. Un dixième environ se consume dans des usines thermiques qui produisent de l’électricité. Un vingtième alimente les chauffages des bâtiments et logements. Le pétrole est également indispensable pour assurer la production industrielle d’une multitude de matériaux et de produits chimiques, emballages, pièces pour l’automobile, matériaux de construction, meubles, matériel électronique, fibres textiles, peintures, solvants, produits phytosanitaires, cosmétiques… Pourtant, contrairement à une opinion largement répandue, la part du pétrole dans le mix énergétique mondial (14,2 gigatonnes d’équivalent-pétrole), ne cesse de décliner. Aujourd’hui, le pétrole ne représente plus que 31 % de la consommation mondiale d’énergie, contre 45 % en 1974. Une baisse qui s’explique par l’amélioration globale de l’efficacité énergétique de nos économies, tant au niveau des transports, que de l’industrie et du chauffage. Bien qu’il soit probable que la consommation mondiale de pétrole continue de progresser en valeur absolue jusqu’en 2040, tirée notamment par le secteur des transports terrestres, aériens et maritimes, les derniers scénarios de l'Agence Internationale de l'Energie (AIE), prévoient une demande de pétrole qui devrait progresser beaucoup moins vite que par le passé. L’AIE table en effet sur une consommation journalière de 103,5 millions de barils par jour, contre environ 92,5 en 2015, selon le scénario central de l'agence énergétique, qui tient compte des engagements pris par les pays dans le cadre de l'Accord de Paris, qui vise à limiter le réchauffement climatique sous les 2 degrés. Les réserves mondiales prouvées de pétrole sont estimées à 1700 milliards de barils depuis quelques années, soit 2,5 fois plus qu’au début des années 80. Ces réserves prouvées désignent les quantités de pétrole qui ont 90 % de chance d’être récupérées et rentabilisées. Ces réserves prouvées pourraient, en théorie, couvrir une cinquantaine d’années de consommation, ce qui repousse un peu plus l’échéance du pic pétrolier. Mais en 2015, Ron Patterson, l'un des meilleurs observateurs de la production pétrolière mondiale et animateur du site peakoilbarrel.com, a publié dans la très sérieuse revue Wiley Interdisciplinary Review, une analyse remarquée, intitulée « une analyse globale de l'énergie » (Voir Wiley). Dans cette publication, M. Jefferson explique notamment les raisons de la hausse du niveau des réserves de pétrole dit « conventionnel ». « Les cinq principaux exportateurs de pétrole du Moyen-Orient ont modifié la base de leur définition des "réserves prouvées" de pétrole conventionnel, en faisant passer la probabilité d'exploitation de 90 % à 50 % en 1984. Le résultat a été une augmentation apparente (mais pas réelle) de leurs «réserves prouvées» de 435 milliards de barils.(...) de plus, les publications des chiffres des réserves comprennent désormais le pétrole lourd vénézuélien et les sables bitumineux canadiens, qui, bien que plus difficiles et coûteux à extraire (et de moins bonne qualité en général que le pétrole conventionnel) g onflent les chiffres "officiels" de 440 milliards de barils supplémentaires (le Venezuela représentant 270 milliards de barils et le Canada 170 milliards de barils). » Selon cette étude, le chiffre des réserves prouvées - 1700 milliards de barils - serait donc surévalué à hauteur de 875 milliards. L’étude souligne que les réserves économiquement exploitables de pétrole « non conventionnel », issu principalement des schistes bitumeux ou des sables asphaltiques, ne représente, au mieux qu’une quinzaine d’années de consommation mondiale au rythme actuel. En outre, selon la société Rystad Energy, le coût d’extraction du pétrole non conventionnel s’élèverait, du fait de la baisse tendancielle de sa productivité, à 46 dollars le baril, un seuil devenu trop élevé pour que ce type de pétrole puisse rester rentable à long terme. Une autre étude publiée il y a un an par le Centre de recherche géologique de Finlande (GTK) a fait grand bruit en montrant de manière très argumentée que ce fameux « Pic » de production mondiale de pétrole, annoncé depuis des lustres, allait probablement survenir d’ici seulement quelques années (Voir GTK). Ce rapport intitulé, « Analyse critique du pétrole en tant que matière première » (Oil from a Critical Raw Material Perspective) souligne que s'il reste des réserves pétrolières importantes, le pétrole facile et peu coûteux d’accès a déjà été largement exploité. Selon ce rapport, 81 % des champs pétrolifères conventionnels sont actuellement en déclin, et le taux de découverte de nouveaux champs pétrolifères ne cesse de se réduire. Certes, depuis dix ans, cette diminution des réserves de pétrole conventionnel a pu être compensée par celles de pétrole non conventionnel. Mais son extraction nécessite notamment le recours à la fracturation hydraulique qui est très coûteuse, comme pour le pétrole de schiste américain, dont la producti on moyenne a augmenté de 28 % entre 2010 et 2018. Selon le GTK, nous nous rapprocherions inexorablement du moment où les investisseurs perdront confiance dans l’industrie pétrolière, de moins en moins rentable. Le rapport conclut que la production américaine de pétrole de schiste "sera probablement en déclin terminal dans les 5 à 10 prochaines années". C'est aussi l'analyse du prospectiviste Jeremy Rifkin, qui prédit l'effondrement de la civilisation fossile d'ici 2028, notamment car les énergies renouvelables deviennent beaucoup moins chères que le pétrole. L’étude du GTK souligne que la plupart des analystes du marché pétrolier sont trop concentrés sur le déclin géologique des champs pétrolifères, et n’ont pas assez pris en compte des facteurs économiques et financiers majeurs, comme la politique de taux d'intérêt proche de zéro qui a permis le « boum » américain du pétrole de schiste. Comme le souligne avec beaucoup de bon sens l’expert Samule Furfari, « Les réserves pétrolières – c’est aussi vrai pour le gaz naturel ou pour tout autre produit de l’industrie minière – dépendent du prix que l'on est prêt à payer, d’abord pour les découvrir et ensuite pour les exploiter. Les réserves évoluent donc au fur et à mesure des améliorations de la technologie. Quand on a compris cela, alors on comprend que le pétrole ne sera jamais épuisé ! Le jour où il deviendra trop cher par rapport aux autres solutions, il ne sera plus extrait. » Contrairement à une croyance très largement répandue, le pétrole risque donc d’atteindra son pic de production non pas parce qu'il n'y a plus assez de réserves dans le sous-sol pour répondre à la demande, mais parce que les consommateurs ne vont tout simplement plus pouvoir payer le prix du pétrole à un niveau qui permet aux producteurs de pétrole de continuer à amortir leurs investissements croissants et à dégager en plus des bénéfices… La production pétrolière se retrouve à présent soumise à un effet de « ciseau entre deux tendances très puissantes : la première, prévisible, est un coût moyen d’extraction qui ne peut que croître, même hors taxe carbone, parce que le pétrole facile a déjà été largement exploité. La seconde, qui n’a pas été anticipée, est la baisse bien plus rapide que prévue du coût d’utilisation massive des énergies renouvelables et non carbonées, qu’il s’agisse du solaire, de l’éolien ou de l’hydrogène, appelée à devenir à la fois une source et un vecteur majeur d’énergie. Or, en 2021, le coût moyen de production de l’électricité solaire et éolienne (dans sa version terrestre) va tomber, en moyenne, pour les grandes installations, en dessous des 5 centimes de dollar le kWh, un coût qui deviendra comparable à celui de l’électricité produite par les centrales au charbon ou au gaz et qui devrait encore diminuer de moitié d’ici 2040, grâce aux ruptures technologiques en cours, comme les films solaires organiques souples, les cellules solaires multi-jonctions à très haut rendement, ou encore les éoliennes flottantes de grande puissance. Une étude indépendante très intéressante, publiée en mars dernier par BloombergNEF (BNEF), révèle que l’hydrogène produit à partir d’énergies renouvelables pourrait réduire d’un tiers les émissions mondiales de gaz à effet de serre provenant des combustibles fossiles et de l’industrie. (Voir Bloomberg NEF). Selon cette étude très documentée, l’hydrogène renouvelable – obtenu donc à partir de l’énergie solaire et éolienne – pourrait être produit pour 0,8 à 1,6 $/kg (entre 0,7 et 1,5 euro par kilo) dans la plupart des régions du monde avant 2050. Si l’on inclut le coût des infrastructures de stockage et de transport, le coût de l’hydrogène renouvelable pourrait tomber – en Chine, en Inde et en Europe occidentale – à environ 2 $/kg (1,8 euro) en 2030 et 1 $/kg (0,9 euro) en 2050. Sachant que les véhicules à hydrogène consomment environ un kg pour 100 Km, cela signifie qu’il est possible d’envisager un « plein » d’hydrogène, permettant de parcourir plus de 1000 km, à 18 euros dans dix, ans et à 9 euros en 2050…Kobad Bhavnagri, auteur principal du rapport de BNE F, en est persuadé, « L’hydrogène a le potentiel pour devenir le carburant d’une économie propre. Dans les années à venir, il sera possible de le produire à faible coût en utilisant l’énergie éolienne et solaire, de le stocker sous terre pendant des mois, puis de le canaliser à la demande pour tout alimenter, des navires aux aciéries ». Il est vrai qu’actuellement, le coût de l'hydrogène décarboné, plus de 5 euros le kilo, n’est pas compétitif avec des carburants issus des énergies fossiles et c’est bien pour cette raison que la quasi-totalité des 80 millions de tonnes d’hydrogène produits chaque année dans le monde reste fabriquée par vaporeformage, une technologie peu onéreuse – un euro le kg d’hydrogène -mais beaucoup trop polluante, puisqu’elle émet dix kg de CO2 par kg d’hydrogène obtenu… Sachant que les trois quarts du coût de production de l'hydrogène provient du coût de l'électricité, pour baisser de manière drastique le coût de production de l’hydrogène « vert », de manière à rendre cette énergie plus compétitive que les énergies fossiles, il est essentiel que l’électricité verte nécessaire à la production d’hydrogène par électrolyse soit moins chère que celle issue des centrales au charbon ou au gaz. Et cela est désormais le cas : en moins de dix ans, le prix de l’électricité produite par une centrale solaire de grande puissance est ainsi passé de 276 euros le mégawattheure (MWh) à 52,1 euros le mégawattheure (MWh). Quant à l’électricité éolienne, elle est également devenue, en moyenne m ondiale, moins coûteuse à produire que celle issue du charbon et du gaz, avec un coût de l’ordre de 60 euros le MWh. Mais la production massive d’hydrogène vert à faible coût va également être favorisée par des avancées techniques décisives concernant l’efficience des électrolyseurs. Récemment, des chercheurs américains de l’université de Duke ont par exemple mis au point un feutre de microfibre de nickel qui s’est avéré capable de produire de manière 50 fois plus efficace que les électrolyseurs alcalins classiques actuellement utilisés pour l’électrolyse de l’eau. On voit donc se mettre en place, plus rapidement que prévu, les conditions technologiques, économiques et industrielles pour que l’hydrogène, comme le prévoit le Cabinet Mc Kinsey, représente au moins 20 % de l’énergie totale consommée dans le monde en 2050, ce qui permettrait également de réduire de 20 % nos émissions mondiales de CO2. La France, on le sait peu, est à la pointe de ces recherches visant à accélérer le basculement vers une économie décarbonée et à sortir définitivement de l’ère des énergies fossiles et du pétrole. Haffner Energy, une start-up de Vitry-le-François (Marne), issue du bureau d’études SOTEN spécialisé dans les centrales à biomasse et les unités de valorisation des déchets, a par exemple développé un remarquable procédé de thermolyse et de gazéification de la biomasse, baptisé Hynoca (pour Hydrogen NO Carbon). L’objectif affiché de cette société est, dans un premier temps, de produire de l’hydrogène pur à un coût compétitif de 4 euros le kilo à la pompe. A plus long terme, d’ici 10 ans, Hafner est persuadé qu’ ;il est possible, en améliorant l’efficacité énergétique de son procédé, de descendre à 1,50 euro le kilo d’hydrogène vert, issu de la biomasse. Il faut enfin évoquer un dernier facteur, outre le facteur technologique et économique, qui va précipiter la fin du pétrole et la sortie des énergies fossiles. Il s’agit bien sûr du facteur climatique. Sous la pression de leurs opinions publiques, les gouvernements vont être contraints d’instaurer, sous différentes formes, des taxes-carbone de plus en plus lourdes sur l’utilisation des énergies fossiles qui sont largement responsables de l’insupportable augmentation de nos émissions de CO2 et du réchauffement climatique en cours, dont on constate chaque jour les effets de plus en plus dévastateurs. Si l’on prend en considération l’ensemble de ces éléments, on comprend mieux pourquoi le consensus qui prévalait encore il y a peu, selon lequel une sortie du pétrole était impossible avant la seconde moitié de ce siècle, est à présent sérieusement remis en cause… Nous devons comprendre que la sortie accélérée du pétrole, et plus largement des énergies fossiles, est non seulement une nécessité vitale pour l’humanité, mais également une formidable opportunité qui peut favoriser à la fois l’innovation technologique, la création d’emplois nouveaux, et la reconstruction d’une économie mondiale prospère et dynamique, capable d’utiliser comme nouveau moteur la valorisation intelligente et le recyclage permanent des ressources et des énergies que nous offre la Nature. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | L’équipe Google AI Quantum a réussi à modéliser une réaction chimique sur son Sycamore, un processeur de 54 qbits. Ils sont partis d’une molécule de diimide (aussi appelé diazène) et ont simulé une réaction chimique qui change la disposition de deux des atomes qui le constituent. Cette réaction a beau être simple et bien connue, c’est une avancée tout à fait remarquable dans cette discipline encore très exploratoire. Si ce résultat est aussi encourageant, c’est que les problèmes de structure moléculaire font partie des cibles principales de l’informatique quantique. Les propriétés des molécules dépendent très largement de l’agencement de leurs atomes. Comprendre les phénomènes qui se déroulent à cette échelle, c’est donc la promesse de progrès conséquents en biologie, en science des matériaux, et dans bien d’autres domaines. Sauf que ces problèmes d’organisation 3D des molécules, comme le repliement des protéines, sont bien trop complexes pour nos ordinateurs conventionnels. Rien à voir avec les quelques formules de réaction des livres de cours : à l’échelle atomique, la chimie est un océan de possibilités d’une complexité qui dépasse l’entendement. Il faut par exemple plusieurs jours, voire semaines, à un supercalculateur “classique” pour résoudre certains de ces problèmes. Pour réaliser de telles simulations, il faut donc utiliser d’autres technologies… comme l’informatique quantique. Rien à voir avec la force brute de l’informatique traditionnelle : ici, les bits classiques passent à la trappe au profit de quantum bits – ou qbits. Sans rentrer dans le détail, ces unités offrent aux ingénieurs de toutes nouvelles approches de calcul. Cela permet de résoudre en quelques minutes des problèmes qui pourraient prendre des années à un supercalculateur. Les chercheurs de Google ont donc fait appel au processeur Sycamore (le processeur qui avait fait grand bruit en 2019 en atteignant la “suprématie quantique”) pour simuler cette réaction du diazène. Cette dernière n’a d’ailleurs pas été choisie au hasard : elle est assez simple pour être simulée par une méthode classique, sans ordinateur quantique. Cela a permis aux chercheurs de comparer les résultats obtenus via Sycamore à ceux issus de l’ordinateur traditionnel dont on sait qu’ils sont fiables. Bonne nouvelle : les deux résultats ont correspondu, ce qui signifie que Sycamore a bien fait son travail. Une conclusion encourageante, qui ouvre la porte à des simulations encore plus complexes dans le futur. De quoi développer des matériaux plus performants ou de nouveaux médicaments, et faire des pas de géants en physique et chimie fondamentales. Article rédigé par Georges Simmonds pour RT Flash Phys.org | | | |
| Combiner modélisation fine des interactions moléculaires et calcul rapide, c'est le credo de Qubit pharmaceuticals, qui vient de clore une levée de fonds d'amorçage menée par le fonds d'investissement spécialisé Quantonation. « Nous faisons rentrer un maximum de physique quantique dans un temps de calcul réduit », résume Jean-Philip Piquemal, directeur scientifique de la start-up et directeur du laboratoire de chimie théorique (CNRS-Sorbonne Université). Avec sa suite logicielle baptisée Atlas, la start-up entend mettre son savoir-faire issu de recherches menées au sein de quatre laboratoires français et américains au service des laboratoires pharmaceutiques pour les aider à développer des médicaments. Que ce soit dans les phases de criblage – le test d'un grand nombre, jusqu'au million, de molécules – ou d'optimisation des molécules candidates, la simulation numérique est déjà largement utilisée par les industriels. Mais de façon simplifiée. « Pour simuler de grosses bio-molécules et leurs interactions avec un grand nombre de candidats médicaments dans un temps réduit, la pharmacie simplifie fortement la physique, jusqu'à ignorer complètement les effets quantiques pourtant cruciaux au niveau moléculaire », pointe Jean-Philip Piquemal. La start-up, elle, inclut une partie de la physique quantique dans ses simulations. « Nous intégrons le couplage global des atomes qui se traduit par des effets dits à N corps qui jouent un rôle important dans les biomolécules portant des charges électriques et des éléments métalliques », avance le scientifique. Et de poursuivre : « Nous sommes même capables de modéliser la formation et la rupture de liaisons entre atomes, ce qui est très intéressant pour la pharmacie ». Cette simulation prenant en compte la physique quantique n'est qu'un ingrédient – le plus ancien – de l'innovation de la start-up. Le deuxième réside dans l'optimisation du code pour réduire le temps de calcul. « A partir de 2012, nous avons reformulé nos équations pour pouvoir tourner sur des supercalculateurs massivement parallèles avec jusqu'à 10 000 coeurs de calcul. Notre code, réalisé en 2016, a d'ailleurs reçu le prix Atos-Joseph Fourier en 2018 », souligne Jean-Philip Piquemal. Comme le deep learning, la modélisation moléculaire de Qubit Pharmaceuticals manipule de très grosses matrices. La start-up a donc pris le virage des processeurs graphiques (GPU) en s'inscrivant dans la convergence entre le calcul intensif (HPC) et l'intelligence artificielle. Une nouvelle adaptation du code qui aboutit à « une accélération des calculs de l'ordre du million sur ces dernières années », selon le directeur scientifique. Une accélération éprouvée en 2019 sur le supercalculateur Jean Zay, après que « le CNRS nous a sélectionnés pour faire la démonstration à pleine échelle d'un code de chimie tournant sur une machine convergée », rappelle Jean-Philip Piquemal. La start-up veut aller plus loin et travaille sur l'évolution de ses algorithmes pour préparer l'arrivée des puces quantiques. Avec, pour maître-mot, l'hybridation, soit la répartition des calculs entre processeurs quantiques et classiques. « Un gros boulot en cours consiste à déterminer au niveau industriel quels sont les calculs qui seront réellement accélérés en quantique et quels sont ceux qu'il sera préférable de faire tourner sur des GPU. En interne, nous allons organiser une compétition entre les équipes du quantique et celles du classique. S'ajoutera un travail d'optimisation de cette architecture hybride », détaille le scientifique. Qubit Pharmaceuticals entend d'abord assurer des prestations de services pour les labos pharmas dans l'optimisation des molécules candidates mais compte bien par la suite travailler sur le criblage de molécules pour co-découvrir des molécules d'intérêt avec les labos. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Des chercheurs américains de l’Institut Cornell ont mis au point des robots résistants et microscopiques qui avancent sur quatre pattes et ne mesurent pas plus d'un dixième de millimètre, la taille d'un cheveu. « Ces robots sont si petits qu'ils sont invisibles à l'œil nu. Ils possèdent quatre pattes, alimentées par des cellules solaires embarquées. En envoyant une lumière laser sur ces cellules photovoltaïques, nous pouvons faire bouger les jambes, ce qui fait marcher le robot », explique Marc Miskin de l'Université de Cornell aux Etats-Unis. Chaque robot est constitué d'un simple circuit fabriqué à partir de cellules photovoltaïques en silicium (le corps) et de quatre actionneurs électrochimiques (les pattes). Selon l'étude, ces mini-robots de 0,1 mm sont robustes, et peuvent survivre à des environnements très acides et encaisser des variations de température de plus de 70°C. Ces robots - les chercheurs en ont produit plus d'un million - pourraient être utiles en science des matériaux, par exemple pour la réparation de matériaux à l'échelle micro, mais ils pourraient aussi être injectés au moyen d'aiguilles hypodermiques, offrant ainsi la possibilité d'explorer des environnements biologiques », note l'étude. Les deux chercheurs du MIT, Allan Brooks et Michael Strano, rappellent que le prix Nobel de physique Richard Feynman suggérait déjà en 1959 qu'il serait intéressant « d'avaler le chirurgien », c'est-à-dire de fabriquer un robot si petit qu'il pourrait se déplacer dans les vaisseaux sanguins pour opérer là où c'est nécessaire. « 50 ans de réduction de l'électronique ont conduit à des technologies remarquablement minuscules : vous pouvez construire des capteurs, des ordinateurs, de la mémoire, le tout dans des espaces très réduits. Mais si vous voulez un robot, vous avez besoin d'actionneurs, de pièces qui bougent », explique Marc Miskin. Mais qui bougent sans avoir à embarquer avec eux une source d'énergie trop lourde ou trop volumineuse. Pour l'instant, ces microscopiques robots à quatre pattes sont encore loin d'être parfaits : ils sont notamment lents et incontrôlables. Associés à des composants microélectroniques, ils pourraient permettre de construire des micro-robots totalement autonomes. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| | | L’urgence climatique n’est plus à démontrer : le nombre de jours de canicule augmente chaque année ; les relevés de températures atteignent régulièrement des records ; les îlots de chaleur urbains se multiplient… Tandis que ce réchauffement s’accélère, il est aussi vital qu’urgent d’agir et d’employer les solutions éprouvées qui existent par ailleurs. Aussi, face à ces variations thermiques extrêmes, la géothermie de surface, dite de proximité, apparaît comme une technologie efficiente et économique, tant en hiver qu’en période estivale. Selon le bilan climatique Météo-France, 2019 se place au 3ème rang des années les plus chaudes depuis 1950 en Métropole, en ayant enregistré des températures records : jusqu’à 45,9°C ! Durant ces épisodes caniculaires, le phénomène d’îlots de chaleur est particulièrement marqué et entraîne des températures difficilement supportables et du stress thermique au sein des villes. Le tout accentué par un usage grandissant de la climatisation par aérothermie, dont les appareils réchauffent l’air extérieur. Dans ce contexte, l’AFPG – Association Française des Professionnels de la Géothermie – réaffirme les qualités intrinsèques de la géothermie de proximité en réponse aux enjeux climatiques, économiques et sociaux actuels. Moins coûteuse en fonctionnement et plus pérenne, cette énergie renouvelable et responsable contribue particulièrement à l’amélioration de la qualité de vie en milieu urbain et dense. La géothermie de surface est une technologie simple et maîtrisée. Elle consiste à capter la chaleur de la terre à l’aide de sondes de faible profondeur, pour la diffuser dans les habitations ou installations de toutes natures, sous forme d’énergie de chauffage ou de refroidissement. La géothermie de surface s’inscrit parmi les atouts majeurs de la transition énergétique de la France, particulièrement dans les grandes villes comme le témoigne la vague verte qui a déferlé au second tour des élections municipales. Cette énergie renouvelable est la seule capable d’apporter des solutions thermiques en toute saison, en chaud et en froid, sans provoquer pour autant d’élévation de température dans l’atmosphère en été. Soit un avantage considérable pour faire face au défi de la production de froid en milieu urbain durant les mois les plus chauds. En cela, elle permet de diviser par 10 l’empreinte carbone des bâtiments et de répondre à 70 % de leurs besoins énergétiques, tout en créant des emplois non délocalisables. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | | |
| L’idée d’un contrôle non destructif de l’endommagement et la fissuration par fatigue à partir de la détection des émissions acoustiques induites est ancienne. Ce type d’analyse classique, relativement aisé à mettre en œuvre dans le principe, est confronté à divers problèmes : un problème classique de rapport signal/bruit, exacerbé en situations réelles ou industrielles pour lesquelles les sources de bruit ambiant sont nombreuses et mal caractérisées. Ceci rend la localisation des fissures sources à partir des émissions acoustiques extrêmement difficile. Il faut également surmonter le problème lié à un manque de spécificité vis-à-vis des mécanismes sources ; même en considérant un rapport signal/bruit très favorable, divers mécanismes physiques peuvent générer des émissions acoustiques lors de la fatigue des matériaux. Des essais de fatigue oligocyclique ont été effectués sur de l’aluminium pur, un acier austénitique 304 L, un alliage de cuivre-cobalt-béryllium et du cuivre pur. Cette campagne a révélé la présence systématique de signaux d’EA quasi identiques, récurrents, lors de ces essais de fatigue. Provenant d’une source unique et se déclenchant à chaque cycle pratiquement au même niveau de contrainte, ces multiplets acoustiques constituent une signature spécifique à la propagation de fissures de fatigue. Ces signaux peuvent être facilement différenciés à la fois du bruit environnemental, mais également des autres sources d’EA. Leur détection peut donc être considérée comme un signal d’alarme fiable et précoce de la fissuration et de la rupture par fatigue des matériaux, bien avant toute modification décelable des propriétés macroscopiques du matériau et/ou de la structure. Cette méthode de détection permet ainsi de relativement bien s’affranchir des problèmes de rapport signal/bruit. Jusqu’à présent, uniquement des essais de laboratoire ont été effectués, dans des conditions et sur des machines où le bruit était minimisé au maximum. Le passage aux situations industrielles représenterait certainement un challenge supplémentaire ardu, du fait des sources de bruit mécanique et/ou acoustique ambiant, ou d’histoires de chargement plus complexes. Il est à noter toutefois que, dans ce contexte, la nature particulière de ces signaux acoustiques, et en particulier leurs propriétés de corrélation, sera un atout important pour les discriminer du bruit ambiant, qui peut être cyclique dans le cas d’un bruit machine, mais qui est par nature toujours décorrélé. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| La course aux sources d’énergie renouvelables battant son plein, les plantes constituent l’un des candidats les plus prometteurs pour remplacer le pétrole brut. En particulier, la lignocellulose – biomasse issue des plantes non comestibles telles que l’herbe, les feuilles et le bois qui n’entrent pas en compétition avec les cultures alimentaires – est abondante et renouvelable et elle offre une formidable source alternative au pétrole pour toute une série de produits chimiques. Pour que l’on puisse en extraire des produits chimiques utiles, la lignocellulose est tout d’abord prétraitée pour qu’elle soit plus poreuse et ainsi plus facile à transformer biologiquement. Elle est ensuite exposée à des enzymes qui solubilisent la cellulose, une chaîne de sucres reliés entre eux (glucose). Cette étape peut se faire par l’addition à la lignocellulose prétraitée d’un microorganisme qui produit naturellement les enzymes nécessaires au clivage de la cellulose, par exemple un champignon. Ces enzymes « cassent » la cellulose et la réduisent en ses sucres individuels, qui peuvent continuer à être traités pour produire un produit chimique important : l’acide lactique. Cette deuxième étape est aussi accomplie avec un microorganisme, une bactérie qui « mange » les sucres et produit de l’acide lactique en l’absence d’oxygène. Dans l’étape finale de cette ligne d’assemblage microbienne, l'acide lactique peut être traité pour produire toute une série de produits chimiques utiles. Une équipe de scientifiques de l’Université des sciences appliquées de Berne (BFH), de l’Université de Cambridge et de l’EPFL, ont été capables d’inclure cette chaîne d’assemblage dans un système unique et ont démontré que cette conversion peut être plus polyvalente et modulable. En échangeant facilement les microorganismes dans l’étape finale de traitement de l’acide lactique, ils peuvent produire toute une série de produits chimiques utiles. Cette étude est publiée dans Science et elle a été menée par Robert Shahab, un doctorant de l’EPFL, dans le laboratoire du Professeur Jeremy Luterbacher, alors qu’il travaillait dans le laboratoire du Professeur Michael Studer à la BFH, qui a dirigé l’étude. Les chercheurs présentent ce qu’ils appellent la « plateforme lactate », qui est essentiellement un bioréacteur dans lequel il y a une ségrégation de l’espace et qui permet la co-existence de multiples micro-organismes différents, chacun réalisant l’une des trois étapes du traitement de la lignocellulose. Cette plate-forme consiste en une membrane tubulaire qui laisse passer une quantité d’oxygène définie. Sur la surface du tube, on peut faire pousser le champignon, qui consomme tout l’oxygène passant à travers la membrane et fournit les enzymes qui dégraderont la cellulose en sucres. À distance de la membrane et donc dans une atmosphère sans oxygène poussent les bactéries qui « mangeront » les sucres et les transformeront en acide lactique. Toutefois, l’innovation introduite par Shahab est dans la dernière étape. En utilisant divers microorganismes qui fermentent l’acide lactique, il a pu produire une multitude de produits chimiques utiles. Un exemple a été l’acide butyrique, qui peut être utilisé dans des bioplastiques, tandis que le laboratoire de Luterbacher a montré récemment qu’il peut même être transformé en carburant pour avions. Ce travail démontre les bénéfices de cultures microbiologiques mixtes dans le traitement de la biomasse de lignocellulose : modularité et possibilité de convertir des substrats complexes en précieux produits chimiques sur la plate-forme. « Les résultats obtenus avec la plateforme lactate montrent élégamment les avantages de consortiums microbiologiques artificiels pour la formation de nouveaux produits à partir de la lignocellulose », déclare Michael Studer. « La création de niches dans des bioréacteurs constitue un outil précieux pour la co-culture de divers microorganismes ». « La fermentation de la lignocellulose en une multitude de produits différents a exigé une quantité de travail importante mais il était important de montrer le caractère polyvalent de la plateforme lactate », dit Robert Shahab. « Voir la formation du lactate et sa conversion en des produits cibles a été une expérience fantastique car elle a montré que le concept de la plateforme lactate fonctionnait dans la pratique ». Jeremy Luterbacher ajoute: « Le but ultime est de reconstruire un secteur de fabrication renouvelable pour remplacer celui qu’on utilise actuellement qui génère de nombreux produits à partir du pétrole brut ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Aujourd’hui, l’intérieur des fibres optiques se constitue de verre plein. Il n’y a pas d’air. La lumière s’y propage, mais perd la moitié de son intensité au bout de quinze kilomètres. Puis, elle faiblit continuellement pour être à peine détectable à 300 kilomètres. La lumière doit alors être régulièrement amplifiée afin de poursuivre son chemin. Les nouvelles fibres creuses, avec lesquelles travaille Luc Thévenaz, renferment de l’air ou du gaz. « L’air permet d’avoir moins d’atténuation et donc une propagation à plus longue distance. Il s’agit d’un grand avantage », explique le professeur de la faculté des Sciences et techniques de l’ingénieur. Cependant, dans un milieu ténu comme l’air, la lumière est bien plus difficile à amplifier. « C’est la quadrature du cercle : la lumière se propage mieux lorsqu’elle a moins d’interaction avec la matière. En contrepartie, la possibilité d’agir sur la lumière se restreint d’autant. Notre découverte a résolu ce problème », révèle le scientifique. Comment les chercheurs ont-ils procédé ? « Nous mettons simplement l’air de la fibre sous pression. On crée ensuite une perturbation bien ordonnée. A l’aide du principe de la pince optique, les molécules d’air sont comprimées et forment de petites concentrations espacées régulièrement. Une onde sonore se développe et prend de l’amplitude, diffractant efficacement la lumière d’une source puissante vers le faisceau affaibli, jusqu’à l’amplifier 100 000 fois », déclare Fan Yang, postdoctorant. Grâce à cette nouvelle technologie, la puissance de la lumière est considérablement multipliée. « Notre découverte s’applique à toutes les lumières, de l’infrarouge à l’ultraviolet, et à tous les gaz », ajou te le scientifique. A l’avenir, ce système ne servira pas seulement à amplifier la lumière. Les fibres optiques à cœur creux et à gaz comprimé pourront également être utilisées comme thermomètre ultra précis. « Nous serons capables de mesurer la distribution de température à n’importe quel endroit de la fibre. Par exemple, si un feu apparaît dans un tunnel, nous saurons exactement où il s’est déclenché en fonction de l’augmentation de la chaleur à un point donné », indique Flavien Gyger, doctorant. Cette technologie sera aussi utile pour créer une mémoire optique temporaire. La lumière pourra être stoppée dans la fibre durant une microseconde, soit dix fois plus longtemps qu’actuellement. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | D’où vient l’eau, présente en si grande quantité sur Terre ? Selon des chercheurs français, notre planète aurait été, dès son origine, riche en eau, vraisemblablement contenue en abondance dans les roches qui l'ont constituée. La cosmochimiste Laurette Piani, qui a dirigé cette étude du Centre de recherches pétrographiques et géochimiques (CNRS/Université de Lorraine), souligne que cette découverte battait en brèche la thèse dominante selon laquelle l'eau aurait été apportée plus tardivement par des astéroïdes et comètes ayant bombardé une Terre initialement sèche. Cette hypothèse était favorisée par les températures trop élevées du système solaire qui auraient empêché que l'eau se condense et s'agglomère aux autres solides sous forme de glace. Les chercheurs français se sont penchés sur des météorites appelées chondrites à enstatite qui ont la particularité d'avoir une composition chimique proche de celle de la Terre. Ce qui indique qu'elles sont similaires aux roches qui en faisaient partie dès sa formation. En mesurant le contenu en hydrogène de 13 de ces météorites relativement rares, l'équipe a constaté que les roches primitives de la planète bleue en décelaient suffisamment pour lui fournir au moins trois fois la masse d'eau de ses océans, voire plus encore. « Nous avons découvert que la composition isotopique de l'hydrogène des chondrites à enstatite était similaire à celle de l'eau stockée dans le manteau terrestre ». La composition isotopique des océans est pour sa part compatible avec un mélange contenant 95 % d'eau de ces chondrites, un élément supplémentaire étayant la thèse selon laquelle elles sont à l'origine de l'eau terrestre. Les auteurs ont également trouvé que les isotopes de l'azote de ces météorites sont similaires à ceux de l'azote de la Terre. Selon Laurette Piani, cette étude n'exclut pas un apport ultérieur en eau par d'autres sources, comme des comètes, mais elle insiste sur le fait que les chondrites à enstatite ont contribué de manière significative dès la formation de la planète. Ce travail apporte une pièce cruciale et élégante à ce puzzle, a écrit Anne Peslier, chercheuse à la NASA, dans un éditorial qui accompagne l'étude. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Le génome humain contient plus de 4,5 millions de séquences d’ADN appelées « éléments transposables », qui s’y sont répandus durant l’évolution et contribuent au contrôle de l'expression des gènes. Ils le font en se liant à des facteurs de transcription, qui sont des protéines qui contrôlent la vitesse de transcription de l’ADN en ARN, influençant ainsi l’expression des gènes dans un vaste domaine d’événements biologiques. Une équipe internationale de scientifiques dirigée par Didier Trono à l’EPFL a maintenant découvert que des éléments transposables jouent un rôle important dans le contrôle du développement du cerveau humain. Ces scientifiques ont trouvé que des éléments transposables régulent le développement du cerveau en établissant un partenariat avec deux protéines spécialisées de la famille de protéines connues sous le nom de « protéines KRAB à doigt de zinc » ou KZFP. En 2019, une autre étude dirigée par Trono a montré que les KZFP jugulaient l’activité régulatrice d’éléments transposables durant les tout premiers jours de la vie de l’embryon. Ils soupçonnaient toutefois que ces séquences régulatrices étaient réactivées ultérieurement pour orchestrer le développement et le fonctionnement d’organes adultes. Les chercheurs ont identifié deux KZFP présentes seulement chez les primates et ils ont trouvé qu’elles sont exprimées dans des régions spécifiques du cerveau humain, tant durant son développement que chez l’adulte. Ils ont en outre observé que ces protéines contrôlaient l'activité d’éléments transposables dans des neurones et des organoïdes cérébraux cultivés au laboratoire. En conséquence, ces deux KZFP influençaient la différenciation et le profil de neurotransmission de ces neurones, tout en les protégeant contre des réponses inflammatoires qui étaient déclenchées si leurs éléments transposables cibles n’étaient pas réprimés. « Ces résultats révèlent comment deux protéines qui ne sont apparues que récemment dans l’évolution ont contribué à modeler le cerveau humain en facilitant la cooptation d’éléments transposables, ces cousins des virus qui refaçonnent notre génome depuis la nuit des temps » déclare Didier Trono. « Nos résultats suggèrent aussi de possibles mécanismes pathophysiologiques derrière des maladies telles que la sclérose latérale amyotrophique ou d’autres troubles neurodégénératifs ou neuro-développementaux, et ils fournissent des pistes pour la prévention ou le traitement de ces affections ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Au niveau mondial, les recherches montrent une augmentation de l’émergence de maladies infectieuses et d’épidémies, une perte accélérée de la biodiversité et une augmentation importante de la production d’animaux domestiques. Mais quel est le lien entre ces différentes manifestations ? Cette question résurgente suite à la crise du Covid-19 trouve une première vague de réponses grâce à une nouvelle étude en écologie des parasites. Son objectif ? Décrire les schémas globaux de la biodiversité et des maladies infectieuses dans l’espace et le temps. Pour cela, le chercheur à l’origine de cette étude a croisé plusieurs bases de données ouvertes sur les santés humaine et animale, l’augmentation du bétail et la perte de biodiversité. Une première analyse montre que le nombre d’épidémies répertoriées chez les humains dans chaque pays (16 994 épidémies pour 254 maladies infectieuses entre 1960 et 2019) augmente en corrélation avec la perte locale de biodiversité. L’émergence d’épidémies serait alors un marqueur inquiétant pour la conservation des espèces. Elle illustrerait ainsi les derniers soubresauts d’une biodiversité en extinction. La relation entre le nombre d’espèces en danger et celui des épidémies augmente jusqu’à atteindre un pic avant de diminuer. Cependant, le risque épidémique ne diminue pas avec la disparition des espèces, il est au contraire relayé par l’augmentation du nombre de têtes de bétail. Ce deuxième résultat se confirme également dans une analyse temporelle (2006 – 2019) qui le place au cœur de risques sanitaires. En effet, l’accroissement du bétail sur l’ensemble de la planète impacte directement la faune sauvage et le nombre d’épidémies chez l’homme et l’animal domestique. Cette étude invite à réfléchir à la place de l’animal d’élevage et de sa croissance dans le monde qui varient selon différents facteurs à travers les nations (démographie humaine, régimes alimentaires, etc.). Une nouvelle vision intégrant les valeurs culturelles associées aux animaux est donc nécessaire à la réflexion sur la place commune des animaux sauvages et domestiques pour diminuer les risques sanitaires et protéger la biodiversité. De futures réflexions seront notamment menées sur le rôle joué par le bétail en situation pandémique avec, d’une part, la demande en protéines végétales nécessaires à sa nourriture qui contribue à la diminution des aires d’animaux sauvages ; mais aussi sa place en tant que pont épidémiologique favorisant le passage des agents infectieux du monde animal à l’espèce humaine. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Une étude réalisée par des chercheurs de l’Edith Cowan University – ECU - (Perth, en Australie-Occidentale) a montré que certains légumes, et pas toujours nos préférés, sont peut-être les plus bénéfiques pour prévenir les maladies vasculaires. Le brocoli et les choux de Bruxelles se révèlent ici des aliments cruciaux pour la santé des vaisseaux, en combattant naturellement contre l’accumulation de calcium, un marqueur clé du développement de l’athérosclérose, un facteur majeur d’événement cardiaque. Cette étude de cohorte qui a suivi 684 femmes âgées recrutées en 1998, révèle que les participantes dont le régime alimentaire comprenait le plus de légumes crucifères ont un risque très réduit d’accumulation de calcium, un marqueur clé de maladie des vaisseaux sanguins (artères et veines), principale cause de crise cardiaque ou d'accident vasculaire cérébral. L’auteur principal, le Docteur Lauren Blekkenhorst, et son équipe apportent ici une première explication des mécanismes sous-jacents à ces bénéfices. La vitamine K, bien connue pour sa capacité à inhiber le processus de calcification qui se produit dans nos vaisseaux sanguins, est retrouvée en grande quantité dans les légumes crucifères. Ici, l’étude montre que les participantes qui consomment plus de 45 g de légumes crucifères chaque jour (par exemple ¼ tasse de brocoli cuit à la vapeur ou ½ tasse de chou cru) ont un risque réduit de près de 50 % d’accumulation importante de calcium. L’étude rappelle que les maladies cardio-vasculaires restent la principale cause de décès dans le monde (en incluant les AVC) et souligne que la mauvaise alimentation est responsable pour les deux tiers de l’apparition précoce de ces pathologies. Elle préconise de consommer une grande variété de légumes chaque jour, incluant les crucifères, pour prévenir ces maladies et rester en bonne santé. Article rédigé par Georges Simmonds pour RT Flash Science Daily | | | |
| Des chercheurs ont réussi à cartographier en détail "le petit cerveau" du cœur. Il s'agit d'un système nerveux intracardiaque (SNI) méconnu qui jouerait, avec les fibres innervant l'ensemble du muscle, un rôle essentiel dans la modulation de l'activité de l'organe. Une équipe américaine composée d'anatomistes, de généticiens et de bio-informaticiens, a modélisé dans les moindres détails le SNI chez le rat. Les tentatives précédentes n'avaient donné que des résultats limités. « Notre travail intègre précisément les données anatomiques et moléculaires dans un cœur entier, reconstruit ensuite numériquement en 3D avec une résolution à l'échelle du micromètre », écrivent-ils dans la revue iScience. Un atlas complet qui fait apparaître le SNI au sommet du muscle cardiaque et qui doit permettre de mieux appréhender son rôle, en particulier dans les pathologies. La fonction cardiaque reste cependant pilotée par le cerveau, sous le contrôle du système nerveux autonome. La régulation complexe des battements du cœur est ainsi un dialogue constant entre les fibres nerveuses qui parcourent l'organe et certaines structures cérébrales (cortex insulaire, amygdale, hypothalamus). Mais, au niveau local, une sous-régulation entre également en jeu : « Le contrôle autonome de la fonction cardiaque provient de plusieurs zones du système nerveux central, mais le dernier niveau de contrôle de cette fonction réside dans le SNI », résument les chercheurs. Une structure essentielle donc, estiment-ils. Pour y voir plus clair, ils ont utilisé une technique d'imagerie appelée microscope à balayage lame de couteau (Knifeedge scanning). Celle-ci est destinée à produire des données haute résolution afin de reconstruire les structures cellulaires en 3D. Près d'un million d'images ont ainsi été compilées pour reconstruire le cœur des rats, intégrant à la fois leurs composantes anatomiques, cellulaires et moléculaires. Ainsi, les scientifiques sont-ils parvenus à isoler individuellement des neurones sur des échantillons et à mesurer l'activité génétique dans chacun d'entre eux pour implémenter leur modèle. « Cela a révélé la diversité complexe des types de neurones constituant le SNI », expliquent les chercheurs. Ils ont ainsi découvert des récepteurs, des modulateurs et des neurotransmetteurs propres à ce "cerveau du cœur". Ces recherches sur les neurones cardiaques pourraient déboucher sur la mise au point de nouveaux médicaments pour traiter ou prévenir toutes les formes de pathologies cardiaques . Article rédigé par Georges Simmonds pour RT Flash Phys.org | | | |
| Des chercheurs japonais sont parvenus à comprendre comment notre cerveau travaille pour mémoriser et apprendre pendant le sommeil. La clé dans la mémorisation pendant le sommeil réside dans la capacité des cellules du cerveau à se régénérer. « Dans le cerveau adulte, les cellules ne sont pas remplacées comme c'est le cas pour les cellules du foie, du sang ou de la peau », rappelle Masanori Sakaguchi, chercheur principal de l’étude. « Cependant, il existe une neurogenèse dans notre hippocampe, région du cerveau où la mémoire est stockée. Certes, cette capacité de régénération neuronale chez l'adulte est réduite, mais elle n'en est pas moins potentiellement bénéfique ». Si ce processus est déjà connu lorsque nous sommes éveillés, les chercheurs sont parvenus à comprendre comment cela se passe pendant notre sommeil. Pour cela, ils ont soumis des souris à un test de conditionnement à la peur afin de créer chez elles un nouveau souvenir. Concrètement, il s’agit d’une répétition d’un choc modéré sur la patte après avoir entendu un stimulus auditif. À l’aide d’un microscope miniature, les chercheurs ont enregistré l’activité des nouveaux neurones. Les résultats ont montré une activation de ces neurones juste après le choc mais également pendant le sommeil et le lendemain lorsque les chercheurs ont reproduit le test. Pour tester la mémoire de cette expérience, les chercheurs ont inhibé les jeunes neurones adultes par optogénétique. Cette expérience a montré que les souris ne se souvenaient que vaguement de l’expérience de la veille, révélant que ce sont les nouveaux neurones adultes, à la plasticité supérieure aux anciens, qui permettent l’apprentissage durant le sommeil. Si ces expériences doivent être confirmées chez l’humain, les chercheurs sont convaincus que le même processus est à l’œuvre. « Étant donné que la neurogenèse hippocampique a été étudiée de manière assez intensive dans le cerveau humain, il est très probable que les nouveaux neurones adultes sont tout aussi nécessaires pour la consolidation de la mémoire pendant le sommeil paradoxal », affirme Masanori Sakaguchi. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Le jeûne intermittent ou l’alimentation "calée" plus tôt dans la journée ou encore sur une plage de temps restreinte, synchronisée au mieux avec notre horloge biologique -et notre activité- a déjà démontré sa capacité à réduire l'appétit et à améliorer la combustion des graisses. Ces régimes, avec différentes variantes, sont ainsi de mieux en mieux documentés dans la lutte contre l’obésité et le syndrome métabolique. Ici, l’équipe rapporte les résultats d'un essai clinique qui a comparé un régime à durée d'alimentation limitée à 4 heures vs un régime alimentaire à durée limitée de 6 heures. L’objectif était de comparer l’efficacité de ces 2 régimes sur le poids corporel et sur les facteurs de risque cardiométaboliques, précise l’auteur principal, le Docteur Krista Varady, professeur de nutrition à l'UIC. Les participants du groupe régime alimentaire à durée limitée de 4 heures ont été invités à manger uniquement entre 13 heures et 17 h ; les participants du groupe de régime alimentaire à durée limitée de 6 heures devaient manger uniquement entre 13 h et 19 h. Dans les 2 groupes d'étude, les patients ont été autorisés à manger ce qu'ils voulaient pendant la période d’alimentation limitée. Pendant les heures de jeûne, les participants devaient uniquement boire de l'eau ou des boissons sans calories. Dans le groupe témoin, les participants devaient ne pas modifier leur régime alimentaire ou leur niveau d'activité physique et s’efforcer néanmoins de maintenir leur poids. Les participants ont été suivis pendant 10 semaines pour le poids corporel, la résistance à l'insuline, le stress oxydatif, la pression artérielle, le cholestérol LDL et HDL, les triglycérides et différents marqueurs inflammatoires. Au final, cette étude montre que les participants des 2 groupes d’intervention réduisent leur apport calorique d'environ 550 calories par jour simplement en respectant cette planification horaire de l’alimentation ; ils perdent environ 3 % de leur poids corporel sur la durée de suivi. S’alimenter sur 4 ou 6 heures, mêmes résultats : l’analyse ne révèle pas non plus de différence significative dans la perte de poids ou les facteurs de risque cardiométaboliques entre une alimentation restreinte sur 4 heures et sur 6 heures. L’étude confirme ainsi que ces régimes de jeûne intermittent basés sur une plage d’alimentation restreinte, sont efficaces pour la perte de poids, en particulier pour les personnes qui ne veulent pas compter les calories ou modifier totalement leurs apports alimentaires. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Chaque année, le cancer du pancréas tue 300 000 personnes dans le monde. Depuis 1980, l'incidence de ce cancer a grimpé de 248 % dans le monde, selon la Société savante des maladies et cancers de l'appareil digestif (SNFGE). Et le taux de mortalité, lui aussi, croît chaque année (+1,2 % par an pour les femmes, par exemple). Et pour cause, asymptomatique jusqu'à un stade avancé, il est très difficile à soigner. Mais des chercheurs ont peut-être trouvé une nouvelle chimiothérapie pour l'atteindre à ce stade. Après avoir été testé cliniquement en phase 1 et 2, ce nouveau traitement montre des résultats encourageants. Il s'agit de deux types d'injections : du paclitaxel directement au sein de l'abdomen (qui permet d'atteindre plus efficacement les tumeurs et de limiter la toxicité globale), et un mélange de gemcitabine et de nab-paclitaxel dans le sang. Le paclitaxel est souvent utilisé pour lutter contre le carcinome du sein et de l'ovaire. Sur 46 patients à qui il a été administré sur un rythme à 4 semaines d'intervalle, le taux de survie à un an est monté à 60,9 %. En comparaison, actuellement, en France, la survie des malades (5 ans après le cancer) est estimée à 5 % et peut monter à 20 % si la totalité de la tumeur est extraite, souligne la SNFGE. Après ces tests en deux phases, le traitement va passer en phase 3, notamment pour être comparé à la chimiothérapie actuelle du point de vue de la survie des patients. Article rédigé par Georges Simmonds pour RT Flash BJS | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|