| | | | | | | Edition du 02 Septembre 2022 |
| |
|
| Edito Réchauffement climatique : l’Europe se découvre en première ligne
Selon une étude internationale publiée en Juillet, l’Europe, qui se croyait relativement épargnée par le réchauffement climatique, doit s’attendre à des canicules de plus en plus intenses, et de plus en plus fréquentes (Voir Nature Communications). Cette étude souligne que l'Europe se réchauffe plus vite que les autres régions du monde situées aux mêmes latitudes dans l'hémisphère nord. Selon ces recherches, notre continent se serait réchauffé trois fois plus rapidement que les autres régions proches du 45ème parallèle sans qu’on puisse en expliquer clairement les causes. Ce qui est certain, c’est que les vagues de chaleur augmentent en moyenne de 0,61 jour en plus par décennie en Europe, contre 0,21 jour de chaleur en plus po ur les autres régions situées aux mêmes latitudes. Cette étude confirme de manière solide une hypothèse selon laquelle la circulation atmosphérique est en train de connaître une modification rapide qui augmente la corrélation entre l'état du jet stream et les vagues de chaleur. Ces travaux montrent que le jet stream se sépare de plus en plus fréquemment en deux au niveau de l'Eurasie (les terres continues de l'Europe et de l'Asie), pour former un "double jet". Ces double-courants semblent par ailleurs associés aux dernières grandes canicules, comme celles de 2003, 2018, 2019 et 2020. La formation de plus en plus fréquente d’anticyclones persistants sur l'Europe serait liée à cette structure de double jet dans la troposphère au-dessus de l'Eurasie. Ce phénomène toucherait principalement trois régions du monde, l'Europe de l'ouest, l’Est de la Russie, l'Ouest et l'Est de la Sibérie. Selon ce tte étude, il est très probable que cette tendance s’accentue au cours des prochaines années, ce qui risque de se traduire par un réchauffement accru, avec des anticyclones qui seraient de plus en plus persistants sur toute l'Europe occidentale, favorisant un climat de plus en plus sec et chaud. La multiplication, en fréquence, en intensité et en durée, des canicules, comme celle que nous venons de traverser sur une large partie de l’Europe occidentale ou celle qui a frappé l’Inde en mars-avril, sont, pour la communauté scientifique, des signes tangibles de la violence du changement climatique en cours. Il est vrai que ces sept dernières années ont été, au niveau mondial, les plus chaudes jamais enregistrées. « Chaque vague de chaleur que nous connaissons a été rendue plus chaude et plus fréquente en raison du changement climatique causé par l’Homme », résume le Professeur Friederike Otto, experte mondialement reconnue au Grantham Institute à l’Imperial College de Londres, qui poursuit, « Les lois de la physique sont implacables : plus nous émettrons de gaz à effet de serre, plus nou s réchaufferons l’atmosphère et augmenterons la quantité globale d’énergie que la Terre doit dissiper, d’une façon ou d’une autre, cela entraînera immanquablement des canicules plus fréquentes et plus chaudes, mais aussi plus d’événements extrêmes et catastrophiques, de type inondations, sécheresse ou ouragans ». L’équipe du chercheur a ainsi calculé que la vague de chaleur d’une intensité et précocité inédite qui s’est abattue en mars-avril sur l’Inde et le Pakistan a vu sa probabilité de survenue multipliée par trente, sous l’effet du changement climatique. Quant à la canicule historique qui a touché le Canada en juin 2021, avec des températures approchant les 50°C que l’on estimait inatteignables dans ce pays, elle aurait été quasim ent impossible sans le changement climatique. L’Organisation Météorologique Mondiale (OMM) vient d’ailleurs de confirmer, en Juillet, que l’augmentation de la fréquence, de la durée et de l’intensité de ces événements caniculaires des dernières décennies était clairement liée au réchauffement mondial et pouvait être attribuée à l’activité humaine, ajoutant que « Les canicules que nous connaissons actuellement vont devenir le nouvelle norme d’ici quelques années » ( Voir World Meteorological Organization). Le Giec estime qu’un humain sur six est déjà exposé aux conséquences du réchauffement, au moins une fois tous les cinq ans à +1,5 degré. Selon les experts climat de l’ONU, les canicules extrêmes auraient quatre fois plus de risques de se produire à +1,5 degré de réchauffement moyen de la planète par rapport à l’ère préindustrielle. Or la planète a gagné près de 1,2° environ depuis la révolution industrielle et, selon l’ONU, les engagements actuels des États, s’ils restent à leur niveau actuel, ne pourront pas éviter un réchauffement global de 2,5 degrés… L’année dernière, une étude internationale a estimé que 37 % des décès liés aux canicules dans le monde pouvaient être directement reliés aux conséquenc es du réchauffement climatique, soit au moins 100 000 décès par an (Voir Nature Climate change). Les effets de ce changement climatique majeur sont également dévastateurs pour l’agriculture et l’environnement. Le Fonds mondial pour la nature a estimé que le changement climatique risquait d’avoir un impact considérable sur le régime des précipitations, la sécurité alimentaire et l'approvisionnement en eau de millions de personnes. En 2021, une étude de l’Université de Cornell aux États-Unis a montré de manière très documentée que le changement climatique observé au XXᵉ siècle a réduit en moyenne de 21 % la production agricole mondiale (mais 34 % pour l’Afrique) par rapport à ce qu’elle aurait été sans réchauffement global (Voir Nature Climate Change). Les canicules à répétition que nous vivons à présent sont également catastrophiques pour l’environnement, en favorisant les incendies, comme ceux qui ont ravagé cet été de nombreux pays, dont la France, le Portugal, l’Espagne et la Grèce. Ces canicules et incendies géants menacent à présent directement la sécurité alimentaire mondiale : l’Inde, deuxième producteur mondial de blé, confrontée à la pire canicule de son histoire, a été contrainte d’imposer un embargo sur l’exportation de cette céréale, ce qui a eu pour effet d’aggraver la crise alimentaire mondiale déclenchée par l’invasion russe de l’Ukraine. Il faut également rappeler que les forêts qui brulent émettent du CO2, l’un des gaz à effet de serre contribuant au réchauffement climatique. Selon Jean Jouzel, climatologue et ancien vice-président du conseil scientifique du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), ces incendies représenteraient déjà 5 % des émissions de CO2 mondiales, c’est-à-dire autant que les émissions de CO2 de l’aviation et du transport maritime réunis. A plus long terme, les végétaux détruits par le feu ne peuvent plus jouer leur rôle de "puits de carbone", alors que les forêts françaises captent le quart du CO2 émis par notre pays. Françoise Vimeux, climatologue et directrice de recherche à l'Institut de recherche pour le développement, rappelle que, sur les 45 épisodes de canicule survenus depuis 1947, 21 ont eu lieu après 2010. Pour cette scientifique, « L'adaptation aux vagues de chaleur dans les villes est absolument nécessaire : végétalisation, isolement thermique de certains bâtiments, peinture réfléchissante, c’est toute notre politique de l’urbanisme qu’il faut repenser ». Météo France rappelle que chaque décennie depuis 1970 est plus chaude que la précédente. Ces dix dernières années, durant la période 2011-2020, la hausse atteint +0,6°C et marque la plus forte progression observée entre deux décennies en France depuis 1900. L’année 2020 a déjà été la plus chaude jamais enregistrée en France et, presque chaque année, un nouveau record de chaleur absolue est battu dans notre pays. Le dernier en date de 2019, avec 46°C, a été officiellement relevé à Vérargues (Hérault) le 28 juin 2019. Mais quand tous les chiffres de l’été 2022 seront officiellement publiés, il est indubitable que de nombreux records seront encore battus. Récemment, Météo France a comparé les températures des années 1970 à celles d'aujourd'hui et le moins qu’on puisse dire est que cette comparaison est édifiante : Strasbourg a désormais le climat de Lyon des années 1970 ; Lille a désormais le climat de Rennes des années 1970 ; Châteauroux a désormais le climat d'Agen des années 1970 ; Besançon a désormais le climat de Clermont-Ferrand des années 1970 ; quant à Lyon, elle a désormais le climat de Montélimar des années 1970…. Commentant ces données, Météo France souligne que tout le nord du pays retrouve un climat proche de celui de l'ouest dans la France en 1990. Autre enseignement, aucune région de France n'échappe désormais au changement climatique, bien que les régions orientales du pays soient les plus touchées : Auvergne-Rhône-Alpes, Bourgogne-Franche-Comté et Grand Est connaissent la plus forte hausse des températures moyennes, jusqu'à 0,5°C de plus en moyenne entre les années 1990 et 2000 sur des villes comme Strasbourg, Nancy et Lyon. Ce basculement climatique, inédit par son ampleur et sa rapidité, a conduit Météo France à mettre à jour ses moyennes de saison, calculées sur une période de 30 ans : La nouvelle norme de température en France calculée sur la période 1991-2020 en France s'établit maintenant à presq ue 13°C (12,97°C), en hausse de +0,42°C par rapport à 1981-2010… Au niveau mondial, le niveau de la mer a augmenté de 25 cm depuis 1880, c’est-à-dire plus rapidement ces 100 dernières années que pendant les 6 000 années précédentes, indique même le Copernicus Marine Service (CMEMS) et près de 40 % de cette élévation contemporaine « peut être attribuée à l’augmentation de la température de l’océan » (Voir Copernicus Marine Service). « Même si on réduit drastiquement les émissions de gaz à effet de serre, le niveau de la mer augmentera d’environ 40 centimètres d’ici à 2100, soit quatre fois plus vite qu’au cours du siècle dernier », explique Benoit Meyssignac, c hercheur au Laboratoire d’études en géophysique et océanographie spatiales (Legos) de Toulouse. Les travaux du Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema), montrent que 20 % des côtes françaises et en particulier 37 % des côtes sableuses sont en recul (Voir Cerema). À long terme, la France va devoir faire face à une plus forte érosion du trait de côte, ainsi que des intrusions salines dans des terres de surface, ce qui réduira la disponibilité d’eau douce. « Il faut bien comprendre que la montée de la mer n’affecte pas uniquement le littoral et va également concerner l’intérieur des terres avec des remontées de nappes phréatiques sur plusieurs dizaines de kilomètres à l’intérieu r des terres » explique Stéphane Costa, chercheur au CNRS LETG. La première évaluation nationale des risques d’inondation montre que, dans l’hypothèse d’une élévation du niveau de la mer de un mètre à l’horizon 2100, la submersion marine menace 1,4 million de résidents français, dont la moitié se concentre dans cinq départements, la Gironde, la Loire-Atlantique, la Seine-Maritime, le Nord et le Pas-de-Calais. Au moins 850 000 emplois seraient par ailleurs menacés en métropole (Voir Ministère de l'Ecologie, du Développement durable et de l'Energie). C’est dans ce contexte inquiétant, où se conjuguent les effets de plus en plus tangibles du changement climatique et l’impact économique considérable de l’invasion russe en Ukraine, que la Commission européenne vient de demander aux États membres de diminuer leur consommation de gaz de 15 % entre août 2022 et mars 2023 et que la France prépare, notamment pour faire face à une situation très tendue l’hiver prochain, une feuille de route pour réduire de 10 % la consommation d’énergie dans les deux prochaines années. Il est vrai qu’avec un prix du gaz qui a déjà été multiplié par dix, un prix de l’électricité sur les marchés qui est passé de 500 à 2.000 euros du MW en quelques semaines, et la moitié de notre parc nucléaire à l’arrêt pour maint enance (une situation tout à fait anormale qui montre que les responsables politiques de notre pays n’ont pas su anticiper le vieillissement inévitable de notre parc nucléaire et sa mise à niveau en matière de sécurité), il faut croiser les doigts pour que l’hiver 2022-2023 ne soit pas trop rigoureux, car un hiver très froid pourrait nous exposer à une double peine redoutable aux effets économiques, sociaux et politiques dévastateurs, avec des prix de l’énergie insupportables, pour les ménages et les entreprises, (même avec le bouclier tarifaire qui a ses limites et sera d’ailleurs revu en 2023) et des risques de délestage et de coupure d’électricité qui nous renverraient à des époques que l’on croyait définitivement révolues… . A ce stade de notre réflexion, nous voyons combien le défi climatique et la transition énergétique sont liés et doivent être considérés de manière globale et faire l’objet d’une politique coordonnée beaucoup plus volontariste et ambitieuse, et cela d’autant plus que rien n’indique que le conflit russo-ukrainien trouve une résolution rapide et que, même si cela était le cas, la Russie ne manquerait pas de continuer à utiliser le levier énergétique du gaz pour maintenir sa position géopolitique. Comme je l’ai déjà démontré dans un récent éditorial, la France n’exploite pas pleinement toutes ses immenses potentialités en matière de développement des énergies renouvelables, qui, dans ce nouveau contexte économique et politique que j’ai évoqu&eacu te;, ont à présent un coût global de production, même sans aides de l’Etat, inférieur à celui des énergies fossiles, mais aussi du nucléaire. Si nous en avons la volonté politique, nous pouvons gagner dix ans sur la feuille de route actuelle et produire dès 2040 plus de la moitié de notre énergie à partir de sources renouvelables et décarbonées, éolien, solaire, éolien marin, solaire agricole, solaire thermique intégré, biomasse, énergies marines. Nous pouvons, parallèlement réduire beaucoup plus fortement notre consommation globale d’énergie, en combinant de manière intelligente une nouvelle organisation sociale du travail, un aménagement énergétique du territoire, et l’utilisation généralisée des outils numériques et de l’intelligence artificielle, pour optimiser nos besoins en mobilité et en consommation d’énergie, tant domestique qu’industrielle. Mais, comme le rappelait en Juillet un article du MIT (Voir MIT), la moitié des réductions nécessaires de nos émissions de GES, d'ici 2050, proviendra de technologies qui ne sont pas encore disponibles sur le marché aujourd'hui. C’est bien pourquoi il est si important que la puissance publique et les investisseurs privés nouent de nouvelles formes de partenariat pour augmenter sensiblement les financements de ces futures innovations dont nous ne pourrons pas nous passer, si nous voulons continuer à pouvoir améliorer notre niveau et notre qualité de vie, tout en bâtissant un nouveau développement économique et humain compatible avec la protection de la nature, de l’environnement et du climat. Cet article du MIT nous explique qu’en favorisant l'innovation d ’ici 2050, nous pourrions réduire considérablement les coûts de la transition vers une économie mondiale à émissions nettes nulles de CO2 (de l’ordre de 25 000 milliards de dollars par an d'ici 2050, soit environ un quart du Produit Mondial Brut annuel), ce qui permettrait une transition énergétique bien moins coûteuse et plus acceptable, économiquement et socialement, pour l’ensemble de la planète. En France, nous pourrions nous fixer un ambitieux projet de société pour éclairer l’avenir de notre pays : réduire de moitié notre consommation finale d’énergie d’ici 2040 et produire plus de la moitié de notre énergie de manière propre à cette échéance, en nous appuyant à la fois sur nos capacités d’innovation sociale et technologique. C’est à ce prix que nous pourrons éviter des catastrophes environnementales, sociales et politiques de grande ampleur qui risquent de menacer notre cohésion nationale et, plus largement, de faire régresser de manière dramatique les conditions de vie de toute l’humanité… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | Le plus grand complexe hydro-photovoltaïque au monde est entré en construction dans le Sichuan, au sud-ouest de la Chine. Un barrage de 3 GW sera bientôt accolé à une centrale solaire de 1 GWc. Mais quel est l’intérêt d’une telle association ? Pour réaliser sa complexe transition énergétique, la Chine investit massivement dans les énergies renouvelables "classiques" : solaire, éolien, hydroélectricité et biomasse. Elle déploie également des systèmes moins répandus mais tout aussi pertinents, comme le stockage par STEP et… l’hydro-photovoltaïque. Le pays inaugurera prochainement le plus puissant complexe de ce genre au monde. L’idée consiste à associer la centrale hydroélectrique de Lianghekou actuellement en construction (3 GW) à un immense parc solaire de 1 GWc. Situé sur un plateau montagneux de la province du Sichuan, le projet est porté par Yalong Hydropower, une société co-détenue par l’État chinois. Elle y a investi 5,3 milliards de Yuans (environ 780 millions d’euros au cours actuel). Plus de 2 millions de panneaux photovoltaïques et 5 000 onduleurs seront placés à 1,90 m au-dessus de pâturages. S’inspirant du concept de l’agrivoltaïsme, ce choix permettrait de maintenir la croissance des végétaux consommés par le bétail, explique l’opérateur. La centrale bénéficiera d’un excellent rayonnement solaire au regard de son emplacement, à une altitude située entre 4 000 et 4 600 mètres. Sa production sera injectée sur le réseau à travers une ligne de 220 kV exploitée par le barrage hydroélectrique ainsi qu’une nouvelle ligne de 500 kV en cours d’installation. L’association des deux filières doit optimiser l’intégration des renouvelables dans le réseau. Ainsi, durant la nuit ou lorsque la puissance solaire est insuffisante, la centrale hydroélectrique assure la production d’électricité. De jour, elle fonctionne à faible régime pour laisser place au photovoltaïque. Elle en profite également pour reconstituer son stock d’eau, contenu dans un réservoir de 6,56 milliards de mètres cubes (soit 5 fois plus que le lac de Serre-Ponçon en France, qui est le plus grand lac artificiel d’Europe continentale). L’hydro-photovoltaïque évite l’utilisation de centrales fossiles pour compenser la variabilité du solaire. Ce concept bas-carbone peut tout à fait être étendu à d’autres ressources variables comme l’éolien ou les énergies marines. Encore faut-il bénéficier de reliefs et d’une excellente hydrologie. Le complexe devrait entrer en service d’ici la fin 2023, selon Yalong Hydropower. Article rédigé par Georges Simmonds pour RT Flash CR | | | |
| Bien que les OLEDs soient déjà largement présentes dans notre quotidien, leur mise en forme actuelle limite généralement leur utilisation pour la fabrication d’affichages grands formats et/ou de dispositifs à bas coûts (packaging alimentaire, publicitaire, etc.). Actuellement, les molécules luminescentes sont le plus souvent évaporées pour être déposées sur des supports solides sous forme de multi couches. Mise en forme qui consomme beaucoup de matière première, nécessite des molécules compatibles avec le processus d’évaporation et une infrastructure conséquente. De manière à s’affranchir de ces contraintes, les scientifiques du laboratoire MOLTECH-ANJOU (CNRS/Université d’Angers), en collaboration avec une équipe lyonnaise (ENS Lyon) et Canadienne, de l’Université de Calgary, ont proposé de réaliser le dépôt directement en solution, par impression et sur du plastique. Pour cela, ils se sont intéressés à la préparation d’un tout nouveau dérivé du Benzothioxanthene, un colorant initialement utilisé pour teinter les tissus et synthétisé à l’échelle de la tonne. Possédant des propriétés optoélectroniques remarquables, ils sont ensuite parvenus à la fonctionnaliser pour moduler sa solubilité et la rendre compatible avec le solvant utilisé pour le dépôt sur différents supports par impression. Pour preuve de concept, cette nouvelle molécule émettrice a été déposée sous forme d’une monocouche sur du plastique conducteur permettant la fabrication d’une OLED flexible et de plus de 160mm2. Cette démonstration ouvre des portes à l'affichage très grand format à bas coût (packaging alimentaire, signalisation routière, affichage sur façades, etc.. .). Ces résultats pourraient bien faire passer le statut des OLEDs de produit "high-tech" à "bien de consommation courante". Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs anglais dirigés par le Docteur Ehsan Rezaee, de l’Advanced Technology Institute (ATI) de l’Université du Surrey, travaillent sur la fabrication de panneaux solaires fabriqués à partir d’encre pérovskite. L’objectif est simplement de produire des blocs de construction de cellules solaires à partir d’encre pérovskite. Si l’encre pérovskite n’est pas une technologie nouvelle, les encres actuelles ne garantissent pas une transition sans heurts à l’échelle industrielle, car le processus de fabrication doit être hautement contrôlé et optimisé. « Notre encre pérovskite offre un moyen rapide et reproductible de fabriquer de manière fiable ces éléments constitutifs de cellules solaires à grande échelle, ouvrant la voie à son utilisation sur les marchés commerciaux », précise le Docteur Rezaee. Les cellules solaires en pérovskite constituent une solution légère et peu coûteuse et peuvent être construites de manière rigide ou flexible, ce qui permet de les transporter et de les installer facilement. La nouvelle étude examine les fondements des cellules solaires en pérovskite plutôt qu’en silicium traditionnel, car les cellules en pérovskite récoltent la lumière dans la partie visible du spectre solaire, qui est plus énergétique. Le professeur Ravi Silva, directeur de l’ATI à l’Université du Surrey, a déclaré : « L’université du Surrey a toujours cru au potentiel des panneaux solaires, un domaine de recherche essentiel qui, à terme, nous permettra de nous éloigner des anciennes sources d’énergie dangereuses ». Article rédigé par Georges Simmonds pour RT Flash Science Daily | | ^ Haut | |
|
| | | C'est une découverte historique qui confirme les extraordinaires potentialités du nouveau télescope spatial James Webb. Le JWST a capturé des preuves nettes de la présence de dioxyde de carbone (CO2) dans l’atmosphère d’une planète géante gazeuse extrêmement chaude. Cette exoplanète — WASP-39 b — est située à 700 années-lumière de la Terre. Les résultats ont été étudiés par un consortium international de 200 scientifiques. Dans le spectre résultant de l’atmosphère de l’exoplanète, on aperçoit une sorte de petite colline comprise entre 4,1 et 4,6 microns : tout est dans le détail, car ceci n’est autre que la première preuve définitive — aussi claire qu’indiscutable — de la présence de dioxyde de carbone. Une telle preuve n’avait jamais été repérée pour une quelconque planète en dehors de notre système solaire. Les précédents télescopes spatiaux, Hubble et Spitzer, avaient déjà détecté de la vapeur d’eau, du sodium et du potassium dans l’atmosphère de WASP-39 b. D’ailleurs, Webb avait aussi, quelques semaines auparavant, dans ses toutes premières détections, confirmé la présence de vapeur d’eau. Mais le dioxyde de carbone est une tout autre histoire : « il a fallu l’extraordinaire sensibilité infrarouge de Webb pour révéler la signature du dioxyde de carbone », explique la Nasa. C’est donc, aussi, une démonstration des capacités de ce télescope révolutionnaire — et ce, quelques semaines à peine après son activation. Car même si du dioxyde de carbone n’avait pas été détecté, la précision dans la mesure du spectre par le JWST est déj& agrave; exceptionnelle en soi. « Aucun observatoire n’a jamais capturé auparavant un spectre de transmission d’exoplanète dans une gamme aussi détaillée de longueurs d’onde dans le proche infrarouge », explique la Nasa. Cela confirme que le JWST nous ouvre de nouvelles portes pour détailler l’atmosphère de planètes situées très, très loin de nous. « En effet, l’accès à cette partie du spectre infrarouge est crucial pour mesurer les abondances de gaz comme l’eau et le méthane, ainsi que le dioxyde de carbone, dont on pense qu’ils existent dans de nombreux types différents d’exoplanètes. » S’il s’agit là d’une géante gazeuse, ces résultats signifient que le télescope est capable de détecter ces molécules clés aussi sur des planètes plus petites, plus froides, et roches. De quoi enrichir notre compréhension de l’histoire planétaire de l’Univers. Car « si l’on veut mesurer la composition de l’atmosphère, c’est parce qu’elle nous renseigne sur l’origine de la planète et son évolution », détaille la Nasa. « Une planète porte la signature chimique de l’endroit où elle est née, qui n’est pas nécessairement celui où elle se trouve aujourd’hui ». Par exemple, la profondeur d’absorption du dioxyde de carbone observée sur WASP-39 b suggère qu’elle a une composition similaire à celle de Saturne et qu’elle a dû se former beaucoup plus loin de son étoile qu’elle ne l’est aujourd’hui. Article rédigé par Georges Simmonds pour RT Flash Webb | | | |
| Pour s’installer durablement sur la Lune, où la gravité est d’environ 1,62 m/s², nous devons recréer certains aspects de l’environnement terrestre. L’établissement d’une base lunaire à gravité artificielle serait l’une des conditions sine qua non pour entamer le processus de colonisation interplanétaire. Du moins, c’est ce que pense une équipe de chercheurs japonais. La notion de force de gravité est, d’après eux, la condition majeure pour permettre à l’homme de vivre longuement sur la Lune ou Mars. Yosuke Yamashiki, professeur au Centre de spatiologie SIC de l’Université de Kyoto, a déclaré que même si les États-Unis et les Émirats arabes unis proposent de construire une colonie sur Mars, le Japon voudrait présenter un projet unique qui garantira la survie de l’homme dans l’espace. L’équipe de chercheurs de l’Université de Kyoto, épaulée par des experts en construction de l’entreprise Kajima Corporation, a travaillé ensemble pour la réalisation d’un concept de base lunaire. La structure, baptisée "The Glass", ressemble à un cône en verre vertical. Elle réalise un tour complet toutes les 20 secondes et utilise la force centrifuge pour recréer les conditions de gravité auxquelles notre espèce est habituée. Une végétation complétée par une ressource aquatique a été ajoutée à la construction afin d’imiter la biodiversité terrestre. Quant aux zones habitables, elles seraient soutenues par un système de transport appelé Hexagon Space Track System. Ce dernier génère sa propre gravité pour pouvoir réaliser des voyages entre la Terre, la Lune et Mars. Ainsi, il serait possible de revenir sur Terre à tout moment, ont noté les chercheurs japonais. « Développer une installation résidentielle à gravité artificielle avec l’Université de Kyoto sera un moment décisif dans la recherche spatiale (…) Nous nous engageons à réaliser le projet afin qu’il soit utile aux êtres humains » souligne Takuya Ohno, architecte, et chercheur à Kajima. Selon les chercheurs japonais, il ne faut pas prendre à la légère l’effet de la gravité sur notre corps. En effet, les conditions et les capacités physiques de l’homme ne lui permettent pas de se reproduire ni de se développer normalement en dehors de la Terre. C’est pour cela que des recherches plus approfondies seront menées pour instaurer les meilleures conditions de vie pour cette migration spatiale humaine. D’après le quotidien japonais Asahi Shimbun, la concrétisation de ce type de projet demandera au moins 100 ans. En tout cas, une version plus simple pourrait voir le jour d’ici 2050. L’équipe de l’Université de Kyoto prévoit notamment de construire deux installations différentes : "Lunar Glass" sur la Lune et "Mars Glass" sur Mars. Article rédigé par Georges Simmonds pour RT Flash The Asahi Shimbun | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Issu du LERMAB de l’Université de Lorraine, le projet HPS, porté par le chercheur Allaoua Soudani aux côtés du Professeur Riad Benelmir, soutenu par Sayens, apporte une solution innovante aux enjeux du changement climatique grâce au développement d’un nouveau matériau aux performances énergétiques augmentées destiné à l’amélioration des systèmes de production de froid. Mis en place en 2019 par le Gouvernement, le Concours d’innovation i-PhD est destiné à stimuler et soutenir les vocations entrepreneuriales des doctorants et jeunes docteurs de la recherche publique et à les encourager à créer leur entreprise en valorisant leurs travaux et résultats de recherche. L’innovation du projet HPS (Haute Performance Sorption) consiste en un nouveau matériau composite destiné à l’amélioration des systèmes de production de froid par le principe d’adsorption. Les performances obtenues peuvent conduire à une plus large utilisation de ce principe thermodynamique qui permet de réduire par 7 la dépense énergétique pour les systèmes de climatisation et d’apporter une réponse à la problématique du besoin croissant en climatiseurs et de leur impact énergétique. Brevetée en 2021 et maturée par Sayens, l’innovation technologique permet à l’équipe de recherche de proposer une alternative frugale à la production de froid qui se fait aujourd’hui majoritairement via des systèmes de compression dont la source d’énergie est l’électricité. En outre, ces systèmes de compression utilisent des gaz frigorigènes réglementés, les HFC, ayant un impact significatif sur le réchauffement climatique. L’avantage principal de la production de froid par adsorption repose sur les possibilités d’avoir recours à des énergies renouvelables (solaire, biomasse, géothermie, …) ou de récupérer de la chaleur fatale industrielle. Dans le contexte de lutte contre le réchauffement climatique, l’enjeu est bien de trouver des solutions permettant de réduire la consommation énergétique pour les besoins croissants, tant industriels que domestiques. Ainsi, dans un rapport publié fin 2018, l’Agence internationale de l’énergie précisait que la climatisation représentait 20 % de la consommation mondiale totale d’électricité et en passe d’atteindre 37 % d’ici à 2050. La solution HPS qui repose donc sur le matériau composite adsorbant - lequel matériau permet des conversions thermiques chaud/froid au sein d’un réacteur sous très basse pression et n’utilisant que de l’eau comme fluide frigorigène - sera exploitée à terme par la future start-up. Article rédigé par Georges Simmonds pour RT Flash UDL | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Cette étude révolutionnaire montre des différences substantielles dans la structure du cerveau chez les personnes souffrant d'anorexie. Ces travaux, menés à la Keck School of Medicine de l’University of South California (USC) révèle ainsi des réductions significatives de la matière grise chez les personnes souffrant d'anorexie mentale. Ce nouveau marqueur, détectable à l’imagerie, va permettre non seulement de confirmer le diagnostic mais aussi de suivre la réponse des patients aux interventions thérapeutiques. Car l’étude des scanners cérébraux et précisément des déficits de matière grise révèlent des déficits moins forts chez les patients partiellement « guéris » face à ceux qui traversent une phase aiguë de l’anorexie. Ce faisant, cette large analyse d’imageries cérébrales confirme aussi l'importance et les avantages des interventions précoces. Les troubles de l'alimentation sont des troubles mentaux sévères, parfois mortels, mais qui peuvent être traitées efficacement grâce à des interventions précoces. Les taux de mortalité des patients atteints de troubles du comportement alimentaire (TCA) restent élevés par rapport à d'autres maladies mentales, en particulier pour les personnes atteintes d'anorexie mentale, une condition caractérisée par une restriction sévère de l'apport alimentaire et un poids corporel anormalement bas. Les personnes souffrant d'anorexie peuvent littéralement "mourir de faim", avec des complications médicales graves et pouvant être mortelles. La deuxième cause de décès chez les personnes souffrant d'anorexie est le suicide. Cette analyse menée par une équipe mondiale de chercheurs révèle des réductions notables de 3 mesures critiques du cerveau, chez ces patients souffrant d’anorexie : l'épaisseur corticale, les volumes sous-corticaux et la surface corticale. Ces réductions sont entre 2 et 4 fois plus importantes que les anomalies de la taille et de la forme du cerveau des personnes atteintes d'autres maladies mentales. Par ailleurs, ces réductions sont particulièrement préoccupantes, car elles semblent impliquer la destruction de cellules cérébrales et/ou des connexions entre elles. Cette analyse d’imagerie révèle aussi l’urgence de traiter les personnes souffrant d'anorexie afin d’éviter les changements structurels à long terme du cerveau, qui pourraient entraîner divers problèmes médicaux supplémentaires. L'anorexie peut être traitée avec succès par une prise de poids saine et une thérapie. En comparant près de 2.000 scintigraphies cérébrales de patients souffrant d'anorexie, les chercheurs constatent en effet que les personnes en convalescence après une anorexie présentent des réductions de la structure cérébrale moins sévères, ce qui suggère qu'un traitement et un soutien précoces peuvent aider le cerveau à se réparer. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| L’hémiplégie alternante de l’enfance (HAE) est une maladie neuro-développementale très rare qui se caractérise par une hémiplégie périodique, un retard persistant du développement et un déficit cognitif. Le signe précoce majeur est la survenue d’épisodes répétés d’hémiplégie de quelques minutes à plusieurs jours, touchant tantôt un côté du corps tantôt l’autre. Plusieurs facteurs peuvent déclencher les épisodes aigus : stress, exposition à l’eau, activités physiques, variations lumineuses et certains aliments. Il n’existe, à ce jour, aucun traitement spécifique de l’HAE, qui touche moins d’un enfant sur 100 000 chaque année. La prise en charge des patients est symptomatique et pluridisciplinaire et associe des mesures prophylactiques (éviter l’exposition aux éléments déclenchants), le traitement aigu des crises, le traitement de l’épilepsie et la prise en charge éducative. Des scientifiques de Dublin et de Paris ont identifié le gène CLDN5, comme étant responsable d’hémiplégie alternante de l’enfant dans deux cas non apparentés de HAE en France. La protéine produite par ce gène, la claudine-5, est essentielle au maintien de l’intégrité de la barrière hémato-encéphalique qui isole et protège le cerveau du reste du fonctionnement de l’organisme.m> De manière inexpliquée, la forme mutée de la protéine transforme la barrière en un canal sélectif pour les ions chargés négativement. À cet égard, les compositions ioniques du cerveau sont probablement modifiées chez ces enfants, ce qui constitue un facteur clé de la maladie. En plus d’apporter de nouvelles connaissances à cette maladie, ces travaux pourront avoir des répercussions sur la compréhension fondamentale de la protéine de jonction qui forme la barrière hémato-encéphalique. Comme c’est la première fois que la transformation de cette barrière humaine en un canal est mise en évidence, il pourrait y avoir des voies d’administration de médicaments qui n’ont jamais été explorées. Ces résultats serviront de base aux prochaines étapes du projet. « Cette découverte est le fruit d’une formidable collaboration entre nos équipes françaises et irlandaises. L’identification de ces mutations de novo chez des enfants non apparentés suggérant que la barrière se transforme en canal est passionnante à plusieurs niveaux. Il s’agit de la première découverte de la transformation de la BHE en canal, mais cela éclaire également la pathologie dévastatrice de la HAE, ce qui peut aider à une meilleure la gestion clinique des patients présentant cette mutation » déclarent conjointement le Docteur Matthew Campbell, professeur associé au Trinity College de Dublin et Arnold Munnich, médecin à l’AP– HP et professeur à Université Paris Cité. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Des chercheurs de l’Université de Birmingham ont développé la technique en collaboration avec la société biopharmaceutique mondiale AstraZeneca. Ils utilisent la spectrométrie de masse, un outil analytique couramment utilisé pour identifier les propriétés des molécules dans un échantillon. Une partie des premières étapes de la découverte de médicaments se déroule dans des cultures cellulaires, des amas de cellules cultivées en laboratoire, en dehors de leur environnement naturel. Les cultures cellulaires permettent de tester les effets de différents composés sur des cibles biologiques spécifiques impliquées dans diverses maladies. Bien que cela permette aux chercheurs d’évaluer comment les composés agissent contre la cible, cela ne capture pas tous les effets de l’environnement physiologique. Cette nouvelle technique permet aux chercheurs d’utiliser de vrais échantillons de tissus pour évaluer à quelles protéines le médicament se liera dans le corps et donc son efficacité contre la cible. Pouvoir identifier l’interaction entre le médicament et la protéine peut fournir des informations précieuses pour guider la découverte de médicaments. La chercheuse principale, la professeure Helen Cooper, a déclaré : « Habituellement, lors des premiers stades de la découverte de médicaments, les mesures sont prises en dehors de l’environnement physiologique, de sorte que lorsque les chercheurs passent aux tests de médicaments dans les tissus, ils peuvent échouer car ils ont des interactions inattendues ». L’identification de l’interaction médicament-protéine à ce stade précoce est cependant incroyablement difficile. « L’utilisation de la spectrométrie de masse sur les protéines est souvent comparée à la fabrication d’une mouche à celle d’un éléphant. Ce que nous avons fait, c’est ajouter un chapeau non sécurisé – la molécule de médicament et mesuré l’ensemble du processus. C’est passionnant parce que cela ouvre la possibilité de pouvoir suivre le trajet d’un médicament à travers le corps. En identifiant les protéines avec lesquelles il interagit, les scientifiques pourront prédire à un stade plus précoce si oui ou non il aura l’effet thérapeutique désiré ». Dans l’étude, les chercheurs ont utilisé des tissus prélevés sur le foie de rats ayant reçu du bézafibrate, un médicament couramment utilisé pour traiter l’hypercholestérolémie. Ils ont utilisé la spectrométrie de masse sur des coupes minces de tissu pour détecter la molécule de médicament et la protéine spécifique de liaison aux acides gras à laquelle elle se fixe pour former un complexe. Les chercheurs ont également pu mesurer à la fois les quantités variables de ce complexe dans le foie au fil du temps et la façon dont il se propage à travers les tissus. Le professeur principal d’AstraZeneca, Richard Goodwin, directeur principal, Sciences de l’imagerie, a déclaré : « Ce qui est essentiel pour fournir une science aussi innovante est une collaboration soutenue entre les leaders universitaires et les partenaires de l’industrie. Cette recherche s’appuie sur une collaboration de longue date entre AstraZeneca et l’Université de Birmingham, et illustre ce qui peut être fait lorsque nous combinons des compétences complémentaires pour répondre à d’importants besoins non satisfaits. Cette recherche continuera de soutenir la découverte de médicaments et nous aidera à accélérer la mise à disposition de nouveaux médicaments aux patients ». Article rédigé par Georges Simmonds pour RT Flash University of Birmingham | | | |
| Des scientifiques de l'Université suédoise d'Umeå en collaboration avec un groupe de recherche à l'Université d'Uppsala ont découvert comment savoir si les patients atteints du cancer de la prostate souffrent d'une tumeur mortelle ou non. Les travaux sont menés par le Département des biosciences médicales, « Nous avons découvert une nouvelle fonction, jusque-là inconnue, du récepteur TGF-β de type I (TbRI), qui est une protéine de signalisation importante dans les cellules cancéreuses. Des études antérieures ont montré que la signalisation TGF-β est importante dans le développement de plusieurs formes de cancers », a expliqué Maréne Landström, professeur de pathologie au à l'Université d'Umeå. "Mais avec l'utilisation de cette nouvelle découverte, nous pouvons rassurer les hommes atteints d'un cancer de la prostate dont le pronostic est prometteur, et ceux qui ont un cancer de la prostate à haut risque peuvent se voir proposer un traitement plus tôt. Nos découvertes et la publication sont importantes pour un grand groupe des patients atteints d'un cancer de la prostate, et il y a des raisons de croire que d'autres groupes de patients en bénéficieront", a-t-elle ajouté. Article rédigé par Georges Simmonds pour RT Flash Technology Networks | | | |
| Des chercheurs de l'Université Ben Gourion du Néguev (UBG) à Beersheva ont découvert que les légumes crucifères contiennent une molécule capable de décomposer les biofilms rendant les bactéries résistantes aux antibiotiques. La résistance aux antimicrobiens est l'un des principaux problèmes de santé mondiaux, la résistance aux antibactériens représentant actuellement la principale menace, tant en termes d'occurrence que de complexité. L'une des raisons pour lesquelles les traitements actuels des maladies bactériennes sont inefficaces est l'apparition de structures de biofilm protectrices et résistantes. Au cours des recherches menées par l'équipe de l'UBG, le phytochimique 3,3'-diindolylméthane (DIM), issu de la digestion de l'indole-3-carbinol, trouvé dans les légumes comme le brocoli, le chou de Bruxelles ou le chou, a réussi à briser les biofilms renfermant deux agents pathogènes différents. Suite au traitement impliquant ce composé, les bactéries à Gram négatif Acinetobacter baumannii et Pseudomonas aeruginosa ont été inhibées respectivement de 65 % et 70 %. La combinaison de l'antibiotique tobramycine avec DIM a permis une forte inhibition (94 %) du biofilm de P. aeruginosa. « En éliminant le biofilm bactérien de P. aeruginosa, le phytochimique permet au système immunitaire inné d'éradiquer l'infection, d'améliorer la qualité de vie et de prolonger la durée de vie des patients atteints de mucoviscidose », a affirmé le professeur Ariel Kushmaro, membre du département d'ingénierie biotechnologique Goldstein-Goren de BGU. « Nos découvertes sont prometteuses pour d'autres voies de recherche au-delà des classes connues d'antibiotiques », a-t-il souligné. Article rédigé par Georges Simmonds pour RT Flash Pubmed | | | |
| Des cancérologues de la NYU Langone Health et NYU Grossman School of Medicine ont présenté un médicament d'immunothérapie de nouvelle génération, prometteur dans plusieurs cancers. Au-delà du médicament lui-même et de son potentiel, ces travaux présentés lors de la dernière Réunion annuelle de l'American Society for Clinical Oncology (ASCO, Chicago), ouvrent l’espoir d’une nouvelle génération d’immunothérapies "universelles", efficaces contre les cancers à stade avancé, réfractaires aux traitements existants. Les premiers résultats de l'étude montrent précisément que le médicament expérimental d’immunothérapie "nemvaleukin alfa", utilisé seul ou en association avec un autre anticancéreux (pembrolizumab) est bien efficace dans le traitement de plusieurs types de cancers à un stade avancé, chez certains patients. Les 2 médicaments sont des immunothérapies, des médicaments conçus pour aider le système de défense immunitaire de l'organisme à détecter et à tuer les cellules cancéreuses, « comme s'il s'agissait d'un virus envahissant ». Ces 2 médicaments stimulent ainsi l'action des cellules immunitaires qui attaquent directement et plus activement le cancer et empêchent les cellules cancéreuses d'échapper à la surveillance du système immunitaire. L’essai international de phase I/II, mené auprès de patients atteints d’un cancer n’ayant pas auparavant répondu aux autres immunothérapies, montre qu’une série d'injections de nemvaleukin alfa permet de stopper la croissance tumorale ou au moins une certaine diminution des tumeurs pendant au moins 6 mois chez 18 % des 22 participants, hommes et femmes, atteints d'un cancer du rein avancé (carcinome à cellules rénales). L’immunothérapie par nemvaleukin alfa démontre une activité anticancéreuse significative en combinaison avec des injections d'une autre immunothérapie plus largement utilisée, le pembrolizumab : précisément, la combinaison permet une augmentation soutenue et décuplée de la production de lymphocytes T CD8 et de cellules tueuses naturelles, des cellules immunitaires hautement spécialisées connues pour combattre le cancer, et cela chez 16 % des 137 participants atteints de tous les types de cancer. La même efficacité est observée chez 4 des 14 (28 %) femmes atteintes d'un cancer de l'ovaire dont la tumeur n'avait pas répondu à la chimiothérapie initiale. « Pris ensemble, ces premiers résultats suggèrent que la thérapie par nemvaleukin alfa est généralement sûre, bien tolérée et efficace pour plusieurs cancers très différents », conclut l’auteur principal, le Docteur Vamsidhar Velcheti, oncologue et directeur du programme d'oncologie médicale thoracique de Perlmutter. L’immunothérapie, en association avec d'autres médicaments anticancéreux, pourrait constituer une option intéressante pour les personnes atteintes d'un cancer à un stade avancé réfractaire aux thérapies de première ligne. Article rédigé par Georges Simmonds pour RT Flash EurekAlert | | | |
| Des chercheurs du Scripps Research (La Jolla) ont mis au point ou nouvel outil permettant de rendre les tissus humains (et animaux) transparents, qui va faciliter considérablement l’étude de nombreuses maladies, à l'échelle du corps et telles que l'infection COVID-19. La méthode consiste à "nettoyer" les tissus afin de rendre transparents de grands échantillons biologiques. La technique permet ainsi aux scientifiques de visualiser et d'étudier plus facilement les processus biologiques sous-jacents de multiples systèmes et organes, sains ou malades. Les premières méthodes de nettoyage des tissus ont été développées il y a environ 15 ans, principalement dans le but de tracer les connexions nerveuses dans le cerveau. Si ces méthodes fonctionnent bien pour le cerveau, elles restaient moins adaptées à d'autres parties du corps ou à d’autres systèmes entiers. Cette nouvelle technique, nommée "Hybrid" combine des éléments de 2 approches existantes de nettoyage des tissus, avec l’objectif de pouvoir étudier de grands échantillons. L’auteur principal, Li Ye, professeur de neurosciences au Scripps Research, ajoute que la méthode permet l’étude de « grands systèmes du corps ou même d'animaux entiers ». Le nettoyage des tissus implique l'utilisation de solvants pour éliminer les molécules qui rendent les tissus opaques (comme la graisse). L’objectif est de rendre les tissus optiquement transparents, tout en maintenant en place et en préservant la plupart des protéines et des structures. Les scientifiques utilisent couramment des balises fluorescentes codées génétiquement ou liées à des anticorps pour marquer des gènes actifs ou d'autres molécules d'inté rêt chez un animal modèle de laboratoire, et les balises peuvent ensuite être "imagées" en une seule fois pour l'ensemble de l'animal. Les procédés actuels utilisent soit des solvants organiques, soit des solvants aqueux. Les premiers agissent généralement plus rapidement et plus puissamment mais ont tendance à diminuer les signaux fluorescents. Les méthodes utilisant des solvants à base d'eau sont plus efficaces pour préserver la fluorescence, mais peu efficaces à éliminer les tissus non cérébraux. De plus, les 2 types de méthodes nécessitent des procédures lourdes exigeant à la fois des ressources humaines importantes et des produits chimiques dangereux. En d’autres termes ces procédures ne peuvent pas être effectuées "en routine" par tous les laboratoires de biologie médicale. La nouvelle méthode utilise une combinaison séquentielle de solvants organiques et de détergents à base d'eau ainsi que des hydrogels qui permettent de protéger les molécules du tissu qui doivent être préservées. La procédure est simplifiée : « Dans de nombreux cas, il est possible de mettre le tout dans un bocal et le conserver dans un shaker sur votre paillasse jusqu'à l’analyse », explique Victoria Nudell, co-auteur et chercheur au Scrpps. « Il devient possible d’effectuer l’analyse en routine ». Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Une étude récemment menée par une douzaine de scientifiques aux États-Unis et en Israël a permis d'isoler un nano-anticorps qui pourrait se révéler précieux pour l'humanité. Ces scientifiques ont réussi à trouver des molécules efficaces pour bloquer à la source tous les variants du SARS-CoV-2 et empêcher leur développement. Ces molécules, qui sont des nano-anticorps (ou nanocorps) beaucoup plus petits et moins complexes que des anticorps traditionnels, ont été obtenues grâce à... un lama. Le site d'actualité scientifique raconte que dans le cadre de l'étude, les chercheurs ont effectué une série de manipulations en laboratoire sur un échantillon de sang provenant du camélidé, ce qui leur a permis de trouver la perle rare. Au cours du processus, qui consistait notamment à immuniser l'échantillon contre le Covid, puis à le faire réagir à différents variants, les scientifiques ont ainsi constaté le rôle décisif joué par des nanocorps capables, au niveau moléculaire, de "se lier simultanément" à plusieurs récepteurs du coronavirus, empêchant ainsi que ce dernier puisse se développer dans l'organisme. « Ces nanocorps sont très efficaces contre les variants du SARS-CoV et du SARS-CoV-2, y compris Omicron », confirment les auteurs de l'étude. La molécule en question pourrait donc constituer une base très intéressante pour traiter le Covid-19, d'autant plus qu'elle est, selon les chercheurs, plutôt simple et peu coûteuse à produire, mais également plutôt facile à administrer. « Dans une étude préclinique, nous avons montré que notre nanocorps - PiN-31 - peut protéger à la fois les poumons et les voies respiratoires supérieures contre les infections », se félicite le professeur Yi Shi, auteur principal de l'étude, qui ajoute, « Nos données indiquent que la thérapie par inhalation à base de nanocorps peut minimiser la transmission et qu'elle est probablement compl&eac ute;mentaire au vaccin existant ». Reste désormais à confronter ce traitement potentiel aux prochaines phases de test, avant d'envisager sa diffusion à grande échelle. Les chercheurs sont en tout cas très optimistes quant au potentiel d'assimilation de ces nanocorps. « Ils peuvent permettre de surmonter les problèmes fondamentaux rencontrés par les anticorps humains. Parce que ce sont de grosses molécules, nos anticorps traditionnels ont une faible pénétration dans les tissus (...) ainsi qu'une liaison faible ou inexistante avec les régions de la surface de certaines molécules qui ne sont entièrement accessibles qu'aux molécules de plus petite taille ». Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Des biologistes et de pathologistes de l’Université de Pittsburgh ont montré qu’il était possible de pouvoir observer les caractéristiques nanoscopiques du cancer, dès les tout débuts de son développement, avant même son apparition. Les scientifiques ont mis au point une nouvelle étiquette fluorescente qui donne une image plus claire de la façon dont l'architecture de l'ADN est perturbée dans les cellules cancéreuses. Ces travaux vont permettre d’améliorer considérablement la détection, le diagnostic et la classification des cancers. Il s’agit d’un colorant qui se lie à l'ADN qui permet la génération d’images de très haute qualité via la microscopie à fluorescence à super résolution. Cette étude confirme le bon fonctionnement de cette étiquette fluorescente dans des biopsies cliniques déjà documentées. L’auteur principal, le Docteur principal Yang Liu, professeur agrégé de médecine et de bio-ingénierie à l'Université de Pittsburgh, se concentre, avec un laboratoire dédié, sur le développement de techniques de microscopie pour "visualiser l'invisible" : « Nous sommes parmi les premières équipes à explorer les capacités de la microscopie à super résolution dans le domaine clinique. Nous avons développé un colorant ADN facile à utiliser ». A l'intérieur du noyau de la cellule, des brins d'ADN sont enroulés autour de protéines. Habituellement, les pathologistes utilisent des produits traditionnels pour visualiser la perturbation de ce complexe ADN-protéine, ou chromatine, en tant que marqueur de cancer ou de lésions précancéreuses. « Bien que nous sachions que la chromatine est modifiée à l'échelle moléculaire au cours de la cancérogenèse, jusqu’ici nous n'avions pas été en mesure de visualiser clairement ces changements », commente l’auteur principal. « Nous avons besoin d'outils pour visualiser la structure nucléaire à très grande résolution ». En 2014, l'invention de la microscopie à fluorescence à super-résolution a marqué une étape majeure vers l’atteinte de cet objectif. La cellule étudiée est marquée avec un colorant fluorescent spécial qui s'allume et s'éteint de manière spécifique en fonction de "la santé" de la chromatine : le nouveau marqueur produit des images à plus haute résolution que les autres colorants ; dans les cellules normales, la chromatine est dense, en particulier sur les bords du noyau. L'ADN condensé brille vivement car une densité plus élevée de marqueurs émet un signal plus fort ; au fur et à mesure que le cancer progresse, la chromatine devient moins dense et la structure compacte à la frontière nucléaire est gravement perturbée, la chromatine faiblement tassée produit un signal plus faible. Si la technique combinée avec la microscopie à super-résolution ne remplacera pas à court terme la microscopie traditionnelle pour les diagnostics cliniques de routine, elle va permettre une détection plus précoce des cancers et une stratification plus fine des risques. « Les lésions à un stade précoce peuvent avoir des résultats cliniques très différents. Certains patients développent un cancer très rapidement, d'autres restent longtemps au stade précancéreux ». Article rédigé par Georges Simmonds pour RT Flash Science | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|