| | Edito Passer à l’économie circulaire : l’autre défi climatique
Le 30 mars dernier, prolongeant son plan d’action pour une économie circulaire de mars 2020, la Commission européenne a présenté un ambitieux "paquet" législatif, à négocier avec le Parlement et les États membres, qui vise à rendre durables, réparables et recyclables, à l’horizon 2035, la quasi-totalité des biens physiques présents sur le marché de l'UE. Le nouveau cadre réglementaire européen qui se dessine se veut en cohérence avec les récentes initiatives législatives françaises en matière d’économie circulaire, comme la loi anti-gaspillage et économie circulaire de 2020, ainsi que la loi climat et résilience, de 2021. Ce passage accéléré à l’économie circulaire, en France et en Europe, s’inscrit dans la perspective de la nécessaire neutralit é carbone, que visent notre pays et notre continent d’ici 2050, pour essayer de contenir le réchauffement climatique en dessous de deux degrés. D'ici à 2030, le nouveau cadre pourrait permettre d'économiser, selon la commission, 132 Mtep d'énergie primaire, soit environ 150 milliards de m³ de gaz naturel, ce qui équivaut pratiquement aux importations de gaz russe par l'UE. L’Europe veut étendre le cadre existant en matière d'écoconception, dans deux directions : d’une part, en incluant la plus large gamme possible de produits ; d’autre part, en élargissant le champ d'application des exigences auxquelles doivent satisfaire ces produits, notamment en ce qui concerne leur efficacité énergétique, l’objectif étant que cette efficience énergétique accrue contribue à réduire de moitié notre consommation finale d’énergie d’ici 30 ans. Depuis quelques mois, cette volonté politique forte, au niveau national et européen, conjuguée au volontarisme des entreprises et leurs efforts accrus en matière d’innovation, portent ses fruits. Quatre secteurs stratégiques, parmi beaucoup d’autres, se distinguent dans cette transition vers l’économie circulaire, les é nergies renouvelables, les matériaux de construction et d’emballage, le textile et enfin les transports du futur. Contrairement aux idées reçues, les éoliennes sont déjà recyclables à 85 %, sauf pour les pales, fabriquées avec un mélange de résines époxy et de fibres de verre ou de carbone, un composite très difficilement recyclable. En collaboration avec Olin, leader de l’époxy, et l’Institut de technologie danois, Vestas, l’un des géants de l’éolien, travaille sur une technique de séparation des composants. Il a lancé le programme CETEC (Économie circulaire pour les composites époxy thermodurcissables, traduit de l’anglais), visant à permettre, en 2025, le recyclage complet des pales par fracturation chimique. De son côté, le fabricant de pales LM Wind Power, dans le cadre du projet européen ZEBRA, a conçu et fabriqué deux prototypes de pales utilisant la résine recyclable Elium d’Ark ema. Il y a quelques semaines, l’usine LM Wind Power à Ponferrada en Espagne, a présenté la plus grande pale d’éolienne au monde 100 % recyclable en composite thermoplastique qui fait appel à cette résine Elium S’agissant des panneaux solaires, il faut également tordre le cou aux affirmations tenaces qui prétendent que ces éléments de production propre d’énergie ne sont pas recyclables. En réalité, leur taux de recyclabilité atteint déjà 94 % et devrait encore s’améliorer dans les années qui viennent. Quant à leur "amortissement" carbone, il est descendu à 3 ans pour les dernières installations, un chiffre à comparer à la durée de vie de ces panneaux, qui ne cesse de s’accroître et atteint à présent 30 ans. La start-up grenobloise Rosi Solar (Return of Silicon) vient de signer le bail actant la création de sa première usine de traitement des déchets de l’industrie photovoltaïque. Le site sera implanté à La Mure, en Isère, et devrait ouvrir courant 2023. Cette installat ion-pilote permettra de valoriser 3 000 tonnes de panneaux chaque année, et de récupérer 3 tonnes d’argent et 90 tonnes de silicium. Pour parvenir à ce résultat, cette entreprise va combiner des procédés de recyclage physiques, thermiques, et chimiques. Sachant qu’il va falloir recycler 50 000 tonnes par an de panneaux photovoltaïques en fin de vie, d’ici 2030, d’autres usines du même type devront être construites en France pour valoriser de façon durable ces panneaux photovoltaïques. Toujours dans le domaine de la production d’énergie propre, Veolia, le Collège de France, le CEA et le SIAAP (Syndicat interdépartemental pour l'assainissement de l'agglomération parisienne) se sont regroupés pour développer une technologie de capture et de recyclage du CO2 à la sortie des stations d’épuration. L’objectif de ce projet est de transformer ce dioxyde de carbone en acide formique, puis en méthane et méthanol. L’intérêt est double : ce processus de recyclage chimique permet à la fois de réduire l’empreinte-carbone des stations d’épuration et de produire une énergie utilisable localement. La ville de Cannes vient, quant à elle, de lancer une expérimentation sur six mois, visant à évaluer la faisabilité du recyclage des déchets alimentaires domestiques et de leur transformation en biogaz. A terme, Cannes souhaite monter sa propre usine de production de méthane vert afin de recycler tous les déchets organiques des habitants de son agglomération, forte de 160 000 habitants. Dans le domaine des matériaux de construction, une nouvelle étude réalisée conjointement par l’Université de Genève (UNIGE) et le Sustainable Minerals Institute (SMI) de l’Université du Queensland, vient de montrer qu’un changement radical dans le traitement des minéraux pourrait réduire considérablement les déchets miniers – le plus grand flux de déchets au monde – tout en créant une source durable de sable (Voir The University of Queensland). Appelé "ore-sand", ou "sable de minerai", ce matériau se compose de petites particules minérales et pourrait largement se substituer au sable naturel, extrait en quantité phénoménale des mers, plages, lacs, rivières et carrières de roche. On estime que 50 milliar ds de tonnes de sable sont utilisées chaque année dans le monde et cette demande a triplé depuis 20 ans, en raison de l’urbanisation et de la croissance démographique. Cette extraction massive de sable a des conséquences de plus en plus néfastes sur le plan environnemental et sociétal. Elle entraîne notamment l’érosion des berges des rivières, ce qui augmente considérablement le risque d’inondation. L’étude souligne que l’ore-sand peut permettre de réduire considérablement la quantité de sable prélevée dans le milieu naturel. Daniel Franck, responsable de ce projet au sein du SMI, estime que ce sable de minerai pourrait permettre de relever simultanément deux défis mondiaux en matière de durabilité, d’une part, réduire considérablement le volume des déchets générés ; d’autre part, créer une source de sable responsable. Ces recherches montrent qu’une grande partie du flux de matériaux qui se retrouvent dans les résidus min iers peut être utilisée comme substitut du sable de construction, à l’instar du béton recyclé. La cartographie fine des sites miniers du monde entier, associée à la modélisation de la consommation mondiale de sable, a montré qu’un tiers des sites miniers peut trouver au moins une demande d’ore-sand dans un rayon de 50 km, de quoi réduire d’au moins 10 % le volume de résidus générés sur chaque site. Par ailleurs, ce travail montre que la moitié du marché mondial du sable, en volume, pourrait trouver une source locale de sable. En outre, l’analyse du cycle de vie de ce substitut montre que le remplacement du sable d’origine naturelle par ce nouveau matériau peut entraîner une réduction considérable des émissions de carbone pendant la production du sable. Dans le domaine de la production des matières plastiques, qui a plus que triplé en 20 ans (passant de 150 à 350 millions de tonnes par an), des avancées majeurs sont également en cours, tant en matière de plastiques biosourcés que de recyclage durable des plastiques existants. En France, la firme Lactips a par exemple développé un plastique biosourcé, qui peut être associé à des fibres de papier ou de carton, ce qui donne un produit final entièrement recyclable et compostable. La société Lactips a été créée en 2014 par la plasturgiste Marie-Hélène Gramatikoff et un enseignant-chercheur de l'Université de Saint-Étienne, Frédéric Prochazka. La ligne de production de cette société se trouve à Saint-Paul-en-Jarez, à environ 40 km au sud de Lyon. Elle offre des solutions de produc tion d'emballages en papier sans plastique ni d’ailleurs aucune autre substance néfaste pour l’environnement. Pour parvenir à produire de manière industrielle ce plastique qui ne provient pas du pétrole ou du gaz naturel, Lactips a développé un procédé unique au monde qui repose sur l’emploi d'une protéine naturelle : la caséine, qui constitue la majeure partie des composants azotés du lait des mammifères. Ce plastique biologique est non seulement réutilisable mais également soluble dans l'eau. Pourtant, ce matériau de Lactips reste un véritable plastique sur le plan chimique, puisque sa structure moléculaire est bien celle d’un polymère. Mais, à la différence des autres plastiques issus de matières fossiles, ce bioplastique écologique est intrinsèquement non-polluant et totalement biodég radable. Une autre entreprise française fait beaucoup parler d’elle, la société clermontoise Carbios, qui a réussi à s’imposer comme le leader mondial du développement de solutions enzymatiques dédiées au retraitement des polymères plastiques et textiles. En partenariat avec la société thaïlandaise Indorama Ventures, spécialiste de la production de PET (Polyéthylène téréphtalate), Carbios va construire, sur son site de production de Longlaville en Meurthe-et-Moselle, une usine de retraitement unique au monde, d’une capacité de traitement de 50 000 tonnes de déchets PET par an, soit l’équivalent de 2 milliards de bouteilles. Rappelons qu’en juin 2021, le Consortium, réunissant Carbios, L’Oréal, Nestlé Waters, PepsiCo et Suntory Beverage & Food Europe, avait créé l’év&e acute;nement, en produisant avec succès les premières bouteilles en PET, de qualité alimentaire, entièrement fabriquées à partir de plastique recyclé par voie enzymatique. Le procédé tout à fait remarquable de catalyse biologique mis au point par Carbios, en coopération avec le CNRS et l’Université de Poitiers, est le seul au monde à permettre un recyclage à l’infini de tous types de déchets en PET ainsi que la production de produits PET 100 % recyclés et 100 % recyclables, sans perte de qualité. Grâce à l’ensemble de ces innovations récentes, et au nouveau cadre européen très volontariste qui se met en place, le taux de recyclage du plastique, qui est aujourd'hui d'à peine 25 % en France, devrait rejoindre dans dix ans celui du papier-carton, environ 70 %. Dans le domaine du textile, un secteur dont la production a doublé depuis 20 ans (100 milliards de vêtements vendus par an), et qui émet 1,2 gigatonne de CO2 chaque année, la société Evrnu vient d’annoncer le lancement de son premier matériau lyocell recyclable haute performance, entièrement fabriqué à partir de déchets textiles de coton. Cette fibre utilise les déchets textiles de coton comme seule matière première. Elle se veut une alternative viable aux matériaux cellulosiques et plastiques et ouvre la voie à une recyclabilité massive et rentable des produits. Non seulement cette fibre utilise des déchets textiles de coton qui finiraient autrement à la décharge, mais elle peut remplacer directement 90 % des fibres textiles actuelles, y compris le coton, les fibres cellulosiques artificielles, le nylon et le polyester. L'Europe a p résenté, fin mars, sa stratégie qui vise à rendre les textiles plus durables, réutilisables et recyclables d'ici 2030 et à réduire drastiquement la production de déchets textiles qui représentent plus de 6 millions de tonnes chaque année, soit l'équivalent de 11 kg par personne. La Chine a également bien compris l’enjeu économique et commercial que représente le recyclage du textile. Elle vient d’annoncer, il y a quelques jours, qu’elle allait passer de 20 à 25 % de taux de recyclage pour ses fibres textiles (22 millions de tonnes par an), dès 2025, à la fois en développant la production des textiles écologiques à faible empreinte-carbone, et en améliorant son vaste réseau de recyclage existant. Dans le domaine des transports et de la mobilité, Continental est le premier fabricant de pneus à avoir lancé, fin 2021, la production de fil de polyester recyclé obtenu à partir de bouteilles en plastique PET selon un nouveau procédé. Le nouveau matériau haute performance sera d’abord utilisé pour les pneus été Contiental PremiumContact 6. Ce nouveau matériau recyclé remplacera complètement le polyester conventionnel dans la carcasse des pneus sélectionnés. Les bouteilles utilisées par Continental sont triées et nettoyées mécaniquement. Après le broyage mécanique, le PET est ensuite transformé en granulés et finalement filé en fil de polyester. Fort de ce succès, Continental vise à présent 100 % de pneus recyclables et durables en 2050. Dans le domaine en plein essor des véhicules électriques, Eramet a développé, avec Suez, un procédé innovant de recyclage des batteries lithium-ion. Le groupe français va démarrer la construction d’une usine pilote à Trappes (Yvelines), avant de passer à la production industrielle. Grâce à son nouveau procédé, Eramet peut à présent récupérer le cobalt, le lithium et le nickel des batteries des véhicules électriques. Le substrat obtenu après le broyage des cellules de batteries sera traité par hydrométallurgie dans le centre de recherche d’Eramet Ideas à Trappes (Yvelines). Depuis trois ans, le groupe minier collabore avec Suez et BASF pour mettre au point un procédé innovant afin de recycler en boucle fermée le nickel, le cobalt, le manganèse et le lithium contenus dans les bat teries lithium-ion des véhicules électriques. Ce projet de recherche ReLieVe, s’est achevé fin 2021 avec succès. Les industriels ont annoncé qu’ils étaient parvenus à extraire et purifier les métaux critiques à un niveau de pureté compatible avec une réutilisation dans de nouvelles batteries automobiles. Eramet compte à présent installer une usine pilote à Trappes, sur le site de son centre de recherche, afin de tester à l’échelle pré-industrielle à partir de 2023 son procédé de raffinage. Alors que la durée de vie des batteries est estimée entre 10 et 15 ans, et tend à s’allonger, l’Europe devrait pouvoir utiliser les rebuts de la trentaine de gigafactories européennes prévues à l’horizon 2026 pour alimenter cette nouvelle filière performante de recyclage qui va s’inscrire dans le nouveau cadre de la directive européenne, actuellement en cours d’adoption, qui fixe des objectifs de collecte et de réemploi des matières recyclées dans les batteries électriques à partir de 2025. Avec cette nouvelle réglementation, l’UE souhaite que le poids de la batterie recyclée passe de 45 % à 65 % en 2025, puis 70 % en 2030. Cela suppose un taux de récupération de 90 % du cobalt, du manganèse et du nickel des cathodes… Outre-Rhin, le constructeur allemand Mercedes a annoncé récemment la mise en place d’un processus de recyclage des batteries de ses voitures électriques et la récupération d’au moins 96 % des matériaux. Mercedes a lancé un ambitieux programme concernant le recyclage des batteries. La marque construit actuellement une usine pour récupérer les métaux précieux des batteries lithium par hydrométallurgie. Mercedes veut construire sa première usine de recyclage de batteries sur le site de Kuppenheim. Pour développer à l’échelle industrielle ses nouvelles techniques de recyclage, Mercedes collabore étroitement avec l’Institut de recherche de Karlsruhe et les Universités de Clausthal et de Berlin. Cette usine de Kuppenheim devrait être opérationnelle en 2023 et sera d’abord dévolue au recyclage des batteries, puis a u traitement hydrométallurgique des matériaux des batteries pour récupérer les métaux précieux et les terres rares. L’usine aura une capacité annuelle suffisante pour produire plus de 50 000 modules destinés aux futures voitures de la famille EQ. On le voit, c’est bien une transition majeure vers l’économie circulaire, à production continue de valeur ajoutée tout au long du cycle de vie des biens et produits, qui est en train de se mettre en place, bien plus vite que prévu, dans de multiples secteurs d’activités, énergie, matériaux, textiles, transport. D’ici une vingtaine d’années, cette économie circulaire se sera généralisée au niveau planétaire et deviendra la norme en matière de conception, de production et de réutilisation. A l’horizon 2050, cette économie de la valorisation et de la transformation intelligentes, moteur très bénéfique et puissant d’innovation et d’amélioration de nos conditions de vie, permettra à la fois de diminuer de moitié la quantité de matière de d’énergie nécessaire pour "alimenter" nos économies, de multiplier par deux l’efficacité productive et de diviser par quatre nos émissions globales de gaz à effet de serre, objectif plus que jamais indispensable pour l’Humanité, si nous voulons contenir le changement climatique en cours dans des limites supportables pour les générati ons futures… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | Une société française, "La tannerie végétale" est parvenue à reconstituer la structure moléculaire du cuir à l'aide de protéines végétales et de tannins végétaux. Elle compte participer à la transformation de l’industrie du cuir avec sa matière 100 % végétale, recyclable. Après une thèse sur la fabrication de bioplastiques à base de farine de maïs au laboratoire IMP (Ingénierie des matériaux polymères) à Saint-Étienne, Fanny Deleage a exercé son premier emploi dans l’industrie agroalimentaire. Elle a ensuite voulu combiner ses deux savoir-faire pour reconstituer la structure moléculaire du cuir à l’aide de produits 100 % biosourcés. Elle est donc retournée dans son laboratoire d’origine et a développé une technique de fabri cation des cuirs qui consiste à associer des protéines animales à des tannins minéraux, métalliques ou végétaux, en les remplaçant par des protéines végétales et des tannins uniquement végétaux. Au final, cela donne un matériau thermoplastique malléable, aux propriétés mécaniques similaires au cuir, et que l’on peut mettre en forme comme du plastique. Cette idée n’avait jamais été utilisée pour concevoir un nouveau matériau. Cette technologie peut s’adapter à toutes les protéines végétales, mais pour l’instant, cette chercheuse a choisi d’utiliser le gluten de blé. Il est en effet très abondant, et principalement valorisé en alimentation animale. Contrairement aux cuirs et aux similis, qui consomment beaucoup de produits chimiques et toxiques, ce matériau en est totalement dépourvu. Quant à son mode de fabrication, il ne fait pas appel à de la chimie et ne consomme pas d’eau, à l’opposé des tanneries qui s’installent presque toutes à proximité de rivières. Ce matériau est donc entièrement biodégradable et recyclable ; son empreinte-carbone et son impact sont inférieurs à 4 kg de CO2 équivalent par m², alors que les similis sont autour de 12 à 15 kg de CO2 et les cuirs autour de 40 kg de CO2 pa r m2. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| La production intermittente d’électricité "verte", provenant du solaire et de l’éolien, nécessite un stockage à grande échelle pour maintenir la stabilité de nos réseaux électriques. Parmi les nouvelles solutions de stockage envisagées, l'idée d'utiliser des batteries à flux, qui stockent l'électricité dans un fluide, est attrayante. Cependant, ces batteries contiennent des métaux rares et chers. Des scientifiques de l'Université de Groningen, aux Pays-Bas, ont conçu un électrolyte de batterie à flux qui pourrait résoudre les deux problèmes. Dans les batteries à flux, l'énergie est stockée dans deux fluides séparés par des produits chimiques dissous pour le stockage de la charge. L'électricité est stockée (et ensuite libérée) en pompant ces fluides à travers une cellule électrochimique qui contient une membrane à travers laquelle les ions peuvent être échangés. Le contenu énergétique d'une telle batterie est évolutif en utilisant simplement des réservoirs de stockage plus grands pour les fluides. La Chine a récemment installé des batteries à flux pour réduire la variabilité de sa production d'électricité verte. « Une capacité de stockage à grande échelle est nécessaire lorsque les sources intermittentes, telles que l'énergie solaire et éolienne, deviennent plus importantes dans le mix électrique, car le réseau pourrait être déstabilisé », souligne Edwin Otten, professeur associé de chimie inorganique moléculaire à l'Université de Groningen. « Le type de batterie utilisé par les Chinois a été conçu dans les années 1980 et est basé sur une solution contenant du vanadium », ajoute-t-il. Le problème est que le vanadium est aussi rare que cher (plus de 30 euros le kg) et que ce métal n'est extrait que d ans quelques endroits sur Terre. De plus, il nécessite une membrane spéciale pour séparer les deux fluides, ce qui augmente également les coûts. C'est pourquoi le groupe de recherche d'Edwin Otten, en collaboration avec des chercheurs de l'Université d'Eindhoven (Pays-Bas) et de l'Université technique du Danemark, a entrepris de concevoir un nouveau type de matériau de batterie à flux. « Nous voulions une batterie symétrique où les deux réservoirs contiennent le même fluide. De plus, nous voulions qu'il soit basé sur une molécule organique plutôt que sur un métal ». explique Otten. Les deux réservoirs de la batterie à flux contiennent généralement des fluides de composition différente. Des batteries symétriques ont été conçues en reliant les molécules utilisées des deux côtés et en remplissant les deux réservoirs avec la molécule hybride résultante. Mais cette approche a un inconvénient : une seule partie de la molécule est utilisée de chaque côté, et lors de l'utilisation, des radicaux réactifs apparaissent qui se dégradent avec le temps. Otten et son équipe ont utilisé une approche différente. I ls ont cherché une seule molécule stable, capable de prendre ou de restituer des électrons et donc utilisable des deux côtés de la batterie. Le composé le plus prometteur était un radical Blatter, un composé organique bipolaire qui peut en effet prendre ou donner un électron dans une réaction redox. « La molécule que nous avons sélectionnée était également intrinsèquement stable », déclare Otten. Testé dans une petite cellule électrochimique, ce nouveau composé a bien fonctionné et est resté stable sur 275 cycles de charge/décharge. « Nous devons porter cela à des milliers de cycles ; cependant, nos expériences sont une preuve de concept. Il est possible de réaliser une batterie à flux symétrique qui présente une bonne stabilité ; », précise Otten. Article rédigé par Georges Simmonds pour RT Flash ACS | | | |
| Des chercheurs du MIT ont conçu un tissu qui fonctionne comme un microphone, convertissant le son d'abord en vibrations mécaniques, puis en signaux électriques, de la même manière que nos oreilles entendent. Tous les tissus vibrent en réponse à des sons audibles, mais ces vibrations, qui sont de l'ordre du nanomètre, sont indétectables. Pour capter ces signaux imperceptibles, les chercheurs ont créé une fibre flexible piezzoélectrique qui, une fois intégrée dans un tissu, produit un signal électrique lorsqu'elle est pliée ou déformée mécaniquement, permettant ainsi au tissu de convertir les vibrations sonores en signaux électriques. Ce tissu peut capter une large gamme de sons et déterminer leur provenance. Lorsqu'il est tissé dans la doublure d'une chemise, le tissu peut également détecter les caractéristiques subtiles des battements de cœur. Les fibres peuvent aussi être conçues pour générer un son, tel qu'un enregistrement de paroles, qu'un autre tissu peut détecter. Selon Wei Yan, qui a dirigé ces recherches, « En portant un vêtement acoustique, vous pourriez répondre aux appels téléphoniques sans avoir besoin de décrocher votre mobile. De plus, ce tissu peut s'interfacer de manière imperceptible avec la peau humaine, permettant aux porteurs de surveiller leur état cardiaque et respiratoire en temps réel ». Ces chercheurs ont également réussi à inverser la fonction de la fibre pour qu'elle serve non pas de détecteur de son mais de haut-parleur. Ils ont enregistré une suite de mots prononcés et ont transmis l'enregistrement à la fibre sous la forme d'une tension appliquée. La fibre a alors converti les signaux électriques en vibrations audibles, qu'une deuxième fibre a pu détecter. Selon ces scientifiques, ce "tissu acoustique réversible" pourrait trouver de nombreuses applications, et pas seulement en médecine, dans la surveillance cardiaque portable. Il pourrait, par exemple, être intégré dans des bâtiments et ouvrages d’art (ponts, barrages) pour détecter l’apparition de minuscules fissures ou déformations…. Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| La topologie est l'étude des propriétés d'un système qui restent inchangées lorsqu'on le déforme. Ce domaine des mathématiques est utilisé depuis quelques années : le prix Nobel de physique 2016 a ainsi récompensé trois pionniers dans son utilisation pour créer de nouveaux types de circuits électroniques – les Britanniques David Thouless, Michael Kosterlitz et Duncan Haldane. Aussi étonnant que cela puisse paraître, cette notion abstraite est désormais utilisée pour concevoir des circuits qui guident la lumière efficacement. En structurant la matière de manière subtile, on parvient à piéger la lumière et à l'acheminer par de tout petits chemins – à l'échelle du micromètre – et surtout à lui faire prendre des virages sans perte d'intensité. Une performance criti que quand on sait que la lumière aime se déplacer en ligne droite. À la clé, un bouleversement du domaine de l'optique intégrée : la création de puces photoniques (le photon est la particule de la lumière) qui seraient utiles pour les télécommunications ou les ordinateurs fonctionnant à l'aide de lumière, appelés ordinateurs photoniques. « En 2005, Duncan Haldane a l'idée d'appliquer ces idées de topologie développées pour la physique de l'état solide – les électrons qui se propagent sur des métaux et des semi-conducteurs – à la lumière. Il écrit un article fondateur qui fait la jonction entre ces domaines. C'est à partir de ses travaux que beaucoup d'équipes, dont la nôtre, ont tenté de créer des circuits topologiques pour la lumière ». La difficulté principale est qu'en électronique, ces propriétés topologiques sont créées par la présence d'un champ magnétique auquel les électrons sont sensibles. Or les photons sont neutres : ils sont donc insensibles à tout champ magnétique. Dès lors, il s'agit de créer des systèmes où lumière et matière sont volontairement "mélangées", de sorte à les rendre sensibles au champ. Par exemple, les photons peuvent être piégés dans une microcavité où ils subissent une série d'absorptions-réémissions. Ce processus – qui les transforme en photons dits "habillés" – les rend sensibles au champ magnétique. Nous étudions la physique de ces quasi-particules nommées "polaritons", qui ne sont ni tout à fait de la lumière ni tout à fait de l a matière. Quelles sont les symétries à implémenter dans ce matériau afin de créer un guide topologique ? Une stratégie consiste à créer une interface dans le semi-conducteur qui sépare un réseau de trous avec une certaine symétrie spatiale - par exemple "en nid d'abeille dilaté" – d'un réseau de symétrie différente – en "nid d'abeille comprimé". Les bandes photoniques diffèrent dans chaque partie du réseau, laissant apparaître à l'interface un canal topologique pour les photons. Nous avons mis au point plusieurs de ces circuits et obtenu dans certains une propagation sans perte, soit l'équivalent pour la lumière de ce qu'est un matériau supraconducteur pour l'électricité ; les photons possédaient une longueur d'onde de 800 nanomètres, autrement dit, ils se situaient dans l'infrarouge proche. De façon analogue, nous avons créé le premier "laser topologique" : à l'interface entre un réseau et le vide (le vide a une topologie particulière dite "triviale", différente de celle du réseau), un état de lumière apparaît bien localisé et cohérent. Ces interfaces topologiques devraient permettre de réaliser des circuits photoniques à l'échelle micrométrique particulièrement résistants au désordre : la propagation est "protégée" par la topologie. Outre l'intérêt fondamental dans le domaine de la physique des matériaux topologiques (mettre en évidence de nouvelles phases topologiques en photonique), les résultats attendus ouvriraient la voie à la conception de puces photoniques où le transport de la lumière pourrait être contrôlé très rapidement. L'avantage de ces systèmes est en effet la manipulation directe de l'information qui est déjà sous forme de lumière. Ceci permettrait de traiter directement l'information lumineuse qui arrive dans les serveurs de calcul et de données via des fibres optiques, sans avoir besoin de la transformer en signaux électriques, avec à la clé une économie appréciable. Article rédigé par Georges Simmonds pour RT Flash La Recherche | | | |
| Des scientifiques saoudiens ont développé des panneaux solaires capables d’absorber une partie de la vapeur d'eau présente dans l’air, ce qui permet d'améliorer l'accès à l'eau potable dans les régions au climat aride. Leur méthode a été développée à partir de panneaux solaires photovoltaïques et d'un hydrogel, qui permettent d'utiliser l'eau puisée dans l'air tout en produisant de l'électricité. Selon ces chercheurs, cette technique "durable et peu coûteuse" pourrait améliorer la sécurité alimentaire et hydrique des populations vivant dans des régions au climat sec. « Une fraction de la population mondiale n'a toujours pas accès à l'eau potable ou à l'énergie verte, et beaucoup vivent dans des zones rurales au climat aride ou semi-aride », explique dans un communiqué l'auteur principal des travaux Peng Wang, professeur de sciences et d'ingénierie environnementales à l'Université des sciences et technologies du roi Abdullah (Arabie Saoudite). Baptisé WEC2P, le dispositif est doté d'une grande boîte métallique qui sert à condenser la chaleur des panneaux solaires pour la transformer en eau. L'hydrogel augmente l'efficacité des panneaux solaires photovoltaïques jusqu'à 9 % en absorbant la chaleur et en abaissant la température des panneaux, précise la recherche. Un potentiel énergétique qui pourrait être utilisé pour éclairer les habitats ou pour arroser les cultures agricoles. Pour tester leur méthode, les chercheurs ont réalisé une expérience de deux semaines au mois de juin (période de forte chaleur dans cette région) en Arabie saoudite. L'eau collectée à partir de l'air ambiant via les panneaux solaires a été utilisée pour irriguer 60 graines d'épinards aquatiques plantées dans une boîte de culture en plastique. Le panneau solaire a généré un total de 1 519 watts d'électricité et 57 des 60 graines d'épinard ont germé, puis poussé, pour atteindre jusqu'à 18 centimètres de hauteur. Environ deux litres d'eau ont été condensés à partir de l'hydrogel au cours de deux semaines. Selon ces scientifiques, leur système pourrait encore être amélioré, grâce à un hydrogel capable d'absorber davantage d'eau de l'air. « Notre procédé, simple et peu coûteux fabrique de l'eau à partir de l'air en utilisant de l'énergie propre qui aurait été gaspillée et convient aux petites exploitations décentralisées dans des endroits reculés comme les déserts », précise le Professeur Wang. Article rédigé par Georges Simmonds pour RT Flash Cell | | ^ Haut | |
|
| | | Des scientifiques du CNRS, de l’Université de Paris-Saclay, du CEA et de l'Université de Pau et des pays de l'Adour1 , avec le soutien du MNHN, sont ainsi remontés à la composition isotopique de l’eau au tout début du Système solaire, dans ses régions internes où se sont formées les planètes telluriques telles que la Terre. Ils ont pour cela analysé l’une des plus vieilles météorites du Système solaire, grâce à une méthode innovante développée spécialement pour cette étude. Leurs résultats montrent l’existence de deux réservoirs gazeux dans les premiers 200 000 ans du Système solaire, avant même la formation des premiers embryons planétaires. L’un de ces réservoirs est le gaz solaire à l’origine de toute la matière du Système solaire, mesuré directement pour la première fois dans la météorite. Le second est un gaz enrichi en vapeur d’eau, ayant d’emblée la composition isotopique de l’eau terrestre. Sa formation peut s’expliquer par un apport massif d’eau interstellaire dans les régions internes chaudes du Système solaire lors de l’effondrement de l’enveloppe interstellaire et de la formation du disque protoplanétaire. Son existence précoce implique que l’eau de la Terre était déjà disponible avant même l’accrétion des premiers blocs constitutifs de notre planète. L'analyse isotopique de l'hydrogène montre donc que deux réservoirs gazeux étaient présents durant la première phase de formation du Système solaire. Les minéraux auraient ainsi enregistré la composition de la nébuleuse solaire, puis celle d'une nébuleuse protoplanétaire fortement enrichie en eau, avec une signature isotopique de l'hydrogène déjà similaire à celle de la future Terre. Ceci durant les 200.000 premières années du Système solaire. Les analyses concernant les isotopes de l'oxygène et de l'azote mènent à des conclusions similaires. L’eau était déjà présente bien avant la formation des planètes. Le réservoir chimique protoplanétaire, à partir duquel se sont accrétées par la suite les différentes planètes telluriques du Système solaire, était donc déjà formé à ce stade très précoce. La formation de ce réservoir serait due à un afflux massif de matière interstellaire, riche en eau, vers le centre du Système solaire au moment de l'effondrement de l'enveloppe interstellaire. L'accrétion de matériel à différents stades de ce mélange permet d'expliquer l'hétérogénéité isotopique rencontrée pour différentes météorites. Les échantillons étudiés montrent qu'ils se seraient formés en premier lieu à partir de mat&eacut e;riel solaire, très proche du centre du disque protoplanétaire, avant de continuer leur évolution au niveau du réservoir de gaz planétaire. Ces travaux indiquent que l’eau composant les planètes telluriques du Système solaire était déjà présente bien avant leur formation. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Les effets nocifs des polluants atmosphériques sur la santé, même à de faibles niveaux d’exposition, sont bien documentés. De récentes recherches ont notamment suggéré qu’en plus d’accroître le risque de développer des maladies cardiovasculaires et pulmonaires, la pollution de l’air pourrait accélérer le déclin cognitif, un des symptômes annonciateurs d’une pathologie neurodégénérative comme la maladie d’Alzheimer et d’autres démences. Depuis quelques années, la pollution de l’air est ainsi reconnue comme un facteur de risque "modifiable" de la démence, c’est-à-dire sur lequel il est possible d’agir via des changements dans la réglementation qui encadre les niveaux de pollution tolérés. Cependant, aucune étude ne s’est jusqu’alors intéressée simultanément à plusieurs types de polluants et à leurs potentiels effets respectifs sur les différents domaines de la cognition. Des chercheurs de l’Inserm, de l’Université de Rennes 1 et de l’École des hautes études en santé publique (EHESP) à l’Irset, ont étudié comment le niveau d’exposition aux polluants atmosphériques impacte les performances cognitives. Une étude ayant révélé qu’une baisse des performances cognitives pouvait survenir dès l’âge de 45 ans, l’équipe de recherche s’est appuyée sur les données de plus de 61 000 participants de la cohorte épidémiologique Constances, âgés de 45 ans et plus. Tous ont participé à une série de tests mesurant leurs performances cognitives dans trois grands domaines de la cognition : la mémoire, la fluidité d’expression orale (ou fluence verbale) et la capacité à prendre des décisions (ou fonctions exécutives). Les chercheurs ont établi un score des performances cognitives pour chacun des tests, en tenant compte du sexe, de l’âge et du niveau d’étude de chaque participant. Pour mesurer l’exposition de chaque participant à la pollution, l’équipe de recherche a utilisé des cartes dites "d’exposition" qui estiment la concentration de polluants à l’adresse du domicile. Ces cartes prennent en compte plusieurs variables comme la densité du trafic routier ou encore la proximité du domicile aux routes. Trois polluants liés au trafic routier ont été considérés dans le cadre de l’étude : les particules fines de diamètre inférieur à 2,5 microns (PM2,5), le dioxyde d’azote (NO2) et le carbone suie. En croisant les résultats des tests cognitifs avec le niveau d’exposition aux trois polluants atmosphériques, l’étude indique que l’exposition à de plus grandes concentrations de ces polluants serait associée significativement à un plus bas niveau de performances dans les trois domaines cognitifs étudiés. Pour les participants les plus exposés, les chercheurs ont constaté une différence allant de 1 à près de 5 % du score des performances cognitives par rapport aux participants moins exposés. « Les capacités les plus impactées sont la fluence verbale et les fonctions exécutives », précise Bénédicte Jacquemin, la chercheuse Inserm qui a dirigé ces travaux. « Le dioxyde d’azote et les particules PM2,5 impactent davantage la fluence verbale, tandis que le carbone suie a un plus grand impact sur les fonctions exécutives. » Elle conclut : « La prochaine étape de nos recherches consiste à observer l’évolution dans le temps des fonctions cognitives de ces adultes, afin de voir si l’exposition à la pollution est aussi associée à une baisse du fonctionnement cognitif avec le temps, baisse qui peut refléter les premiers signes de démences, tant de la maladie d’Alzheimer que d’autres formes de démences du sujet âgé & raquo;. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Une équipe internationale associant de chercheurs américains, allemands, néerlandais, anglais, mexicains et ghanéens, a montré que les forêts dites "secondaires", celles qui ont repoussé après avoir été détruite par l'homme, ont le potentiel de se restaurer en partie naturellement, en l'espace de 20 ans seulement. Un atout de taille pour la préservation de la biodiversité et pour lutter contre le réchauffement climatique, alors que le phénomène du déboisement est massif dans les forêts tropicales. Cette étude vient en effet, pour la première fois, « chiffrer les avantages du reboisement naturel, à savoir notamment le stockage du CO2, alors que ces friches sont souvent exploitées sans grande rentabilité au bout de quelques années », observe Xavier Arnaud de Sartre, directeur de recherche au CNRS. Cette étude a été réalisée sur plus de 2.200 parcelles de forêt en Afrique de l'Ouest et en Amérique du Sud, décimées pour la culture du cacao ou du soja ou pour faire du pâturage. Les chercheurs se sont basés sur plusieurs attributs essentiels aux forêts : les sols ; la croissance des arbres ainsi que la biodiversité. Il en ressort que sans intervention humaine, ces parcelles à l'abandon ont le potentiel de repousser presque entièrement, grâce au phénomène de la "succession secondaire". La flore et la faune étant déjà en place, la régénération forestière est accélérée. Et en 20 ans, 80 % de la fertilité du sol et 80 % de la diversité végétale d'une forêt primaire ont été restaurées. Il faudra en revanche attendre au minimum un siècle pour que les arbres retrouvent leur capacité à capter le CO2. « Les forêts tropicales de manière générale ne se prêtent pas à la plantation », explique Xavier Arnaud de Sartre. « C'est un écosystème tellement riche qu'il peut se régénérer sans intervention humaine&nbs p;» ajoute-t-il. En témoignent par exemple les 2,7 millions d'hectares de forêt qui ont repoussé au Brésil, entre 1996 et 2015. Ce phénomène ne s'applique cependant pas dans les zones où les sols ont été surexploités. Cette régénération naturelle apparaît dès lors comme une stratégie efficace et peu coûteuse pour le reboisement. Elle s'inscrit en outre dans les politiques en cours de récupération des terres déboisées. En parallèle de la question du reboisement, la question de la déforestation, trop souvent absente des agendas politiques a été mise en avant lors de la COP 26 de Glasgow. Lors du sommet, une centaine d'Etats a signé une déclaration commune pour lutter contre la déforestation. Ils ont fixé à 2030 l'échéance pour mettre un terme à la déforestation. Article rédigé par Georges Simmonds pour RT Flash Science | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Selon une étude récente, l'administration répétée d'une nouvelle formulation de spray d'ocytocine intranasale dont la biodisponibilité a été améliorée permettrait de maintenir un bénéfice sur le plan de la réciprocité sociale chez des hommes adultes atteints de troubles du spectre autistique (TSA). Ces données obtenues auprès de petites cohortes de patients doivent aujourd’hui être confirmées dans des études de plus large envergure. Des études cliniques ont suggéré le bénéfice de l’ocytocine spray sur la réciprocité sociale et la reconnaissance des émotions chez les personnes atteintes de TSA, mais l’intérêt de la répétition des administrations n’est pas clairement démontré, les résultats étant contradictoires. Il est possible que la disparité des données découle d’une posologie optimale mal établie, et qui s’avère complexe à établir au vu des expérimentations suggérant la perte d’efficacité progressive de l’ocytocine et l’existence d’une relation dose-réponse en forme de U. Une équipe japonaise a mis au point une nouvelle formulation intranasale (TTA-121) dont la biodisponibilité centrale est 3,6 fois celle du spray conventionnel. Des études clinique s sont donc nécessaires pour en évaluer l’intérêt. L’étude clinique multicentrique randomisée de façon croisée a inclus des hommes de 18 à 55 ans, ayant un diagnostic de TSA selon les critères DSM, et un Quotient intellectuel >80 (échelle de Wechsler-III). Les interventions thérapeutiques visaient à comparer huit groupes deux à deux : deux posologies (TTA-121 3 ou 10U), deux schémas de prescription (TTA-121 vers placebo ou placebo vers TTA-121), et deux fréquences d’administration (1 ou 2 fois/jour). Au total, 109 hommes ont été inclus dans l’essai. Le critère principal de l’étude était l’évolution de la réciprocité sociale à partir de l’évolution du score ADOS (coté de 0 à 14, croissant avec la sévérité de l’atteinte) entre le point de début et de fin de chaque période d’administration. Une réponse dose-dépendante en forme en U inversé a été observée après l’analyse des données de cohorte complète comme de cohorte per protocole. Sur les données à 4 semaines, le pic d’efficacité a été établi à 6 U/jour mais il n’était significativement différent du placebo que dans la cohorte per protocole. Les déviations du protocole initial étaient majoritairement liées à ; une mauvaise observance du médicament. Aucun des résultats cliniques et comportementaux secondaires n’a été significativement amélioré avec le TTA-121 par rapport au placebo sur l’ensemble de la cohorte. La tolérance du traitement était globalement bonne, sans signaux de toxicité particuliers. Article rédigé par Georges Simmonds pour RT Flash NIH | | | |
| Chez la majorité des patientes souffrant d’un cancer du sein, l’une des hormones féminines – l’œstrogène – joue un rôle néfaste. En effet, dans environ deux tiers des cas de ce type de cancer, les tumeurs contiennent un récepteur à cette hormone qui est naturellement produite par l’organisme. Lorsque l’œstrogène se fixe à son récepteur, elle stimule la croissance des cellules cancéreuses. Pour traiter ces formes de tumeurs dites "hormonodépendantes", il est possible d’avoir recours à l’hormonothérapie qui consiste en un traitement médicamenteux pour empêcher l’action stimulante de l’hormone féminine sur les cellules cancéreuses. La molécule standard utilisée dans le traitement des cancers du sein hormonodépendants est le tamoxifène. Cette molécule, capable de se lier aux récepteurs à œstrogène pour les bloquer, empêche la fixation de l’œstrogène et donc la stimulation de la croissance des cellules cancéreuses. Cependant, chez environ 40 % des patientes traitées, les cellules cancéreuses finissent par développer une résistance à cette molécule. Le laboratoire du Professeur Didier Picard du Département de biologie moléculaire et cellulaire de la Faculté des sciences de l’UNIGE s’intéresse aux mécanismes moléculaires responsables de ces phénomènes de résistance. Les biologistes ont utilisé une approche génétique sur des lignées cellulaires ca ncéreuses pour rechercher des facteurs qui promeuvent l’apparition de résistance au tamoxifène. « Nous avons utilisé la technique des ciseaux moléculaires CRISPR/Cas9 pour générer des cellules dans lesquelles il manque à chaque fois un gène différent. Nous avons ensuite observé les cellules cancéreuses capables de proliférer même en présence de tamoxifène », explique Vasiliki Vafeiadou, étudiante en Master au Département de biologie moléculaire et cellulaire et première auteure de l’étude. C’est ainsi que les scientifiques ont identifié qu’un faible niveau de la protéine SPRED2 entraîne une résistance des cellules cancéreuses au traitement. Lorsqu’elle est présente en quantité suffisante, cette protéine empêche la croissance des cellules en bloquant une voie de signalisation activatrice de la prolifération cellulaire. Lorsqu’elle est absente – ou présente en faible quantité – la croissance des cellules est alors activée, et ce, même en présence du tamoxifène qui empêche la stimulation dépendante de l’œstrogène. « En analysant des bases de données répertoriant les niveaux d’expression de certains gènes chez les patientes, nous avons pu constater que celles avec un faible niveau de SPRED2 ont des pronostics moins favorables », détaille Dina Hany, chercheuse au Département de biologie moléculaire et cellulaire et co-dernière auteure de l’étude. Un traitement capable d’inhiber cette voie d’activation cellulaire indépendante de l’œstrogène est déjà en test clinique. Les auteur-es proposent donc de combiner le tamoxifène à cette autre molécule chez les patientes présentant un faible niveau de SPRED2. « Il reste encore évidemment de nombreuses études à mener, mais cette combinaison de traitements pourrait être très prometteuse », conclut Didier Picard. Article rédigé par Georges Simmonds pour RT Flash UNIGE | | | |
| Une équipe de recherche de l’Institut de Duve (UCLouvain), conduite par le Professeur Guido Bommer, vient de mettre au jour le rôle d’une enzyme - PARK7 - qui est inactive chez certains patients atteints de la maladie de Parkinson : or, cette enzyme prévient des dégâts causés aux cellules lors du métabolisme des sucres par la glycolyse, la voie principale de ce métabolisme. Les scientifiques soupçonnent qu’il y a là une explication pour l’apparition de cette maladie dont on ne sait toujours pas aujourd’hui comment elle se développe. L’étude, réalisée avec le soutien financier de WELBIO et du Conseil européen de la recherche (ERC), est publiée dans le journal PNAS (Proceedings of the National Academy of Sciences – USA). Comme la maladie d’Alzheimer, la maladie de Parkinson est une affection neurodégénérative fréquente et très invalidante. Cette maladie est due à la mort de certaines cellules du cerveau, mais on n’en connaît toujours pas la cause. On soupçonnait que cette maladie était le résultat de l’accumulation de dégâts moléculaires au cours de la vie, mais on ne connaissait pas, jusqu’à aujourd’hui, la nature précise de ces dégâts. L’équipe du Professeur Guido Bommer (Institut de Duve, UCLouvain) vient de découvrir un lien étroit entre le métabolisme des sucres et un nouveau type de dégât cellulaire qui semble jouer un rôle dans certains cas de maladie de Parkinson. Ces dégâts concernent à la fois des protéines (les ‘bonnes-à-tout-faire’ de nos cellules) et de nombreux métabolites (les petites molécules qui servent de pièces pour fabriquer entre autres les protéines). Dans nos cellules, les sucres sont consommés par la glycolyse – une série de réactions chimiques qui décomposent le glucose en le convertissant successivement en une série de métabolites. Un de ces métabolites est spontanément converti en un composé extrêmement réactif, le 1,3-phosphoglycérate cyclique, qui n’avait jamais &eac ute;té décrit dans la littérature scientifique et qui endommage des protéines et des métabolites. Le groupe du Professeur Guido Bommer a également découvert que toutes nos cellules et presque tous les êtres vivants possèdent une enzyme – PARK7 – qui peut détruire ce composé réactif et empêcher les dégâts de survenir. Ils ont observé que l’inactivation de PARK7 provoque une accumulation de dégâts dans des systèmes aussi divers que les cellules humaines, les souris et même les mouches. Certains cas de la maladie de Parkinson sont dus à l’inactivation génétique de l’enzyme PARK7. Jusqu’ici, malgré des milliers d’articles scientifiques publiés à son sujet, la fonction de PARK7 restait inconnue. Les nouveaux résultats offrent une explication mécanistique sur la façon dont la déficience en PARK7 provoque la maladie de Parkinson. Sachant que PARK7 est facilement inactivé par un stress oxydatif susceptible d’être déclenché pour de multiples raisons, les mêmes dégâts pourraient aussi jouer un rôle chez les patients dont le gène de PARK7 est intact. L’espoir ? En accord avec la devise de l’Institut de Duve ‘mieux comprendre pour mieux guérir’, les chercheurs espèrent qu’une meilleure compréhension des mécanismes à l’origine de la maladie de Parkinson pourrait mener à de nouveaux traitements qui cibleraient l’origine de cette maladie plutôt que ses symptômes. De quoi réjouir le Professeur Bommer qui souligne par ailleurs « qu’il est exceptionnel, de nos jours, de faire une découverte aussi fondamentale sur un sujet qui a autant été étudié dans le passé ». Article rédigé par Georges Simmonds pour RT Flash UCL | | | |
| La paralysie correspond à une perte de motricité d’un ou de plusieurs muscles. Elle peut être due soit à une lésion des nerfs soit à une lésion du cerveau ou de la moelle épinière. Ces blessures peuvent conduire à une paralysie à long terme, pour laquelle aucun remède n’a été développé à l’heure actuelle. Si la recherche s’est récemment intéressée à la transplantation de cellules ou de biomatériaux sur le site de la blessure, deux problématiques majeures limitent le succès de ce traitement : le rejet de la greffe due à la réponse immunitaire ainsi que l’incapacité des cellules implantées à former un réseau fonctionnel. Pour pallier ces deux problématiques, des chercheurs de l’Université de Tel Aviv ont mis au point une nouvelle méthode consistant à prélever une biopsie du tissu adipeux du patient puis à séparer les cellules du matériel extracellulaire. Les cellules sont ensuite reprogrammées en cellules souches embryonnaires, capables de se transformer en tout type de cellules de l’organisme. En parallèle, l’équipe de recherche a créé, à partir du matériel extracellulaire prélevé, un gel personnalisé adapté au patient, afin d’éviter tout risque de rejet après la greffe. Enfin, les cellules souches ont été introduites dans le gel puis transformées en implants 3D de réseaux de neurones - dont des neurones moteurs, cellules nerveuses commandant les muscles et le mouvement. Le potentiel thérapeutique de ce dispositif a ensuite été évalué chez des souris, divisées en deux groupes : les souris paralysées récemment (paralysie aiguë) et les souris paralysées depuis au moins un an (paralysie chronique). L’ensemble des souris souffrant de paralysie aiguë ont retrouvé leur capacité de marcher en l’espace de trois mois après la pose de l’implant, avec des améliorations significatives par rapport aux souris n’ayant pas reçu l’implant. Par ailleurs, l’implant de moelle épinière artificielle a également été intégré avec succès chez les souris atteintes de paralysie chronique, avec 80 % d’entre elles ayant retrouvé la capacité de marcher six semaines après l’implantation. Suite au succès des essais sur modèle murin, les scientifiques se préparent à présent à la prochaine phase de l’étude : les essais cliniques chez l’homme. Ils ont ainsi pour ambition de parvenir, d’ici quelques années, au développement d’implants personnalisés pour chaque patient qui permettraient de réparer les tissus endommagés sans risque de rejet. Aussi, si les résultats de cette étude sont prometteurs pour les personnes souffrant de paralysie, les chercheurs espèrent que cette technologie pourra également être utilisée à l’avenir pour traiter diverses maladies comme la maladie de Parkinson, l’infarctus du myocarde ou encore certains traumatismes cérébraux. Article rédigé par Georges Simmonds pour RT Flash TAU | | | |
| Des chercheurs de l'École polytechnique fédérale de Zurich (ETH Zurich), de l'Université Julius-Maximilians de Würzburg, de l'Université de Fribourg et de l'Hôpital universitaire de Zurich, ont examiné le comportement des plaquettes au niveau du lit de la plaie, en particulier leur capacité à remodeler leur environnement pour initier la cicatrisation. En ayant recours à la microscopie à super-résolution, ces chercheurs ont pu observer le comportement des plaquettes sanguines au cours du processus de cicatrisation. Ces recherches ont montré que les plaquettes sont essentielles pour initier la cicatrisation des plaies et la formation de caillots sanguins (thrombus). Les fibroblastes sont des cellules du tissu conjonctif qui jouent également un rôle essentiel lors des étapes ultérieures de la cicatrisation des plaies. Les fibroblastes envahissent le caillot qui s'est formé et produisent des protéines vitales, dont la fibronectine, qui forment ensuite un cadre structurel pour construire le nouveau tissu nécessaire à la réparation. Les plaquettes interagissent ainsi avec de multiples protéines d'adhésion au cours de la thrombogenèse, mais on en savait peu sur leur capacité à assembler la matrice de fibronectine. Ici, grâce à une technique de microscopie de pointe, complétée par des méthodes biophysiques et biochimiques, l’équipe montre, in vitro, comment, grâce à leur "contractilité" les plaquettes sanguines permettent la fibrillogenèse de la fibronectine : en pratique, les plaquettes assemblent des nanofibrilles de fibronectine à l'aide d'une protéine, αIIbβ3. Cette première matrice permet de préserver l'intégrité mécanique du thrombus pendant les phases de remodelage et de réparation vasculaire. Ainsi, cette matrice provisoire de fibronectine, permise et formée par les plaquettes sanguines, apparaît comme une condition essentielle de la bonne cicatrisation des plaies, avec des implications possibles notamment sur la réparation vasculaire. Ces travaux identifient de plus une nouvelle cible clé, ce récepteur d'adhésion plaquettaire "αIIbβ3". Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| La maladie de Parkinson est une maladie neurodégénérative principalement causée par la destruction des neurones dopaminergiques au niveau cérébral. Son diagnostic est difficile car il repose uniquement sur la présence de symptômes spécifiques (tremblements, rigidité des membres…), qui n’apparaissent souvent qu’après des années d’évolution silencieuse de la neurodégénérescence. « Une analyse biologique qui permettrait de poser le diagnostic de façon formelle serait une aide précieuse pour les médecins. Si cette analyse était en outre assez sensible pour repérer la maladie dès ses premiers stades, elle pourrait aider au développement de médicaments curatifs, qui cibleraient les mécanismes d’évolution de la maladie », exposent Sabrina Boulet et Florence Fauvelle, toutes deux chercheuses à l’Institut des neurosciences de Grenoble. Et c’est précisément ce qu’elles sont vraisemblablement parvenues à développer : un biomarqueur qui permet de différencier les individus sains et ceux atteints d’une maladie de Parkinson débutante, à partir d’une simple prise de sang. Initialement, leur objectif n’était pas de développer un biomarqueur, mais de mieux caractériser les stades précoces de la maladie de Parkinson dans des modèles animaux. « Il n’existe pas de traitements curatifs de la maladie car, lorsqu’elle s’exprime, les dommages sont déjà trop avancés. Pour développer de tels médicaments, il faut comprendre les tout premiers événements à l’origine de la maladie ». La métabolomique correspond à l’analyse globale de la composition en métabolites d’un milieu biologique. Ce métabolome varie chez une même personne, par exemple en fonction de son âge ou des maladies dont elle est atteinte. Il offre un reflet fidèle des processus biologiques qui ont lieu dans son organisme. Sa caractérisation repose sur l’utilisation de la r&eacut e;sonance magnétique nucléaire (RMN). Leur approche s’est avérée fructueuse : « Nous avons observé que les modifications de la composition en métabolites associées à la maladie de Parkinson sont précoces, et que certaines sont retrouvées de façon très reproductibles chez tous les animaux étudiés, que ce soit à partir d’échantillons cérébraux ou sanguins. Dès lors, une utilisation diagnostique de l’approche chez l’humain devenait envisageable », raconte Florence Fauvelle. Les chercheuses ont alors mis en place une stratégie de recherche transversale, combinant les données recueillies auprès de trois modèles animaux, représentant les phases précoces (dites "prodromales") et plus tardives de la maladie de Parkinson, avec celles obtenues via l’analyse d’échantillons sanguins prél evés chez des patients parkinsoniens. L’identification de caractéristiques métabolomiques communes à tous ces échantillons a contribué à définir un biomarqueur comprenant plusieurs composés spécifiques, qui permet de discriminer les personnes avec un diagnostic de maladie de Parkinson de personnes non atteintes, et ce avec une précision de 82,6 %. « Puisque ce biomarqueur permet d’identifier les animaux en phase précoce et de différencier les patients nouvellement diagnostiqués de témoins en bonne santé, nous posons l’hypothèse qu’il sera efficace pour diagnostiquer les formes précoces de la maladie chez les humains », explique Florence Fauvelle. Les recherches se poursuivent en ce sens : la prochaine étape est de valider cette approche à partir d’échantillons issus de patients dont la maladie était encore silencieuse au moment du prélèvement, mais qui ont ultérieurement été diagnostiqués comme atteints. Sur un plan plus fondamental, ce travail peut aider à identifier de nouvelles cibles thérapeutiques en se penchant sur les métabolites qui paraissent spécifiques de la maladie : « Le niveau de pyruvat e, une substance qui est utilisée par les mitochondries des neurones, est élevé chez les animaux malades et dans les échantillons issus de patients », précise Sabrina Boulet. « Cela suggère que la maladie de Parkinson pourrait être associée à un dysfonctionnement mitochondria ». Avec son équipe, elle se penche actuellement sur les mécanismes enzymatiques qui interviennent en amont et en aval du métabolisme de ce composé. L’identification d’un élément clé dans le processus physiopathologique pourrait constituer une cible pour de futurs médicaments curatifs. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Après s’être attaquée au cancer, l’immunothérapie élargit son champ d’action et vise aussi les maladies cardiovasculaires, notamment l’insuffisance cardiaque. Dans cette maladie, l’activation incontrôlée ou le développement excessif de cellules de soutien, les fibroblastes, à l’origine du processus de fibrose, provoque une asphyxie des cellules contractiles, ce qui perturbe le fonctionnement du muscle cardiaque. Les approches thérapeutiques existantes ne montrent qu’un effet modeste et n’offrent pas la possibilité de réduire une fibrose déjà installée. L’immunothérapie présente une piste prometteuse. Jonathan Epstein, de l’Université de Pennsylvanie, et ses collègues, viennent de prouver qu’une telle approche peut être optimisée pour restaurer la fonction cardiaque chez des rongeurs présentant une insuffisance cardiaque, tout en limitant les possibles effets secondaires d’un tel traitement. En 2019, la même équipe avait mis au point une approche de thérapie génique pour manipuler le système immunitaire, en l’occurrence des lymphocytes T modifiés définitivement ex vivo et ensuite réinjectés, qui allaient détruire la fibrose. Cependant, ceci n’était pas sans risque. La nouvelle approche choisie est celle des CAR-T, des lymphocytes T modifiés, plus efficaces que leurs homologues naturels pour éliminer des cellules délétères. Ces CAR-T sont déjà utilisés en clinique pour soigner des cancers du sang avancés, leucémies ou lymphomes. Une manipulation génétique vise à leur faire exprimer un récepteur chimérique (CAR, pour chimeric antigen receptor), qui leur permet à la fois de détecter un antigène donné et d’activ er le lymphocyte T afin qu’il déclenche l’élimination de la cellule ciblée. Ici l’antigène visé est une protéine exprimée spécifiquement à la surface des fibroblastes à l’origine de la fibrose cardiaque, la protéine FAP (fibroblast activated protein). Dans une première approche, les chercheurs avaient donc manipulé génétiquement ex vivo les lymphocytes T de souris chez qui une insuffisance cardiaque avait été induite, pour en faire des CAR-T, et les avaient ensuite réinjectés dans les animaux. Ils avaient alors constaté une destruction ciblée des fibroblastes formant la fibrose. Cependant, l’approche était risquée et non transposable en l’état chez l’humain, car les fibroblastes jouent un rôle physiologique pour réparer le myocarde après un accident cardiaque comme un infarctus. Les détruire de façon permanente n’est donc pas possible. Rebondissant sur les énormes progrès réalisés dans le domaine des thérapies à base d’ARN, avec le développement de vaccins à ARN contre le SARS-CoV-2, l’équipe de Jonathan Epstein a misé sur le développement d’un ARN messager, porteur de l’information génétique permettant l’expression de la protéine chimérique CAR dirigée contre la protéine FAP. Celui-ci est délivré par voie intraveineuse, dans une nanoparticule lipidique, elle-même modifiée pour cibler précisément les lymphocytes T et non d’autres cellules de l’organisme. Comme l’ARN messager ne pénètre pas dans le noyau des cellules, qu’il est incapable d’intégration génomique, mais aussi qu’il est intrinsèquement instable et dilué lors des divisions cellulaires, la modification des lymphocytes T est par définition transitoire. Réalisée chez des souris, la stratégie montre qu’une proportion suffisante de lymphocytes T sont modifiés, expriment le CAR contre FAP et sont fonctionnels. Ils ne sont présents que pendant sept jours après l’injection. Les souris traitées retrouvent une fonction cardiaque normale, même si une fibrose résiduelle reste présente dans certaines zones entourant les vaisseaux sanguins. Article rédigé par Georges Simmonds pour RT Flash Penn Medicine | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|