| | Edito Produire et stocker de la chaleur propre : l'autre enjeu énergétique majeur
On le sait, pour respecter la trajectoire des Accords de Paris, visant à de limiter à 2°C le réchauffement climatique en cours, il va falloir réduire de moitié les émissions humaines de CO2 d’ici 2050 (et redescendre à 20 Gigatonnes par an, ce qui correspond à ce que la planète peut absorber dans les océans, les sols et la végétation). Parallèlement, la consommation mondiale d'énergie finale, actuellement de l’ordre de 13,5 Gteps, devrait diminuer, selon le GIEC, de 20 % d’ici 2040, pour tomber, en dépit de l’augmentation de la population mondiale, à 10,7 Gteps en 2040 selon l'AIE. Mais, disons le tout de suite, cette hypothèse est de moins en moins probable, car, s’il est vrai que l’économie mondiale ne cesse de progresser en termes d’efficacité énergétique, une telle diminution semble hors d’atteinte quand on sait que le monde comptera au moins deux milliards d’habitants en plus au milieu de ce siècle, soit l’équivalent de la population actuelle de la Chine, de l’Europe et du Japon réunis… Il faut donc plutôt s’attendre à une augmentation d’un tiers de la consommation mondiale d’énergie d’ici 2040 et de 50 % d’ici 2050. Dans le mix énergétique mondial, l’électricité, qui représentait seulement 10 % de la consommation mondiale d’énergie il y a cinquante ans, en représente aujourd’hui plus de 20 % et en représentera plus du tiers en 2050, soit environ 36 000TWh par an (contre 25 000 TWH en 2020).Si, aujourd’hui, un quart seulement de l’électricité mondiale est issue d’énergies décarbonées, cette part devait monter à 50 % dans vingt ans et à 80 % en 2050, si nous voulons limiter le réchauffement global de la planète à deux degrés, et éviter d’aller vers une situation incontrôlable et catastrophique. Quant aux énergies renouvelables (solaire, éolien biomasse et énergies marines), il va falloir multiplier par dix leur production d’ici trente ans, si l’on veut qu’elles représentent plus de 80 % de la consommation finale d’énergie de la planète en 2050 (qui pourrait atteindre les 18 Gteps), objectif nécessaire pour décarboner suffisamment rapidement l’économie mondiale (à un rythme moyen annuel qui doit atteindre au moins 6 %). Reste que, comme je l'ai souvent souligné dans RT Flash, il ne suffit pas de produire massivement de l’énergie propre pour surmonter le défi climatique immense qui est devant nous. Il faut également mettre en œuvre les capacités gigantesques de stockage de l’énergie, afin de pouvoir relever un autre défi technologique majeur qui consiste à réguler et à gérer (en adaptant en permanence l’offre à la demande) des réseaux de distribution d’énergie qui seront soumis à de fortes fluctuations de production, inhérentes aux énergies renouvelables issues principalement du soleil et du vent. Dans ce contexte, les outils et moyens de stockage massif de l’énergie sont évidemment appelés à connaître un développement considérable, et j'ai également souvent développé cette question-clé. Rappelons toutefois que le marché du stockage devrait être multiplié par six, pour atteindre 58 milliards de dollars en 2040, selon une étude de la banque Merrill Lynch. Ce rapport estime également qu’à cet horizon, ce ne sont pas moins de 6 % de la production électrique mondiale qui devront être stockés dans les stations de pompage (STEP) et les différents types de batteries, soit une capacité de 1.000 gigawatts. Heureusement, selon BloombergNEF, le prix moyen des grosses batteries de stockage devrait encore diminuer de moitié, et tomber à 150 euros du kWh, mais l’énorme augmentation des besoins en nouv elles capacités de stockage électrique devait tout de même nécessiter plus de 600 milliards d’euros, au cours de ces vingt prochaines années. Pour accélérer la mutation énergétique mondiale en cours, la communauté scientifique souligne que le stockage massif de l’électricité, bien que nécessaire, ne sera pas suffisant. Elle propose de développer également de manière considérable, en utilisant les dernières avancées techniques, le stockage écologique de la chaleur produite par l’ensemble des activités humaines, soit pour réutiliser celle-ci plus tard, soit pour retransformer cette chaleur, conservée sous différentes formes, en électricité. Tel est notamment l’objet des projets européens AMADEUS et NATHALIE, qui visent à développer une technologie de stockage innovante, qui consiste à stocker, à un coût bien inférieur à celui des batteries les plus performantes, l’énergie sous forme de chaleur . Ces recherches visent à stocker l’énergie sous forme de chaleur latente à des températures extrêmes, supérieures à 1 000°C. Cette chaleur est ensuite, si besoin, convertie en courant électrique, grâce à des convertisseurs statiques qui transforment directement en électricité, les photons et électrons issus du rayonnement thermique. Cette technologie peut se décliner en une multitude d’applications, tant dans l’industrie que dans les besoins en énergie des bâtiments et logements. Les deux principaux avantages de ce système thermochimique sont le faible coût et la haute densité d’énergie. Les alliages de silicium utilisés pour stocker l’énergie ont un coût inférieur à 2 €/kg et sont capables de stocker 1 kWh par litre de matériau en fusion. Autre avantage : la très haute densité d’énergie des alliages au silicium permet de concevoir des systèmes de stockage massif d'énergie bien plus compact, un atout décisif en milieu urbain. Le coût par capacité énergétique est de l’ordre de 20 €/kWh, soit dix à quinze fois moins que celui du stockage par batterie électrochimique. Ce projet a confirmé la faisabilité d’un nouveau type de convertisseur d’énergie combinant thermoïonique et thermophotovoltaïque, pouvant fonctionner à des températures extrêmes avec une densité de puissance et une efficacité énergétique sans précédent. En outre, la chaleur résiduelle, qui n’est pas convertie en électricité, n’est pas perdue et peut être utilisée pour la fourniture d'eau chaude ou pour alimenter un système de refroidissement. Or, quand on sait que la chaleur représente plus de la moitié de la consommation énergétique de l’Union européenne, on mesure mieux l’intérêt de ce type de système pour réduire plus rapidement notre consommation d’énergies fossiles. Dans le cadre de ces projets européens, l’entreprise française Sirea participe au développement d’un nouveau système de centrale solaire thermodynamique (CSP) qui vise à produire de l’électricité à moins de 0,10 €/kWh. Cette technologie solaire thermodynamique (ou à concentration) repose sur l’utilisation d’une grande quantité de miroirs pour focaliser les rayons solaires vers des tubes dans lesquels circule un fluide caloporteur, généralement de l’huile ou un sel fondu. Ce fluide est ainsi chauffé à des températures de l’ordre de 250 à 1 000°C et peut, après avoir échangé sa chaleur avec un fluide secondaire (généralement de la vapeur), produire de l’électricité dans des turbines qui entraînent des alternateurs. En collaboration avec l’entreprise espagnole Tekniker, Sirea vient de terminer la construction d’un prototype de centrale thermodynamique de 300 kWh. Cette installation se compose d’un concentrateur sphérique fixe, couplé à un récepteur mobile avec un système d’entraînement en boucle fermée. Cette configuration permet de réduire le nombre de pièces mobiles, tout en assurant des niveaux élevés de concentration solaire et de températures. L’énergie solaire est récupérée, concentrée et transférée au fluide caloporteur (HTF) au niveau du module. Grâce à la nouvelle conception modulaire de cette centrale, les distances entre le concentrateur solaire et le récepteur sont beaucoup plus courtes qu’avec les technologies de tour solaire classique, ce qui permet, in fine, de ramener à seulement 0,10 € le coût de production du kWh pour les centrales CSP de 100 MW de puissance nominale, construites sur le concept MOSAIC, et à moins de 2 centimes le kWh qui sera produit par ses futures centrales CSP d’un Gigawatt. Mais, on l’oublie souvent, la décarbonisation de l’économie et le défi climatique sont étroitement liés à la réduction drastique de la consommation d’énergie à la source de l’ensemble du secteur du Bâtiment (qu’il s’agisse des logements, bureaux, commerces ou entrepôts), qui représente 40 % de la consommation mondiale d’énergie et 30 % des émissions de gaz à effet de serre. Parmi les nombreux exemples d’innovation qui montrent que des bâtiments complètement autosuffisants en énergie sont réalisables, il faut évoquer, chez nos voisins allemands, la nouvelle Mairie de Fribourg-en-Brisgau, en Bade-Wurtemberg. Inauguré fin 2017, ce vaste hôtel de ville (Rathaus im Stühlinger), représente 22 650 m² de surface utile et abrite des bureaux et un centre d’accueil des administrés de Fribourg. Avec ses 840 employés, Il s’agit du plus grand bâtiment d’Europe neutre en énergie. Grâce à son isolation active et à une utilisation judicieuse de ses façades et de sa toiture pour produire de l’énergie, ce bâtiment exemplaire ne consomme que 45 kWhEP/m².an seulement pour le chauffage, le rafraîchissement, l’ECS, la ventilation et l’éclairage, soit 60 % de moins que la moyenne des bâtiments allemands de bureaux. La production de chaleur et le rafraîchissement sont assurés de trois manières complémentaires : par des dalles actives - circulation d’eau à basse température dans les dalles de béton entre niveaux -, par des plafonds rayonnants dans les bureaux et les salles pouvant recevoir un public nombreux : cafétéria, salles de réunion, … et par le système de ventilation do uble flux à récupération de chaleur et de froid. Les besoins de chaleur sont par ailleurs couverts par deux pompes à chaleur géothermiques eau/eau qui alimentent les dalles actives, les batteries, et les plafonds rayonnants. La production de froid est assurée par un échange direct entre les sondes enterrées et le réseau de distribution d’eau dans le bâtiment. Les deux pompes à chaleur installées sont réversibles et peuvent, si besoin, rafraichir le bâtiment. La production d’eau chaude sanitaire est assurée par des panneaux solaires hybrides – thermiques et photovoltaïques, complétés par une chaudière gaz. Une étude du Fraunhofer Institut ISE a confirmé que ce bâtiment-pilote avait dépassé ses objectifs de sobriété énergétique grâce à une production d’électricité de 47 kWh/m².an en moyenne, pour une consommation effective de 45 kWh/m².an. Fait remarquable, ce bâtiment produit chaque année plus d’énergie primaire qu’il n’en consomme, et non-seulement n& #8217;émet pas de carbone, mais il en absorbe 10 tonnes par an... En Suisse, plus de la moitié des nouvelles habitations sont équipées de pompes à chaleur. Ces dispositifs transforment la chaleur présente dans l’environnement, le sol, l’air, l’eau d’un lac ou d’une rivière en énergie pour chauffer les habitations. Performantes et écologiques, les pompes à chaleur (PAC) ne cessent de bénéficier d’améliorations techniques qui les rendent toujours plus performantes. En remplaçant leurs compresseurs volumétriques par des micro-turbocompresseurs dix fois plus petits et plus performants, des chercheurs de l’EPFL (Ecole Fédérale Polytechnique de Lausanne) ont ainsi pu réduire d’un quart leur consommation en électricité. Leur recherche a été récompensée lors de la conférence ASME Turbo Expo 2019 aux Etats-Unis. Pour atteindre de telles perfo rmances, ces scientifiques ont renoncé aux traditionnels compresseurs volumétriques, générateurs de frottements, qui compriment le fluide réfrigérant pour entraîner le cycle d’une pompe à chaleur. Ils ont remplacé ces éléments par des micro-turbocompresseurs bien plus efficaces, tournant à plusieurs centaines de milliers de tours par minute sur des paliers à gaz. En France, la jeune société Accenta teste depuis plus d'un an une chaudière « bas carbone » intelligente. Le système stocke de la chaleur restituée par les climatiseurs en été pour la restituer en hiver, ce qui permet de réduire l'empreinte carbone et la facture énergétique. Comme le souligne Pierre Trémolières, dirigeant de cette entreprise, « Les batteries lithium-ion sont lourdes à construire, à transporter et à recycler… D'où l'idée d'activer deux leviers pour réellement décarboner les bâtiments : d'abord grâce à leur conception, en les construisant à l'aide de matériaux biosourcés, puis ensuite lors de leur exploitation en préférant des énergies décarbonées, mais intermittentes. Et c'est alors le stockage qui permet de maxim iser leur utilisation ». Si cette chaudière innovante permet de stocker de l'énergie thermique sur de longues périodes, et à faible coût, c’est parce qu’elle exploite une technique prometteuse, le « Stockage d’énergie thermique par forage » (BTES) qui utilise le sol comme réservoir, dans d’excellentes conditions thermodynamiques en été et à un coût de moins d’un centime d'euro par kWh thermique. Cet ingénieux système permet de récupérer pour presque rien, via un échangeur thermique, une bonne partie des calories provenant des climatiseurs en été, qui sont récupérées par un échangeur thermique. Mais cette chaleur exploitable et réutilisable peut également provenir de panneaux solaires, thermiques ou photovoltaïques. Le système est si efficace qu’un seul kilowattheure de phot ovoltaïque permettrait de récupérer 6 kWh d'énergie thermique. Les bâtiments équipés d’un tel système peuvent d'utiliser leur excédents d'électricité pour faire alimenter une pompe à chaleur à faible coût thermodynamique et injecter la chaleur dans le terrain. Cette chaleur pourra être récupérée plus tard (la nuit ou en hiver) pour chauffer le bâtiment en limitant drastiquement la consommation nette d’énergie et les émissions de CO2. Ce système intelligent de chauffage-climatisation est en outre piloté par un logiciel informatique sophistiqué qui prévoit et estime les besoins du bâtiment en énergie et ajuste en conséquence le stockage de façon optimisée. Déjà opérationnelle dans plusieurs installations, cette chaudière bas carbone intelligente a permis une réduction de 90 % de l'empreinte carbone et de 50 % des consommatio ns énergétiques sur les fonctions thermiques, ce qui est tout à fait remarquable. Cette chaudière bas carbone, en dépit de son coût d’installation supérieur à celui d'une chaudière gaz basique, peut être amortie en moins de cinq ans. Mais la chaleur récupérable se cache parfois là où on ne s’attend pas à la trouver. C’est notamment le cas des égouts, dans lesquels de grandes quantités d’eau chaude sont évacuées. Depuis l’année dernière, le grand Bruxelles a décidé de récupérer une partie de cette source importante de chaleur pour chauffer ses bâtiments. Après dix ans de recherche, la société Vivaqua, qui gère la distribution de l’eau, à commencé à équiper certains tronçons d’égouts de systèmes de récupération de chaleur, utilisant des échangeurs et des pompes à chaleur réversibles. Dans huit ans, lorsque la première tranche de 50 km d’égouts sera équipée, il sera ainsi possible de réduire d’un quart la facture énergétique des bâtiments connectés à ce réseau de chaleur et le coût de ces investissements sera amorti en moins de vingt ans, une durée tout à fait acceptable pour une grosse collectivité comme Bruxelles, surtout si l’on tient également compte des 65 000 tonnes de CO2 par an qui seront, à terme, économisées. Fin 2020, des chercheurs de l’Université de Lancaster ont découvert les surprenantes propriétés d’un matériau cristallin qui peut stocker efficacement, et pendant de longs mois, l’énergie du Soleil. Ce matériau appartient à la catégorie des « Metal–Oorganic Framework » (MOF, ou « cadre organométallique). Sa structure poreuse est constituée d’un réseau d’ions métalliques liés par des molécules à base de carbone pour former des structures 3D. Ces scientifiques ont réussi à remplir ce matériau de molécules d’azobenzène, un composé qui absorbe fortement la lumière. Ils ont ensuite exposé ce matériau modifié à la lumière UV, ce qui a entraîné un changement de forme des molécules d’azobenzène, qui ont adopté une configuration tendue à l’intérieur des pores du MOF. C’est ce processus tout à fait particulier qui permet de stocker l’énergie solaire à température ambiante, pendant de longues périodes, un peu comme le ferait un ressort. Pour libérer cette chaleur emprisonnée chimiquement, il suffit d’un apport de chaleur externe, qui va agir comme un déclencheur et provoquer un brusque changement d’état de ce matériau, qui va alors restituer toute sa chaleur emmagasinée. Selon ces chercheurs, leur matériau, qui pourrait être intégré dans des films facilement utilisables, peut stocker de la chaleur pendant au moins quatre mois, ce qui ouvre de grandes perspectives pour l’équilibrage thermique des bâtiments ou des véhicules. Dernier exemple d’innovation en matière thermique, celle développée par des chercheurs du MIT pour améliorer l'efficacité des centrales à concentration solaire. Dans ce type de centrale solaire, la chaleur produite par les rayons solaires atteint les 600°C, ce qui est trop faible pour produire et stocker suffisamment d'électricité. Pour surmonter cet écueil, les chercheurs ont eu l’idée d’avoir recours à une lumière artificielle pour restituer la chaleur sous forme d'électricité. Cette lumière très intense provient de sels en fusion au-delà de 2.000°C. Elle peut être convertie en électricité grâce à des cellules solaires photovoltaïques multijonctions (MPV). Pour surmonter les problèmes redoutables de corrosion des cuves, provoqués par les sels fondus à haute températu re, ces chercheurs ont conçu un système baptisé TEGS-MPV (Thermal Energy Grid Storage-Multi-Junction Photovoltaics) composé de deux grands réservoirs en graphite reliés par une série de tubes servant d'échangeurs de chaleur. Dans ce dispositif, les sels fondus sont remplacés par du silicium. Le silicium fondu du réservoir « froid » (1 900 °C) est chauffé par une résistance pour se reverser dans le réservoir chaud (2 300 °C). Il émet alors une très forte luminosité et produit de l’électricité, via les cellules MPV, avant d’être réinjecté vers le réservoir froid. Mais ce processus est réversible et le silicium en fusion passe alors à travers une rangée d'autres tubes équipés de cellules MPV qui produisent de l'électricité. Refroidi par son parcours dans les tubes, le silicium est réinjecté dans le premier réservoir. En passant du réservoir froid vers le réservoir chaud ou vice-versa, le silicium fondu peut donc, à la demande, fournir de l’électricité ou stocker de l’énergie sous forme de chaleur. Selon les chercheurs, une cuve de 10 mètres de diamètre associée à des éoliennes, ou du solaire, suffirait à assurer l’autonomie électrique de 100.000 foyers, l'équivalent d'une ville comme Annecy. Mais surtout, l'électricité ainsi stockée revient deux fois moins chère qu'une station de pompage hydroélectrique (STEP), pourtant considérée comme le moyen le moins coûteux de stockage massif d’électricité. Ces récentes avancées scientifiques et techniques montrent que la problématique du stockage écologique, et à faible coût, de la chaleur, sera centrale pour réussir la transition énergétique mondiale en cours, qui doit nous conduire à sortir définitivement des énergies fossiles et à aller vers une économie décarbonée. Cela est d’autant plus vrai que la montée en puissance de l’hydrogène comme vecteur énergétique va permettre une généralisation des systèmes de cogénération, produisant simultanément chaleur et électricité. Dans cette perspective, il est donc capital, notamment pour assurer l'équilibre et la régulation des réseaux de distribution d'énergie, de pouvoir stocker massivement la chaleur pendant de longues périodes, et de pouvoir transf ormer à la demande, avec une efficacité suffisante, cette chaleur en électricité. Une fois encore, on voit que les innovations de rupture dans ce domaine se font grâce à des approches transdisciplinaires, qui associent physique, chimie, optique, informatique et science des matériaux, et nécessitent une coopération étroite entre recherche fondamentale et industrielle. Cet enjeu thermique est considérable car il contribuera de manière décisive, pour un monde qui comptera demain dix milliards d’habitants, à satisfaire les immenses et légitimes besoins en énergie de l’humanité, tout en réduisant suffisamment nos émissions de CO2 pour conserver des conditions de vie supportables pour tous les Humains et préserver notre précieuse planète… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | IBM a annoncé qu'il maîtrisait la gravure de puce électroniques en circuits de 2 nanomètres, de quoi intégrer 50 milliards de transistors sur quelques centimètres carrés. IBM a élaboré cette nouvelle gravure dans son laboratoire de New Albany dans l’État de New York en collaboration avec le secteur public américain. La firme est également à la base du développement des puces gravées à 5 et 7nm, mais d’autres firmes les ont commercialisées au grand public. Les plus petites que l’on retrouve actuellement sur le marché sont celles de 5nm de la firme taïwanaise TSMC, elles équipent les puissantes puces M1 de la marque ARM qui équipent les nouveaux ordinateurs d’Apple. Les nouvelles avancées technologiques d’IBM vont être vendues sous forme de licence à des partenaires du secteur comme Intel, Samsung ou TSMC. Ces derniers prendront plusieurs années pour les adapter et les commercialiser sur nos smartphones et nos ordinateurs. Pour mettre cela en perspective, Intel compte commercialiser des puces gravées à 7nm en 2023, son concurrent direct AMD le fait depuis presque deux ans (en collaboration avec TSMC). Les puces à 2nm ne sont donc pas encore pour tout de suite. Selon IBM, l’arrivée de ces nouvelles puces aux 50 milliards de transistors devrait fournir un gain de performance considérable. On parle de 45 % de performance en plus qu’une puce à 7nm et de 75 % de réduction de consommation électrique. Ces caractéristiques pourraient être révolutionnaires pour l’industrie. Cela pourrait par exemple quadrupler la vie d’une batterie de smartphone, réduire l’empreinte carbone des datacenters et accélérer la puissance des ordinateurs. Mais cette technologie est surtout décisive dans le développement des objets connectés, du cloud et de l’intelligence artificielle. Une voiture autonome pourra ainsi augmenter considérablement sa capacité de détection de dangers et d’adaptation à son environnement. Il faudra cependant attende 2024 pour voir ces puces dans nos smartphones et ordinateurs. Article rédigé par Georges Simmonds pour RT Flash IBM | | | |
| Ces dernières années, les processus de conversions biochimiques de la biomasse (il s’agit de matières organiques, aussi bien d’origine végétale -bois, résidus alimentaires- qu’animale, utilisables comme source d’énergie comme la gazéification) sont devenus des solutions intéressantes pour la production d’hydrogène renouvelable (selon la Commission européenne, la conversion biochimique de la biomasse permet bien de produire de l’hydrogène renouvelable). Toutefois, l’inconvénient de ce système est qu’il nécessite un processus de purification complexe nécessitant un apport énergétique élevé. Dans le cadre du projet Horizon 2020 « Reactor Optimization by Membrane Enhanced Operation » (ROMEO), le centre de compétences Bioenergy and Sustainable Technologies (BEST), basé à Graz, a cherché à optimiser ce processus, en collaboration avec huit autres partenaires européens. L’équipe a en effet mis au point un réacteur permettant de produire de l’hydrogène à partir de déchets de bois avec un faible apport énergétique. Comment fonctionne ce réacteur ? Outre le carbone, le bois contient de l’hydrogène sous forme d’hydrocarbures. La gazéification permise par le réacteur permet d’extraire cet hydrogène à partir d’eau et d’un gaz de synthèse contenant du monoxyde de carbone au moyen d’un catalyseur. La réaction ainsi produite, qui génère également du dioxyde de carbone en plus de l’hydrogène, est appelée « Water Gas Shift reaction » (litt. « réaction de conversion du gaz à l’eau »). Ces réactions se font généralement à partir d’installations complexes où l’hydrogène est séparé du dioxyde de carbone par des procédés très coûteux en énergie. Là où ce nouveau réacteur innove est qu’il permet de combiner la séparation du dioxyde de carbone et la conversion du monoxyde de carbone en hydrogène en une seule étape. Cela est permis par un catalyseur spécial, doté de nouvelles membranes de séparation qui permettent des taux de conversion élevés avec des apports en ressources et en énergie beaucoup plus faibles que d’habitude. Cela se note par exemple au niveau des températures de conversion (environ 120 au lieu de 500 degrés Celsius normalement). Le développement d’un tel réacteur, qui en est pour l’instant à un stade pilote, a ainsi permis une réduction radicale de la consommation et des émissions d’énergie, selon une déclaration du BEST. Plus précisément, la consommation d’énergie a été réduite jusqu’à 15 % et les émissions jusqu’à 40 %, bien que la production d’hydrogène ait été nettement supérieure aux prévisions. Le centre de Graz a, par ailleurs, souligné que des développements supplémentaires étaient encore nécessaires pour une application industrielle. Article rédigé par Georges Simmonds pour RT Flash France Diplomatie | | | |
| Des chercheurs de l’Université de technologie de Delft ont créé un matériau vivant photosynthétique et écologique en utilisant une technique de bio-impression et des algues. Ils auraient déposé des algues vivantes sur une cellulose bactérienne : la combinaison de ces deux composés organiques aurait permis de créer un matériau vivant, capable d’effectuer une photosynthèse, c’est-à-dire qu’il est capable de se “nourrir” et de se régénérer grâce à la lumière. Un petit échantillon de cette nouvelle matière imprimée en 3D pourrait donc servir à différentes applications, notamment la création de feuilles artificielles, particulièrement intéressantes dans des endroits où la végétation a du mal à pousser comme dans l’espace. La recherche en matériaux d’impression 3D est de plus en plus poussée : ce sont eux qui vont apporter une réelle différence en termes de propriétés mécaniques, chimiques, esthétiques de la pièce finale. Certains acteurs se penchent sur les matériaux vivants, conscients que la nature a beaucoup à nous apprendre. Récemment, on vous parlait d’une mousse recyclable et comestible qui a servi à imprimer plusieurs composants pour la mission de Thomas Pesquet. Celle-ci a été réalisée à partir d’un polymère d’origine naturelle synthétisé par des bactéries et s’est avérée très résistante aux vibrations. Cette fois-ci, les chercheurs se sont penchés sur des algues pour imaginer un matériau robuste et durable. L’équipe explique qu’elle a utilisé une cellulose bactérienne non vivante : c’est un composé produit et rejeté par des bactéries. Elle est particulièrement intéressante car elle est flexible, résistante et conserve sa forme dans n’importe quelle circonstance. Cette cellulose a servi d’enveloppe aux algues déposées couche par couche : grâce à une imprimante 3D de type FDM, les chercheurs ont déposé une bio-encre composée de microalgues (donc des matériaux vivants) sur la cellulose bactérienne. Et c’est la réaction entre ces deux matériaux qui est intéressante. En effet, en fusionnant ensemble, ils ont donné naissance à un matériau vivant possédant la qualité photosynthétique des microalgues et la résistance de la cellulose bactérienne. Kui Yu, un étudiant en doctorat qui a participé aux travaux, explique : « Nous avons créé un matériau qui peut produire de l’énergie simplement en le plaçant dans la lumière. La nature biodégradable du matériau lui-même et la nature recyclable des cellules de microalgues en font un matériau vivant durable ». On aurait donc un matériau très robuste, écologique, biodégradable et facile à produire. Côté applications, l’équipe affirme que ce nouveau matériau pourrait être particulièrement adapté pour fabriquer des feuilles artificielles. Celles-ci sont capables d’imiter le comportement des feuilles végétales réelles car elles reproduisent le processus de photosynthèse : elles se servent de la lumière du soleil pour transformer l’eau et le CO2 en oxygène et en énergie (sous la forme de glucides). Ce sucre produit et stocké par les végétaux peut être converti en carburant et donc produire de l’énergie durable. Les feuilles artificielles seraient donc un atout considérable dans des zones où il est difficile de faire pousser des plantes : on pense par exemple aux colonies spatiales. Le nouveau matériau produit par l’université de Delft pourrait donc être envoyé dans l’espace afin de faire pousser des végétaux directement sur place. Un gain de temps et de coût considérable. Article rédigé par Georges Simmonds pour RT Flash TUD | | | |
| Le solaire photovoltaïque est à présent devenu la source de production d'électricité la moins chère. Des centrales sont actuellement construites dans des endroits ensoleillés qui fourniront de l’électricité solaire pour moins de deux centimes d'euro par kilowattheure. Les cellules solaires disponibles sur le marché à base de silicium cristallin rendent cela possible avec des rendements allant jusqu’à 23 %. Elles détiennent donc une part de marché mondiale d’environ 95 %. Avec des rendements encore plus élevés, supérieurs à 26 %, les coûts pourraient encore baisser. Un groupe de travail international dirigé par des chercheurs en photovoltaïque du Forschungszentrum Jülich prévoit maintenant d’atteindre cet objectif avec un matériau transparent nanostructuré pour la face avant des cellules solaires et un design sophistiqué. Les scientifiques rendent compte du succès de leurs nombreuses années de recherche dans la célèbre revue scientifique “Nature Energy”. Les cellules solaires en silicium n’ont cessé d’être améliorées au cours des dernières décennies et ont déjà atteint un niveau de développement très élevé. Cependant, l’effet perturbateur de la recombinaison se produit toujours après l’absorption de la lumière solaire et la génération photovoltaïque de porteurs de charge électrique. Dans ce processus, les porteurs de charge négatifs et positifs déjà générés se combinent et s’annulent avant de pouvoir être utilisés pour le flux d’électricité solaire. Cet effet peut être contré par des matériaux spéciaux qui possèdent une propriété particulière : la passivation. « Nos couches nanostructurées offrent précisément cette passivation souhaitée », explique Malte Köhler, ancien doctorant et premier auteur de l’Institut de recherche sur l’énergie et le climat de Jülich (IEK-5), qui a depuis obtenu son doctorat. En outre, les couches ultra-minces sont transparentes – l’incidence de la lumière est donc à peine réduite – et présentent une conductivité électrique élevée. « Aucune autre approche jusqu’à présent ne combine ces trois propriétés – passivation, transparence, conductivité – aussi bien que notre nouvelle conception », déclare le Docteur Kaining Ding, chef du groupe de travail de Jülich. Un premier prototype de la cellule solaire TPC de Jülich a atteint un rendement élevé de 23,99 % (+- 0,29 %) en laboratoire. Cette valeur a également été confirmée par le laboratoire indépendant CalTec de l’Institut de recherche sur l’énergie solaire de Hamelin (ISFH). Cela signifie que la cellule solaire TPC de Jülich se situe encore légèrement en dessous des meilleures cellules en silicium cristallin fabriquées en laboratoire à ce jour. Mais des simulations effectuées en parallèle ont montré que des rendements de plus de 26 % sont possibles avec la technologie TPC. « En outre, nous n’avons utilisé que des procédés de fabrication qui peuvent être intégrés relativement rapidement dans la production en série », précise M. Ding, qui souligne l’avantage par rapport à d’autres approches de recherche. Avec cette stratégie, les scientifiques de Jülich ouvrent la voie à leur développement du laboratoire à une production industrielle de cellules solaires à grande échelle sans trop d’efforts. Plusieurs étapes du processus ont été nécessaires pour produire les couches de la cellule solaire TPC. Sur une fine couche de dioxyde de silicium, les chercheurs ont déposé une double couche de minuscules nanocristaux de carbure de silicium en forme de pyramide – appliquée à deux températures différentes. Enfin, une couche transparente d’oxyde d’indium et d’étain a suivi. Parmi les partenaires figurent des chercheurs de l’université RWTH d’Aix-la-Chapelle, de l’université de Duisburg-Essen, des universités techniques de Delft et d’Eindhoven, de l’université San Francisco de Quito, de l’université et de l’institut de thermophysique Kutateladze de Novosibirsk et de l’université Sun Yat-Sen de Guangzhou. Dans les étapes suivantes, le groupe de recherche de Kaining Ding prévoit d’optimiser davantage le rendement énergétique de ses cellules solaires TPC. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| La Chine a entrepris, depuis 40 ans, une ambitieuse politique de reforestation, pour contrebalancer la forte déforestation du siècle dernier. La carte interactive de CarbonBrief indique que la Chine a reboisé près de 79 millions d’hectares de parcelles depuis les années 1990. La Chine est bien décidée à poursuivre cette politique volontariste de reboisement et vise à présent 23 % de surfaces boisées à l’horizon 2035. Pour faciliter cette reforestation, des chercheurs chinois ont mis au point d’un polymère destiné à favoriser la transplantation des arbres. Ce nouveau matériau, fabriqué à partir de glucomannane de Konjac (KGM), de chitosane (CA) et d’alcool polyvinylique (PVA), est destiné au renforcement de la motte de terre qui entoure les racines des végétaux à transplanter. Cette solution est plus efficace qu’un repiquage avec des billes d’argile et plus fiable et écologique qu’une consolidation avec des sacs, boîtes et cordages. Les expérimentations ont été menées sur trois plantes : sierra salvia, fuseau japonais et Juniperus sabina. Ce polymère a été mis au point pour assurer le transport des plantes de la pépinière au lieu de transplantation. Durant cette étape, beaucoup de semis sont perdus car les racines sont endommagées. De plus, d’autres ne survivent pas après avoir été replantés pour les mêmes raisons. « En matière de verdissement urbain et rural, la rupture des boules de terre est la principale raison de la mort des gros semis après leur transplantation », indique l’étude. Ainsi, le mélange ternaire évite le délitement de la terre qui entoure des racines. Cette protection assure également l’équilibre hydrique de la plante. L’autre enjeu lié à cette substance est son impact sur l’environnement. Ce dernier se doit d’être le plus faible possible. L’étude indique que dans le secteur du BTP, de nombreux stabilisateurs de sol existent, pour les fondations des bâtiments, renforcer les autoroutes ou encore prévenir les infiltrations. Ces derniers sont parfois utilisés pour les plantes. Mais « les agents inorganiques de solidification ont un effet très négatif sur le sol. La couche de sol solidifiée perd fondamentalement la capacité de croissance des plantes et sa substance alcaline est nocive pour la végétation », expliquent les chercheurs de l’Académie chinoise des forêts. Ce sont pour ces raisons que les adhésifs à base de solvants, comme le benzène ou le toluène, ont été exclus. Les adhésifs thermofusibles ont eux aussi été écartés car leur viscosité ne les rend pas pratiques. C’est pourquoi le polymère ternaire est conçu à base d’eau. « Les principaux avantages des adhésifs à base d’eau sont l’absence de poison, de pollution, de combustion, une utilisation sûre et une technologie de production propre et facile à utiliser », atteste l’étude. De plus, les scientifiques affirment que cette formule se dégrade rapidement dans la terre sans engendrer de risque toxique pour la plante, ni pour la terre. Ainsi, les chercheurs avancent que cet adhésif pourrait être un soutien majeur pour favoriser la plantation d’arbres et améliorer la qualité de vie dans des espaces urbains pollués. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Cette étude génétique apporte une partie de l’explication de la longévité des personnes âgées de 105 ans et plus. Ce consortium de recherche international vient de découvrir, chez ces personnes très âgées, un bagage génétique unique qui permet une réparation plus efficace de l'ADN, ainsi qu’une faible charge de mutations dans les gènes impliqués dans ce processus de réparation cellulaire. L’étude, publiée dans un supplément spécial de la revue eLife consacré au vieillissement et à la longévité, contribue à identifier de nouveaux gènes de longévité, de futures cibles possibles pour lutter contre les maladies liées à l'âge. La longévité humaine a précédemment été liée à des facteurs génétiques, à la restriction calorique et certains facteurs de mode de vie tels que l'activité physique ou le régime alimentaire méditerranéen. Cette étude, la première à décoder le génome de personnes supercentenaires avec autant de détails, apporte des indices sur les raisons de cette longévité à l’abri des maladies liées à l'âge. Car « le vieillissement est un facteur de risque courant de maladies et affections chroniques », rappelle l’un des auteurs principaux, le Docteur Paolo Garagnani, professeur agrégé au Département de médecine de l’Université de Bologne. L’équipe s'est concentrée sur la génétique d'un groupe de personnes âgées de 105 ans et plus, et a comparé leurs données à celles d’un groupe d’adultes d’âge mûr, habitant la même région. Au total, ce sont 81 semi-supercentenaires (âgés de 105 ans ou plus) et supercentenaires (âgés de 110 ans ou plus) qui ont été recrutés pour l’étude et comparés à 36 participants en bonne santé de la même région, âgés en moyenne de 68 ans. Des échantillons de sang de tous les participants ont été analysés, un séquençage du génome entier a été effectué afin d'identifier les différences génétiques entre les groupes plus âgés et plus jeunes. Ces premiers résultats ont ensuite été recoupés avec les données génétiques d'une autre étude, menée auprès de 333 Italiens âgés de plus de 100 ans et 358 participants âgés d'environ 60 ans. Cinq caractéristiques génétiques fréquentes dans les groupes d'âge 105 ans et + et 110 ans et + : ces caractéristiques portent principalement sur 2 gènes, COA1 et STK17A. Ces mêmes variantes sont également fréquemment retrouvées chez les personnes âgées de plus de 100 ans. Cette variabilité génétique caractéristique donc des 100 ans et + semble moduler, finalement, l'expression de 3 gènes différents : le changement génétique le plus fréquemment observé est lié à une activité accrue du gène STK17A dans certains tissus. Ce gène est impliqué dans 3 domaines importants de la santé cellulaire : la coordination de la réponse de la cellule aux dommages à l'ADN, l’induction des cellules endommagées à subir une mort cellulaire programmée et la gestion des niveaux d'espèces réactives de l'oxygène (ROS) dans la cellule. Ce sont 3 processus majeurs impliqués dans l'initiation et la croissance de nombreuses maladies telles que le cancer. Une autre caractéristique observée chez ces personnes très âgées est une activité réduite du gène COA1 dans certains tissus. Ce gène est impliqué dans l’absence de diaphonie et la qualité de la signalisation entre le noyau cellulaire et les mitochondries. On sait qu’un dysfonctionnement mitochondrial ou une diaphonie entre mitochondries et noyau cellulaire constitue un facteur clé du vieillissement. Enfin, la dernière caractéristique est l’expression accrue du gène BLVRA dans certains tissus – un gène important pour la santé des cellules en raison de son rôle dans l'élimination des espèces réactives de l'oxygène (ROS). La réparation de l'ADN est l'un des mécanismes qui permet une durée de vie prolongée, rappelle le co-auteur, Cristina Giuliani, professeur de sciences biologiques, géologiques et environnementales de l'Université de Bologne : « La réparation de l’ADN est donc aussi un processus nécessaire à la longévité chez les humains, et nos données suggèrent que la diversité naturelle des personnes atteignant les dernières décennies de la vie est, en partie, liée à la variabilité génétique qui donne aux semi-supercentenaires la capacité particulière de gérer efficacement les dommages cellulaires au cours de leur vie ». Les scientifiques constatent que les personnes âgées de plus de 105 ans ont accumulé un fardeau beaucoup plus faible de mutations dans 6 des 7 gènes testés. Ces personnes semblent éviter l'augmentation des mutations perturbatrices liée à l'âge, ce qui peut avoir contribué à les protéger contre des maladies liées à l’âge, comme les maladies cardiaques. « L'ensemble de ces résultats suggèrent que les mécanismes de réparation de l'ADN et un faible « fardeau » de mutations dans les gènes impliqués sont les 2 mécanismes majeurs qui favorisent cette longévité extrême et éloignent le risque de maladies liées à l'âge », souligne l'étude. Article rédigé par Georges Simmonds pour RT Flash eLife | | | |
| Une équipe de bioingénieurs de l'Université de Chalmers (Suède) a mis au point un nouveau matériau qui tue les bactéries résistantes et permet de prévenir les infections des plaies : il s’agit d’un hydrogel qui agit contre tous les types de bactéries, y compris les bactéries résistantes aux antibiotiques. Son principe actif, documenté dans la revue ACS Biomaterials Science & Engineering, est basé sur des peptides antimicrobiens, de petites protéines qui se trouvent naturellement dans notre système immunitaire. Protéger les plaies contre les bactéries résistantes, c’est l’objectif de cette nouvelle technologie antibactérienne ou bactéricide, qui rejoint une priorité de santé publique, en regard de la prévalence croissante des plaies chroniques avec le vieillissement de la population et de l’émergence, elle-aussi croissante des antibiorésistances. L'Organisation mondiale de la santé (OMS) a décrit les bactéries résistantes aux antibiotiques comme l'une des plus grandes menaces pour la santé mondiale. Cela signifie que nous devons changer la façon dont nous utilisons les antibiotiques et développer de nouvelles technologies médicales durables, explique l’auteur principal, Martin Andersson, professeur de génie chimique à l'Université de technologie Chalmers : « Après avoir testé notre nouvel hydrogel sur différents types de bactéries, nous pouvons confirmer son haut niveau d'efficacité, y compris contre les bactéries résistantes aux antibiotiques ». Premier objectif, éviter les antibiotiques systémiques : le développement du matériau et du dispositif a nécessité plusieurs années de recherche centrée sur les soins de plaies. L’idée de départ était d'explorer de nouvelles solutions technologiques pour réduire l'utilisation d'antibiotiques systémiques et l’incidence des infections nosocomiales. Deuxième objectif, exploiter notre système immunitaire naturel : c’est le cas avec ces peptides antimicrobiens, de petites protéines qui se trouvent naturellement dans notre système immunitaire, qui constituent le principe actif du nouveau dispositif bactéricide. Ces types de peptides induisent un risque extrêmement faible de résistances bactériennes, car ils n'affectent que la membrane la plus externe de la bactérie. De nombreuses équipes ont déjà reconnu l’intérêt de ces peptides dans les dispositifs médicaux, mais jusqu'à présent sans grand succès. Pourquoi ? Ils ont l’inconvénient de se décomposer rapidement au contact avec les fluides corporels tels que le sang. Les propriétés bénéfiques des peptides antimicrobiens sont en effet connues depuis des décennies, et il en existe des milliers de variétés différentes dans le système immunitaire naturel des humains, des animaux et des plantes. Les chercheurs tentent depuis longtemps d'imiter et d'utiliser leur fonction naturelle pour prévenir et traiter les infections sans avoir à utiliser d'antibiotiques traditionnels. Cependant, comme les peptides sont décomposés dès qu'ils entrent en contact avec du sang ou d'autres fluides corporels, jusqu’ici, leur utilisation clinique réussie s'était toujours avérée impossible. L’objectif de l’équipe était donc de parvenir à protéger les peptides de la dégradation. Ici, une nanostructure permet de garantir leur stabilité : la structure du dispositif a été étudiée de manière à lier les peptides en permanence, ce qui permet un environnement stable et protecteur pour la plaie. « Le matériau est très prometteur, inoffensif pour les cellules du corps et doux pour la peau ». C’est le premier dispositif médical à utiliser avec succès des peptides antimicrobiens d'une manière cliniquement et commercialement viable, avec, au-delà de nombreuses possibilités d'applications cliniques. Une start-up, Amferia travaille aujourd’hui à adapter l'hydrogel peptidique antimicrobien au marché. Mais avant que le nouveau dispositif puisse être disponible pour les hôpitaux et les patients, des études cliniques sont encore nécessaires, qui sont déjà en cours. Un marquage CE du matériau devrait être achevé en 2022. Article rédigé par Georges Simmonds pour RT Flash ACS | | | |
| Des chercheurs et médecins du St.Jude Children's Research Hospital (Memphis, Tennessee) ont montré l'efficacité du vaccin anti-Covid pour protéger aussi contre l'infection asymptomatique. Ainsi, selon ces premières données, la vaccination permet de réduire considérablement les infections symptomatiques et asymptomatiques COVID-19, ici chez les personnels du St Jude Hospital (Memphis), par rapport à leurs pairs non vaccinés. Une information précieuse par rapport aux données des essais cliniques qui suggèrent que le schéma de vaccination -ici par le vaccin Pfizer-BioNTech BNT162b2- réduit la maladie symptomatique et sa sévérité, donc le risque d’hospitalisation et de décès. L'étude a été menée auprès de 5.217 personnels de santé, éligibles à la vaccination et dont 58 % ont été vaccinés de décembre 2020 à mars 2021. La plupart des participants ont reçu les 2 doses. L’étude comprenait des tests ciblés pour les personnels présentant des symptômes du COVID-19 ou une exposition connue au virus et des tests de routine, au moins une fois par semaine, sur les personnels asymptomatiques. L’analyse montre que dans l'ensemble, la vaccination a réduit de 79 % le risque d'infection asymptomatique et symptomatique par le SRAS-CoV-2 chez les personnels vaccinés vs non vaccinés. Cette protection contre les formes asymptomatiques apparaît également plus élevée chez les personnels ayant reçu leurs 2 injections ; une semaine ou plus après avoir reçu la 2e dose, les personnels vaccinés s’avèrent ici 96 % moins susceptibles d’infection (symptomatique ou asymptomatique) par le SRAS-CoV-2 - une donnée cohérente par rapports aux données d’essais cliniques menés sur le vaccin. Ce taux d’efficacité est estimé à 90 % pour la protection contre les infections asymptomatiques seules. « Bien que des recherches supplémentaires soient nécessaires, en prévenant les infections, y compris chez les personnes qui ne présentent aucun symptôme, la vaccination réduit de manière très efficace la transmission du SRAS-CoV-2 », explique l’auteur principal, le Docteur Diego Hijano, du Service des maladies infectieuses de St. Jude. Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| Le régime végétarien est à nouveau confirmé comme associé à une meilleure santé cardiovasculaire via un profil de biomarqueurs plus sain, avec cette très large étude britannique, présentée à l’European Congress on Obesity de l’European Association for the Study of Obesity. Des résultats qui confirment les avantages des protéines végétales plutôt qu’animales contre le risque cardiaque et cela, quels que soient l’âge et le poids corporel et même indépendamment de certains facteurs de mode de vie, pourtant clivants pour la santé, comme le tabagisme et la consommation d'alcool. Les biomarqueurs en question sont aussi des facteurs de risque, avec de bons et de mauvais effets sur la santé, dont le risque de cancers, de maladies cardiovasculaires et autres maladies chroniques liées à l'âge. Cette étude, menée ici sur plus de 170.000 adultes britanniques, apportent de nouvelles preuves des avantages métaboliques d’un régime végétarien. Les chercheurs de l'Université de Glasgow ont analysé les données de 177.723 participants à l’UK Biobank, âgés de 37 à 73 ans et en bonne santé, n’ayant opéré aucun changement majeur du régime alimentaire au cours des 5 dernières années. Les participants ont été caractérisés comme végétariens ou comme « mangeurs » de viande, à partir de leurs données alimentaires auto-déclarées. Les chercheurs ont ensuite examiné l'association avec 19 biomarqueurs sanguins et urinaires liés au diabète, aux maladies cardiovasculaires, au cancer, à la santé du foie, des os et des articulations ainsi qu’à la fonction rénale. Même après prise en compte des facteurs de confusion possibles, dont l'âge, le sexe, l'éducation, l'origine ethnique, l'obésité, le tabagisme et la consommation d'alcool, l'analyse révèle que par rapport aux amateurs de viande, les végétariens présentent des niveaux nettement inférieurs de 13 biomarqueurs de risque, dont le cholestérol total, les niveaux de cholestérol LDL (mauvais cholestérol), d’apolipoprotéine A et B (marqueurs de maladie cardiovasculaire), de gamma-glutamyl transférase (gamma-GT) et d’alanine aminotransférase (ALAT) (des marqueurs de la fonction hépatique) de facteur de croissance analogue à l'insuline (IGF-1 : une hormone qui favorise la croissance et la prolifération des cellules cancéreuses), d’urate, protéines totales (dans le sang) et de créatinine (marqueur de l'aggrav ation de la fonction rénale). Toutefois, ce travail montre que les végétariens présentent aussi des niveaux inférieurs de certains biomarqueurs bénéfiques, notamment de «bon» cholestérol (HDL), de vitamine D et de calcium ainsi qu’un taux significativement plus élevé de graisses (triglycérides) dans le sang et de cystatine-C (marqueur de dysfonction rénale). Aucune différence n’est relevée pour la glycémie (HbA1c), la pression artérielle systolique, l'aspartate aminotransférase (ASAT : un marqueur de lésions des cellules hépatiques) ou la protéine C-réactive (CRP : marqueur inflammatoire). En plus de ne pas consommer de viande rouge et transformée, des aliments liés au risque de maladies cardiaques et de certains cancers, les personnes qui suivent un régime végétarien ont tendance à consommer plus de légumes, de fruits et de noix, des aliments qui contiennent plus de nutriments, de fibres et d'autres composés bénéfiques. Ces différences nutritionnelles peuvent contribuer à expliquer pourquoi les végétariens présentent des niveaux inférieurs de biomarqueurs de maladie chronique. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| En matière de cancer, pour améliorer l'efficacité thérapeutique des traitements, il est essentiel de connaître le plus rapidement possible le site primaire d’origine de la tumeur, pour permettre une action ciblée et ainsi augmenter le taux de survie. Pourtant, encore aujourd’hui, il reste impossible de déterminer l’origine des tumeurs métastatiques dans 1 à 2 % des cas de cancer. Or, le pronostic d'un cancer primitif inconnu (CPI) est mauvais, avec une survie globale médiane de 2,7 à 16 mois. Afin de recevoir un diagnostic plus précis, les patients doivent souvent subir des examens diagnostiques approfondis et invasifs, qui peuvent retarder le traitement. Mais une intelligence artificielle (IA) pourrait permettre d'améliorer le diagnostic pour les patients atteints de cancers métastatiques complexes. Mise au point par des chercheurs du laboratoire Mahmood du Brigham and Women's Hospital, elle utilise des lames d'histologie acquises de manière routinière pour trouver avec précision les origines des tumeurs métastatiques tout en générant un "diagnostic différentiel", pour les patients atteints de CPI. « Presque tous les patients chez qui on diagnostique un cancer ont une lame d'histologie, qui est la norme de diagnostic depuis plus de cent ans. Notre travail fournit un moyen de tirer parti de données universellement acquises et de la puissance de l'intelligence artificielle pour améliorer le diagnostic de ces cas compliqués qui nécessitent généralement un travail de diagnostic approfondi », explique Faisal Mahmood, qui a dirigé les travaux. Appelé Tumor Origin Assessment via Deep Learning (TOAD), cette IA est un algorithme basé sur le deep learning qui permet d’identifier simultanément la tumeur comme primaire ou métastatique et prédit son site d'origine. Pour entraîner leur modèle et le rendre plus précis, les chercheurs lui ont fait analyser des images pathologiques de tumeurs provenant de plus de 22 000 cas de cancer. Ils ont ensuite testé TOAD sur environ 6 500 cas d'origine primaire connue et analysé des cancers métastatiques de plus en plus compliqués, afin d'établir l'utilité du modèle d'IA sur les CPI. Pour les tumeurs dont l'origine primaire était connue, le modèle a identifié correctement le cancer dans 83 % des cas et a classé le diagnostic parmi ses trois principales prédictions dans 96 % des cas. Les chercheurs ont ensuite testé le modèle sur 317 cas de cancer du col de l'utérus pour lesquels un diagnostic différentiel avait été attribué. Ils ont constaté que le diagnostic de TOAD correspondait aux rapports des pathologistes dans 61 % des cas et qu'il figurait parmi les trois premiers dans 82 % des cas. Désormais, les chercheurs espèrent poursuivre l'entraînement de leur modèle basé sur l'histologie avec davantage de cas et s'engager dans des essais cliniques pour déterminer s'il améliore les capacités de diagnostic et le pronostic des patients. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des chercheurs de l’EPFL ont détourné leur logiciel destiné aux voitures autonomes pour l’appliquer à la situation pandémique. Ajouté à une caméra, leur algorithme permet de savoir si un groupe de personnes respecte la distance sociale qui les protège des infections, sans violer leur sphère privée. Il pourrait servir aux transports publics, aux commerces et restaurants, ainsi qu’à l’industrie. Après des semaines passées à lire des articles de référence sur les modes de transmission du virus Covid-19, l’équipe du laboratoire VITA réalise avec le reste de la communauté scientifique le rôle clé des microgouttelettes dans la transmission du virus et l’importance de respecter une distance sociale de 1,5 mètre entre les personnes, en l’absence de masque. Les chercheurs travaillent donc à l’amélioration de leur algorithme, destiné originellement à détecter l’approche d’un autre véhicule ou d’un piéton dans la rue et à engager le véhicule autonome à freiner, à changer de direction ou à accélérer. Les chercheurs viennent de publier leurs résultats dans la revue IEEE Transactions on Intelligent Transportation Systems et ont présenté leurs travaux lors d’une conférence internationale dédiée à la robotique le 2 juin (International Conference on Robotics and Automation - ICRA). Les détecteurs de distance actuels imposent l’usage d’autres instruments de télédétection, à l’instar de LiDARs (basés sur la technologie laser) et d’une caméra fixe. Le détecteur 3D développé à l’EPFL a l’avantage de s’ajouter facilement à un simple appareil photo ou à une caméra, vendu dans le commerce ou même à un smartphone. Ceci grâce à une manière innovante de calculer les dimensions des silhouettes et la distance sociale entre les êtres humains : l’estimation de la distance entre les personnes se base sur leur taille et non sur le sol. « Pour localiser des personnes en 3D, les détecteurs habituels partent du principe que chaque personne se tient sur la même surface plane. La caméra ne peut donc pas être en mouvement et son utilisation est limitée. Par exemple, cela pose des problèmes de précision lorsque la personne prend des escaliers », explique Lorenzo Bertoni, premier auteur de l’étude. « Nous souhaitions développer un détecteur plus précis et qui évite de prendre un réverbère pour un piéton ». Autres nouveautés, l’algorithme développé à l’EPFL identifie l’orientation des corps, les interactions sociales entre un groupe de personnes présentes dans un espace donné, et notamment, si elles se parlent, et le respect de 1,5 mètre de sécurité sanitaire entre les personnes. Ces éléments se fondent sur une autre base de calcul que les détecteurs actuels. Nommé MonoLoco, le détecteur de l’EPFL garantit en outre l’anonymat des visages et des silhouettes des individus filmés, car il n’a besoin de connaître que la distance entre les articulations d’une silhouette (épaules, poignets, hanches, genoux) pour calculer la distance entre les personnes et leur orientation. Il prend tout simplement une photo ou une vidéo d’un espace et les convertit en silhouettes schématiques et anonymes dotées de «points clés». « Le stockage des photos ou des vidéos initiales est inutile. Cette technologie est donc selon nous un pas dans la bonne direction en ce qui concerne le respect de la sphère privée », précise Lorenzo Bertoni. « Nous avons imaginé de multiples applications du logiciel en période de pandémie », détaille le chercheur, « dans les transports publics, bien sûr, mais aussi dans les commerces, les restaurants, les bureaux, les halls de gare et les usines, afin de garantir la santé des ouvriers par le respect des distances et de leur permettre d’aller travailler ». L’outil étant à l’origine destiné aux voitures autonomes, le calcul de la distance à respecter peut être paramétré jusqu’à 40 mètres pour calculer la distance entre individus et objets, ainsi que leur orientation. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| La société de biotechnologies américaines a annoncé que les vaccins de rappel « ont augmenté les niveaux d'anticorps neutralisants contre le SARS-CoV-2 et deux variants préoccupants », à savoir les variants Sud-africain et brésilien. « Ces nouvelles données renforcent notre confiance dans l'idée que notre stratégie de doses de rappel devrait conférer une protection contre ces nouveaux variants », a déclaré dans un communiqué Stéphane Bancel, le patron de Moderna. Pour ces essais de phase 2, quarante personnes qui avaient déjà reçu les deux doses du vaccin Moderna nécessaires à l'immunisation en ont reçu une troisième six à huit mois plus tard. Trois formules sont testées : une troisième dose du vaccin initial (mRNA-1273), une dose d'une formule spécifiquement créée contre le variant Sud-africain (mRNA-1273.351) et une dose combinant les deux formules. Les résultats de la combinaison des deux formules ne sont pas encore disponibles. En revanche, pour les deux autres « boosters », les taux d'anticorps « ont augmenté à des niveaux similaires ou plus élevés » que ceux relevés après la première série de deux injections, souligne l'entreprise. La formule du vaccin développée spécifiquement contre le variant Sud-africain s'est révélée plus efficace contre celui-ci que le vaccin initial, a ajouté Moderna. Le patron de Moderna Stéphane Bancel s'est ainsi félicité de l'ARN-messager « permette la fabrication rapide de candidats vaccins qui incluent des mutations clés du virus, permettant potentiellement un développement plus rapide de futurs vaccins alternatifs ». « Nous continuerons à faire autant de mises à jour que nécessaire de notre vaccin contre le Covid-19 afin de placer la pandémie sous contrôle », a-t-il ajouté. Article rédigé par Georges Simmonds pour RT Flash Moderna | | | |
| Le CHU de Toulouse en Haute-Garonne annonce avoir réalisé la première ablation robot assistée d’une tumeur cancéreuse, sur un rein greffé et avec contrôle endovasculaire de l’artère. Cette nouvelle technique vise à réduire le risque de dialyse après l’intervention. Une première mondiale. Quatre médecins ont imaginé cette nouvelle technique : une néphrectomie partielle robot assistée, avec contrôle endovasculaire de l’artère rénale. Ce processus consiste à provoquer la mort temporaire des tissus de l’artère qui vascularisent la zone tumorale à extraire, et de leur redonner vie une fois l’exérèse terminée. Il est rendu possible par le placement de ballons occlusifs dans les artères entourant la tumeur cancéreuse. Une intervention unique au monde. Les chirurgiens urologues, Docteur Nicolas Doumerc et Docteur Florian Laclergerie, et les radiologues interventionnels, Docteur Marie-Charlotte Delchier-Bellec et Docteur Séverine Lagarde, de l'hôpital de Rangueuil, associent leurs compétences pour permettre aux patients, atteints de tumeur rénale et n’ayant qu'un rein fonctionnel, de limiter les risques de perte définitive de l’organe ou de dialyse post-opératoire. La première intervention a été effectuée en 2018. « On était face à un patient qui avait un cancer sur un rein transplanté, un rein greffé. Ce qui est assez rare. Mais qui pose quelques problèmes de prise en charge », expose le Docteur Nicolas Doumerc. La technique habituelle est d’interrompre la circulation du sang dans l’artère rénale (en posant un clamp), le temps de retirer la tumeur. Une fois terminé, l’artère peut être déclampée et le rein se revascularise progressivement. Mais cette opération est risquée et peut entraîner une dialyse post-opératoire, lorsque le patient n’a qu’un rein fonctionnel. « Dans les cas de patients greffés, des patients qui ont donc déjà été opérés, l’abord du rein est très délicat, très à risque de complications. Moins on va disséquer les vaisseaux de l’organe, mieux c’est pour le patient car on diminue le risque de lui enlever son rein unique », rapporte le Docteur Nicolas Doumerc, chirurgien urologue à l’origine de la nouvelle technique. La technique du contrôle endovasculaire par ballons occlusifs consiste à positionner des « petits ballons » dans les vaisseaux rénaux autour de la tumeur qui, une fois gonflés, bloquent la vascularisation de la zone tumorale. Une fois la tumeur extraite, les ballons sont dégonflés : le sang peut recirculer normalement. La zone non-vascularisée est donc limitée et permet un meilleur fonctionnement post-opératoire du rein. « Le succès de l’intervention ouvre le champ des possibles pour les patients porteurs d’une tumeur cancéreuse sur rein unique. Depuis, cinq patients ont pu bénéficier de ce nouveau procédé », affirme le Docteur Nicolas Doumerc. Cette nouvelle technique opératoire se déroule en deux temps. D’abord, ce sont les radiologues qui placent les « ballons » dans l’artère et les vaisseaux rénaux sans les gonfler, sous une simple anesthésie locale. Puis, le patient est transporté dans une salle de chirurgie. Sous anesthésie générale, les ballons sont gonflés : la zone tumorale n’est plus irriguée temporairement. Les chirurgiens urologues viennent disséquer, à l’aide d’un robot, la tumeur à extraire. « On a gagné en sécurité sur le risque de perdre le rein, et on a limité la zone qui n’était plus vascularisée, et on l’a limitée à la zone tumorale. Tout le reste du rein a continué à fonctionner. Une fois la chirurgie réalisée, on a dégonflé le petit ballon et on a remis en circulation la totalité du rein », explique le Docteur Doumerc. Selon un communiqué du CHU de Toulouse, cette « collaboration entre imagerie interventionnelle et chirurgie robotique augure de belles perspectives de développement comme la réalisation de ces interventions combinées dans des salles hybrides ». Le développement de ces salles hydriques permettrait de faire intervenir plusieurs spécialités médicales sur une même intervention. « Arriver à panacher des compétences dans des domaines différents pour un même patient, c’est l’avenir », s’exclame le Docteur Doumerc. Article rédigé par Georges Simmonds pour RT Flash Wiley | | | |
| Selon plusieurs études récentes, les patients ayant eu le SARS-CoV-2 sont immunisés pour au moins un an, voire plusieurs années. Après une seule injection de vaccin, leurs anticorps leur permettraient même de résister aux nouveaux variants. Plusieurs études scientifiques publiées en mai montrent en effet que les anticorps persistent dans l’organisme plusieurs mois après l’infection, alors que les virologues estimaient jusque-là que les anticorps se réduisaient fortement quelques mois après la contamination. Samira Fafi-Kremer, directrice de l’institut de virologie de Strasbourg, a observé que les protéines neutralisant le virus restaient détectables dans l’organisme jusqu’à 13 mois après la contamination au Covid. Plus précisément, les anticorps sont produits en quantité importante tant que le pathogène est présent, baissent dans les sept mois qui suivent l’infection avant de se stabiliser en nombre suffisant. Cette réponse immunitaire s’effectue en deux étapes. Les plasmablastes, produits pour lutter contre le virus, sont remplacés par des plasmocytes, plus durables dans le temps. De plus, les études montrent chez les patients une production de lymphocytes B « mémoires » qui sécrètent immédiatement des anticorps en cas de réinfection au SARS-CoV-2. « Les plasmocytes font des anticorps qui durent très longtemps, mais qui resteront efficaces seulement contre le variant initial, tandis que les lymphocytes B mémoires permettent d’avoir une réponse beaucoup plus variable et donc s’adapter aux variants », souligne auprès du Monde Jean-Daniel Lelièvre, chef du service d’immunologie clinique et des maladies infectieuses à l’hôpital Henri-Mondor, à Créteil (Val-de-Marne). Ces plasmocytes restent à un nombre stable jusqu’à douze mois après l’infection, d’après une étude de Michel Nussenzweig, de l’Université Rockefeller, à New York. Un bémol est à apporter à toutes ces bonnes nouvelles. Tous les sujets ne présentent pas les mêmes anticorps. Une injection de vaccin reste donc primordiale pour s’assurer de ne pas contracter à nouveau le Covid. L’étude de Michel Nussenzweig montre de plus que la vaccination améliore toutes les composantes de la réponse immunitaire. Après injection, cette réponse immunitaire serait ainsi augmentée d’environ cinquante fois. En revanche, une dose de vaccin sans contamination au préalable n’assure pas la même réponse immunitaire de l’organisme. Mais les scientifiques affirment qu’un « rappel supplémentaire au moment approprié avec les vaccins disponibles pourrait couvrir la plupart des variants préoccupants » et ainsi rapprocher le corps d’une réponse immunitaire optimale. Le Royaume-Uni étudie en ce moment la pertinence d’une éventuelle troisième dose de vaccin via des essais cliniques sur près de 3 000 volontaires. Article rédigé par Georges Simmonds pour RT Flash Sud-Ouest | | | |
| L’Agence nationale de sécurité du médicament (ANSM) vient d’annoncer l’ouverture des traitements à base d'anticorps monoclonaux, à partir du 11 juin, aux patients à risque de complications liées à des comorbidités, et ce quel que soit l’âge, à ceux ayant une infection par le VIH non contrôlée ou au stade sida, et aux enfants à partir de 12 ans à risque élevé de forme grave de Covid-19, notamment en raison d’une immunodépression sévère. Jusqu’alors, ces traitements étaient réservés aux patients adultes ayant un déficit de l’immunité, aux patients de plus de 80 ans et à ceux à partir de 70 ans présentant certaines comorbidités (obésité, insuffisance respiratoire ou cardiaque, diabète…). Deux bithérapies sont concernées : le cocktail casirivimab et imdevimab, du laboratoire suisse Roche et de la biotech américaine Regeneron – qui avait été médiatisé à l’automne 2020 lorsqu’il avait été administré au président des Etats-Unis Donald Trump –, et le cocktail bamlanivimab et etesevimab, de la firme Lilly France. Le mode d’action de ces traitements est de mimer la réponse immunitaire pour empêcher le virus de pénétrer dans les cellules. Ces traitements ciblent ainsi la protéine Spike, qui sert au virus à se fixer sur le récepteur d’entrée. Une fois l’infection confirmée par un test PCR positif, « l’enjeu est de démarrer ces traitements le plus précocement possible, dans les cinq premiers jours après le début des symptômes, car ils semblent d’autant plus efficaces que le corps n’a pas encore produit ses propres anticorps », explique le professeur Guillaume Martin-Blondel, infectiologue au CHU de Toulouse. L’objectif est d’éviter l’évolution vers une forme grave de la maladie pouvant conduire à une hospitalisation, voire à un passage en réanimation. « C’est à un stade précoce de l’infection, au moment où la charge virale est la plus élevée, que les anticorps monoclonaux agissent le mieux, si l’infection par le Covid-19 entre dans une phase inflammatoire, c’est trop tard, la maladie &e acute;tant trop avancée pour espérer une action efficace de ces traitements », précise Alban Dhanani. Plus de 1 000 personnes en France ont bénéficié de ces bithérapies. « Les données préliminaires des études de phase 3 montrent que l’utilisation de ces combinaisons d’anticorps monoclonaux est associée à une réduction de 70 % à 87 % du risque d’hospitalisation et de décès, en comparaison à un groupe de patients recevant un placebo », observe Alban Dhanani, qui précise que « A ce stade, sur le millier de patients, nous n’avons pas eu d’émergence de variants résistants sous traitement avec les bithérapies, c’est rassurant, alors que ce phénomène a été observé sous monothérapie ». Par ailleurs, des études sont également en cours pour étendre l’utilisation de ces molécules en prévention pour les patients à risque de forme grave, en particulier les personnes immunodéprimées, qui répondent moins bien à la vaccination, ou encore pour protéger l’entourage de personnes infectées. En complément de ces nouveaux traitements à base d’anticorps monoclonaux, le CHU de Bordeaux, pilote un essai dit Coverage, qui vise à évaluer des traitements chez des patients de plus de 50 ans, infectés, à risque de forme grave, non hospitalisés. Deux traitements sont en cours d’évaluation : Alvesco (ciclésonide), un corticoïde inhalé – médicament utilisé pour l’asthme persistant chez l’adulte et l’enfant –, et Extavia, de l’interféron bêta inhalé par nébulisation – souvent prescrit aux patients atteints de sclérose en plaques. Ils sont comparés à un traitement par multivitamines (Azinc). Cet essai, dont l’originalité est d’associer les médecins généralistes, se déroule dans plusieurs villes ou régions. A ce stade, il compt e plus de 400 patients, dont 100 en Ile-de-France. De la famille des cytokines, les interférons de type I (IFN-I) sont de petites protéines produites naturellement dans le corps en réponse à une infection virale. Plusieurs études ont montré un défaut ou un retard d’activité des IFN-1 lors du Covid-19, notamment dans les formes sévères. Le but est de voir si l’interféron bêta, dont la forme inhalée agit au niveau de la sphère pulmonaire, peut compenser une éventuelle carence naturelle et ainsi éviter des hospitalisations. Article rédigé par Georges Simmonds pour RT Flash Le Monde | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|