| | | | | | | Edition du 15 Juillet 2022 |
| |
|
| Edito Quel est l'avenir du solaire spatial ?
Je reviens cette semaine sur un vieux rêve de l’Humanité qui va peut-être enfin prendre forme : capter directement dans l’Espace l’énergie illimitée et inépuisable de notre Soleil pour l’utiliser sur notre Terre. Il y a un siècle, le grand scientifique russe Constantin Édouardovitch Tsiolkovski, souvent considéré comme le fondateur de l’astronautique moderne, se demandait déjà comment exploiter cette fabuleuse énergie solaire depuis l’Espace. En 1941, le célèbre auteur de SF Isaac Asimov (l’auteur des trois lois de la robotique), dans sa nouvelle intitulée "Raison", imaginait également un futur dans lequel les scientifiques étaient capables de capter l’énergie solaire dans l’Espace pour la renvoyer sur notre planète. Mais c’est en 1968 que le scientifique américain Peter Glaser publia la première étude complète qui portait sur une centrale solaire orbitale. Il calcula de manière remarquable qu’une telle installation spatiale, utilisant un faisceau de micro-ondes à 2,45 GHz, serait capable d’extraire presque dix fois plus d’énergie par m2 qu’une centrale terrestre (4,25 GHz par hectare et par an, contre seulement 0,5 pour une installation terrestre). Mais à l’époque, le coût de construction d’une telle centrale spatiale avait été jugé dissuasif (au moins 100 milliards de dollars), notamment à cause de la mise sur orbite d’une charge totale de l’ordre de 10 00 tonnes, sans compter les coûts liés à l’assemblage complexe d’une telle structure dans l’Espace et à la construction de stations de récept ion au sol d’une surface de plusieurs dizaines de km2… Finalement, la NASA abandonna son projet ambitieux, publié en 1980, de mise sur orbite d’une soixantaine de centrales solaires spatiales de 5GW de puissance unitaire, soit au total, l’équivalent de la production électrique de 60 réacteurs nucléaires. Quarante ans plus tard, ce concept futuriste de centrale solaire fait un retour en force sous le double effet de la transition énergétique mondiale et de l’urgence de la lutte contre le réchauffement climatique. Le California Institute of Technology (Caltech), près de Los Angeles, a récemment annoncé qu’il allait expérimenter une technologie permettant de transférer de l’énergie électrique depuis un satellite jusqu’à notre planète grâce à des ondes à radiofréquence. L’armée américaine a, de son côté, effectué des essais concluants de transmission d’énergie sous forme ondulatoire, à partir d’un panneau solaire de petite taille, transporté par la navette spatiale X-37B de la Nasa, à 400 kilomètres d’altitude. Depuis les années 80, la donne économique et technologique a également radicalement changé concernant les coûts globaux comparés (investissement et fonctionnement) d’une centrale solaire spatiale et de son équivalent en nucléaire terrestre de nouvelle génération. Une étude réalisée par le cabinet de conseil britannique Frazer-Nash, à partir de données fournies par des grands groupes comme Airbus et Thales, montre que le coût par mégawattheure (MWh) de l’énergie solaire spatiale pourrait à terme représenter la moitié de celui du nucléaire nouvelle génération, estimé à plus de 120 euros du MWh par la Cour des comptes, soit le double du coût des centrales nucléaires anciennes, déjà amorties. Cette analyse rappelle également que la centrale EPR de Hinkley Point ( GB) aura coûté finalement 27 milliards d’euros pour 3,2 gigawatts (GW), un chiffre à comparer avec un satellite solaire de 2GW, qui devrait coûter 19 milliards d’euros, puis 4,2 milliards d’euros par unité supplémentaire de 2GW… Après avoir affirmé ses ambitions en matière de présence permanente sur la Lune et d’exploitation des richesses minières et énergétiques de notre satellite, la Chine est bien décidée à devenir un leader mondial dans ce domaine stratégique du solaire spatial. Elle a installé en 2019 une base expérimentale à Chongqing, où elle a testé avec succès la transmission de micro-ondes depuis des montgolfières. Il y a quelques semaines, la Chine a créé l’événement en annonçant la construction d’ici à 2030 d’une centrale solaire en orbite de 1 mégawatt, puis d’une version de 1 gigawatt en 2045, qui pourrait faire une surface de près de deux km2. Mais pourquoi vouloir déplacer la production d’énergie solaire dans l’Espace, sachant qu’elle est bien plus complexe et onéreuse à mettre en œuvre dans ce milieu hostile et lointain. Pour plusieurs raisons qui font qu’à terme, en dépit des difficultés technologiques à surmonter, un nombre croissant de scientifiques, mais aussi de responsables politiques et d’entrepreneurs sont convaincus que le solaire spatial sera à la fois inévitable et rentable, si nous voulons répondre de manière durable et non émettrice de CO2 à la soif d’énergie d’une humanité de dix milliards d’habitants. Le solaire spatial ne connait ni les nuages, ni le mauvais temps et fonctionne jour et nuit, avec un rendement énergétique par km2 plus de dix fois supérieur à son homologue terrestre. En outre, le rendement des der nières cellules solaires de laboratoire dépasse les 40 %. Tous ces atouts réunis font que, d’après la Nasa, le coût nécessaire pour envoyer 1 kg de matériel dans l’Espace a été divisé par 20 en dix ans, notamment grâce à l’arrivée fracassante des lanceurs réutilisables de SpaceX. C’est dans ce contexte que la Chine a présenté son concept de Space Solar Power Station (SSPS), une technologie globale visant à la production massive d’énergie électrique, à partir de l’énergie solaire captée dans l’Espace (Voir CGTN). Une équipe de recherche de l'Université de Xidian, à Xi'an, capitale de la province du Shaanxi (nord-ouest de la Chine), vient de terminer la première vérification au sol à l'échelle de la chaîne complète du système pour une centrale solaire spatiale, dans le cadre de son projet « Zhuri » ou « A la poursuite du soleil ». Concrètement, l’étude publiée dans la revue C hina Space Science and Technology prévoit un premier transfert de haute tension spatiale et de transmission d'énergie sans fil, réalisée par un satellite générant 10 kilowatts de puissance, placé en orbite terrestre basse en 2028. Viendra ensuite la phase 2 en 2030, qui consistera à placer un autre satellite en orbite géostationnaire et à effectuer un transfert d'énergie d’un MW, sur une distance de 35 800 kilomètres jusqu'à la Terre. Les phases 3 et 4 sont prévues pour 2035 et 2050, avec des productions d’énergie multipliées d’abord par dix (10 MW), puis… par 2000 (2 gigawatts), pour parvenir finalement à une mégacentrale solaire spatiale opérationnelle, au milieu du siècle. Parallèlement, la Chine travaille à l’amélioration des d'infrastructures au sol, chargées de recevoir cette énergie spatiale sous forme de micro-ondes (Voir The Eurasian Times). Il s’agit pour les scientifiques chinois de parv enir à produire et à contrôler des faisceaux d’énergie plus denses et plus focalisés, de façon à améliorer encore l’efficacité énergétique globale de ces futures centrales spatiales géantes, tout en réduisant la surface nécessaire des installations terrestres de réception. Le Royaume-Uni envisage également d'avoir un démonstrateur solaire en orbite d'ici 2035, et plus de 50 organisations britanniques, dont le constructeur aérospatial Airbus, l'Université de Cambridge et le fabricant de satellites SSTL, ont rejoint la UK Space Energy Initiative lancée en 2021, qui a établi un plan de développement sur 12 ans visant à aboutir à une centrale électrique de démonstration, assemblée par des robots en orbite (Voir The Conversation). Le Royaume-Uni a décidé de consacrer pas moins de 17 milliards de livres sterling à cet ambitieux projet qui vise à réaliser une grande centrale solaire opérationnelle en 2040. Cette installation spatiale, digne d’un film de Science-F iction, se veut comparable au projet chinois, avec un diamètre de 1,7 km et un poids total de 2 000 tonnes. Elle serait en mesure de fournir 2 GW par an d'électricité au Royaume-Uni. Ces futures centrales solaires spatiales pourront également bénéficier des avancées majeures réalisées par les cellules solaires, en matière d’efficacité énergétique. Récemment, des chercheurs de l’Université de Stanford ont conçu une nouvelle lentille optique de forme pyramidale, capable de recueillir et de concentrer jusqu’à 90 % de la lumière, bien plus que les panneaux solaires monocristallins, qui culminent à 24 %. L’appareil, que les chercheurs appellent AGILE — pour Axially Graded Index Lens, ressemble à une pyramide à l’envers avec la pointe coupée. La lumière pénètre par le dessus carré sous n’importe quel angle, puis est focalisée vers le bas pour former un point plus lumineux à la sortie. Mais la grande innovation de cette technologie, c’est que ces chercheurs ont réussi à concevoir une lentille qui capte les rayons sous tous les angles, mais concentre toujours la lumière à la même position de sortie, sans avoir à modifier la position de la lentille pour faire face au Soleil. Pour parvenir à ce résultat remarquable, ces scientifiques ont calculé comment concentrer la lumière diffusée à l’aide d’un matériau qui augmente progressivement l’indice de réfraction, c’est-à-dire de la vitesse à laquelle la lumière se déplace à travers un matériau qui va courber ce faisceau lumineux vers un point focal. C’est en superposant différents verres et polymères qui modifient la courbure de la lumière que ces chercheurs ont pu réaliser ces lentilles solaires proches de la perfection, qui pourraient encore multiplier par quatre l’efficacité énergétique du solaire spatial, qui deviendrais alors quarante fois plus productif, à surface égale, que le solaire terrestre. Dans la seconde moitié de notre siècle, une centaine de ces centrales solaires spatiales géantes pourraient, selon certains scientifiques, produire au moins 20 % de la consommation mondiale totale d’électricité prévue en 2050 (de l’ordre de 36 000 Twh par an). Combinée à l’éolien marin de nouvelle génération, au solaire terrestre et à la fusion contrôlée, qui fait des pas de géants depuis quelques mois et sera probablement opérationnelle à cette échéance, le solaire spatial pourrait donc permettre à l’Humanité de satisfaire ses besoins croissants en énergie propre et décarbonée. Mais le développement à grande échelle de ce mode de production d’énergie doit également être envisagé comme un formidable moteur d’innovations technolog iques de rupture dans une multitude de domaine, matériaux, électronique, robotique, informatique, chimie, propulsion spatiale… Les deux géants américain et chinois ne s’y sont pas trompés et ont pris une avance considérable dans ce concept technologique clé pour notre avenir. Si l’Europe et la France veulent rester dans cette course scientifique, mais aussi stratégique majeure, tout en confortant leur avance dans la lutte contre le réchauffement climatique et la sortie des énergies fossiles, elles doivent, elles aussi, lancer sans tarder un grand projet sur les trente prochaines années, fédérant toutes les compétences et moyens de la recherche publique et de l’industrie afin de disposer également, au tournant du siècle, de cette technologie globale, alliant l’Espace, l’énergie et l’intelligence artificielle… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | En 2020, une équipe de l’University College London (Royaume-Uni) avait développé une technologie ayant permis le transit des données via les infrastructures de fibre optique existantes. Ces chercheurs avaient alors établi un nouveau record de vitesse : 178 térabits par seconde, soit un résultat beaucoup plus rapide que le débit des lignes classiques. Ce record, qui a été établi il y a deux ans, ne représente toutefois pas grand-chose comparativement à celui que viennent tout juste d’annoncer les chercheurs japonais de l’Institut national des technologies de l’information et de la communication (NICT). En effet, le 2 juin 2022, les scientifiques ont atteint une vitesse de transmission de données de 1 020 térabits par seconde sur un réseau d’une distance de 51,7 kilomètres. L’équipe du NICT a envoyé des données à travers un câble en fibre optique à plusieurs cœurs, c’est-à-dire un câble contenant lui-même quatre plus petits câbles de fibre optique. Or, chacun de ces derniers transmet un signal différent, permettant d’amplifier la bande passante. Cette prouesse est synonyme d’un transfert de données à hauteur de 127 500 Go par seconde, du jamais vu. Ce débit offrirait la possibilité de diffuser de manière simultanée pas moins de 10 millions de contenus vidéo en 8K. Ainsi, cette technologie permettrait à terme de généraliser la diffusion de ce genre de contenu. À titre de comparaison, ce débit incroyable est près de 100 000 fois plus élevé que celui que proposent les fournisseurs d’accès internet. Par ailleurs, les chercheurs du NICT disent avoir exploré plusieurs pistes. En premier lieu, ils ont pensé à des câbles à plusieurs cœurs capables de transmettre quinze signaux. Néanmoins, ce genre de dispositif nécessiterait des améliorations très coûteuses sur l’ensemble du réseau. Avec le choix du câble à quatre cœurs, la dimension standard de 0,125 mm sera toujours en vigueur. Ainsi, l’installation de ces nouveaux câbles s’en trouvera largement facilitée. Article rédigé par Georges Simmonds pour RT Flash Interesting Engineering | | | |
| La quantité de données stockées sur la planète est estimée à 175 zettaoctets d’ici 2025. Si l’on pouvait stocker cette quantité de données sur des disques Blu-ray, il faudrait disposer de 23 piles de disques, chaque pile ayant une hauteur équivalente à la distance Terre-Lune. Alors que les quantités de données augmentent, les capacités de stockage se font dépasser. Il est donc nécessaire de chercher des solutions de stockage alternatives, pérennes et à faible consommation énergétique alors que certains data centers ont un bilan carbone équivalent à celui d’une ville entière. Pour répondre à ces enjeux, l’ADN synthétisé de façon chimique, qui dispose de larges et longues capacités de stockage sans consommation énergétique, s’impose comme l’une des solutions d’avenir. Le PEPR MoleculArXiv vise à développer un programme ambitieux d’accélération, de conception et d’arrivée sur le marché de nouveaux dispositifs de stockage de données sur support moléculaire. Pour mettre en œuvre son action, il initiera des recherches au sein de 16 laboratoires choisis afin d’accentuer les connaissances sur la chimie de synthèse de l’ADN ; l’encodage et le séquençage de l’ADN ; et la structure de la donnée au sein de l’ADN. Ces recherches pluridisciplinaires s’appuieront sur la chimie, la microfluidique, le traitement du signal, la bioinformatique, la biologie du séquençage et la chimie des polymères. Le PEPR aura ainsi pour vocation de rassembler un savoir-faire national et soutenir le transfert de futures technologies via une montée en TRL – autrement dit un passage de la conception à la fabrication - et la création de start-up, mais également – au niveau européen – d’obtenir un programme de recherche européen sur le sujet, un FET Flagship (ou "Initiative-phare des technologies futures et émergentes" en français). Le PEPR consacrera son budget au sein des 16 laboratoires directement impliqués qui mèneront quatre projets ciblés – respectivement sur les technologies de synthèse d’ADN de nouvelle génération ; le stockage efficace selon différentes stratégies de codage et de séquençage ; la généralisation du support de stockage d’information sur polymères synthétiques ; et le stockage moléculaire pratique, sûr et exploitable. Une autre partie du budget sera dédiée à des appels à projet et des appels à manifestation d’intérêt vers les laboratoires intéressés ainsi qu’à l’animation scientifique. Le CNRS est entouré de partenaires tels que l’INA (Institut national de l’audiovisuel), le Parlement européen ou encore la BnF (Bibliothèque nationale de France) et la bibliothèque universelle de codes sources de logiciels, Software Heritage, avec lesquels il souhaite mettre en place des expériences réelles d’archivage de données à grande échelle. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Le miel pourrait-il offrir une solution à la pénurie mondiale de semi-conducteurs et contribuer ainsi à réduire les déchets électroniques ? Une nouvelle étude américaine suggère que le miel pourrait être utilisé pour fabriquer une puce informatique écologique capable de traiter et de stocker des données en imitant le cerveau humain. Salués par certains comme l'avenir de l'informatique, les systèmes dits neuromorphiques sont beaucoup plus rapides et consomment beaucoup moins d'énergie que les ordinateurs traditionnels. Des ingénieurs de l'Université de l'État de Washington (WSU) ont démontré qu'il était possible de les rendre plus organiques. Ils ont découvert que le miel peut être utilisé pour fabriquer un memristor - un composant similaire à un transistor qui peut non seulement traiter mais aussi stocker des données en mémoire. « C'est un très petit dispositif avec une structure simple, mais il a des fonctionnalités très similaires à un neurone humain », a déclaré Feng Zhao, professeur associé de l'école d'ingénierie et d'informatique de WSU et auteur correspondant de l'étude. « Cela signifie que si nous pouvons intégrer des millions ou des milliards de ces memristors à miel ensemble, alors ils peuvent être transformés en un système neuromorphique qui fonctionne comme un cerveau humain ». Pour l'étude, les chercheurs ont transformé le miel en une forme solide et l'ont pris en sandwich entre deux électrodes métalliques pour imiter une synapse humaine - la petite poche d'espace entre deux neurones où les informations sont transmises de l'un à l'autre. Ils ont constaté que le memristor biodégradable au miel était capable d'imiter les synapses humaines et leur capacité à s'activer et à se désactiver très rapidement tout en conservant certaines informations. Les chercheurs ont construit le memristor en miel de la même épaisseur qu'un cheveu humain. L'équipe prévoit de les développer à l'échelle nanométrique, soit environ 1/1000e d'un cheveu humain, et d'en regrouper plusieurs millions, voire milliards, pour créer un système informatique neuromorphique complet. Le cerveau humain compte plus de 100 milliards de neurones et plus de 1 000 milliards de synapses, ou connexions, entre eux. Chaque neurone peut à la fois traiter et stocker des données, ce qui rend le cerveau beaucoup plus efficace qu'un ordinateur traditionnel, et les développeurs de systèmes informatiques neuromorphiques visent à imiter cette structure, explique l'équipe. Plusieurs entreprises, dont Intel et IBM, ont déjà commercialisé des puces neuromorphiques qui comptent l'équivalent de plus de 100 millions de "neurones" par puce, mais ce nombre est encore loin de celui du cerveau. Intel s'apprête à construire un nouveau centre de fabrication de puces d'une valeur de 17 milliards d'euros en Allemagne, dans le cadre de son investissement en Europe. Zhao et son équipe envisagent également d'utiliser des protéines et d'autres sucres, comme ceux que l'on trouve dans les feuilles d'Aloe vera, mais il voit un fort potentiel dans le miel. « Le miel ne se détériore pas », a-t-il déclaré. « Il a une très faible concentration d'humidité, les bactéries ne peuvent donc pas y survivre. Cela signifie que ces puces informatiques seront très stables et fiables pendant très longtemps ». Les chercheurs affirment que les puces memristors au miel qu'ils ont développées devraient également tolérer les faibles niveaux de chaleur générés par les systèmes neuromorphiques, qui ne chauffent pas autant que les ordinateurs traditionnels. Fait important, les memristors au miel contribueraient à réduire les déchets électroniques en « créant des systèmes neuromorphiques renouvelables et biodégradables », a déclaré Zhao. « Lorsque nous voulons nous débarrasser d'appareils utilisant des puces informatiques en miel, nous pouvons facilement les dissoudre dans l'eau », a-t-il ajouté. Article rédigé par Georges Simmonds pour RT Flash Columbian | | ^ Haut | |
|
| | | Des chercheurs de l’Université de technologie de Nanyang (NTU), à Singapour, ont mis au point un nouveau matériau extensible et imperméable, capable de transformer l’énergie générée par les mouvements du corps en énergie électrique. Ce "tissu" pourrait par exemple être intégré à des vêtements ou des semelles de chaussures, pour servir de source d’alimentation à des appareils électroniques portables. Ce matériau innovant repose sur une couche d’élasthane (Lycra), une fibre réputée pour son élasticité. Cette couche est intégrée à un polymère aux propriétés similaires à celles du caoutchouc, à la fois extensible, imperméable et résistant. Pour mettre au point ce tissu innovant, les chercheurs ont utilisé un polymère qui, lorsqu’il est pressé ou comprimé, convertit la contrainte mécanique en énergie électrique. Lors d’une expérience de validation du concept, publiée dans la revue Advanced Materials, les chercheurs ont montré que le fait de tapoter sur un morceau de 3 cm sur 4 cm de ce nouveau tissu générait suffisamment d’énergie électrique pour allumer 100 LED ! L’équipe souligne par ailleurs que ni le pliage, ni le froissement du tissu, ni même le lavage, n’ont entraîné de dégradation de ses performances. Ce matériau a été capable de maintenir une production électrique stable pendant cinq mois. Ce nouveau matériau composite, nommé LPPS-NFC, comporte une électrode extensible "sérigraphiée", fabriquée avec du styrène-éthylène-butylène-styrène (SEBS) — un matériau semblable au caoutchouc, que l’on trouve par exemple dans les anneaux de dentition ou les poignées de guidon. Cette électrode est fixée à un tissu en nanofibres composé de poly(fluorure de vinylidène)-co-hexafluoropropylène (PVDF-HPF) — un polymère qui produit une charge électrique lorsqu’il est comprimé, plié ou étiré — et de pérovskites sans plomb (Cs3Bi2Br9), qui sont déjà à l’étude pour produire des LED et des cellules photovoltaïques nouvelle génération, plus respectueuses de l’environnement. Ce prototype peut en fait produire de l’électricité de deux manières : lorsqu’il est pressé ou écrasé (piézoélectricité), et lorsqu’il entre en contact ou par friction avec d’autres matériaux, comme la peau ou des gants en caoutchouc (triboélectricité ou électricité statique). Les scientifiques ont montré que leur tissu pouvait capter l’énergie de toute une série de mouvements, sans la moindre gêne pour son porteur. Il peut ainsi être attaché au bras, à la jambe, à la main et au coude, ou encore à la semelle intérieure des chaussures. Il s’agit du premier dispositif énergétique hybride à base de pérovskites qui reste stable jusqu’à cinq mois, qui affiche toutes les propriétés requises pour un tissu (extensible, respirant et imperméable) et qui est capable de fournir une telle puissance énergétique. L’énergie électrique générée est suffisante pour alimenter de petits appareils électroniques, tels que des LED ou des batteries de téléphones portables. « Nos résultats montrent que notre prototype de tissu de récolte d’énergie peut exploiter l’énergie vibratoire d’un être humain pour potentiellement prolonger la durée de vie d’une batterie ou même pour construire des systèmes autoalimentés », souligne la professeure Lee Pooi See, qui a dirigé l’&ea cute;tude. Les collecteurs d’énergie basés sur le LPPS-NFC apparaissent donc très prometteurs en tant que textiles intelligents et sources d’énergie portables. L’équipe étudie maintenant comment ce même tissu pourrait être adapté pour récolter d’autres formes d’énergie. La chercheuse et son équipe s’intéressent de près aux moyens d’exploiter l’énergie générée naturellement : ils ont par exemple récemment mis au point un film qui pourrait potentiellement recouvrir les toits ou les murs pour exploiter l’énergie produite par le vent ou les gouttes de pluie. Article rédigé par Georges Simmonds pour RT Flash NTU | | | |
| Une équipe sino-américaine a démontré, à l’aide d'un modèle de simulation informatique, qu’il est possible de surmonter le problème lié à l’intermittence inhérente à l’énergie solaire en ajoutant la biomasse comme autre source d’énergie renouvelable afin de proposer une solution de chauffage fiable et abordable, tout en réduisant les émissions de dioxyde de carbone. « Nous démontrons comment ce système hybride offre une solution de chauffage plus propre et plus économe en énergie que les combustibles fossiles dans les maisons individuelles », a déclaré le co-auteur Gaoyang Hou. « Le système serait pratique dans les communautés rurales, où les exploitations agricoles disposent de grandes quantités de biomasse sous forme de dé ;chets agricoles qui peuvent être combinées à l’énergie solaire pour combler le fossé électrique urbain-rural et aider l’environnement dans le processus ». Le système hybride solaire-biomasse proposé repose sur une technologie multigénérationnelle distribuée qui intègre des sources d’énergie photovoltaïques-thermiques (PV/T) et de biomasse. La biomasse est produite à partir de matières organiques renouvelables, comme les enveloppes de maïs, les coquilles de noix, la pulpe de bois et les déchets alimentaires et animaux. Un système PV/T, composé de panneaux PV et de capteurs thermiques, est une technologie émergente qui convertit l’énergie solaire à la fois en chaleur et en électricité avec une efficacité de conversion énergétique plus élevée. Les études sur les systèmes hybrides décentralisés émergents se sont concentrées sur les quartiers et les fermes de serres commerciales. Les chercheurs ont évalué leur système sur la base des besoins en chauffage d’un chalet d’un étage, de novembre à mars, dans le nord-ouest de la Chine, où les températures en hiver peuvent descendre en dessous de moins 20 degrés Celsius. Sur l’apport énergétique total, le capteur PV/T a généré 52 % de l’énergie électrique et capturé 8 % de l’énergie thermique disponible. La biomasse a produit les 40 % restants de l’électricité nécessaire au chauffage de la maison. « Pendant toute la saison de chauffage, l’énergie solaire prédomine dans la fourniture d’énergie, la production d’énergie à partir de la biomasse intervenant lorsque cela est nécessaire pour combler le déficit énergétique », a déclaré le co-auteur Lei Xu. Ils ont créé leur modèle de simulation dans TRNSYS (abréviation de transient system simulation tool), un logiciel modulaire de système thermique utilisé pour évaluer les performances des systèmes d’énergie renouvelable thermiques et électriques. La simulation de leur système hybride comprenait, entre autres, un capteur PV/T, une pompe à chaleur, un réservoir de stockage avec un échangeur de chaleur à tube spiralé immergé, des déviateurs de flux et une chaudière électrique de secours. Selon ces chercheurs, leur système solaire-biomasse pourrait répondre aux demandes de chauffage et de refroidissement d’un petit bâtiment commercial ou d’habitation Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| La course au record du rendement de conversion des rayons solaires en électricité par une cellule photovoltaïque est loin de s’être terminée. L’une après l’autre, des équipes de chercheurs annoncent des résultats toujours meilleurs après avoir réussi à améliorer, par l’un ou l’autre artifice, la conception des modules solaires. Après les Anglais d’Oxford PV et les Allemands du Centre Helmholtz de Berlin (HZB), ce sont maintenant leurs confrères de l’Institut Fraunhofer pour l’énergie solaire qui annoncent l’atteinte d’un nouveau record d’efficacité pour une cellule photovoltaïque tandem à quatre jonctions : 47,6 %. Le record précédent pour une cellule multi-jonction était de 46,7 %. Cette performance remarquable a été obtenue avec une lumière solaire concentrée vers la cellule par des lentilles, le facteur de concentration étant de 675. La technologie photovoltaïque, qui combine la filière multi-jonction et la technique de concentration, est la plus efficace au monde. Les cellules multi-jonctions ont été développées pour des applications spatiales. Elles sont composées de plusieurs couches minces qui permettent de mieux exploiter le spectre solaire et ainsi d’augmenter l’efficacité des modules. Quant aux panneaux à concentration, ils sont composés de dispositifs optiques tels que des lentilles, lesquelles concentrent les rayons solaires vers les cellules. On peut ainsi réduire la surface de ces cellules "sophistiquées", relativement chères, et abaisser leur coût. Avec cette technologie, il est possible de dépasser les limites des cellules solaires à jonction unique. Article rédigé par Georges Simmonds pour RT Flash Fraunhofer | | | |
| Avez-vous déjà entendu parler des zéolithes ? Ou des sels hydrates ? A en croire Simona Bennici, chercheuse à l’Institut des sciences des matériaux de Mulhouse (IS2M), ces matériaux au nom barbare ont en commun la curieuse propriété de pouvoir capter chimiquement de la chaleur, pour la relâcher ensuite sur commande. Une aubaine énergétique qui pourrait permettre, par exemple, de capter la chaleur en journée ou l’été, pour la relâcher dès l’arrivée du froid, nocturne ou hivernal. Pour faire monter en maturité cette technologie, dite de stockage de la chaleur par voie thermochimique, Simona Bennici a travaillé avec l’entreprise Réseaux de chaleur urbains d’Alsace (RCU-A) dans le cadre du dispositif de recherche partenariale "Carnot Mica". Probantes, les premières données récoltées sur un démonstrateur, installé en juin 2021, permettent d’envisager un futur test grandeur nature. « Le principe est simple : un matériau solide accumule de la chaleur lorsqu’on le déshydrate et la restitue quand on le réhydrate, au cours d’une réaction exothermique », résume Simona Bennici. Un schéma limpide, qui cache une complexité de mise en œuvre redoutable, à laquelle s’attaque la chercheuse. Car une fois le matériau identifié pour ses propriétés d’accu mulateur de chaleur, encore faut-il garantir sa durabilité, ses capacités à fonctionner rapidement (conductivité thermique et cinétique d’hydratation) et imaginer les dispositifs adéquats pour le brancher à une source de chaleur. « Des sels comme le sulfate de magnésium, par exemple, risquent de former très vite une croûte en surface qui empêche la diffusion des molécules d’eau dans l’ensemble de la matière active et donc réduit la capacité de stockage », décrit la chercheuse. « Le but est alors de disperser la matière dans une matrice à la fois poreuse et conductrice de la chaleur, comme le biochar, pour améliorer l’efficacité du procédé ». Pour son premier démonstrateur, la chercheuse a fait le choix des zéolithes, un type de matériau cristallin poreux de la famille des aluminosilicates. Produit aussi bien sous forme naturelle que synthétique, il est déjà présent dans de nombreux domaines industriels. Proportionné à échelle industrielle afin de pouvoir nourrir les modèles numériques en données crédibles, le pilote est composé d’une colonne de 0,5 mètre, emplie de 5 kg de matériau actif (pour une capacité de stockage de 0,22 kilowatt-heure/kg). « Cela permet de stocker la chaleur de 90°C jusqu’à plus de 150°C, ce qui est la température typique des capteurs solaires placés sur les maisons particulières », décrit Simona Bennici. Autre avantage : le système thermochimique permet de libérer la chale ur sur demande. « Il suffit de jouer avec le pourcentage d’humidité injecté et le débit de l’air pour choisir la température », explique la chercheuse. Le stockage thermochimique, sur lequel se penchent de nombreux laboratoires dans le monde, pourrait donc changer la donne et permettre de stocker les calories perdues partout, pour longtemps. Répondre aux besoins hivernaux d’une maison basse consommation à Chambéry, par exemple, nécessiterait autour de deux mètres cubes de zéolithes. Soit l’équivalent d’un gros frigo. Toujours en collaboration avec Réseaux de chaleur urbains d’Alsace, l’équipe de recherche prévoit maintenant un premier pilote industriel, au sein duquel des modules de stockage viendraient remplacer les chaudières à gaz utilisées en appoint pour répondre aux besoins de chaleur lors des pics de demande. « Aujourd’hui, il y a des systèmes de ballons d’eau tampons, mais leurs volumes sont importants et cela ne convient pas pour un stockage à long- terme car malgré l’isolation, la température descend dans les 24 heures », pointe Simona Bennici. « Un système comme le nôtre conserve la chaleur aussi longtemps que nécessaire ». Article rédigé par Georges Simmonds pour RT Flash L'Usine Nouvelle | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Le centre culturel Sara qui, avec ses vingt étages, s'élève à 75 m de haut, et qui porte le nom d'un auteur suédois populaire, a ouvert ses portes en septembre dernier. C'est une structure en bois de plus qui orne les rues de Skellefteå, une ville qui s'attaque un peu plus à la crise climatique, à chaque fois qu'un nouvel édifice sort de terre. « Tout le monde pensait que nous étions un peu fous de proposer un tel bâtiment en bois » explique Robert Schmitz, l'architecte à l'origine du projet. « Mais nous étions pragmatiques et nous nous sommes dit que si l'on ne pouvait pas tout faire dans ce matériau, on pouvait au moins en faire une partie de cette manière », raconte-t-il avant d'ajouter : « Mais au fur et à mesure du processus de conception, nous avons tous conclu qu'il était plus efficace de tout construire en bois ». Le centre culturel abrite six scènes de théâtre, une bibliothèque, deux galeries d'art, un centre de conférences et un hôtel de 205 chambres. Le tout a été bâti à partir de plus de 12 000 m³ de bois récoltés dans des forêts situées à seulement 60 km de la ville. Cette conception s'inscrit dans le cadre d'un effort plus large déployé à Skelleftea pour détourner le secteur local du bâtiment des matériaux nuisibles à l'environnement. Selon le Programme des Nations Unies pour l'environnement, les travaux de construction ont été responsables, pour la seule année 2015, de plus de 38 % des émissions carbone dans le monde liées à l'énergie. La production de ciment, par exemple, est le plus grand émetteur industriel de CO2 au monde. En revanche, le bois séquestre le dioxyde de carbone, le retire de l'atmosphère et le stocke définitivement. Les promoteurs du Centre culturel Sara, la deuxième plus haute tour en bois au monde, affirment que le gratte-ciel piégera 9 millions de kg de CO2 au cours de sa vie utile. Mais le bâtiment est durable à plus d'un titre. Il est également doté de panneaux solaires capables de l'alimenter en électricité et de stocker l'énergie excédentaire au sous-sol. Selon ses concepteurs, le centre culturel peut “communiquer” avec les structures voisines et distribuer le surplus d'énergie en fonction des besoins. « Il analyse la consommation d'énergie du bâtiment et peut prendre des décisions sur la façon dont il doit être alimenté en fonction des niveaux d'énergie disponibles », explique Patrik Sundberg, responsable de l'unité commerciale de la société locale d'énergie Skellefteå Kraft. Il affirme qu'au fil du temps, le gratte-ciel “apprendra” quels sont les besoins énergétiques du bâtiment. “Nous avons un système d'intelligence artificielle pour l’aider à prendre ces décisions chaque minute, 24 h sur 24 et 7 jours sur 7 », précise-t-il. La construction en bois n'a rien de nouveau à Skellefteå. La ville s'est appuyée sur l'abondance des forêts aux environs pour construire ses bâtiments dès le XVIIIe siècle. Qu'il s'agisse d'un impressionnant pont en bois traversant la rivière locale ou d'un parking de trois étages plus récent dans le centre-ville, chaque édifice donne l'impression d'avoir été construit à partir des arbres qui entourent Skellefteå. Dans la plupart des cas, c'est effectivement ce qui a été fait. Et comme la population de la ville est appelée à croître dans les années à venir - de 72 000 à 80 000 habitants d'ici à 2030 -, les habitants tiennent à perpétuer cette tradition verte pour la nouvelle génération. Article rédigé par Georges Simmonds pour RT Flash Sara | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Cette étude réalisée par l'Institut Américain de Recherche sur les Acides Gras (FATI) sur 1 490 participant sans démence, âgés de plus de 65 ans, montre que les personnes ayant un niveau élevé d'Omega-3 dans le sang réduisent de moitié leurs risques de développer la maladie d'Alzheimer, par rapport à celles ayant des niveaux inférieurs. L'étude, dirigée par le Docteur Aleix Sala-Vila préconise une supplémentation d'oméga-3 DHA, en particulier pour ceux qui portent le gène ApoE4 (qui double approximativement la susceptibilité d'un individu à développer un Alzheimer), pour prévenir le développement de la maladie. Un tel régime, peu coûteux et à faible risque, « pourrait potentiellement faire économiser des milliards en coûts de soins de santé », selon l'étude... Article rédigé par Georges Simmonds pour RT Flash Medical Xpress | | | |
| Chez les mammifères, la perception des odeurs est assurée par des millions de neurones olfactifs, localisés au niveau de la muqueuse de la cavité nasale. Ces neurones possèdent à leur surface des récepteurs capables de se lier spécifiquement à une molécule odorante. Chacun des neurones olfactifs n’exprime qu’un seul gène codant pour un récepteur olfactif, choisi parmi un répertoire d’environ 450 chez l’humain et 1,200 chez la souris. Lorsqu’une molécule volatile est reconnue par un récepteur, celui-ci est activé et génère un signal transmis au bulbe olfactif dans le cerveau, un signal qui se traduit ensuite en une odeur. Le système olfactif répond à des environnements très variables et doit pouvoir s’adapter très rapidement. Par exemple, lors d’une stimulation en continu par certaines molécules odorantes, l’intensité perçue diminue progressivement pour parfois finalement disparaître. A l’Université de Genève, le groupe du Professeur Ivan Rodriguez du Département de génétique et évolution de la Faculté des sciences, en collaboration avec celui du Professeur Alan Carleton du Département des neurosciences fondamentales de la Faculté de médecine, s’intéresse aux mécanismes adaptatifs des neurones, et en particulier des neurones olfactifs chez la souris. Dans une étude précédente, les scientifiques avaient découvert qu’après la stimulation d’un récepteur par une molécule odorante pendant moins d’une heure, l’expression du gène codant pour ce récepteur diminuait dans le neurone, indiquant un mécanisme d’adaptation très rapide. Les biologistes ont poursuivi cette approche et ont exploré la possibilité que cette adaptation à une expérience olfactive n’affecte pas seulement le gène codant pour le récepteur, mais également d’autres gènes. Pour ce faire, le profil des gènes exprimés avant et après stimulation olfactive, a été déterminé dans des milliers de neurones olfactifs en séquençant leurs ARN messagers (les molécules permettant par la suite la production des protéines). « A notre grande surprise, nous avons constaté qu’au repos, c’est-à-dire dans un environnement sans stimulation, les profils des ARN messagers des populations de neurones sensoriels olfactifs de la souris sont déjà très différents les uns des autres, et sont spécifiques au récepteur olfactif qu’ils expriment », rapporte Luis Flores Horgue, doctorant au Département de génétique et évolution et co-premier auteur de l’étude. Les neurones exprimant le même récepteur ne partagent donc pas uniquement ce récepteur mais se distinguent également par l’expression de centaines d’autres gènes. Des gènes dont le niveau d’expression semble être dirigé par le récepteur olfactif exprimé, qui jouerait donc un double rôle. Les biologistes ont ensuite analysé l’expression des gènes dans ces neurones après stimulation par des molécules odorantes. Ils ont observé que celles-ci induisent des changements massifs de l’expression de gènes dans les neurones activés. « Alors qu’on pensait que la liaison d’une molécule odorante entraînerait uniquement l’activation du récepteur correspondant, on découvre que les neurones olfactifs changent drastiquement d’identité en modulant l’expression de centaines de gènes après activation. Et cette nouvelle identité est à nouveau dépendante du récepteur exprimé. Nous faisons face à un mécanisme d’adaptation inattendu, massif, rapide et réversible », explique Ivan Rodriguez, co-dernier auteur de l’étude. Ces travaux révèlent ainsi que les neurones olfactifs ne sont pas à considérer comme des senseurs passant simplement d’un état au repos à un état stimulé, mais que leur identité est en évolution permanente, non seulement en fonction du récepteur exprimé mais aussi en fonction des expériences passées. Cette découverte ajoute un niveau supplémentaire à la complexité et à la flexibilité du système olfactif. Article rédigé par Georges Simmonds pour RT Flash UNIGE | | | |
| Les récepteurs neuronaux présents à la surface (membrane) des neurones sont des protéines essentielles au système nerveux central. Véritables serrures du fonctionnement des neurones, leur ouverture ou stimulation par l’interaction avec un ligand spécifique, appelé neurotransmetteur, déclenche une série d’effets physiologiques. Parmi les récepteurs neuronaux, ceux qui réagissent avec la sérotonine (5-HT) sont impliqués dans une grande variété de fonctions cérébrales comme le sommeil, la mémoire, l’appétit, l’humeur. Leur dysfonctionnement est à l’origine de nombreux troubles du système nerveux central. La sérotonine peut activer sept classes de récepteurs distincts, de 5-HT1 à 5-HT7, eux-mêmes divisés en sous-types. La synthèse de ligands spécifiques de ces récepteurs, molécules synthétiques capables d’inhiber (antagoniste) ou imiter (agoniste) l’action de la sérotonine, présente un énorme intérêt, tant pharmacologique que thérapeutique. Le récepteur 5-HT7, qui appartient à la superfamille des récepteurs couplés aux protéines G, est le plus récent des récepteurs identifiés. Bien que les fonctions physiologiques du récepteur 5-HT7 ne soient pas totalement connues, il est devenu une cible prometteuse pour le traitement de nombreuses pathologies telles que les troubles de l’humeur, l’anxiété ou la schizophrénie et il intervient dans le circuit de la douleur. Si certains ligands antagonistes ont montré des effets bénéfiques pour le traitement des troubles mentaux et cognitifs, les agonistes, nécessaires à la prise en charge de la douleur sont peu spécifiques ou leur biodisponibilité est insuffisante. Grâce à un vaste programme de synthèse de nouveaux ligands du récepteur R5-HT7, une équipe internationale, associant de chercheurs du CNRS, de l’Université Tokohu (Japon) et de l’Institut de Pharmacologie Krakow (Pologne), ont identifié une molécule qu’ils ont nommée la Serodolin et qui agit comme un agoniste biaisé. Par une approche multi-échelle basée sur des études moléculaires et cellulaires (BRET, Alphascreen), associées à des études biochimiques, immunohistochimiques et comportementales, les chercheurs ont pu montrer que la Serodolin induit l’activation du récepteur par un nouveau mécanisme. De plus, ils ont montré le potentiel thérapeutique de la Serodolin avec une efficacité proche de la morphine dans plusieurs modèles précliniques. Ces travaux ouvrent de nouvelles perspectives pour le traitement des douleurs nociceptives et une alternative aux traitements actuels. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| L'application d'un courant électrique de faible intensité pourrait permettre d'accélérer la guérison de plaies cutanées, comme les ulcères du pied dont souffrent certains diabétiques, montrent des travaux réalisés à l'Université Laval. L'équipe des professeurs Mahmoud Rouabhia, de la Faculté de médecine dentaire, et Ze Zhang, de la Faculté de médecine, a constaté, lors d'expériences en laboratoires, que l'électricité a un effet positif sur la prolifération et la migration de fibroblastes normaux, des cellules qui jouent un rôle important au début du processus de cicatrisation. Notre but, c'est d'aider ces patients qui ont des ulcères ouverts et qui n'arrivent pas à guérir, a résumé le Professeur Rouabhia, pour qui cette découverte représente l'aboutissement d'une dizaine d'années de travaux. En comparant des fibroblastes prélevés chez des sujets sains aux fibroblastes prélevés chez des sujets diabétiques qui avaient été amputés d'un pied, les chercheurs ont constaté qu'un courant électrique de 20 ou de 40 millivolts/mm était sans effet sur les cellules saines. En revanche, il semblait favoriser la prolifération et la migration des fibroblastes des sujets diabétiques. Le niveau d'un marqueur de prolifération des fibroblastes, la protéine Ki-67, était trois fois plus élevé lorsque les cellules étaient soumises à une stimulation électrique. De plus, une déchirure pratiquée sur la culture cellulaire se refermait deux fois plus rapidement sous stimulation électrique. Les chercheurs admettent ne pas comprendre pourquoi les cellules provenant de diabétiques réagissent mieux que les cellules de donneurs sains, mais ils ont une hypothèse. Il faut réaliser que ces cellules de personnes diabétiques sortent d'un certain nombre de stress, a souligné le Professeur Rouabhia. Ce stress-là, par exemple, c'est la production de plusieurs molécules pro-inflammatoires. Ce sont ces molécules-là qui maintiennent la blessure ouverte. Est-ce que cette différence-là fait en sorte que ces cellules-là elles étaient pas mal stressées, donc elles répondent plus rapidement et à des doses plus faibles ? C'est une hypothèse et ça nous amène à travailler un peu plus. L'intensité du courant électrique requise pour stimuler la guérison est si faible qu'elle pourrait être générée par un petit appareil que le patient aurait avec lui en tout temps et qui serait alimenté par une simple pile. Le courant est aussi essentiellement imperceptible, ce qui élimine tout inconfort. Les professeurs Rouabhia et Zang ont d'ailleurs déposé une demande de brevet pour un appareil de stimulation électrique qui pourrait accélérer la guérison des ulcères. L'appareil en forme d'anneau stimulerait les cellules qui se trouvent autour de la plaie à migrer vers le centre, de manière à favoriser la cicatrisation. On estime qu'environ 15 % des personnes diabétiques souffriront d'un ulcère du pied au cours de leur vie. Ce problème est caractérisé par des lésions de la peau qui cicatrisent mal et il risque d'entraîner des infections qui peuvent conduire à l'amputation. Les chercheurs n'excluent pas que le même processus puisse éventuellement venir en aide aux personnes non diabétiques, mais qui ont quand même des problèmes de cicatrisation. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| À chaque instant, le cerveau reçoit des informations sensorielles qu'il doit fusionner (intégrer) ou différencier (dissocier). Un cerveau qui voit un oiseau et entend son chant déduit, par intégration multisensorielle, que ces deux stimulations ont une cause unique (par inférence causale). À l'inverse, un cerveau qui voit un chat et entend simultanément un oiseau, doit dissocier les informations visuelles et auditives en deux représentations distinctes. D'où vient cette capacité à attribuer une représentation à deux sources sensorielles, qui ont ou non la même origine ? Les neurobiologistes avancent l'hypothèse que notre cerveau est bayésien. En permanence, il évalue la probabilité des différentes causes possibles de ce qu'il est en train d'observer. Dans l'exemple de l'oiseau, il attribue la probabilité la plus forte à la proposition « le chant et l'image d'oiseau proviennent du même animal », ce qui le conduit à retenir cette hypothèse. Cette approche bayésienne a cependant l'inconvénient d'être statique et de ce fait, les mécanismes neuronaux qui permettent d'intégrer ou de dissocier des informations lors de l'analyse de scènes complexes restent largement inconnus. Comment notre cerveau s'adapte-t-il aux conflits spatio-temporels (« je vois un chat en même temps que j'entends un oiseau ou encore j'entends un oiseau avant de le voir ») ? Un certain nombre de données montrent que l'intégration multisensorielle est d'autant plus performante que les signaux d'entrée sont corrélés dans le temps et dans l'espace. Un algorithme dynamique, appelé "détecteur de corrélations multisensorielles" pourrait constituer un bon modèle d'intégration des informations par les neurones (via une inférence causale) et de ségrégation (via un ordre temporel). Une équipe de NeuroSpin a voulu tester les deux dynamiques neuronales prédites par le modèle qui expliquent respectivement l'intégration et la ségrégation des signaux multisensoriels. Pour cela, elle a développé des tests combinés à une neuroimagerie non invasive à haute résolution temporelle (magnétoencéphalographie ou MEG). Les participants devaient juger si des séquences de signaux auditifs et visuels provenaient de la même source (inférence causale) ou si une modalité sensorielle précédait l'autre (ordre temporel). Durant toute la durée de la tâche, leur activité cérébrale était enregistrée par MEG. Les chercheurs confirment que le détecteur de corrélation multisensorielle explique bien les jugements d'inférence causale et d'ordre temporel. Ils constatent une forte adéquation entre l'activité cérébrale dans les cortex temporo-pariétaux et le détecteur de corrélation multisensorielle. Ils décrivent une asymétrie dans la qualité de cette adéquation, qui est meilleure pendant la tâche d'inférence causale que pendant la tâche de jugement de l'ordre temporel. Dans l'ensemble, les résultats suggèrent l'existence d'un détecteur de corrélations multisensorielles dans le cerveau humain, ce qui explique comment et pourquoi l'inférence causale est déterminée par la corrélation temporelle des signaux multisensoriels. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Une vaste étude chinoise, réalisée par des chercheurs de la Jinan University, à Guangzhou, sur 171 000 britanniques en bonne santé, suivis pendant dix ans, a confirmé que la consommation régulière de café pouvait réduire les risques de mortalité toutes causes. La plus grande réduction, un risque de décès de 29 % inférieur, a été observée chez ceux qui buvaient entre 2,5 et 4,5 tasses par jour. Des réductions du risque de décès ont également été observées pour le café sucré avec du sucre, du moins pour ceux qui boivent entre 1,5 et 3,5 tasses par jour. Après avoir pris en compte des facteurs tels que l’âge, le sexe, l’origine ethnique, le niveau d’éducation, le statut de fumeur, la quantité d’activité physique, l’indice de masse corporelle et le régime alimentaire, l’équipe a constaté que, par rapport à ceux qui ne buvaient pas de café, les personnes qui consommaient du café non sucré avaient le plus faible risque de décès. Ces recherches sont cohérentes avec deux autres études américaines récentes. La première a examiné les données de 382 535 participants exempts de maladie cardiaque connue et suivis durant dix ans. La consommation de 2 à 3 tasses de café par jour est associée au plus grand bénéfice, se traduisant par une diminution de 10 à 15 % du risque de maladie coronarienne, d’insuffisance cardiaque, d’arythmie ou de décès toutes causes. La deuxième étude est menée auprès de 34 279 participants avec maladie cardiovasculaire. L’analyse montre que la consommation de 2 à 3 tasses de café par jour est associée à un risque réduit de décès contre l’absence de consommation café ; la consommation de café, quelle que soit la quantité, ne s’avère pas as sociée à un risque plus élevé de troubles du rythme cardiaque. Article rédigé par Georges Simmonds pour RT Flash AIM | | | |
| La stimulation cérébrale non invasive pourrait constituer une nouvelle option efficace pour aider les fumeurs à arrêter, suggère cette nouvelle revue systématique, menée à l’Hôpital universitaire de Dijon. La méta-analyse, publiée dans la revue Addiction, révèle que la thérapie permet des taux d’abstinence tabagique significatifs, 3 à 6 mois après l’arrêt du tabac. Ces dernières années, la stimulation cérébrale non invasive a fréquemment été documentée comme une nouvelle option thérapeutique pour gérer les troubles liés à la consommation d’alcool et la toxicomanie et la dépendance à d’autres substances. La méta-analyse confirme l’intérêt de la thérapie, y compris pour le sevrage tabagique, avec de premières données sur l’abstinence à plus long terme. L’équipe française a mené une revue des essais contrôlés randomisés portant sur l’utilisation de la stimulation cérébrale non invasive, chez des fumeurs adultes cherchant à arrêter de fumer, avec un suivi de plus de 4 semaines. La méta-analyse a combiné les données des 7 essais sélectionnés, portant sur un total de 699 patients. Tous les essais retenus avaient été conçu avec un groupe témoin, ayant reçu une stimulation fictive. L’analyse révèle que les fumeurs qui reçoivent une stimulation cérébrale ont 2,39 fois plus de "chance" de parvenir à une abstinence tabagique à long terme vs les fumeurs qui reçoivent une stimulation placebo ; cet avantage est variable selon les différents types de stimulation utilisés (la stimulation transcrânienne à courant continu (tDCS) ou la stimulation magnétique transcrânienne (TMS). L’auteur principal, le Docteur Benjamin Petit, commente ces résultats : « S’il s’agit d’une revue modeste, avec un faible niveau de fiabilité et une forte variabilité des données entre les différents essais, les résultats suggèrent l’intérêt de la stimulation cérébrale non invasive dans le sevrage tabagique, avec des bénéfices à court et à long terme ». Article rédigé par Georges Simmonds pour RT Flash Addiction | | | |
| Une équipe de l'Hôpital universitaire de Zurich, dirigée par Pierre-Alain Clavien, professeur au Département de chirurgie, a montré qu'il est possible de conserver pendant trois jours un foie dans une machine de perfusion avant de le transplanter. Le foie en question avait été rejeté par tous les centres de transplantation. Un an après, le receveur se porte bien. L'équipe de Pierre-Alain Clavien, dans le cadre du projet "Liver4Life" chapeauté par le Centre Wyss pour la médecine translationnelle, les chercheurs, avait déjà montré il y a deux ans qu'il est possible de maintenir en vie un foie pendant sept jours dans cette machine qui imite les fonctions du corps humain. Actuellement, la fenêtre pour une transplantation du foie est très courte, de l'ordre de douze heures. Dans le cas présent, il s'agit d'un foie endommagé mis à disposition par une donneuse de 29 ans le 19 mai 2021 et rejeté par tous les centres de transplantation car jugé de qualité insuffisante. Les chercheurs l'ont mis dans leur machine, l'ont traité avec des médicaments - antibiotiques et hormonaux notamment - avant de le greffer le 21 mai 2021 chez un patient souffrant d'un cancer du foie très avancé et qui était sur liste d'attente. Douze jours plus tard, le bénéficiaire est sorti de l'hôpital et actuellement, il est en bonne santé. « Je suis très reconnaissant pour cet organe qui m'a sauvé la vie ; vu la progression rapide de ma tumeur, j'aurais eu peu de chances de recevoir un foie via la liste d'attente dans un délai utile », commente le patient, cité dans un communiqué de l'USZ. Cette machine développée par les chercheurs zurichois pourrait donc permettre d'atténuer le manque d'organes à disposition, selon les auteurs. La fenêtre d'opportunité pourrait être étendue dans le futur jusqu'à dix jours, estiment-ils. Des études plus poussées avec davantage de patients doivent toutefois encore être menées. Article rédigé par Georges Simmonds pour RT Flash Technology Review | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|