| | | | | | | Edition du 29 Novembre 2019 |
| |
|
| Edito Reboiser la planète et maintenir la biodiversité de la forêt : un défi mondial pour l'avenir de l’Humanité
Rappel : Si vous voulez que RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998, puisse continuer à être mise en ligne chaque semaine en 2021 appuyez sur le lien suivant: Faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale EDITORIAL : Comme je vous l’avais annoncé dans mon éditorial du 15 novembre dernier (Voir Edito) je souhaite, cette semaine, approfondir un aspect absolument fondamental du changement climatique en cours, mais pourtant encore souvent trop sous-estimé : le rôle-clé de la végétation et notamment des forêts. En 2015, une équipe internationale de chercheurs, emmenée par l'Université de Yale, a tenté de répondre à une question difficile que les scientifiques se posaient depuis longtemps : Combien d'arbres y a-t-il précisément sur la Terre ? (Voir Yale). Voici la réponse : 3.041.173.150.000, c'est à dire un peu plus de 3000 milliards, répartis sur environ 4 milliards d’hectares, soit une densité moyenne de 750 arbres par km2 de forêt. Si l'on considère qu'il y a 7,7 milliards d'habitants sur Terre, cela veut dire que l'on compte, en moyenne, 390 arbres pour chaque être humain. Le résultat de cette évaluation est surprenant, car il aboutit à un chiffre presque huit fois plus important que l'estimation courante de 400 milliards d’arbres qui était, jusque là, la plus communément admise. Pour parvenir à ce chiffre de 3000 milliards, ces scientifiques ont eu recours à une panoplie d’outils très sophistiqués : ils ont combiné les images satellites et plus de 400.000 relevés de terrain récupérés auprès d'organisme nationaux ou dans la littérature scien tifique. Avec l’aide d’un modèle informatique très puissant, ils ont ainsi pu associer à chaque pixel d'un km de côté une densité d'arbre dépendant à la fois du type de végétation (forêt tropicale, forêt tempérée, etc.) et des multiples facteurs locaux (température moyenne, pente, etc.). Cette étude a également permis de remettre en cause certaines idées reçues, en montrant que, si les zones tropicales et subtropicales concentrent près de la moitié des arbres de la planète (43 %), c’est dans les régions boréales que l’on trouve les forêts les plus denses. Quant au pays qui compte, de loin, le plus d’arbres, ce n’est pas le Brésil, comme on pourrait s’y attendre, mais la Russie, qui concentre à elle seule plus du cinquième des arbres de la planète … Cette étude est particulièrement précieuse car elle permet pour la première fois de prendre conscience de la richesse de l’extraordinaire « patrimoine vert » de l’Humanité et de sa répartition sur les cinq continents. Il y a quelques semaines, des chercheurs du Crowter Lab ont tenté, quant à eux, d’étudier les effets de la reforestation au niveau mondial pour atténuer les effets du changement climatique. Pour la première fois, ils ont dressé un inventaire et une carte précise des régions où les différentes espèces d’arbres pourraient être plantées ou replantées. Ils ont également réussi à évaluer quelle quantité de carbone ces arbres pourraient stocker (Voir Science). Leurs conclusions sont que, compte tenu des conditions climatiques actuelles, il faudrait parvenir à atteindre les 4,4 milliards d’hectares d’arbres pour atténuer de manière décisive les effets du réchauffement climatique. Cette surface totale boisée représente 1,6 milliard d'hectares en plus des 2,8 milliards d’hectares de forêts actuels. L’étude précise également que, sur ces 1,6 milliard d’hectares, 900 millions pourraient être affectés à la reforestation, sans prendre sur les terres agricoles et les espaces urbains. Cela signifie qu’il existe au niveau mondial une superficie de la taille des États-Unis disponible pour la reforestation. Mais les conclusions les plus intéressantes de cette étude sont que ces 900 millions d’hectares de forêts pourraient stocker un peu plus de 200 milliards de tonnes de carbone, ce qui représente 20 ans d’émissions mondiales de CO2 au niveau actuel et les deux tiers des 300 milliards de tonnes de carbone libérées par l’homme dans l’atmosphère depuis la révolution industrielle. L’étude précise enfin que sept pays représentent, à eux seuls, plus de la moitié de cette « réserve verte ». Il s’agit de la Russie, avec 151 millions d’hectares reforestables, des États-Unis (103 millions d’hectares), du Canada (78,4 millions), de l’Australie (58 millions), du Brésil (49,7 millions), et enfin de la Chine (40,2 millions). Rappelons que ce puissant et indispensable levier de la protection des forêts existantes et de la reforestation est expressément prévu par l’accord de Paris de décembre 2015, qui rappelle, en s’appuyant sur les travaux du GIEC, qu’il sera impossible, quels que soient les efforts déployés par ailleurs en matière de maîtrise énergétique et de développement des énergies renouvelables, de maintenir le réchauffement en cours en dessous de la barre des deux degrés, sans le concours actif et irremplaçable de la nature et des forêts. Cette étude souligne avec force que « la restauration des écosystèmes que peuvent supporter les arbres est notre meilleure arme actuelle de lutte contre le changement climatique ». Heureusement, depuis quelques années, les initiatives de reboisement se multiplient, à commencer par le fameux « défi de Bonn », lancé en 2011 et qui se donne pour objectif de planter 350 millions d’hectares d’ici à 2030. Cette action est un effort mondial lancé par les Nations unies et l'Allemagne, visant à restaurer au moins d'ici 2020 150 millions d'hectares de paysages forestiers sur des terres dégradées et déboisées. En 2014, la Déclaration de New York sur les forêts (lors du Sommet sur le climat de 2014) a ajouté à cet objectif 200 millions d’hectares supplémentaires à boiser avant 2030. Ce défi de Bonn, dans sa version élargie, a été approuvé par plus de 100 gouvernements, organisations de la société civile et organisations autochtones et entreprises priv& eacute;es (UNASYLVA, 2014). L'objectif est donc désormais de reboiser 350 millions d’hectares avant 2030. Il faut rappeler également que 26 pays africains se sont engagés, avec l’initiative AFR100 à restaurer au total, dans le cadre du défi de Bonn, 100 millions d’hectares de forêts dégradées d’ici 2030. C’est dans ce contexte qu’une récente étude réalisée par la NASA, à partir d'une analyse fine des images satellite de la Terre, a montré, de manière surprenante, que la Chine et l’Inde - les pays les plus peuplés du monde - sont à présent en tête de l’augmentation du verdissement terrestre. Cette situation résulte des programmes ambitieux de plantation d’arbres en Chine et d’une agriculture intensive dans les deux pays. Cette étude menée par le Professeur Ranga Myneni de l’Université de Boston avait détecté il y a déjà une vingtaine d’années ce phénomène de verdissement, en analysant les images satellitaires, mais il a été longtemps très difficile de savoir si ce « reverdissement » surprenant était bien dû à l’activ ité humaine. Mais à présent, il ne fait plus de doute que la superficie mondiale de feuilles vertes a bien augmenté de 5 % depuis le début des années 2000, une superficie équivalente à celle de toutes les forêts tropicales amazoniennes. Selon ces travaux, au moins 25 % de ce gain sont venus de Chine. La Chine et l’Inde représentent un tiers de l’écologisation, bien qu’ils ne représentent que 9 % de la superficie terrestre de la planète recouverte de végétation (Voir NASA). Cette étude d’une précision sans précédent a été rendue possible grâce aux données recueillies pendant deux décennies par les instruments à spectroradiadiomètre d’imagerie à résolution moyenne (MODIS) sur les satellites Terra et Aqua de la NASA. L’outil MODIS permet une couverture spatio-temporelle de haute précision, grâce à ses capteurs qui ont balayé quatre fois par jour pendant vingt ans toutes les régions du Globe. Comme le souligne Rama Nemani, chercheur au centre de recherche Ames de la NASA et co-auteur de l’étude, « Lorsque le verdissement de la Terre a été observé pour la première fois, nous pensions que cela était dû à un climat plus chaud et plus humide et à la fertilisation résultant de l’addition de dioxyde de carbone dans l’atmosphère. Maintenant, avec les données MODIS, nous voyons que les humains y contribuent également ». L’étude précise qu’une autre tranche de 32 % du changement de verdissement en Chine et de 82 % en Inde provient de la culture intensive de cultures vivrières. En effet, bien que les surfaces agricoles exploitées soient à peu près équivalentes depuis le début de ce siècle, les deux géants asiatiques ont considérablement augmenté leur surfac e annuelle totale de feuilles vertes et leur production alimentaire afin de nourrir leurs trois milliards d’habitants. Ce verdissement agricole est notamment le résultat d’une évolution des modes de cultures qui s’est traduit par une hausse moyenne d’un tiers de la production de céréales, de légumes, de fruits depuis 2000 (Voir Nature). Reste que cette végétalisation accrue de la planète est encore loin de compenser entièrement la perte de végétation naturelle dans les régions tropicales, ni les conséquences en matière de biodiversité et d’environnement. En effet, cette biomasse végétale constituée de cultures vivrières ne stocke pas à long terme le carbone et le rejette rapidement dans l'atmosphère. S’agissant plus précisément de la déforestation, l’évaluation des ressources forestières mondiales, qui est coordonnée par la FAO, a permis de déterminer que la superficie forestière était passée de 31,6 pour cent à 30,6 pour cent des terres émergées entre 1990 et 2015, mais que le rythme des pertes s’était ralenti ces dernières années. Pour compenser le nombre d'arbres perdus ces 10 dernières années, il faudrait planter 130 millions d’hectares sur 1,3 million de kilomètres carrés (la taille du Pérou). Cette surface correspond à 10 milliards d'arbres plantés pendant 10 ans. C’est pourquoi les objectifs ambitieux du défi de Bonn sont si importants car, s’ils sont atteints en 2030, ils permettraient de retrouver la surface forestière mondiale de la fin du XXème si ècle. L’Europe doit également participer à cet effort mondial visant à la fois à reboiser et à restaurer des forêts primaires. A cet égard, la récente proposition du botaniste Francis Hallé, publiée dans le « Monde », mérite absolument d’être évoquée et étudiée. Ce scientifique propose un projet d’une ampleur inédite : restaurer sur plusieurs siècles une grande forêt primaire en Europe, d’une surface d’au moins 60 000 hectares. Cet éminent chercheur rappelle que notre continent n’a plus de forêt primaire de plaine depuis 1850, à l’exception notable de la magnifique forêt de Bialowieza, dans l’est de la Pologne – un espace forestier encore totalement préservé de 63 000 hectares. Francis Hallé souligne qu’en revanche, des pa ys comme la Russie, l’Australie, le Canada, les États-Unis et le Chili ont su conserver d’importantes surfaces de ces végétations naturelles qui remplissent un rôle climatique, environnemental et écologique majeur. Ce projet de qui s'étalerait sur plusieurs siècles serait pris en charge par l’ONU et porterait sur une surface d’environ 60 000 hectares. Dans cet espace forestier entièrement protégé, les interventions humaines seraient réduites au minimum. Il n’y aurait ainsi dans ces zones ni chasse, ni récoltes, et les visites y seraient réglementées. A terme, la restauration de cette grande forêt primaire européenne s’accompagnerait du retour de la grande faune forestière (ours, loups, lynx, cerfs, ongulés divers et bisons), avec la densité optimale pour chacune de ces espèces. Ce projet de civilisation, dont notre pays pourrait prendre la tête, permettrait de répondre à la fois au défi climatique et écologique, de restaurer une biodiversité disparue de notre continent et d’offrir à la communauté scientifique un extraordinaire laboratoire naturel d’observation du vivant dans un environnement totalement préservé. Et le moins que l’on puisse dire, c’est qu’un tel projet ne serait pas superflu, car, en dépit d’un effort international pour reboiser et limiter la déforestation, on estime, selon la première étude universelle sur les arbres publiée par le Botanic Gardens Conservation International (BGCI), que, sur les 60.065 espèces d'arbres différentes recensées dans le Monde, 9.600 au moins sont menacées d'extinction, soit 15 % (Voir BGCI). Avec 8.715 espèces, le Brésil est le pays qui compte la plus grande variété d'arbres sur son territoire. Viennent ensuite la Colombie, avec 5.776 espèces différentes, et l'Indonésie, avec 5.142 espèces. L'objectif principal de ce recensement est de préserver les espèces menacées. La base de données & eacute;tablie doit permettre d'évaluer les risques qui pèsent sur chaque espèce d'arbre. Sur 20.000 espèces évaluées jusqu'ici, plus de 9.600 sont menacées d'extinction. Parmi elles, 300 sont en situation très critique, présentant une population de 50 arbres ou moins. A cette perte accélérée de biodiversité forestière, s’ajoute une autre constatation scientifique très préoccupante : la diminution de la capacité de stockage du carbone par les forêts tropicales. Une étude de l'Inra, du CEA, du CNRS et du CNES, publiée fin juillet (à laquelle a participé le climatologue français de réputation mondiale Philippe Ciais), montre en effet que ces forêts, dont le cycle de vie est à présent profondément perturbé par l’excès de CO2 émis par l’homme et le réchauffement accéléré qui en résulte, émettent à présent pratiquement autant de CO2 qu’elles n’en stockent (Voir Nature). Selon ces recherches, qui se sont appuyées sur l'évolution observée des stocks de carbone dans la biomasse aérienne de la végétation de l'ensemble de la zone tropicale sur la période 2010-2017, les stocks de carbone de la végétation produits dans les régions tropicales compensent juste les pertes liées à la déforestation ou aux impacts du climat et les chercheurs précisent que « Les forêts tropicales pourraient même devenir une source de carbone atmosphérique dans un proche avenir, accélérant ainsi le réchauffement global ». Cette étude montre qu’au cours de la période de 7 ans étudiée, les forêts préservées au centre des bassins d'Amazonie et du Congo ont accru leur stock de carbone de 2,97 milliards de tonnes par an (Gt/an), alors que la déforestation et le d&ea cute;périssement a amputé le stock de carbone des forêts tropicales de 2,86 Gt/an, soit un bilan global pratiquement neutre, qui ne compense plus qu’1 % des émissions anthropiques des gaz à effet de serre. Une autre étude publiée début août (Voir Nature) et réalisée par des chercheurs des Universités de Munich (RFA) et Campinas (Brésil) a, pour sa part, intégré le facteur « phosphore » dans son modèle, pour évaluer l’évolution de la capacité de stockage de CO2 de la forêt tropicale amazonienne. Selon ce travail très pointu et inédit, l’apport insuffisant de phosphore dans le sol de cette forêt risque d’entraîner une stagnation de la biomasse produite et de diviser par deux - par rapport aux modèles communément admis et qui n’intègrent pas ce rôle du phosphore dans le sol - la capacité de stockage du CO2 de cette immense forêt. Mais est-il possible d’envisager sérieusement une reforestation massive, sans que cela ne se fasse au détriment des terres cultivables dont le monde va avoir besoin pour nourrir plus de deux milliards d’Humains supplémentaires d’ici 2050 ? Autrement dit, peut-on concilier un reboisement très important pour contrecarrer le changement climatique en cours et une production agricole mondial suffisante pour nourrir correctement 10,5 milliards d’hommes au milieu de ce siècle ? A cette question cruciale, Laurence Roudart, chercheuse à l’Université Libre de Bruxelles) répond positivement. Selon ses travaux très argumentés, et reposant sur l’analyse et la comparaison de trois bases de données, les superficies de terres utilisables en culture pluviale (sans besoin d’irriguer) et non encore cultivées sont très étendues à l’échelle du monde, en particulier en Amérique du Sud et en Afrique sub-saharienne. Cette remarquable étude réalisée en 2009, dont nous avons déjà parlé à plusieurs reprises, montre que, même dans une hypothèse très prudente, l’extension des superficies cultivées (par rapport à 2005) pourrait être d’environ 1000 millions d’hectares dans le monde, étant entendu que ni les terres sous forêts, ni celles peu ou pas conven ables à la culture, ni celles nécessaires aux infrastructures ne seraient alors mises en culture. Contrairement à ce qu’affirment de nombreux discours alarmistes et pessimistes, Il est donc réaliste et envisageable, si une volonté politique forte s’exprime au niveau des états concernés et de la communauté internationale, et en privilégiant l’utilisation des modes de production agricoles vertueux et raisonnés, de multiplier par 1,7 les superficies cultivées, ce qui suffirait largement, même à productivité égale, à nourrir correctement (dans le cadre du scénario « Agrimonde ») toute la population mondiale attendue en 2050 (voir Etude). Il faut enfin souligner que cette compétition entre terres boisées et terres cultivées est sans doute à repenser et sera peut-être demain dépassée (Voir Nature). Une vaste étude publiée en juillet 2016 montre en effet que sur les 22,2 millions de km² de terres agricoles recensées dans le monde, 43 % comportent au moins 10 % de leurs surfaces plantées en arbres, et ce pourcentage ne cesse de progresser. Pour parvenir à cette conclusion, les scientifiques ont analysé, de 2000 à 2010, les images haute résolution du satellite MODIS. Ils ont pu observer ce développement continu de l’agroforesterie, qui s’accompagne d’une forte augmentation d'arbres en terres agricoles dans des pays comme le Brésil, l'Indonésie, la Chine et l'Inde. Résultat : au niveau mond ial, le stockage de carbone par l’agriculture est passé de 45,3 milliards de tonnes en 2000 à 47,37 milliards de tonnes en 2010, soit plus de 2 milliards de tonnes (ce qui représente 6 % des émissions mondiales anthropiques de CO2) de CO2 en moins par an dans l’atmosphère, dont plus de 75 % proviennent des arbres. Alors que le coût de plantation moyen d’un arbre est estimé à quatre euros, on estime que les services écologiques et environnementaux que rendra plus tard ce même arbre auront une valeur d’au moins seize euros par an, quatre fois plus ! L’ensemble de ces études et travaux récents montre donc de manière très convaincante que la protection des forêts tropicales, le reboisement et l’évolution des pratiques agricoles sont indissociables et constituent, de loin, le levier le plus efficace, mais aussi le moins coûteux (ce qui est bien sûr capital pour les pays émergents) pour lutter contre le réchauffement climatique, restaurer la biodiversité qui est en train de se réduire de façon dramatique, améliorer la sécurité alimentaire, la santé et les conditions de vie de plusieurs milliards d’êtres humains. Nous devons absolument prendre conscience de cette réalité et, tout en poursuivant sans faiblir notre transition énergétique, une diminution à la source de nos besoins en énergie et vers le développement massif des énergies renouvelables, nous devons réorienter nos efforts, nos actions économiques et nos décisions politiques, de manière à utiliser pleinement l’immense potentiel qu’offrent la nature et l’environnement, combiné aux nouveaux outils technologiques, robotiques et numériques - car il ne s’agit nullement de revenir au Moyen Age ou de renoncer à cette synergie féconde entre nature et science - , pour permettre que demain, l’Humanité puisse hériter d’une Terre vivable, où les besoins essentiels des hommes seront satisfaits, sans que cela n’entraîne des destructions catastrophiques et irr& eacute;versibles de notre environnement. Comprenons enfin que les combats contre le réchauffement climatique et contre la pauvreté et la malnutrition sont intimement liés et qu’on ne gagnera pas l’un, sans gagner l’autre… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | Un gaz largement utilisé qui est actuellement produit à partir de combustibles fossiles peut être produit par une ”feuille artificielle” qui n’utilise que la lumière du soleil, le dioxyde de carbone et l’eau, et qui pourrait éventuellement être utilisé pour développer un combustible liquide durable en remplacement de l’essence. Cet appareil neutre en carbone établit une nouvelle référence dans le domaine des combustibles solaires, après que des chercheurs de l’Université de Cambridge aient démontré qu’il peut produire directement du gaz – appelé gaz de synthèse – d’une manière simple et durable. Plutôt que de fonctionner avec des combustibles fossiles, la feuille artificielle est alimentée grâce à la lumière du soleil et cela fonctionne encore efficacement par temps nuageux et couvert. Et contrairement aux procédés industriels actuels de production de gaz de synthèse, la feuille ne libère pas de dioxyde de carbone supplémentaire dans l’atmosphère. Les résultats sont publiés dans la revue Nature Materials. Le gaz de synthèse est actuellement fabriqué à partir d’un mélange d’hydrogène et de monoxyde de carbone et est utilisé pour produire toute une série de produits de base, tels que des carburants, des produits pharmaceutiques, des plastiques et des engrais." Vous n’avez peut-être pas entendu parler du gaz de synthèse en soi, mais chaque jour, vous consommez des produits qui ont été créés en l’utilisant. Pouvoir le produire de manière durable serait une étape cruciale dans le cycle mondial du carbone et l’établissement d’une industrie chimique et énergétique durable", a déclaré le professeur Erwin Reisner du département de chimie de Cambridge, qui a consacré sept ans à la réalisation de cet objectif. L’appareil produit par Reisner et ses collègues s’inspire de la photosynthèse – le processus naturel par lequel les plantes utilisent l’énergie de la lumière solaire pour transformer le dioxyde de carbone en nourriture. Sur la feuille artificielle, deux absorbeurs de lumière, semblables aux molécules des plantes qui récoltent la lumière du soleil, sont combinés avec un catalyseur fabriqué à partir de l’élément cobalt naturellement abondant. Lorsque l’appareil est immergé dans l’eau, un absorbeur de lumière utilise le catalyseur pour produire de l’oxygène. L’autre effectue la réaction chimique qui réduit le dioxyde de carbone et l’eau en monoxyde de carbone et en hydrogène, formant le mélange de gaz de synthèse. En prime, les chercheurs ont découvert que leurs absorbeurs de lumière fonctionnent même sous un faible ensoleillement par temps de pluie ou de ciel couvert. "Cela signifie que vous n’êtes pas limité à l’utilisation de cette technologie uniquement dans les pays chauds, ou seulement pendant les mois d’été“, a déclaré Virgil Andrei, doctorant et premier auteur de l’article. "Vous pourriez l’utiliser de l’aube au crépuscule, n’importe où dans le monde". D’autres dispositifs à ”feuilles artificielles” ont également été mis au point, mais ils ne produisent généralement que de l’hydrogène. Les chercheurs de Cambridge affirment que la raison pour laquelle ils ont été en mesure de produire du gaz de synthèse de manière durable est grâce à la combinaison de matériaux et de catalyseurs qu’ils ont utilisés. Il s’agit notamment d’absorbeurs de lumière de perovskite de pointe, qui fournissent une tension et un courant électrique élevés pour alimenter la réaction chimique par laquelle le dioxyde de carbone est réduit en monoxyde de carbone, en comparaison avec les absorbeurs de lumière faits de silicium ou de matériaux sensibles aux colorants. Les chercheurs ont également utilisé le cobalt comme catalyseur moléculaire au lieu du platine ou de l’argent. Le cobalt est non seulement moins coûteux, mais il est aussi plus efficace pour produire du monoxyde de carbone que d’autres catalyseurs. L’équipe cherche maintenant des moyens d’utiliser sa technologie pour produire un carburant liquide durable de remplacement de l’essence. Le gaz de synthèse est déjà utilisé comme élément constitutif dans la production de combustibles liquides. "Ce que nous aimerions faire ensuite, au lieu de produire d’abord du gaz de synthèse et de le convertir ensuite en combustible liquide, c’est de fabriquer le combustible liquide en une seule étape à partir de dioxyde de carbone et d’eau", a déclaré M. Reisner, qui est également Fellow du St John’s College. Bien que de grands progrès soient réalisés dans la production d’électricité à partir de sources d’énergie renouvelables telles que l’énergie éolienne et photovoltaïque, M. Reisner affirme que le développement du pétrole synthétique est vital, car l’électricité ne peut actuellement satisfaire qu’environ 25 % de notre demande énergétique mondiale totale. "Il existe une forte demande de combustibles liquides pour alimenter durablement les transports lourds, le transport maritime et l’aviation", a-t-il déclaré. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | | |
| Des chimistes des universités de l’Alberta et de Toronto ont élaboré le plan d’une nouvelle batterie quantique stable (sans perte progressive de charge). « Une batterie quantique est une batterie minuscule de taille nanométrique, destinée à être utilisée pour des applications à l’échelle nanométrique » explique le chimiste de l’Université d’Alberta, Gabriel Hanna. Cette recherche fournit une démonstration théorique de la possibilité de créer une batterie quantique sans perte de charge, offrant ainsi un avantage par rapport aux batteries quantiques proposées précédemment. « Les batteries avec lesquelles nous sommes plus familiers — comme la lithium-ion qui alimente les smartphones — reposent sur les principes électrochimiques classiques, alors que les batteries quantiques reposent uniquement sur la mécanique quantique ». Ces batteries pourraient devenir un composant important de nombreux dispositifs quantiques, capables d’alimenter des ordinateurs quantiques. En pratique, elles pourraient être construites à l’aide des technologies actuelles. Pour concrétiser leur idée, l’équipe de recherche a envisagé un modèle de réseau quantique ouvert à symétrie structurelle élevée comme plate-forme de stockage d’énergie excitonique — une énergie exploitée lorsqu’un électron absorbe un photon de lumière suffisamment énergétique. À l’aide de ce modèle, ils ont montré qu’il était possible de stocker de l’énergie sans perte, même si elle était ouverte à l’environnement. « L’essentiel est de préparer ce réseau quantique dans ce qu’on appelle un état sombre. Lorsqu’il est dans un état sombre, le réseau ne peut pas échanger d’énergie avec son environnement. En substance, le système devient immunisé contre toutes les influences environnementales. Cela signifie que la batterie est extrêmement résistante aux pertes d’énergie » indique Hanna. À l’aide de ce modèle, les chercheurs ont également suggéré une méthode générale permettant de décharger, à la demande, l’énergie stockée dans la batterie, consistant à rompre la symétrie structurelle du réseau de manière contrôlée. Les recherches futures exploreront des moyens viables de charger et décharger la batterie, ainsi que des moyens de la développer pour une utilisation dans des applications pratiques. Article rédigé par Georges Simmonds pour RT Flash TMS | | | |
| Le CNRS et l'UGA travaillent depuis dix ans sur la question d'électrodes flexibles. Associés à l'Université de San Diego aux États-Unis, les chercheurs grenoblois viennent d'achever une première version de cette technologie intégrée à une pile extensible. Aujourd'hui, pour créer de l'électricité, on utilise habituellement une batterie au lithium-ion, composée de terres rares, et coûteuse pour l'environnement. Le département de Grenoble souhaite plutôt « utiliser des espèces chimiques abondantes sur Terre, comme les sucres, ou encore l'alcool et l'oxygène de l'air », explique Fabien Giroud, enseignant-chercheur à l'UGA et membre de l'équipe de recherche du département de chimie moléculaire, qui associe le CNRS et l'UGA. Mais la pile mise au point à Grenoble se fixe sur le bras et se nourrit de « biocarburant ». En effet, la pile est composée d'enzymes (des protéines présentes dans le vivant) qui vont dégrader des sucres issus de la sueur. « En les dégradant en molécules plus petites, les enzymes vont déclencher une réaction chimique qui permet, en clair, de créer de l'électricité avec du sucre », poursuit le scientifique. Pour aboutir à cette pile qui adhère à la peau, l'équipe de Grenoble s'est associée avec un laboratoire de San Diego. « Leur domaine d'expertise est la fabrication de textile pour les capteurs portatifs. Ils peuvent imprimer le design de la pile, et lui donner sa flexibilité », précise le chercheur. À Grenoble, l'équipe s'est occupée de concevoir les électrodes flexibles auto-supportées, qui sont réalisées grâce à des nanotubes de carbone. « Pour les obtenir, il faut créer une solution que nous filtrons. On obtient un film plus ou moins flexible, selon nos besoins », poursuit Fabien Giroud. Pour le moment, la puissance de cette pile est limitée et permet l'alimentation d'une Led, ce qui représente quelques microwatts. Des améliorations sont envisagées par les chercheurs, notamment pour permettre une transmission d'informations par connexion Bluetooth. « Une partie de l'équipe s'oriente sur d'autres visées et elle est en contact avec des industriels. On doit encore trouver un marché. Certaines entreprises, qui utilisent pour le moment des piles au lithium, pourraient chercher à changer de type de production », conclut Fabien Giroud. Article rédigé par Georges Simmonds pour RT Flash L'Essor | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | On sait depuis longtemps qu'une consommation excessive de sel augmente les risques d'hypertension. Aujourd’hui, une nouvelle étude réalisée par des chercheurs du Weill Cornell Medicine de New-York montre qu'une consommation excessive de sel pourrait être impliquée dansla maladie d’Alzheimer. Les chercheurs suggèrent que le sel provoque un déficit en oxyde nitrique (molécules produites par le cerveau) dans certaines cellules cérébrales et nuit à leur santé vasculaire. Il s’avère que les niveaux d’oxyde nitriques trop bas impliquent des modifications chimiques de la protéine Tau. Cette dernière est liée à plusieurs maladies neurodégénératives comme Alzheimer. "L’accumulation de Tau est caractéristique de la pathologie d’Alzheimer", détaillent les chercheurs. Le sel en excès pourrait ainsi augmenter les risques de troubles cognitifs. "Notre étude propose un nouveau mécanisme pour expliquer comment le sel peut entraîner des déficiences cognitives et apporte également la preuve d’un lien entre les habitudes alimentaire et les fonctions cognitives", résume le Docteur Giuseppe Faraco, auteur principal de l’étude et professeur adjoint de recherches en neurosciences au sein du Weill Cornell Medicine de New York. "Chez la souris, une alimentation riche en sel entraîne un dysfonctionnement cognitif associé à un déficit en oxyde nitrique", indique l’étude. "La carence en oxyde nitrique entraîne l'activation de l'enzyme, qui à son tour conduit à la phosphorylation de la protéine tau". Le sel agirait par le biais d’une molécule inflammatoire, l’interleukine-17, qui freinerait la production d’oxyde nitrique, puis l’alimentation de cellules cérébrales en oxyde nitrique. Pourtant, ce composé est crucial puisqu’il permet d’élargir les vaisseaux sanguins pour une meilleure circulation du sang. La protéine tau devient alors instable et s’accumule dans le cerveau. Les chercheurs ont administré à des souris, suivant un régime riche en sel et une circulation sanguine restreinte, un anticorps destiné à améliorer la stabilité de la protéine Tau. Malgré une circulation sanguine limitée, les chercheurs ont observé une cognition normale chez ces souris. "Cela démontrait que la cause réelle de la démence était Tau et non le manque de circulation sanguine", a déclaré le Docteur Iadecola. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Les personnes avec un trouble du spectre de l’autisme (TSA) montrent dans leurs activités quotidiennes des difficultés à adapter leur comportement aux modifications de l’environnement. Le TSA est caractérisé par deux critères diagnostiques principaux : une difficulté persistante à communiquer socialement et un enfermement dans des schémas comportementaux répétitifs, des intérêts et/ou activités restreints. Mais si le diagnostic d’autisme requiert la présence simultanée de ces deux critères, leur interaction demeure peu étudiée. Dans une étude dirigée par Marie Gomot, chercheuse Inserm, au sein du laboratoire « Imagerie et cerveau » (Inserm/Université de Tours), cette question a été abordée en comparant la gestion cognitive des informations socio-émotionnelles et celle des informations non-sociales chez les personnes autistes. Pour évaluer cette flexibilité, les chercheurs ont suivi par IRM l’activité cérébrale de participants autistes et non-autistes soumis à un test simulant des situations similaires à celles posant problème aux personnes TSA au quotidien. L’équipe de recherche a utilisé une version modifiée d’un test classique en neuropsychologie qui lui a permis de tester la flexibilité cognitive lors du traitement d’informations non sociales ou socio-émotionnelles. Cinq cartes étaient présentées, chacune illustrée d’un visage différent. Les participants devaient associer la carte centrale avec une des quatre cartes adjacentes selon un des trois critères suivants : couleur du cadre de la carte (information non sociale), identité du visage (information sociale) ou expression faciale (information socio-émotionnelle). Tout au long du test, pour évaluer la flexibilité cognitive des participants, il leur était demandé de réaliser différentes associations (même couleur, même identité ou même expression faciale) en changeant ou maintenant une des trois r ègles en vigueur. L’équipe de recherche n’a constaté aucune différence significative entre les participants autistes et non-autistes sur les paramètres comportementaux mesurant purement la flexibilité cognitive, c’est-à-dire la capacité à adopter une nouvelle règle. En revanche, l’étude révèle l’importance de la nature de l’information à traiter sur ces processus de flexibilité cognitive dans l’autisme. Ainsi, les participants TSA ont besoin de plus d’essais que les participants non-TSA pour s’orienter vers la règle liée à l’information socio-émotionnelle, alors qu’ils ne montrent pas de difficultés particulières à adopter celles impliquant le traitement d’informations non émotionnelles. Parallèlement, l’IRM a mis en évidence une activité cérébrale significativement plus importante chez les participants autistes lorsqu’ils devaient faire preuve de flexibilité cognitive. Cette activité cérébrale ne se stabilisait que lorsque les participants TSA recevaient confirmation qu’ils avaient trouvé la bonne règle à appliquer. Cette observation suggère que l’adaptation à une nouvelle situation nécessiterait un niveau plus élevé de certitude chez les personnes autistes. "Ces résultats sont importants car ils suggèrent que les personnes TSA pourraient mettre en place des routines et des comportements répétitifs non en raison d’un réel manque de flexibilité cognitive mais plutôt pour éviter d’être confrontées à certaines situations socio-émotionnelles", précise Marie Gomot. "Le besoin d’un haut niveau de certitude combiné à une faible compréhension des codes régissant les interactions socio-émotionnelles mènerait ainsi à un évitement des tâches impliquant une composante socio-émotionnelle". Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Le développement et la survie des êtres vivants sont liés à la capacité de leurs cellules à percevoir leur environnement et à y répondre correctement. Pour ce faire, elles communiquent au travers de systèmes de signaux chimiques, les voies de signalisation, qui régissent et coordonnent l'activité cellulaire. Cependant, des déficiences dans le traitement de l'information peuvent empêcher les cellules de percevoir leur environnement correctement ; elles se mettent alors à agir de manière anarchique, ce qui peut mener à l'apparition du cancer. Pour mieux comprendre comment une information tronquée influence l'activité des cellules malades, des chercheurs de l'Université de Genève (UNIGE) sortent du champ strict de la biologie et proposent d'examiner la communication cellulaire à l'aune de la théorie de l'information, une théorie mathématique plus habituellement utilisée en informatique. Ces travaux, à découvrir dans la revue Trends in Cell Biology, offrent une approche radicalement nouvelle en oncologie. "D'une certaine manière, le cancer est une maladie de l'information", indique Karolina ZieliÅska, chercheuse au Centre de recherche translationnelle en onco-hématologie (CRTOH) de la Faculté de médecine de l'UNIGE et première auteure de ces travaux. "Mais si le pouvoir oncogénique des voies de signalisation cellulaires sur- ou sous-activées commence à être bien connu, les mécanismes exacts restent assez mystérieux". Comment, en effet, les cellules prennent-elles leurs décisions en fonction des informations qu'elles perçoivent - ou qu'elles ne perçoivent plus ? "Parfois, la biologie ne suffit pas pour tout décrypter", explique Vladimir Katanaev, professeur au CRTOH de la Faculté de médecine de l'UNIGE, qui a dirigé ces travaux. Dès la fin des années 1940, le mathématicien américain Claude Shannon développe une théorie probabiliste visant à quantifier l'information transmise dans un ensemble de messages utilisant un canal de communication « bruyant ». Cette théorie, qui a permis l'essor des systèmes de communication modernes et de l'informatique, est à la base d'une multitude d'applications telles que la compression et la transmission de données, la cryptographie ou encore l'intelligence artificielle. "Mais curieusement, la théorie de Shannon n'a que peu été appliquée dans le domaine de la biologie, notamment dans la communication des cellules", souligne Karolina ZieliÅska, qui est à la fois mathématicienne et biologiste. "Notre idée consiste donc à utiliser cet outil puissant pour examiner les décisions des cellules malades pour les comparer à cel les des cellules saines". La théorie de l'information se fonde essentiellement sur la théorie des probabilités. Son concept principal, appelé entropie, vise à mesurer l'incertitude née de variables aléatoires. "Si, par exemple, nous jouons à pile ou face, la pièce peut tomber sur l'un ou l'autre côté de manière aléatoire : le résultat est donc incertain. Imaginons maintenant une pièce aux faces identiques : le résultat est certain et l'entropie nulle. L'entropie évalue ainsi le degré d'incertitude d'une variable aléatoire. Appliquée à la communication, l'entropie indique la quantité d'information nécessaire pour que le récepteur puisse déterminer sans ambiguïté ce que la source a transmis". Appliquée à la signalisation cellulaire, ce concept permet d'étudier comment les cellules traitent l'information qu'elles reçoivent de leur environnement : quand une cellule reçoit un stimulus - une information - de son environnement, quelles concentrations d'informations la cellule peut-elle traiter sans erreur ? En connaissant une « décision » prise par la cellule, peut-on faire la distinction entre différents stimuli pour identifier celui qui a engendré cette réaction ? Ces questions sont essentielles dans le domaine du cancer : les cellules cancéreuses, incapables de traiter l'information provenant de l'environnement aussi bien que les cellules saines, se mettraient alors à proliférer et à se diviser lorsqu'il n'y a pas lieu de le faire. Les chercheurs vont maintenant vérifier la validité de leur approche en étudiant comment des cellules cancéreuses du sein et du poumon traitent les informations provenant de leur environnement. En effet, les traitements actuels visent en général à supprimer ou à éteindre complètement certaines voies de signalisation, en dépit d'effets secondaires parfois importants. "La nouvelle approche que nous proposons vise non pas à éteindre les voies de signalisation, mais au contraire à rétablir une activité correcte", indique Vladimir Katanaev. "En appliquant des concepts mathématiques purs à la biologie, nous espérons identifier les défauts de transmissions de l'information qu'il faut corriger pour y remédier". Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| L’arthrite est une inflammation aiguë ou chronique des articulations. Son origine peut être rhumatismale (arthrite rhumatoïde) ou infectieuse (arthrite de Lyme par exemple). Cette pathologie invalidante touche plus de 25 millions de personnes dans le monde et environ 300 000 en France. Traiter la douleur arthritique de manière efficace reste difficile chez un grand nombre de patients. Face à ce défi, une équipe de la Texas Tech University qui étudie la façon dont certains mécanismes cérébraux contribuent à la douleur, a découvert un mécanisme, une cible cérébrale et un composé -déjà documenté- qui ouvrent l’espoir de bloquer « à la racine » le développement de la douleur arthritique. Les recherches précédentes sur la douleur arthritique étaient plutôt centrées sur la moelle épinière ou les zones périphériques du système nerveux situées à l'extérieur de la moelle épinière et du cerveau. Cette équipe menée par le Docteur Volker E. Neugebauer de la Texas Tech University est partie à la recherche des changements, au plus profond du cerveau, qui contribuent à la persistance, à l'intensité et à d'autres effets secondaires de la douleur arthritique. La clé de la douleur est dans l’amygdale : l’équipe en est venue à se concentrer sur l'amygdale, une zone située au plus profond du cerveau limbique, impliquée dans la survie, la motivation et les émotions comme la peur, l'anxiété, la dépendance et la douleur. Les chercheurs ont examiné l'activation de récepteurs spécifiques, les récepteurs métabotropiques du glutamate (mGluR II), au sein de l'amygdale. Le glutamate étant le principal neurotransmetteur excitateur. Ces récepteurs mGluR semblent exercer 2 fonctions opposées : l'activation de ces récepteurs peut déclencher une réponse excitatrice entre les cellules, ce qui augmente la douleur, ou peut déclencher une réponse inhibitrice entre les cellules ce qui réduit la douleur. Tout dépend en fait de leur niveau d’excitation. Réguler ce mécanisme et donc l’action de ces récepteurs peut donc permettre de contrôler l'activité cérébrale associée à la douleur. Pour obtenir une réponse inhibitrice, l’équipe a testé un composé appelé LY379268, déjà documenté pour sa capacité de réduire, via la moelle épinière, la douleur avec très peu d'effets secondaires. « Nous voulions voir si le composé avait un effet analgésique et déterminer le site d'action. Dans la recherche sur la douleur, la moelle épinière est traditionnellement la cible d'interventions car elle est plus facilement accessible aux applications médicamenteuses que le cerveau ». Les chercheurs ont injecté le médicament par voie systémique afin qu'il puisse circuler et agir n'importe où dans le corps ou le système nerveux. Ensuite, ils ont bloqué les récepteurs mGluR dans l'amygdale pour voir si cela éliminait tout effet analgésique. Ils constatent que bloquer les récepteurs uniquement dans l'amygdale inhibe en effet l’action analgésique du médicament. Cela suggère que ce composé n'a pas d'action sur la moelle épinière, mais bien une action dans la zone cible du cerveau, l’amygdale. Et justement, ce composé prometteur a bien des effets sur la moelle épinière, mais pas d’action. C’est la zone de l’amygdale qui communique avec la moelle épinière et régule l'activité de la moelle épinière. Les chercheurs vont à présent étudier plus en détail ce composé LY379268, qui produit via l’amygdale des effets analgésiques et soulage aussi l'anxiété. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Une équipe internationale de recherche a mis au point un nouveau type de vaccin contre la tuberculose qui pourrait révolutionner le combat contre cette maladie extrêmement contagieuse. Ce vaccin est composé de protéines provenant d'une bactérie qui provoque une réponse immunitaire très forte. Si les premiers tests du nouveau vaccin ont été concluants, il est peu probable de le voir sur le marché avant plusieurs années. L'agent a tout de même été testé sur près de 3 500 adultes répartis entre l'Afrique du Sud, le Kenya et la Zambie. Les chercheurs ont ainsi validé une première phase primordiale à son développement. Selon David Lewinsohn, expert de la tuberculose, ce nouveau remède préventif pourrait être déterminant pour les personnes atteintes de la maladie. Toutefois, ce nouveau vaccin ne sera pas sur la marché avant 2028. Dans le monde, 10 millions de personnes ont été atteintes de la tuberculose en 2018. Un chiffre néanmoins stable ces dernières années, selon l'Organisation mondiale de la santé (OMC). Tandis qu'un quart de la population mondiale transporte avec elle la bactérie de la tuberculose sous une forme inactive, c'est-à-dire non transmissible et bénigne, l'autre forme de la tuberculose, appelée mutlirésistante, en revanche, ne répond pas ou du moins résiste aux traitements existants. L'Inde est le pays qui compte le plus de cas de tuberculose dans le monde devant la Chine et l'Indonésie. Chaque année, 3 millions de nouveaux cas y sont détectés et 400 000 Indiens meurent de cette maladie. Article rédigé par Georges Simmonds pour RT Flash BBC | | | |
| Une étude du Murdoch Childrens Research Institute (Australie) révèle 3 facteurs simples permettant de prédire si un enfant en bonne santé sera en surpoids ou atteint d’obésité à l'adolescence. La recherche publiée dans l’International Journal of Obesity montre également que les enfants qui sont en surpoids ou obèses aux âges de 2 à 5 ans ont extrêmement peu de chance de résoudre leurs problèmes de surpoids à l'adolescence lorsque ces trois facteurs prédicteurs du risque sont déjà présents. Ainsi, l’indice de masse corporelle (IMC) de la mère et de l’enfant (à compter de l’âge de 6-7 ans en particulier) ainsi que le niveau d’études de la mère semblent prédire le développement ou la résolution des problèmes de poids à l'adolescence. L’étude a suivi les données de taille et de poids ainsi que 23 autres marqueurs cliniques possibles dont la durée de l'allaitement et la pratique de l’activité physique à différents âges de l’enfance chez 3.469 participants bébés suivis depuis leur naissance et 3.276 enfants participant à la Longitudinal Study of Australian Children. L’analyse constate que chaque unité d’IMC supplémentaire chez l'enfant à l’âge de 6-7 ans multiplie par 3 le risque de surpoids à l’âge de 14-15 ans et réduit de moitié les chances d’être revenu, au même âge, à un poids de santé. Par ailleurs, chaque unité d’IMC supplémentaire chez la mère lorsque l'enfant est âgé de 6-7 ans accroît son risque de surpoids de 5 % à 14-15 ans et réduit d’environ 10 % ses chances de regagner un poids de santé ; enfin, les enfants de mères titulaires d'un diplôme universitaire présentent un risque plus faible d'obésité et ont une probabilité plus élevée, lorsqu’ils sont en surpoids entre 2 et 5 ans, de retrouver un poids de santé à l'adolescence. Indirectement, le niveau d’&ea cute;tude de la mère impacte l'alimentation et les choix de pratique d'exercice de la famille. Ces 3 marqueurs apparaissent les plus sensibles pour prédire le risque de surpoids et d’obésité à l’adolescence. Curieusement, des facteurs comme une mauvaise alimentation, une faible activité physique et d'autres facteurs de mode de vie ne permettent pas de prédire avec autant de spécificité les résultats en termes de poids à l’adolescence. L’auteur principal, le Docteur Kate Lycett, explique que la prévalence du surpoids ou de l’obésité à l'âge de 14-15 ans est réduite de 13 % chez les enfants ne présentant aucun de ces 3 facteurs de risque à l'âge de 6 à 7 ans. Ces 3 facteurs prédictifs pourraient constituer une avancée majeure pour aider les médecins et les pédiatres à prédire quels enfants risquent de développer un surpoids et à apporter des conseils aux parents. D’autant que l’étude le montre bien, les enfants qui sont en surpoids ou obèses à l’âge de 2 à 5 ans ont peu de chance de résoudre leurs problèmes de poids à l'adolescence lorsque ces facteurs de risque sont présents. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Le Centre Antoine Lacassagne de Nice vient de se doter d'un nouveau dispositif de radiothérapie capable de réaliser une stratégie de traitement local très rapide de certaines tumeurs du sein. Le docteur Yann Delpech, chirurgien du sein au Centre Antoine Lacassagne, explique le fonctionnement de cette technique : « On ne peut la proposer que lorsqu’il y a un certain nombre de critères dits de bon pronostic pour faire une radiothérapie peropératoire. L’un des critères est l’âge : il faut que les malades aient plus de 55 ans et plus de 60 ans idéalement, il faut que la lésion fasse moins de 20 mm, il faut que ce soit une tumeur dite peu proliférante avec un grade faible. Donc tous ces critères font que le risque de récidive locale de la maladie est extrêmement faible. » Lorsqu'il extrait la tumeur, le chirurgien veille à conserver des marges de sécurité. Il met en place un fil pour rapprocher les tissus à traiter de la sonde de radiothérapie. L'objectif est de bien délimiter la zone de traitement pour éviter de laisser en place des cellules cancéreuses. La radiothérapie cible ainsi la loge où se trouvait la tumeur et l'applicateur est directement positionné à l'intérieur du sein, au contact de la glande saine. Les dimensions de l'applicateur sont choisies par un radiothérapeute, le docteur Daniel Lam Cham Kee, qui vient seconder le chirurgien au bloc opératoire : « On doit prendre la taille de la tumeur plus au moins 1 cm autour. Ce qui fait qu’elle mesure 12 mm, avec 1 cm à gauche et à droite, il faut au moins 3 cm. » Juste avant de placer l’applicateur, le chirurgien insère des petits capteurs pour contrôler la dose exacte de rayons reçue par les tissus où la moindre cellule malade doit être détruite. Dès que l’équipe médicale est sortie du bloc opératoire, la dose programmée est délivrée en 41 secondes. Cette dose de 20 grays, délivrée en une fois, vient remplacer celle de 2 grays par jour, sur une durée de 5 semaines, qui intervient dans un traitement habituel de radiothérapie. Le docteur Daniel Lam Cham Kee précise : « en radiothérapie externe classique on fait des petites doses tous les jours pour permettre aux tissus sains de récupérer. Et cette fois-ci vous voyez qu’on a calculé 10 fois la dose. » Jusqu’à aujourd’hui, toutes les patientes traitées avec cette technique de radiothérapie peropératoire ont eu des suites post-opératoires exactement similaires à celles qui n’avaient pas eu de radiothérapie. Cette absence de complications est au cœur de l’évaluation de ce prototype. En effet, des machines permettent déjà de faire des radiothérapies au bloc opératoire mais en 30 à 45 minutes. Diviser la durée de traitement par dix peut faciliter le développement de cette stratégie en réduisant son coût. Et le bénéfice est surtout considérable pour les patientes concernées. Si l’analyse des prélèvements réalisés au bloc ne révèle pas une diffusion plus importante de la maladie, elle évite la vingtaine de séances quotidiennes de radiothérapie post opératoire. Article rédigé par Georges Simmonds pour RT Flash France Info | | | |
| L'accident vasculaire cérébral affecte 110 000 personnes par an dans notre pays, soit une toutes les quatre minutes, et il laisse des séquelles deux fois sur trois. C'est d'ailleurs la première cause de handicap acquis de l'adulte. Ses facteurs de risque sont bien connus (en tout cas, du corps médical… mais toujours pas suffisamment de la population) : tout d'abord, l'hypertension artérielle – en cause dans 50 % des cas –, puis l'obésité, la sédentarité, le tabagisme, l'abus d'alcool et le stress (notamment car ils contribuent à l'apparition d'une HTA). Sans oublier les apnées du sommeil. C'est en s'appuyant sur la mesure de ces paramètres que Withings, le leader des objets de santé connectés, vient d'établir une cartographie des populations le plus à risque. En pratique, la société a compilé les données anonymisées de plus de 2 millions d'utilisateurs de ses capteurs de sommeil, montres d'activités, pèse-personnes connectés et tensiomètres dans le monde entier sur l'ensemble de l'année 2018. Les résultats de cette vaste enquête ont de quoi étonner. D'abord, les habitants des grandes agglomérations présentent un niveau de facteurs de risque d'AVC nettement plus faible que les autres (38 % contre 43 %). Pour les auteurs de ce travail, c'est parce qu'ils marchent plus, parce qu'ils ont moins tendance à prendre leur voiture puisqu'ils peuvent profiter du vaste tissu de transports urbains. À Paris, 11 % des utilisateurs de ces objets connectés sont considérés comme sédentaires (moins de 3 000 pas par jour) contre 15 % en région. Les scientifiques précisent que le risque de subir un AVC est de 20 à 36 % plus faible chez les personnes actives que chez les autres. Deuxième enseignement inattendu : les habitants du Havre sont particulièrement touchés : 48 % d'entre eux présentent des risques, sans doute en raison d'un surpoids supérieur à celui de la moyenne nationale. L'étude Withings montre également l'influence des habitudes culturelles (activités physiques, habitudes alimentaires, etc.) au niveau mondial. Ainsi, les Américains sont les plus touchés en matière de facteurs de risque (59 % d'entre eux sont concernés), tout comme les Canadiens, alors que les Asiatiques sont les plus épargnés (30 % pour les utilisateurs d'objets connectés japonais et 23 % pour les Chinois). Là encore, c'est le poids affiché par les balances qui est mis en avant. Contrairement à ce que l'on pourrait croire, les pays scandinaves, à qui l'on attribue souvent un mode de vie exemplaire, ne sont pas les meilleurs élèves en matière de prévention des risques d'accident vasculaire cérébral : 50 % des Norvégiens et 48 % des Finlandais présentent des facteurs de risque, contre respectivement 41 %, 39 % et 41 % pour les Français, les Italiens et les Portugais. Article rédigé par Georges Simmonds pour RT Flash Le Point | | | |
| La société Seekyo développe des vecteurs thérapeutiques sélectifs capables de libérer des agents anticancéreux uniquement en présence de la tumeur ou de son environnement proche. Cette prouesse est rendue possible par la mise au point d’une molécule capable de transporter des agents anti cancer dans l’ensemble de l’organisme de façon non toxique, d’identifier les cellules malades visées et de déclencher la libération du principe actif uniquement sur sa cible grâce à une gâchette enzymatique. Si ces vecteurs thérapeutiques peuvent être adaptés à de nombreux cancers, la société Seekyo cible en priorité les pathologies pour lesquelles il n’existe pas de traitements efficaces. C’est pourquoi elle s’est intéressée particulièrement à l’adénocarcinome du pancréas dont les progrès thérapeutiques ont été mis en échec depuis 20 ans. Seekyo a pu tester sa chimiothérapie intelligente sur 8 souris sur lesquelles des modèles de cancers humains avaient été inoculés. Trois souris ont vu leur tumeur régresser totalement et l’état des cinq autres souris a été jugé encourageant. Le Professeur Papot reconnaît que le chemin est encore long pour pouvoir confirmer ses résultats sur l’homme. Une mise sur le marché de cette chimiothérapie intelligente pourrait prendre jusqu’à 8 ans. Article rédigé par Georges Simmonds pour RT Flash Caducée | | | |
| Une étude réalisée par Deanna Broadwater, de l'Université du Michigan, a révélé une nouvelle méthode de détection et de destruction des cellules cancéreuses en utilisant une technologie traditionnellement réservée à l'énergie solaire. Leurs recherches reposent sur le principe suivant : les molécules actives dans les cellules solaires pourraient également être utilisées pour cibler et tuer plus efficacement les cellules cancéreuses. Les colorants fluorescents actuellement utilisés à des fins thérapeutiques et diagnostiques appelées "théranostiques" sont limités par leur faible luminosité, leur cytotoxicité élevée, leur faible pénétration dans les tissus et leurs effets secondaires indésirables. « Pour surmonter ces obstacles, nous faisons la démonstration d'une plate-forme d'accord optoélectronique, qui permet un contrôle indépendant des propriétés optiques à partir des propriétés électroniques des sels organiques fluorescents », soulignent les chercheurs. Grâce à cette méthode, les nanoparticules de sel organique ont été utilisées comme théranostic et testées sur des cellules souches humaines et sur des modèles murins atteints de cancer du sein, du poumon et de la peau. L'aspect coaxial des nanoparticules dans la zone non toxique a permis d'améliorer l'imagerie, tout en les poussant dans la zone activée par la lumière, ce qui a produit un traitement tumoral efficace, expliquent les chercheurs, scientifiques à l'Université du Michigan aux États-Unis. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | La start-up Lilium, basée à Munich, a annoncé qu’elle travaille sur l’industrialisation de son taxi-volant du même nom, suite à des essais concluants menés au cours du mois de mai. Alors qu'une première usine de 3 000 mètres carrés vient de sortir de terre, une seconde, plus grande encore, est en construction pour lui donner les moyens de ses ambitions. Pour convaincre de l’efficacité de son engin, dont le modèle de série ne devrait pas beaucoup changer par rapport au prototype, l’entreprise a dévoilé le mardi 22 octobre 2019 des images capturées lors des essais en vol. La vidéo diffusée par l’entreprise laisse voir un décollage et un atterrissage de l’appareil à la verticale (VTOL) tout à fait maîtrisés. Lilium, qui peut accueillir jusqu’à cinq personnes en même temps, affiche à peu de choses près les caractéristiques d’un avion traditionnel en vol. « Mais il repose sur 36 propulseurs électriques, ce qui lui permet de ne rien émettre. Pour se déplacer, il n’a d’ailleurs besoin que de 10 % de la puissance totale qu’il est en mesure d’atteindre (2 000 chevaux) », vante la start-up allemande par voie de communiqué. Ses deux paires d’ailes améliorent, en effet, l’aérodynamisme général de l’appareil. Reste que Lillium devra affronter une redoutable concurrence dans ce domaine du transport aérien urbain. Uber entend commercialiser ses modèles d’ici à 2023. Airbus compte, pour sa part, capitaliser sur les Jeux olympiques de Paris 2024 pour exposer le sien, baptisé Vahana. Mais d’autres jeunes pousses sont également sur la ligne de départ. L’Allemand Volocopter a présenté la quatrième version de VoloCity cet été. Le Chinois EHang et le Japonais Cartivator sont, eux aussi, en bonne voie. Google s’y intéresse également, mais a jusqu’ici été très occupé par le développement de son service de livraison par drone – qui a été lancé cette semaine aux Etats-Unis. « Nous sommes déjà en pourparlers avec de nombreuses villes et régions du monde pour déterminer la manière dont notre technologie permettra de les connecter entre elles », a déclaré l'entreprise, précisant imaginer à court terme des rotations Londres-Birmingham ou Birmingham-Manchester. Son objectif reste, avant le lancement commercial, de permettre à son engin d’atteindre la vitesse de croisière de 300 km/h (contre 100 à l’heure actuelle) pendant une heure et en une charge. Article rédigé par Georges Simmonds pour RT Flash L'Usine Digitale | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|