| | Edito Le coût humain et économique faramineux de la pollution de l'air n’est plus acceptable !
Dans son rapport 2018, l’Agence européenne de l’environnement concluait que l’exposition aux particules fines (PM2,5, de diamètre inférieur à 2,5 micromètres), principalement, était responsable d’environ 422 000 morts prématurées dans l’ensemble des 41 pays européens, dont 391 000 dans les vingt-huit Etats membres de l’Union européenne (UE). Mais, une nouvelle étude publiée en mars 2019, et réalisée par des chercheurs allemands de l’Institut Max-Planck de chimie, (Voir Oxford Academic), qui s’appuie sur des données enrichies, estime que la pollution de l’air causerait en fait quelque 790 000 décès par an en Europe, dont 659 000 au sein de l’UE. Au niveau de la planète, l’étude estime que la pollution de l’air fait environ 8,8 millions de morts par an, soit près du double des 4,5 millions de morts retenus jusqu’ici par l’Organisation mondiale de la santé (OMS) pour la pollution de l’air extérieur. Cette pollution atmosphérique serait donc responsable d’un décès sur six au niveau mondial. Elle serait également, de maniè re transversale, fortement impliquée, bien qu’avec d’importantes disparités selon les différentes régions du monde et les catégories socioprofessionnelles, dans les quatre principales causes de décès sur notre planète : les maladies cardiovasculaires et AVC (30 % des décès), les cancers (15 %), les infections des voies respiratoires (6 %) et les Broncho-pneumopathies chroniques obstructives (5 %). Ces conséquences humaines et sanitaires désastreuses de la pollution de l’air viennent malheureusement d’être encore confirmées par une étude récente, coordonnée par l'Université Harvard, avec trois universités britanniques (Londres, Leicester et Birmingham). Ce nouveau travail évalue pour sa part à 8,7 millions le nombre de décès annuels prématurés dans le monde, en lien avec la combustion des énergies fossiles (Voir Harvard University). Quant au coût de cette pollution de l’air pour l’économie mondiale, il est tout simplement faramineux. De plus, il est très difficile à établir. Néanmoins, la Banque mondiale l’estimait en 2013 à plus de 5 100 millia rds de dollars par an, soit 6 % du produit mondial brut… Uniquement pour la France, le nombre de décès prématurés serait de près de 100.000 (97.242), ce qui représenterait 17 % des morts recensés en 2018, plus que les décès imputables au tabac. Là aussi, cette nouvelle estimation arrive à un nombre de décès qui est deux fois plus important que celui longtemps admis de 48.000 morts prématurés par an dans l'Hexagone, à cause des particules fines de type PM2,5 (qui font moins de 2,5 micromètres de diamètre). On sait à présent que ces particules très petites peuvent entrer profondément dans les poumons, passer dans le sang et créer des inflammations chroniques, des problèmes cardiaques, voire des cancers. Il a également été établi que des particules encore plus petites (PM1) peuvent même se retrouver au niveau du cerveau. Quant au coût économique global, il serait, lui aussi, bien plus important que prévu : un rapport du Sénat publié en 2015, sous l’égide du Sénateur de Meurthe-et-Moselle Jean-François Husson, a en effet estimé ce coût à 101 milliards d’euros par an (4 % de notre PIB), si l’on tient compte non seulement des frais médicaux, dommages sanitaires et pertes économiques, mais également des conséquences plus globales sur l’environnement et l’agriculture. De manière saisissante, ces récents travaux épidémiologiques, sérieux et argumentés, estiment que la pollution de l’air est à présent devenue la première cause mondiale de diminution de l’espérance de vie : ce fléau réduirait en effet en moyenne de trois ans l’espérance de vie au niveau planétaire, contre 2,2 ans pour le tabac, qui n’arrive qu’en seconde position dans ce palmarès morbide. Ces recherches montrent que les maladies cardiovasculaires, pour lesquelles la pollution de l’air est fortement impliquée, sont responsables de 43 % de la perte d'espérance de vie dans le monde, soit la plus grande proportion de morts prématurées dues à la pollution atmosphérique. Autre enseignement, la pollution de l'air a un impact plus important sur le raccourcissement de la vie des personnes âgées. À l'échelle mondiale, on estime que les trois quarts des décès attribuables à la pollution atmosphérique surviennent chez des personnes de plus de 60 ans. L'originalité des dernières études publiées sur cette pollution de l’air est de s'intéresser plus particulièrement aux particules (PM2,5) issues de la combustion des énergies fossiles et d'étudier leurs dispersions avec un modèle de simulation géochimique à l'échelle de la planète. Pour évaluer de manière plus précise la concentration dans l’air des particules issues de la combustion fossile, les chercheurs ne sont plus limités à l’analyse des données locales et images satellites. Ils ont utilisé un modèle mathématique de résolution spatiale en 3D baptisé GEOS-Chem et développé par l’Université Harvard qui permet de reconstituer les transferts de pollution dans l’atmosphère en temps réel. Grâce à ce nouvel outil informatique très puissant, ces chercheurs ont pu calculer qu'au niveau mondial, l'exposition aux particules provenant des émissions de combustibles fossiles représentait 21 % du nombre total de décès mondiaux prématurés en 2012 ; il a néanmoins régressé à 18 % en 2018, principalement grâce au renforcement des mesures de qualité de l'air en Chine. Dans cet immense pays qui connaît un essor économique sans précédent mais conduit également une politique très volontariste pour mieux maîtriser ses pollutions, le nombre de décès prématurés liés à la pollution de l’air est descendu à 2,4 millions, et se situe désormais derrière l'Inde, beaucoup plus laxiste en la matière (2,5 millions de décès), grâce notamment &agra ve; une remarquable réduction de 44 % des émissions chinoises de PM2,5 issues des combustibles fossiles, entre 2012 et 2018. Mais d'autres travaux pointent également des catégories de particules fines présentes dans les villes, plus nocives que les aérosols des campagnes et longtemps ignorées. Dans un article publié en novembre 2020 dans Nature, des chercheurs du CNRS, de l'IRD et de l'Institut Paul Scherrer (PSI) à Lausanne, ont mis l'accent sur ces particules dites «oxydantes», particulièrement néfastes pour la santé. « Ces particules sont les suies liées à la combustion du bois et des particules métalliques produites par le freinage des véhicules ; elles sont nocives pour la santé et ont un caractère inflammatoire sur des lignées de cellules pulmonaires », explique Gaëlle Uzu, directrice de recherche à l'IRD à l'Institut des géosciences de l'environnement. Cette étude a permis de mesurer, avec les m êmes outils de modélisation que les chercheurs d'Harvard, le niveau et les flux de ce type de particules. Les chercheurs ont également pu montrer que ces particules fines oxydantes étaient très présentes dans toutes les grandes métropoles et régions industrielles européennes. Toutefois cette étude, conduite par le professeur Schwartz et ses collègues, a fait l’impasse sur d’autres particules, pourtant similaires en termes de toxicité et de composition : celles issues du chauffage au bois. Sur cette question particulière, une étude européenne publiée en novembre 2020 et coordonnée par l’Institut Paul-Scherrer (Suisse) a montré que ces particules étaient également très nocives pour la santé, à cause de leur potentiel oxydant, avec les particules métalliques générées par l’usure des freins et des pneus et des véhicules (Voir Nature). Pour la première fois, ce travail a montré qu’une approche fondée uniquement sur la quantité de particules fines respirée n’est pas suffisante et recommande la prise en compte d’un nouvel indicateur pour mesurer leur impact sanitaire : leur potentiel oxydant, c’est-à-dire leur capacité à provoquer des lésions oxydatives et des maladies pulmonaires mais aussi cardio-vasculaires. Cette étude a également pu montrer que les particules les plus toxiques sont celles issues de la combustion de la biomasse (essentiellement le chauffage au bois) et du trafic routier. Mais, contrairement à ce qu’on a longtemps pensé, ce ne sont pas les gaz d’échappement qui ont le potentiel oxydant le plus élevé mais les particules produites par l’usure des freins et des pneus. Celles-ci contiennent de minuscules poussières métalliques de cuivre, manganèse, étain, antimoine et zinc… Or des études américaines ont établi que le cuivre et le manganèse possédaient, sous cette forme de particules fines, un très fort potentiel oxydant. Ces travaux récents montrent donc que, contrairement à ce que les scientifiques et responsables politiques ont longtemps pensé, il ne suffira pas, loin s’en faut, de remplacer nos voitures diesel et essence par des véhicules hybrides, électriques ou à hydrogène pour en finir avec la pollution en ville. Ces recherches montrent également, qu’&a grave; niveau d’exposition comparable, les particules que respirent les habitants des zones urbaines sont jusqu’à trois fois plus toxiques que celles qu’inhalent les ruraux, constituées, elles, principalement de composants minéraux dont la composition chimique et les niveaux de concentration ont un impact global moindre (du moins dans l'état actuel de nos connaissances) sur la santé humaine. Il faut aussi évoquer une récente étude réalisée des chercheurs du Massachusetts General Hospital (MGH) (Voir Oxford Academic), qui montre pour la première fois que la pollution atmosphérique par les particules fines stimule la production de cellules inflammatoires dans la moelle osseuse, entraînant une inflammation des artères, ce qui favorise, in fine, le développement de maladies cardiovasculaires, comme l’athérosclérose. Cette étude rétrospective a suivi, à l’aide de bilans biologiques et d’examens par imagerie, durant plus de 4 ans, 503 patients sans maladie cardiovasculaire ni cancer. Les scientifiques ont ainsi pu évaluer les niveaux annuels moyens de particules fines auxquels &eacut e;taient exposés ces participants, en s’appuyant sur l’analyse des données des moniteurs de la qualité de l'air de l'Agence américaine de protection de l'environnement. Au cours de ces recherches, 40 personnes ont été victimes de pathologies cardiovasculaires graves, dont des crises cardiaques et des accidents vasculaires cérébraux (AVC). Ces travaux ont pu montrer que ce sont bien les participants exposés aux niveaux les plus élevés de particules fines autour de leur domicile qui ont le plus de risques de développer des maladies cardiovasculaires, et cette augmentation du risque associé aux niveaux de particules fines reste importante, même en tenant compte des autres facteurs médicaux, biologiques et sociaux propres à chaque participant. Cette étude est à mettre en relation avec une autre étude chinoise, qui montre également qu'une exposition à la pollution atmosphérique était associée à un risque accru de décès d'origine cardio-vasculaire (Voir JACC). Selon ce travail réalisé par le Docteur Yuewai Liu (Sun Yat-sen University, Guangzhou, Chine), une exposition, même de courte durée, aux particules fines de diamètre inférieur ou égal à 2,5μm (PM2,5) ou de diamètre inférieur à 10μm (PM10) et au dioxyde d'azote (NO2) augmente sensiblement les risques de décès par infarctus du myocarde. Dans cette vaste étude épidémiologique, les chercheurs ont analysé 151 608 décès par Infarctus du Myocarde qui se sont pro duits dans la province chinoise d'Hubei entre 2013 et 2018. Ils ont évalué l'exposition aux PM2,5, PM10, au dioxyde de sulfure (SO2), au NO2, au monoxyde de carbone et à l'ozone le jour précédant l'infarctus (jour « contrôle ») et le jour où a eu lieu cet infarctus mortel (jour « événement »).Les chercheurs ont ensuite recoupé les adresses des domiciles des patients décédés avec les niveaux d'exposition aux particules fines de ces patients, niveaux qui sont mesurés de manière précise, grâce aux excellents systèmes de surveillance et d’analyse de la pollution atmosphérique dont disposent les grandes villes chinoises. Ce travail a pu établir, d’une part, que l'exposition aux PM2,5, aux PM10 et au NO2 était fortement corrélée à des risques ac crus de décès par infarctus et, d’autre part, que ces risques augmentaient en fonction du niveau d'exposition à la pollution. Une étude publiée, ces temps derniers (Voir IOS Press) par des chercheurs écossais de l’Université d’Édimbourg vient par ailleurs de révéler un lien très net entre pollution atmosphérique et altérations des capacités cognitives. Pour arriver à cette conclusion, ils ont testé les capacités cognitives de plus de 500 personnes âgées d'environ 70 ans à l'aide d'un test réalisé à l’âge de 11 ans qu’ils ont répété à 76 et 79 ans. Dans le même temps, les chercheurs ont relevé les niveaux de pollution de l’air au cours de l’enfance des volontaires. Ils ont également pris en compte des facteurs li&ea cute;s au mode de vie comme la consommation de tabac ou le statut socio-économique. A l’aide d’un puissant modèle informatique, ils ont pu ensuite analyser la relation entre l'exposition d'une personne à la pollution atmosphérique et l’évolution de ses performances cognitives. Les résultats ont montré une nette corrélation entre la pollution atmosphérique et des changements cognitifs. « Pour la première fois, nous avons montré que l'exposition à la pollution atmosphérique très tôt dans la vie pourrait avoir des effets sur le cerveau plusieurs décennies plus tard », a conclu le Docteur Tom Russ, directeur du Centre de recherche sur la démence Alzheimer en Écosse à l'Université d'Édimbourg et auteur de l’étude. « Il s’agit de la première étape vers la compréhension des effets nocifs de la pollution atmosphérique sur le cerveau et pourrait contribuer à réduire le risque de démence pour les générations futures », ajoute cet éminent chercheur. Il faut enfin évoquer une autre étude édifiante, publiée fin janvier, sur les effets de la pollution de l’air, qui ne manquera pas de conforter les maires et élus locaux qui souhaitent ou envisagent l’interdiction des véhicules thermiques, à l’horizon 2030. Cette étude place la capitale française au 4e rang des villes européennes (derrière Madrid, Anvers et Turin) où la mortalité due à l’exposition au dioxyde d’azote (NO2) est la plus importante. Le NO2 est un gaz très toxique émis majoritairement par le trafic routier et principalement par les motorisations diesels. Menée par l’Institut pour la santé globale de Barcelone (ISGlobal), en collaboration avec des chercheurs de l’Institut suisse de santé publique et de l’Université d’Utrecht (Pays-Bas), l’étude estime pour la première fois l’impact de la pollution de l’air sur la mortalité dans les villes (Voir IS Global). Les chercheurs ont analysé les données d’un millier de villes, dont les cinquante plus grandes pour l’année 2015. Pour l’agglomération parisienne, ils ont estimé à 2 575 le nombre de décès prématurés annuels liés à une exposition à des concentrations excessives à la pollution de l’air, soit environ 7 % de la mortalité totale. L’étude souligne également, de manière édifiante, que, si l’ensemble des villes européennes parvenaient au niveau de qualité de l’air d’Helsinki, capitale de la Finlande, qui possède les normes de pollution les plus strictes (allant au-delà de celles recommandées par l’OMS), 125 000 décès prématurés liés aux PM2,5 et 79 000 liés au N02 pourraient être évités chaque année en Europe. L’étude souligne que ces mêmes villes, en respectant simplement les normes de l’OMS, parviendraient à éviter 51 000 décès prématurés liés aux PM2,5, et 900 dus au NO2. Pour Paris, le respect des normes de l’OMS pour l’ensemble de sa population permettrait d’éviter 1 259 décès liés aux PM 2,5 mais seulement 185 liés au NO2. Commentant ces simulations, Mark Nieuwenhuijsen, l’auteur principal de l’étude, souligne que « la législation européenne actuelle ne protège pas suffisamment la santé », et qu’« il faut revoir à la baisse les seuils de l’OMS pour le NO2 et les PM2,5, car ils ne garantissent aucune innocuité ». Quels sont les enseignements qui peuvent être tirés de ces études ? Le premier est que les normes réglementaires en matière de pollution de l’air sont notoirement dépassées et doivent être revues et durcies, tant au niveau international, qu’européen et national, de manière à intégrer les avancées de la science et les nouvelles connaissances que nous avons sur le degré réel de nocivité des différents polluants et des différents types de particules fines présentes dans l’air, qui ont des potentiels de nocivité différents. Il est également urgent d’accélérer la lutte contre les émissions globales liées au trafic routier, non par des mesures dogmatiques ou punitives qui pénalisent surtout les foyers les plus modestes, mais par des incitations fiscales intelligent es et des projets de territoires intégrant les problématiques économiques, numériques, urbaines et de mobilité vers un but convergent : améliorer considérablement le ratio entre la production de biens et services et le niveau de pollution et d’émissions de CO2 entraînés par l’activité économique. Ensuite, le développement du chauffage individuel et des centrales et chaufferies collectives au bois n’est plus acceptable dans les conditions actuelles ; il doit rapidement être soumis, en matière d’émissions de particules fines, à un cadre réglementaire bien plus sévère qu’aujourd’hui, assorti d’une feuille de route précise pour la mise aux normes techniques et sanitaires, de contrôles stricts et de peines dissuasives, en cas de non-respect de la loi. Ces études conduisent également à s’interroger sur la pertinence, sur le plan sanitaire, de l’interdiction du chauffage au gaz dans les maisons neuves dès l’été 2021 puis dans les logements collectifs neufs à partir de 2024. Autre point important, comme le souligne Thierry Raevel, directeur régional d’Engie, il faut que les pouvoirs publics mobilisent des moyens humains et financiers en rapport avec l’ampleur de ce défi de société. Or les dépenses consacrées à la lutte contre la pollution de l’air - 360 millions d’euros, par an - sont six fois moindres que celles finançant les agences de l’eau ; en outre 80 % de ces dépenses se font sur le secteur des transports et négligent les domaines de l’habitat et de l’industrie, pourtant fortement impliqués dans la pollution de l’air. Les responsables politiques locaux doivent également s’emparer du levier que constitue la loi Climat et résilience, pour le développement de zones à faibles émissions (limitant la circulation de certains véhicules) aux agglomérations métropolitaines de plus de 150 000 habitants d’ici 2024, décarboner leurs transports publics et préparer, comme le fait déjà notre voisin anglais, la fin inéluctable, au moins dans nos villes, des véhicules thermiques à l’horizon 2030, même si cette dernière mesure nécessite, il est vrai, un réel courage politique, et ne peut s’envisager que dans le cadre d’un accompagnement social et d’une transition numérique de nos politiques publiques en matière d’urbanisme et de transports, de manière à améliorer sensiblement les offres de mobilit& eacute;, surtout pour nos concitoyens les plus modestes qui habitent dans la périphérie des villes ou à la campagne. Il faut enfin, plus que jamais, dans le cadre d'un partenariat à la fois plus étroit et plus souple entre le secteur public et les entreprises, encourager la recherche et l’innovation dans le domaine capital des technologies propres et des outils numériques, batteries solides, et les thèmes de recherche ne manquent pas : véhicules à hydrogène, nouveaux matériaux neutres et biodégradables pour la composition des vecteurs et des éléments des véhicules de transports (ce point est très important et concerne les pièces d’usure de nos véhicules, dont la composition et la structure doivent assurer une dégradation sans impact nocif sur la santé humaine), gestion numérique intelligente et prédictive des réseaux de transport publics et de la mobilité personnelle, développement de la 5G (diabolisée de manière irrat ionnelle et incompréhensible par certains élus locaux), internet des objets, habitat positif à structure solaire intégrée, producteur d’énergie propre, transition vers la chimie verte, généralisation du télétravail et de la télé-production robotique… C’est en prenant à bras le corps ce défi de civilisation, dans ses trois dimensions inextricables, politique, technologique et sociale, que notre pays parviendra à maîtriser, puis à prévenir ce fléau humain, sanitaire et économique, que nous avons le devoir d’éradiquer pour que nos enfants et petits-enfants puissent vivre dans un monde qui aura su concilier développement économique, progrès technique, respect de l’environnement et du climat et humanisation de nos villes et de nos territoires. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | L’aluminium est généralement produit par électrolyse à partir de l’alumine, elle-même extraite du minerai d’aluminium, appelé bauxite. Ce procédé consomme beaucoup d’énergie : la production d’une tonne d’aluminium nécessite plus de 13 mégawattheures (MWh) d’électricité. Pour cette raison, les fonderies d’aluminium sont généralement situées à proximité d’une centrale électrique, historiquement dans les massifs montagneux pour leurs barrages hydrauliques comme en France, Suisse ou Écosse par exemple. Mais, depuis quelque temps, ces centrales se sont installées près des gisements de gaz du Moyen-Orient (Bahreïn, Qatar, Oman, Dubaï, Abu Dhabi, …). L’aluminium produit là-bas est donc responsable d’importantes émissions de CO2. L’accord récent conclu entre la Dubaï Electricity and Water Authority (DEWA) et le conglomérat métallurgique Emirates Global Aluminium (EGA) est donc une bonne nouvelle pour le climat. La première année, l’électricien fournira 560 GWh qui seront générés par sa centrale solaire géante, baptisée Mohammed bin Rashid Al Maktoum Solar Park. Cela permettra de produire plus de 40 000 tonnes d’aluminium. La capacité actuelle de ce « giga » parc est d’un peu plus de 1 GW, mais DEWA espère la multiplier par cinq d’ici 10 ans en y investissant plus de 13 milliards de dollars. L’électricité y est produite par un mix composé de panneaux photovoltaïques et d’installations solaires à concentration (CSP). En 2019, la DEWA a répondu à un appel d’offres pour la construction de 900 MW supplémentaires en offrant un tarif de 16,95 $ par MWh (14,01 €). C’était à l’époque le record du monde du prix le plus bas pour de l’électricité solaire. Depuis, il a été battu lors d’enchères au Portugal et en Espagne. « Cette nouvelle réalisation contribue à soutenir nos efforts de diminution des émissions de carbone dans le cadre de la stratégie climatique de Dubaï » a déclaré M. Saeed Mohammed al-Tayer, le directeur général de DEWA. « En 2019, notre Emirat a réduit ses émissions de 22 % par rapport à son scénario habituel. Les résultats obtenus ont dépassé les objectifs fixés qui visaient à les réduire de 16 % d’ici 2021 » a-t-il ajouté. Article rédigé par Georges Simmonds pour RT Flash Révolution Energétique | | | |
| ThrustMe a réalisé avec succès deux tests en orbite basse de son moteur ionique NPT30-I2-1U qui utilise de l'iode comme carburant. Avec deux mises à feu en orbite de 90 minutes, le nanosatellite Beihangkongshi-1 s'est élevé de 700 mètres. Réalisés fin décembre et début janvier, ces deux tests démontrent le fonctionnement des technologies développées par ThrustMe pour alimenter son moteur ionique NPT30-I2-1U avec de l'iode. La start-up parisienne l'a annoncé le 18 janvier dans un communiqué. « Les premières mises à feu en orbite sont une étape cruciale dans le développement d'un moteur », souligne Ane Aanesland, directrice générale de la start-up. Lancé le 6 novembre 2020, le satellite du chinois Spacety devra encore effectuer une trentaine de mises à feu similaires pour atteindre son orbite finale 20 kilomètres plus haut. Ces premiers tests ont de quoi conforter ThrustMe et lui ouvrir des perspectives pour la suite. Au-delà d'une mission scientifique pour laquelle son moteur a été choisi et deux missions pour des agences spatiales, l'entreprise indique avoir de nombreux contrats et prospects commerciaux sur lesquels elle ne souhaite toutefois pas communiquer. Mme Aanesland précise que ThrustMe a les capacités de production pour honorer ses commandes cette année : « L'année prochaine, il faudra peut-être penser à un endroit plus grand ». Très concurrentiel, le secteur des moteurs ioniques miniatures fourmille d'acteurs qui développent des technologies différentes. Le principe général : des ions sont créés, à partir d'un carburant et d'électricité, et éjectés pour générer une poussée. De quoi atteindre les orbites voulues, opérer les satellites et les désorbiter en fin de vie. Autant de fonctions nécessaires aux constellations qui se multiplient. Alors que ses concurrents utilisent généralement du xénon comme carburant, ThrustMe se distingue par l'usage de l'iode. « C'est une vraie rupture », assure Mme Aanesland. « L'industrie spatiale y travaille depuis plus de quinze ans ». Et pour cause : l'iode est moins cher à produire et à utiliser, ajoute-t-elle : « Il divise par quarante les coûts de mise en œuvre du moteur. Cela fait une grosse différence pour les constellations ». Alors que le xénon est utilisé sous forme de gaz sous pression, l'iode est solide. Résultat : le moteur est livré avec le plein et le client l’intègre seul, poursuit-elle : « C'est le premier moteur clé en main. » Pour cela, il a fallu développer les moyens de sublimer l'iode et de gérer le flux de gaz. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | | |
| Le solaire photovoltaïque est la source d’électricité qui connaît la croissance la plus rapide au monde. Aujourd’hui, la plupart des panneaux solaires conventionnels possèdent un rendement compris entre 15 et 20 %, bien que certains prototypes puissent atteindre des valeurs bien supérieures, comme l’a récemment montré une cellule hybride constituée de pérovskite et silicium, affichant une efficacité record de 29,15 %. Malheureusement, leur opacité complique largement leur utilisation dans le domaine de l’électronique. Au premier abord, l’idée de cellules solaires transparentes peut sembler paradoxale, mais ce n’est pas nécessairement le cas, comme l’ont récemment montré différents dispositifs expérimentaux. Dans le cadre de travaux présentés dans le Journal of Power Sources, le professeur Joondong Kim et ses collègues de l’Université nationale d’Incheon (Corée du Sud) sont parvenus à créer la première cellule « entièrement transparente », qui pourrait par conséquent un jour équiper les appareils électroniques de notre quotidien. Cette combinaison de transparence et de conversion du rayonnement solaire en énergie est obtenue grâce à l’utilisation de semi-conducteurs d’oxyde de nickel (NiO) et de dioxyde de titane (TiO2). Déjà utilisé pour la conception de panneaux solaires, le dioxyde de titane se révèle non seulement abondant dans la croûte terrestre (contrairement aux autres matériaux utilisés pour ce type de cellules), mais également non toxique. L’oxyde de nickel a quant à lui la particularité de présenter des caractéristiques de transparence optique élevées. Ensemble, ces deux matériaux fabriqués à basse température et pouvant être produits par des infrastructures existantes forment un panneau solaire transparent et écologique. Cette transparence implique toutefois une efficacité réduite : le rendement de conversion d’énergie du panneau solaire transparent est de 2,1 %, c’est-à-dire bien inférieur à celui des panneaux conventionnels, mais suffisamment important pour envisager un large éventail d’applications. D’après les chercheurs, cette technologie pourrait être intégrée à des bâtiments, des fenêtres, des bus et différents appareils électroniques de notre quotidien, ce qui rendrait l’énergie solaire plus accessible, en particulier dans un environnement urbain saturé. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Le cuivre est un métal largement utilisé dans tous les secteurs d’activité et chaque année, des millions de tonnes de cuivre sont extraites à travers le monde. Malheureusement, l’omniprésence de ce métal est associée à des problèmes de pollution des eaux et des sols. Pour éliminer les métaux lourds des effluents, les industriels utilisent plusieurs méthodes : l’évaporation, la précipitation chimique, la coagulation-floculation, la photocatalyse ou encore la séparation membranaire. Malheureusement, les procédés de dépollution actuels ne permettent pas de séparer ces différents métaux de manière économiquement viable, ce qui empêche la récupération de nombreux métaux précieux. La capture des métaux lourds par adsorption apparaît comme une solution de dépollution efficace et économique, mais elle nécessite de développer des matériaux adsorbants spécifiques à chaque métal à récupérer. Si des solutions existent pour l’adsorption du cuivre (adsorbants à base de carbone, de polymère, réseaux organométalliques MOF), aucune ne donne à ce jour entière satisfaction. Une nouvelle classe d’adsorbants, appelée HOIF (Hydrogen-bonded organic–inorganic frameworks), est en train d’émerger pour la séparation sélective. Dans un article publié dans Nature Communications, une équipe de scientifiques du Berkeley Lab présente un nouveau matériau entrant dans cette catégorie : le ZIOS (zinc imidazole salicylaldoxime supramolecule). D’après le communiqué de presse du Berkeley Lab, ces excellents résultats ont surpris l’équipe de chercheurs elle-même. Ngoc T. Bui, première autrice de cette étude le reconnaît : « Au début, j’ai pensé que c’était une erreur, car les cristaux de ZIOS ont une très faible surface spécifique, or il est communément admis qu’un matériau doit avoir une surface spécifique élevée pour que sa capacité d’adsorption le soit également et que la cinétique d’adsorption soit rapide, comme c’est le cas avec les autres familles d’adsorbants comme les PAF et les MOF ». Comme le montrent les investigations complémentaires réalisées suite à ces observations, il est apparu que l’immersion de cristaux de ZIOS conduit au gonflement des nanocanaux présents dans ceux-ci (d’à peine 2-3 angströms, soit un peu plus que la taille d’une molécule d’eau). Cette extension des pores permet une meilleure circulation des molécules d’eau et des ions cuivre, ce qui facilite la réaction chimique qui a lieu entre les ions cuivre et le ZIOS. Fort de ce succès, l’équipe de chercheurs entend maintenant explorer de nouvelles solutions d’élimination sélective pour d’autres polluants. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| Pour éviter la création de faux passeports, il est nécessaire de concevoir un document très difficile à copier, à produire et à personnaliser, en combinant des caractéristiques tactiles et optiques, des technologies différentes et en utilisant des matériaux et des encres non disponibles dans le domaine public. L’une des technologies plébiscitées actuellement est l’utilisation d’une page de données en polycarbonate, car elle est plus difficile à falsifier qu’une page de données en papier et elle offre une plus grande variété de caractéristiques de sécurité visuelle. Apparu dans les années 50 en Europe, le polycarbonate est un matériau thermoplastique utilisé à des fins diverses (de la fabrication d’abris à la vaisselle dite « incassable » en passant par des pièces pour l’automobile et l’aviation). Ce matériau résistant aux chocs à froid comme à chaud (jusqu’à 100°C) peut être facilement manipulé, laminé et gaufré, et son coût est similaire à celui des alternatives naturelles comme le PET ou le PVC. Un document en polycarbonate contient plusieurs couches qui seront laminées ensemble. Pendant le processus de laminage, les couches sont fusionnées entre elles ; le résultat final est un matériau fini qui ne peut pas être délaminé, ce qui est d’une importance capitale pour la sécurité du document. En France, l’Imprimerie nationale propose ce type de passeport depuis 2016. Résultat, les émissions de passeports en polycarbonate devraient doubler, passant de 60,1 millions en 2020 à 125,5 millions dans quatre ans selon l’étude « Passports and Polycarbonate : Securing the Datapage market data » publiée récemment par ABI Research, une société de conseil sur le marché mondial des technologies. Pour plus de sécurité, les lasers utilisés dans la technologie Color Laser Shield de Thales ne sont pas disponibles sur le marché. Seuls les organismes autorisés peuvent y accéder. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Les cartes graphiques pour jeux vidéo disponibles dans le commerce pourraient nous aider à simuler le fonctionnement du cerveau humain, et ce à moindre coût. C’est en tout cas ce qu’espère une équipe de chercheurs de l’Université du Sussex (Royaume-Uni) qui a reproduit l’activité d’un cortex visuel de macaque à partir d’un modèle contenant 4 millions de neurones et plus de 24 milliards de synapses. « Les scientifiques utilisent depuis longtemps des modélisations numériques pour mieux comprendre le fonctionnement de notre cerveau et mettre au point des traitements pour des pathologies comme la maladie d’Alzheimer ou de Parkinson », précise New Scientist. « Le problème est que, pour simuler le fonctionnement de la quantité de neurones et de synapses d’un être vivant, même le plus simple, ils ont besoin d’une énorme puissance de calcul. Résultat, même les superordinateurs peinent à le faire ». En 2018, une équipe avait déjà simulé, à l’aide d’un superordinateur, ce type d’activité cérébrale sur la base du même modèle de cortex de macaque que celui utilisé dans la publication récente. Une seconde d’activité avait nécessité douze minutes de calcul. Cette fois, grâce à une carte graphique conçue pour rendre des scènes en 3D, l’équipe de James Knight a pu effectuer la même tâche en un peu moins de huit minutes. « Un nouveau superordinateur, Jureca, a pu réaliser la même simulation en seulement trente et une secondes, mais l’opération peut coûter des dizaines de millions d’euros et nécessite le maintien d’une équipe. À l’inverse », explique James Knight à l’hebdomadaire, « la carte Nvidia Titan RTX utilisée pour le test ne coûte que quelques milliers d’euros ». Voilà qui ouvre de nouvelles perspectives en matière de simulation et, par extension, de compréhension du cerveau. Seulement voilà, cet organe essentiel peut, en fonction des événements, renforcer ou affaiblir les connexions entre les synapses. Pour la modélisation numérique, cela signifie qu’il faut pouvoir stocker en mémoire ce type d’information, ce que ne permettent pas les processeurs graphiques (ou GPU). James Knight imagine qu’une approche hybride combinant sa méthode et les techniques de stockage de mémoire traditionnelles pourrait permettre de faire un pas de plus vers la plasticité synaptique. Article rédigé par Georges Simmonds pour RT Flash Courrier International | | | |
| C'est une première mondiale ! Les équipes du CHU de Montpellier ont pratiqué une injection intracérébrale d'un gène porté par un virus inactivé pour guérir une maladie génétique rare de l'enfant. « En cette période compliquée de pandémie virale, nous avons tous en tête les dégâts que peuvent faire des virus sur notre santé, sur notre société. Mais des virus peuvent aussi nous aider à soigner des maladies, à soigner des adultes et des enfants », a souligné le CHU de Montpellier. L'opération a été réalisée en décembre 2020 sur un enfant de 10 ans souffrant de déficit en « décarboxylase des acides aminés aromatiques (AADC) », a précisé Agathe Roubertie, neurologue. Cette maladie très rare est liée à une insuffisance de fabrication par certaines cellules du cerveau d'une substance appelée dopamine et qui a un rôle clef pour le fonctionnement de certaines parties du cerveau impliquées dans le contrôle du mouvement, dans le sommeil et dans l'humeur. « C'est une maladie génique, c'est-à-dire qu'un individu est atteint car il a une anomalie dans une toute petite partie de son code génétique (un gène), et de ce fait la fabrication de dopamine est perturbée », explique le CHU. La thérapie génique consiste à délivrer dans une partie du corps, via un virus inoffensif, un gène «sain» capable de remplacer ou de réparer le gène «malade». « L'intervention réalisée sous anesthésie générale a nécessité une imagerie de type IRM pour réaliser la visée et l'injection en très petites quantités de médicament de façon très précise dans des structures du cerveau situées en profondeur mesurant quelques millimètres, sans créer de lésion », souligne le CHU. D'autres patients souffrant de la même maladie doivent être traités selon la même technique et feront l'objet d'une évaluation régulière. Elle a ajouté que la thérapie génique serait également lancée dans les semaines à venir à Montpellier dans le domaine des maladies neuromusculaires. Article rédigé par Georges Simmonds pour RT Flash Sud-Ouest | | | |
| Il est établi que l'arrêt de la cigarette avant et pendant une grossesse diminue considérablement les risques pour la santé de la mère et de l’enfant. L'association de la consommation de tabac à des modifications épigénétiques dans le sang du cordon ombilical a été mise en évidence lors de différentes études. Ces modifications peuvent être induites par des facteurs environnementaux. Réversibles, elles ne changent pas la séquence des gènes mais peuvent affecter leur expression. L'Inserm, le CNRS et l'Université Grenoble Alpes, en collaboration avec le CEA-Jacob (CNRGH), ont étudié l’ADN d’échantillons de placenta prélevés au moment de l’accouchement chez 568 femmes réparties en 3 catégories : fumeuses avant et pendant leur grossesse, anciennes fumeuses qui ont arrêté de fumer dans les trois mois précédant leur grossesse et non fumeuses. Pour les fumeuses, des modifications épigénétiques ont pu être observées dans 178 régions de l’ADN placentaire, tandis qu'aucune modification n’a été observée chez les non-fumeuses. Et, chez les anciennes fumeuses, 26 régions, parmi les 178 identifiées précédemment, ont été retrouvées. Le placenta conserverait ainsi la mémoire de l’exposition au tabac, même lorsque celle-ci est arrêtée trois mois avant la grossesse, sous forme de modifications épigénétiques de son ADN. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Une équipe de recherche de l’Institut de chimie des milieux et matériaux de Poitiers (Université de Poitiers/CNRS) a mis au point la première synthèse stéréosélective de lassos moléculaires chiraux : des molécules entrelacées pour mimer les processus du vivant. Tous les êtres vivants sont constitués de briques élémentaires chirales (acides aminés, sucres, ADN...). De manière très imagée et simplifiée, on pourrait dire que de nombreuses molécules sont ambidextres, mais que certaines d’entre elles, les molécules chirales, sont exclusivement gauchères ou droitières. Au milieu du 19e siècle, Louis Pasteur a découvert que les organismes vivants utilisent des molécules à la chiralité bien définie, propriété essentielle à leur survie. En effet, certains processus biologiques dépendent d’interactions chimiques qui ne peuvent être réalisées que grâce à des molécules spécifiquement « gauchères » ou au contraire « droitières », un peu à l’image d’une poignée de main qui ne peut se faire qu’entre deux mains droites ou deux mains gauches. Ainsi, la vie a « choisi » de baser plusieurs de ses fondements sur des interactions uniquement « gauchères » ou uniquement « droitières » selon les cas. Depuis lors, de nombreuses méthodes de synthèse ont été développées afin de préparer des molécules chirales de manière sélective (on utilise le terme de synthèse stéréosélective), que ce soit dans le but de mimer le vivant, ou de mieux interagir avec lui. En effet, une même molécule peut par exemple avoir un effet thérapeutique sous une forme (disons « gauchère ») et être inactive, voire même toxique, sous sa forme « opposée » (« droitière » dans cet exemple). Mais pour certaines molécules, dont certaines « machines moléculaires », il était encore impossible de synthétiser l’une d’elle sans synthétiser une petite proportion de l’autre. Au cours des trente dernières années, un nombre impressionnant d’architectures moléculaires entrelacées ont été synthétisées. Cette classe de molécules, telles que les rotaxanes, a principalement été utilisée pour la conception de machines moléculaires, domaine récompensé par le prix Nobel de Chimie en 2016. À l’instar de leurs homologues macroscopiques, les machines moléculaires sont capables de réaliser des tâches spécifiques à l’échelle microscopique. Leur fonctionnement est généralement contrôlé grâce à un stimulus physique ou chimique, tel un bouton « on/off » qui déclenche le mouvement d’une partie de la molécule par rapport à une autre (rotation, étirement, contraction). Très souvent, les machines moléculaires sont constituées d’unités enchevêtrées ou entrelacées l’une dans l’autre (tels deux maillons d’une chaîne). Ce type de lien, appelé liaison mécanique, assure l’assemblage des différentes unités de la machine tout en leur offrant une liberté de mouvement l’une vis-à-vis de l’autre. Les machines moléculaires se retrouvent dans la nature et notamment dans notre organisme, par exemple sous la forme de protéines motrices qui semblent posséder des « pieds moléculaires » leur permettant d’avancer. À terme, les machines moléculaires pourraient par exemple être employées pour former des muscles artificiels, transporter des médicaments ou encore avoir des applications en électronique grâce à leur propriété binaire « on/off ». En résumé, les molécules chirales et les machines moléculaires sont deux pans importants dans la constitution et le fonctionnement du vivant. Pour autant, très peu de méthodes permettant d’accéder à des rotaxanes présentant une chiralité mécanique bien définie ont été découvertes. En d’autres termes, rares sont les méthodes permettant de synthétiser des machines moléculaires exclusivement droitières ou gauchères. Dans ce contexte, une équipe de recherche de l’IC2MP a mis au point la première synthèse de rotaxanes, connus également sous l’appellation de lassos moléculaires, présentant une chiralité mécanique parfaitement définie. Pour ce faire, les scientifiques ont réalisé l’enfilement de la partie linéaire au sein du macrocycle, en contrôlant à l’échelle moléculaire, la face par laquelle se déroule ce processus. Cette stratégie a permis de préparer des lassos moléculaires images l’un de l’autre dans un miroir avec une grande sélectivité. Cette étude ouvre une nouvelle voie pour la préparation d'une grande variété de lassos moléculaires chiraux, permettant ainsi l'étude des propriétés et des applications potentielles de cette classe de molécules entrelacées. À l’IC2MP, les chercheurs et chercheuses utilisent maintenant ces lassos moléculaires pour concevoir des machines mimant les processus de synthèse utilisés par les êtres vivants. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Le groupe pharmaceutique américain Eli Lilly vient d'annoncer des résultats positifs pour un traitement contre le Covid-19 associant deux anticorps de synthèse, bamlanivimab et etesevimab, qui réduit les hospitalisations et les décès de 87 %, selon des essais menés par l’entreprise. Lors d’une deuxième étude avec un dosage différent, le bamlanivimab a été dosé à 700 mg et l’etesevimab à 1,4 gramme. L’essai clinique a été réalisé sur 769 personnes de + de 12 ans positives au Covid-19, et présentant des facteurs de risque les rendant plus susceptibles d’être atteintes des formes graves. Parmi elles, 511 ont reçu le traitement, et 258 ont reçu un placebo. Parmi les personnes soignées avec la combinaison d’anticorps, 4 personnes ont été hospitalisées et aucune n’est décédée. Dans le groupe placebo, 11 personnes ont été hospitalisées et 4 personnes sont mortes du Covid-19. Un premier traitement de la même société, celui-ci uniquement à base de bamlanivimab, avait été autorisé dès début novembre dans le pays. C’est lui qui est également autorisé en France. Article rédigé par Georges Simmonds pour RT Flash Eli Lilly | | | |
| Une nouvelle étude croisée et stratifiée dans le temps vient de montrer qu'une exposition à la pollution atmosphérique était associée à un risque accru de décès. Plus précisément, ses auteurs montrent qu'une exposition à court-terme aux particules fines de diamètre inférieur ou égal à 2,5μm (PM2,5) ou de diamètre inférieur à 10μm (PM10) et au dioxyde d'azote (NO2) était associée à un risque accru de décès par infarctus du myocarde. « Ces résultats aident à la compréhension des effets de la pollution de l'air sur la mortalité cardiovasculaire. Ils mettent en lumière la nécessité que la population générale et les décideurs politiques réduisent l'exposition à la pollution, en particulier pour les personnes âgées et celles qui un risque important d'IDM », écrivent le Docteur Yuewai Liu (Sun Yat-sen University, Guangzhou, Chine) et ses collègues. Auparavant, l’exposition brève à la pollution de l'air avait déjà été liée à la survenue d'un IDM mais peu d'études s’étaient intéressées à l'association entre pollution atmosphérique et mortalité par IDM, et leurs résultats étaient contradictoires », soulignent les chercheurs. Pour aller plus loin, ceux-ci ont étudié 151 608 décès par IDM qui se sont produits dans la province chinoise d'Hubei entre 2013 et 2018. Ils ont évalué l'exposition aux PM2,5, PM10, au dioxyde de sulfure (SO2), au NO2, au monoxyde de carbone et à l'ozone le jour précédant l'IDM (jour « contrôle ») et le jour de l'IDM (jour « événement »). Les chercheurs ont utilisé l'adresse du domicile du patient décédé par IDM. Le niveau d'exposition était pondéré en fonction de la distance du domicile au système de surveillance de la pollution atmosphérique. Les villes chinoises sont équipées de très nombreux capteurs qui mesurent les concentrations de polluants dans l'air. L'exposition moyenne quotidienne aux PM2,5 était de 63,4 μg/m3. Concernant les décès par IDM qui se sont produits entre 2013 et 2018, 98,2 % d'entre eux étaient dus à des IDM aigus, touchant majoritairement des hommes (54 %), de moins de 75 ans (4 1 %). 55, 8 % des décès ont lieu pendant l'hiver. L'étude a montré que l'exposition aux PM2,5, aux PM10 et au NO2 était significativement associée à des risques accrus de décès par IDM. Ces risques augmentaient à mesure que l'exposition augmentait, jusqu'à ce que la pollution atteigne un niveau de 33,3 μg/m3. L'association entre l'exposition au NO2 et la mortalité par IDM était significativement plus forte chez les plus âgés (75 ans et plus) que chez les adultes plus jeunes. Article rédigé par Georges Simmonds pour RT Flash JACC | | | |
| C'est une découverte capitale qui n'a pas fini de faire couler beaucoup d'encre et aura de grandes conséquences dans l'ensemble du champ biologique et médical : selon une étude réalisé par des chercheurs de l'Université de technologie de Chalmers, à Göteborg en Suède, nos codes génétiques contrôleraient non seulement les protéines produites par nos cellules, mais aussi – dans une large mesure – la quantité produite. Ces chercheurs ont d’abord travaillé sur de l'ADN de levure. Ils ont développé des algorithmes d'auto-apprentissage, sous forme de réseaux de neurones artificiels, pour prédire la relation entre ces données génétiques et la quantité moyenne de protéines dans les cellules. Ils ont pu ainsi constater que l’ADN déterminait en grande partie l’expression des gènes, soit la quantité de protéines produite. Alors que jusqu'à présent, le facteur déterminant la quantité de protéines produite restait mal compris, une seule cellule pouvant contenir de quelques molécules d'une protéine donnée à des dizaines de milliers, cette nouvelle recherche ajoute doublement à la compréhension des processus sous-jacents à l'expression génique : non seulement la recherche décrypte les liens entre le code ADN lui-même et l’expression génique mais démontre que ces données peuvent être lues à l'aide de superordinateurs et de l’IA. Les chercheurs ont ensuite testé leur principe d’algorithme sur 6 autres organismes, dont les humains, et ont abouti à une association moyenne entre l'expression génique et le code génétique de 60 %. D'autres analyses de l'expression de gènes individuels montrent que ce qui contrôle le niveau est la présence de certaines combinaisons de motifs dans le code ADN, qui peuvent être trouvées dans différentes parties du code – à la fois dans les régions codantes et non codantes. Des modèles constitués des 4 blocs de construction moléculaires ou nucléobases A, C, G et T, sont associés à l'expression des gènes, c’est-à-dire à la quantité de protéines produites. L’auteur principal, le Professeur Aleksej Zelezniak, du département de biologie et de génie biologique de Chalmers, commente la découverte : « On pourrait comparer cela à une partition d’orchestre. Les notes décrivent les hauteurs que les différents instruments doivent jouer. Mais les notes à elles seules ne font pas la musique. Des informations sur le tempo et la dynamique sont également nécessaires. Ici, la génétique diffuse cette information sur de larges zones de la molécule d'ADN. Auparavant, nous pouvions lire les notes, mais nous ne savions pas comment jouer la musique. Maintenant, nous pouvons faire le s deux ». S’il existe d'autres facteurs qui affectent également l'expression des gènes des cellules (dont les facteurs épigénétiques), ces informations incorporées dans le code génétique représentent environ 80 % du processus. L’équipe valide ce mécanisme sur 7 organismes modèles différents (levure, bactéries, mouche des fruits, souris et humains). « Cette découverte est d'autant plus importante qu'elle est universelle, valable pour toute vie biologique », précise l'étude. Encore une fois, la découverte n’aurait pas été possible sans le recours à l’IA et aux supercalculateurs qui ont permis l’analyse de milliers de positions en même temps, et la découverte des différents motifs et combinaisons de motifs pertinents pour l'expression des gènes. Une méthode qui pourrait devenir un outil important dans plusieurs domaines de recherche, génétique et recherche évolutive, biologie des systèmes, médecine et biotechnologie. Ces travaux vont permettre de mieux comprendre les nombreuses mutations qui peuvent affecter l'expression des gènes dans la cellule et donc, à terme, comment les cancers apparaissent et se développent. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Selon une nouvelle étude britannique, le variant anglais a un taux de mortalité “significativement supérieur” à la souche classique du virus SARS-CoV-2. Les chercheurs ont comparé les taux de mortalité de 54 906 personnes contaminées par le variant britannique, baptisé B.1.1.7, à celui d’autant de personnes infectées par les souches traditionnelles, entre le 1er octobre 2020 et le 29 janvier 2021. En tout, 227 patients sont décédés du variant anglais contre 141 patients infectés par la souche classique. En moyenne, le variant anglais apparaît 64 % plus mortel. Ces chiffres peuvent aller de 32 % à 104 %, notent les chercheurs. « Dans ce groupe à risque comparativement faible, cela représente une augmentation des décès de 2,5 à 4,1 pour 1 000 cas détectés », ont-ils conclu. « Ceci, couplé avec sa propagation rapide, fait de B.1.1.7 une menace qui doit être prise au sérieux », affirme Robert Challen, chercheur de l'Université d'Exeter et codirecteur de l'étude. En tout, ce variant présente 23 mutations génétiques, dont certaines le rendent plus transmissible. Selon des scientifiques britanniques, il serait de 40 % à 70 % plus contagieux que les souches antérieures. Plus contagieux et donc plus mortel, au moins pour le variant britannique, les nouvelles souches du virus SARS-CoV-2 réduisent également l’efficacité des vaccins. Les chercheurs de l'Université de Columbia ont découvert que les anticorps présents dans les échantillons de sang prélevés sur des personnes ayant été vaccinées avec les produits de Pfizer et de Moderna ont une efficacité moindre contre le variant anglais et, surtout, le variant sud-africain. Article rédigé par Georges Simmonds pour RT Flash BMJ | | | |
| Des chercheurs de l’Université de Californie à San Diego ont levé un coin du voile sur les subtils mécanismes d’adaptation utilisés par les cellules du système immunitaire des mammifères. En utilisant une approche multidisciplinaire qui combine bioinformatique, biochimie et virologie, ils ont découvert des fonctions défensives surprenantes coordonnées par une protéine appelée NLRP1, qui sert de capteur pour les agents pathogènes envahissants. Les chercheurs ont étudié les virus de la famille des Picornaviridae, qui génèrent des protéases, des enzymes semblables à des "ciseaux" moléculaires, capables de briser et d'activer la protéine NLRP1. Le poliovirus, le coxsackievirus (responsable de la maladie des mains, de la fièvre aphteuse) et le rhinovirus (l'une des causes les plus fréquentes du rhume) font partie de la famille des Picornaviridae. L'analyse a révélé que la protéine NLRP1 évoluait pour "détecter" ces protéases virales qui, lorsqu’elles brisent NLRP1, déclenchent une réponse immunitaire. Fait intéressant, la protéine NLRP1 a évolué en imitant les sites naturels que la protéase virale coupe habituellement pour que le virus puisse se répliquer. Cela signifie qu’il est difficile pour le virus d’éviter de briser NLRP1 tout en conservant sa capacité de survie. « Dans notre article, nous montrons que la protéine NLRP1 agit comme un appât pour le clivage de la protéase virale et déclenche une sorte d'alarme, ou de déclencheur, dans l'organisme », explique Brian Tsu, l'auteur principal de l'étude. « C'est comme un talon d'Achille pour le virus. Cela permet à l'organisme hôte de trouver des moyens de tirer profit de ce clivage contraint par l'évolution ». Pour les auteurs, cette découverte montre que nous avions jusqu’ici des idées erronées sur la dynamique virus-hôte. « Nous pensons souvent aux virus qui profitent du fait que les hôtes évoluent lentement, mais nous constatons que les hôtes ont changé la donne et utilisé le fait que les virus sont vraiment coincés ici à leur avantage, et donc ils utilisent cette contrainte pour activer une réponse immunitaire », détaille Matt Daugherty, co-auteur de l’étude. Pour pouvoir éviter ce piège tendu par la protéine NLRP1, les virus analysés dans cette étude auraient besoin de modifier simultanément de nombreuses régions de leurs protéases virales, ce qui serait extrêmement difficile. Si l’étude a été menée sur des cellules, elle jette aussi les bases de futures applications potentielles de ce "piège immunitaire", qui pourrait être utilisé dans le système immunitaire des poumons ou du cerveau humain. « Je suis particulièrement enthousiaste à l'idée de rechercher d'autres cas de ce genre, car il s'agit d'une façon élégante et évolutive de détecter et de répondre à une infection virale », conclut le Professeur Daugherty. Article rédigé par Georges Simmonds pour RT Flash Elife | | ^ Haut | |
|
| Anthropologie et Sciences de l'Homme | |
| | | Pour la première fois, la masse de tout ce que nous fabriquons a dépassé celle de toutes les formes de vie sur Terre. C’est ce que montrent des chercheurs dans une étude parue le 9 décembre dans Nature. Pour ce faire, ils ont comparé la masse de toute la matière sèche du monde vivant – des plantes aux baleines, en passant par les insectes – à celle de toute la production humaine, dominée par le béton. La première – la masse du vivant – a été estimée à partir de différents travaux scientifiques, y compris des données satellitaires, menés entre 1900 et 2018. Elle s’élèverait à 1,1 tératonne, soit 1 100 milliards de tonnes. L’estimation de la masse des produits manufacturés, incluant les machines en tout genre, les voitures, les bâtiments et autres infrastructures, est issue des travaux de Frindolin Krausman et ses collègues, qui couvrent la période allant de 1900 à 1915. La comparaison des deux a permis de constater à quel point « l’évolution au cours des cent vingt dernières années a été spectaculaire » souligne Science. Sur cette période, la masse de ce que l’homme produit a doublé tous les vingt ans, de sorte que le point de “bascule” – le moment où le poids des produits manufacturés dépasse la biomasse – vient d’être atteint (à plus ou moins six ans près). « Les bâtiments et autres infrastructures pèsent plus lourd que les arbres et les arbustes de la planète, si l’on en croit les chercheurs. Et la masse de plastique est le double de celle de tous les animaux », détaille encore la revue scientifique. Pour les auteurs de l’étude, « ces résultats corroborent le concept d’anthropocène », une ère où l’espèce humaine domine la planète. Cette étude « apporte de nouvelles preuves de notre impact sur la planète », constate Josh Tewksbury, directeur de Future Earth, un programme de recherche interdisciplinaire centré sur le développement durable. Bien sûr, toutes ces choses produites par l’homme ne sont pas égales, que ce soit en termes d’intérêt pour les gens ou de coût environnemental. Dans Science, Eduardo Brondizio, anthropologue environnemental à l’Université de l’Indiana, qui n’a pas participé à l’étude, souligne que dans les pays en développement, où les villes manquent de logements adéquats, de stations d’épuration des eaux usées et d’autres infrastructures, c’est la pénurie de matériaux humains qui crée des inégalités et est dommageable pour l’environnement. « Ce n’est pas que les infrastructures sont mauvaises en soi », dit-il, « c’est la façon dont nous les construisons qui pose problème ». Article rédigé par Georges Simmonds pour RT Flash Courrier International | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|