| | Edito Les effets néfastes et innombrables, encore trop largement sous-estimés, de la pollution de l’air
On estime que la pollution de l'air est responsable d'environ 9 millions de morts par an, ce qui en fait la troisième cause de mortalité derrière les maladies cardiovasculaires (18 millions de morts par an) et le cancer (10 millions de morts par an), mais à égalité avec le tabac (9 millions de morts par an). En, Europe, les efforts mis en œuvre au niveau de l'UE et des Etats ont permis de diminuer de 45 % la pollution de l'air depuis 25 ans, ce qui est significatif mais reste insuffisant : 300 000 européens, dont 45 000 Français décèdent prématurément chaque année à cause de la pollution de l'air liée aux composants chimiques et aux particules fines émises principalement par les transports thermiques, les centrales à charbon, l'industrie et... le chauffage au bois, trop souvent oublié. De nombreuses études réalisées au cours de ces dernières années montrent que les effets de la pollution de l’air, notamment par le biais des particules fines, surviennent à des niveaux d’exposition plus faibles que ce que l’on pensait et affecte toutes les fonctions de l’organisme ou presque, respiration bien sûr, mais également système cardio-vasculaire, système nerveux, fonctions cognitives, système immunitaire et système reproductif. En 2017, le Professeur Parinaud, spécialiste en biologie de la reproduction au Centre Hospitalier Universitaire de Toulouse, a pu par exemple montrer que la pollution de l'air avait un effet direct sur la qualité du sperme et la fertilité masculine (Voir BMC). Cet effet néfaste de la pollution de l'air sur la fertilité masculine a été confirmé en 2022 par une étude chinoise réalisé par l'Université de Nanjing sur 1554 hommes adultes. Ce travail a montré un lien très net entre le niveau d'exposition à la pollution atmosphérique et la qualité du sperme (Voir BMC). Ces découvertes récentes sont très importantes car il faut savoir qu'on assiste depuis un demi-siècle à une baisse constante et très alarmante de la fertilité masculine au niveau mondial. Selon une vaste étude internationale publiée en novembre dernier, celle-ci aurait, globalement, diminué de 51 %, sans qu'on en comprenne clairement les raisons. Comme le souligne le Professeur Hagai Levine, co-auteur de cette étude et épidémiologiste, de l'Université hébraïque de Jérusalem, « Nous avons entre les mains un problème grave qui, s’il n’est pas maîtrisé, pourrait menacer la survie de l’humanité », (Voir Oxford Academic). La pollution de l'air pourrait bien jouer, selon un nombre croissant de scientifiques, un rôle délétère bien plu s important que prévu sur cette baisse de la fertilité masculine. En 2015, le Centre international de recherche sur le cancer de Lyon (CIRC) a conclu que la pollution de l'air ambiant est cancérogène pour l'homme, la pollution par les PM2.5 étant étroitement associée à un risque accru de cancer du poumon. En septembre 2021, l'OMS a publié une révision des valeurs guides de qualité de l'air ambiant pour les PM2.5, les PM10 (diamètre inférieur ou égal à 10 µm), l'ozone et le dioxyde d'azote (NO2). Les nouvelles valeurs guides sont beaucoup plus strictes que les précédentes (divisées par deux pour les particules fines er par quatre pour le NO2) et se rapprochent des normes préconisées par l’OMS. Le terme générique de "particules fines" regroupe des mélanges complexes de substances organiques et inorganiques qui sont en suspension dans l'air sous forme de particules solides ou liquides. La composition de ces particules et leur nocivité varient considérablement selon le lieu, la source et la saison, ce qui a rendu difficile pendant très longtemps leur étude et a conduit à sous-estimer pendant des décennies leurs effets très négatifs sur la santé humaine. Parmi les nombreuses substances nocives qui composent ces particules, on trouve de l'ammonium, du sulfate, du nitrate, de la matière carbonée, du sodium et du silicium. Ces microparticules sont émises directement dans l'air ou se forment par transformation de polluants gazeux, notamment les oxydes d'azote (NOx), les oxydes de soufre (SOx) et les fameux composés organiques volatils (COV), dont on a découvert il y a seulement quelques années le rôle majeur dans la pollution intérieure présente dans les habitations et les bureaux. Les scientifiques classent ces particules en fonction de leur diamètre moyen. Les PM2.5 et PM10 correspondent à la masse des particules (généralement exprimée en µg/m3) dont le diamètre aérodynamique moyen est égal ou inférieur, respectivement, à 2,5 et 10 µm. Les PM10 comprennent donc les particules dites fines (PM2.5) et les particules dites grossières dont le diamètre est compris entre 2,5 et 10 µm (PM2.5-10). Si les particules les plus grosses (PM2.5-10) se déposent principalement dans les voies respiratoires supérieures, les PM2.5 peuvent en revanche atteindre les alvéoles pulmonaires, pénétrer dans le système sanguin et finalement se fixer sur des organes internes. De nombreuses études ont montré les effets néfastes de ces particules fines sur le système pulmonaire, cardiovasculaire, nerveux et immunitaire. Ces travaux ont également montré qu’il n'existe pas de seuil en dessous duquel les PM2.5 n'augmenteraient pas la mortalité aiguë ou chronique. Les normes et les lignes directrices, ainsi que les mesures d'atténuation de la pollution, doivent donc viser à atteindre l'exposition humaine aux PM2.5 la plus faible possible. Des études épidémiologiques récentes montrent que l'exposition à long terme aux PM2.5 altère le développement des poumons, tant chez les enfants, avec une hausse du risque de développer un asthme), que chez les adultes, pour lesquels elle accélère le déclin de la fonction respiratoire et augmente les risques de Bronchite Obstructive Chronique. Plus récemment, de nouveaux travaux ont montré que l'exposition à long terme aux PM2.5 provoque des effets neurologiques, qu’il s’agisse de déclin cognitif ou de démence. Enfin, on sait aujourd’hui que cette exposition chronique aux PM2.5 augmente le risque de diabète et provoque très probablement une baisse de la fertilité masculine et féminine à long terme. L'ozone est un gaz qui est naturellement présent dans la stratosphère et la haute troposphère. Au niveau du sol, l'ozone présent dans l'air ambiant est la principale composition oxydante du smog photochimique. Il s'agit d'un polluant secondaire produit dans les zones urbaines et autres zones polluées par les réactions de la lumière du soleil (réactions photochimiques) avec les oxydes d’azote (NOx) et les composés organiques volatils (COV). Les niveaux les plus élevés d'ozone sont généralement observés l'après-midi, pendant les journées chaudes et ensoleillées. En France, les épisodes de pollution à l'ozone se produisent généralement pendant l'été. La dangerosité de l’ozone résulte de son pouvoir oxydant et de sa faible solubiliteÌ dans l’eau, qui lui permettent d’endommager l’épithélium du poumon profond et de provoquer de nombreuses pathologies respiratoires, comme l’asthme et la bronchite chronique. Des effets néfastes de l'ozone sur les voies respiratoires peuvent se produire même chez des sujets sains à partir de faibles concentrations. Récemment, de nouvelles études ont par ailleurs montré qu’une exposition excessive à l’ozone provoquait également des perturbations dans le métabolisme du glucose et de l'insuline. Le dioxyde d'azote (NO2) présent dans l'air ambiant est un gaz formé par la réaction de l'oxygène avec l'azote à l’occasion du processus de combustion. Précision importante, la quantité de NO2 générée est d’autant plus importante que la température de combustion est élevée. La principale source anthropique de NO2 dans l'air ambiant est l’utilisation de combustibles fossiles pour le chauffage, la production d'électricité ou le fonctionnement des véhicules thermiques, notamment diesel. On sait à présent que l’exposition à long terme à de fortes concentrations de NO2 est particulièrement néfaste pour la santé respiratoire des enfants. D’autres études récentes ont mis en évidence des associations probablement causales entre l’exposition prénatale au NO2 et à ; d’autres polluants atmosphériques et l’augmentation considérable et inexpliquée de l’incidence mondiale des troubles autistiques dans le monde depuis trente ans. D'après une nouvelle étude publiée dans le Canadian Medical Association Journal, les pics de pollution augmentent le risque d'arythmie cardiaque. Et endommagent le cœur en quelques heures à peine. Des chercheurs chinois de l’Université de Shangaï ont croisé les données de plus de 2200 hôpitaux à travers la Chine, un pays où la pollution provoquerait jusqu’à deux millions de morts prématurées par an (Voir CMAJ). En tout, les données d'environ 190.000 patients souffrant d'arythmie soudaine ont été étudiées. Résultat : une exposition à la pollution était clairement associée à des risques d'arythmie cardiaque, associée notamment à de la fibrillation auriculaire, qui favorise la formation de caillots de sang dans les artères. Cette étude a également confirmé la rapidité des effets néfastes de cette pollution. Ils sont apparus au cours des premières heures suivant l'exposition, avant de s'atténuer au bout de 24 heures. C’est pourquoi, soulignent les auteurs, il est très important que les pouvoirs publics réagissent rapidement à chaque épisode de forte pollution et mettent en œuvre des mesures immédiates pour mieux protéger les personnes à risque – enfants, personnes âgées ou ma lades – en cas de forte pollution de l'air. Mais le pire c’est que cette pollution de l’air semble également en mesure de provoquer des pathologies chez des jeunes, comme l’a montré une récente étude anglaise qui a établi un lien entre la pollution aux particules fines à Londres et les arythmies cardiaques chez des adolescents en bonne santé. Autre enseignement que nous apportent des recherches récentes, la pollution aux particules fines accroît également le risque de déclin cognitif et de démence, selon une méta-analyse récemment publiée dans le British medical journal (BMJ). L’équipe de chercheurs de la Harvard T.H. Chan School of Public health a passé au crible plus de 2 000 études publiées ces dix dernières années. Les chercheurs ont ainsi pu établir un lien entre l’exposition aux particules PM2,5 et l’augmentation des risques de démence, même pour une exposition annuelle inférieure à la norme de 12 microgrammes par mètre cube d'air (μg/m3), fixée par l’Agence américaine de protection de l’environnement. Ces chercheurs ont observé une augmentation de 17 % du risque de développer une démence pour chaque augmentati on de 2 μg/m3 de l'exposition annuelle moyenne aux PM2,5. (Voir BMJ). Les chercheurs de la Harvard T.H. Chan School of Public health ont aussi pu mettre en lumière des liens suggérant une association entre démence et oxyde d’azote – 5 % d'augmentation du risque pour chaque augmentation de 10 μg/m3 de l'exposition annuelle au dioxyde d’azote (Voir Harvard T.H. Chan). Cette étude souligne que, compte tenu du nombre considérable de personnes dans le monde exposées à la pollution de l’air, la moindre action visant à réduire cette pollution a un effet immédiat et à long terme sur la santé physique et mentale de la population mondiale. Le Professeur Marc Weisskopf, qui a dirigé ces recherches, souligne que « Pour réduire massivement et durablement l’exposition des popul ations aux particules PM2,5 et à d’autres polluants atmosphériques, le levier de loin le plus efficace est le changemen des réglementations et l’adoption de norme d’exposition plus strictes », Actuellement, dans le monde, 57 millions de personnes vivent avec des symptômes de démence, rappellent les auteurs, et ce nombre pourrait atteindre 153 millions en 2050. Or, ces chercheurs estiment que 40 % de ces cas sont liés à des facteurs de risque potentiellement modifiables, tels que l'exposition aux polluants atmosphériques. On mesure donc, dans ce domaine dans la santé mentale et cérébrale, l'immense enjeu de santé publique que constitue la diminution de la pollution de l'air. Cette pollution atmosphérique constitue également, on l'oublie souvent, un fardeau économique gigantesque : selon la Banque mondiale, le coût de la pollution de l’air s’élèverait au moins à 5 110 milliards de dollars (4 543 milliards d’euros) par an, soit environ 5 % du produit mondial brut. La Commission européenne a présenté en novembre dernier, dans le cadre des nouvelles normes d'émissions Euro 7 pour les véhicules thermiques, un plan global visant à réduire de 75 % d'ici 2030 le nombre de décès prématurés (environ 300 000 par an) provoqués par la pollution de l'air sur notre continent. Ces normes devraient permettre de réduire de 35 % les émissions d'oxyde d'azote (NOx) des voitures particulières et utilitaires légers et de 56 % celles des bus et camions d'ici à 2035. Ces nouvelles normes europ éennes seront aussi les premières au monde à fixer des limites à l'émission de particules fines provoquée par l'usure des freins et celle des pneus qui sont devenues d'importantes sources de production de ces minuscules particules très dangereuses pour la santé, avec le chauffage au bois, l'industrie et la production d'électricité à partir d'énergies fossiles . Mais pour de nombreux médecins et scientifiques, cet effort louable reste insuffisant car les propositions de la Commission en matière de réduction des valeurs limites d’exposition aux principaux polluants restent très en deçà des seuils préconisés par l’OMS. C'est notamment le cas pour les particules fines (PM2,5), les plus dangereuses pour la santé, dont la concentration devrait passer de 25 microgrammes par mètre cube (μg/m3) à 10 μg/m3 d’ici à 2030, soit un niveau qui reste deux fois plus élevé que celui de l’OMS (5 μg/m3). Pour le dioxyde d’azote (NO2), également très néfaste et, émis principalement par le trafic routier, l’Europe veut réduire son seuil à 20 μg/m3, quand l’OMS préconise 10 μg/m3. A côté des transports, la production et la consommation d'électricité, à partir du charbon, représentent encore environ 80 % des particules fines et de la quasi-totalité des oxydes de soufre et d'azote, comme le rappelle l'AIE. Il faut en effet savoir que jamais le monde n'a consommé autant de charbon, huit milliards de tonnes en 2022, soit trois fois plus qu'en 2003, et selon l'AIE cette consommation ne devrait pas se stabiliser avant 2025. Selon un rapport édifiant du groupe Ember, la production des centrales électriques à charbon a connu une croissance annuelle de 9 % en 2021, assurant la production de 10.042 TWh. Soit 36,5 % de la production d'électricité mondiale, contre 35,3 % en 2020. Pourtant l'AIE fait valoir qu'il suffirait d'augmenter de 7 % seulement les investissements dans l'énergie jusqu'en 2040 pour réduire de 1,7 million le nombre de décès pr&eacut e;maturés liés à la pollution de l'air extérieure en 2040, et de 1,6 million celui des décès liés à la pollution domestique. Mais, me direz-vous, n'est-il pas utopique d'envisager sérieusement un monde dans lequel l'ensemble des besoins en énergie serait assuré par des sources renouvelables, propres et décarbonées ? Et bien non, si l'on en croit plusieurs études extrêmement complètes et argumentées réalisées par l’équipe du Professeur Jacobson de la prestigieuse Université de Stanford. Ces travaux montrent que dans 145 pays, la transition vers une énergie reposant entièrement sur l’éolien, l’hydraulique, le solaire et le stockage, serait rentable en six ans, et coûterait moins cher à terme que de conserver les systèmes énergétiques actuels, encore majoritairement dominés par les énergies fossiles. La dernière étude publiée en 2022 montre qu’au niveau mondial, l’association éolien-hydrauliqu e-solaire permettrait de réduire de 56 % les besoins en énergie finale, grâce à la production décentralisée d'énergie et à l'amélioration de l'efficacité énergétique globale. Quant aux décès provoqués par la pollution, ils seraient réduits d'environ 80 %, soit sept millions de vies sauvées chaque année (Voir Royal School of Chemistry). On voit donc bien, à la lumière de toutes ces récentes recherches, que la lutte mondiale contre le réchauffement climatique et contre la pollution de l’air constituent pour notre civilisation humaine deux défis intimement liés. C’est en actionnant simultanément et de manière très volontariste quatre leviers principaux au niveau de la production d’énergie, des transports, du chauffage/climatisation des bâtiments et de l’industrie, et en décarbonant plus rapidement ces quatre secteurs, que nous parviendrons non seulement à stabiliser le dérèglement climatique planétaire, mais également à réduire massivement les effets néfastes et innombrables, encore trop largement sous-estimés de la pollution de l’air. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | La capacité prodigieuse du cerveau à traiter les informations est largement attribuable au réseau de connexions formé par les neurones et les synapses. Mais bien que nous comprenions une grande partie du fonctionnement de cet organe, certains aspects, notamment les fonctions cognitives supérieures comme l’apprentissage et la mémoire, restent obscurs. S’auto-assemblant pour former un maillage dynamique et complexe, les réseaux neuromorphiques sont généralement constitués de fils d’argent hautement conducteurs et recouverts d’une matière polymère. « Ils sont comparables à un réseau neuronal synthétique, car les nanofils agissent comme des neurones et les endroits où ils se connectent les uns aux autres sont analogues aux synapses », souligne Zdenka Kuncic, chercheuse à l’Université de Sydney et co-auteure principale de la nouvelle étude. Afin d’explorer la capacité de mémorisation de tels réseaux, Kuncic et ses collègues ont réalisé un test de mémoire souvent utilisé pour évaluer la nôtre. Connu sous le nom de "tâche n-back", celui-ci implique le visionnage d’une série d’images pour tenter ensuite de se rappeler, après plusieurs diffusions, si l’une d’entre elles réapparaît ultérieurement. Pour les humains, le score moyen est de 7 (impliquant qu’une personne reconnaisse une image apparue jusqu’à sept séquences plus tôt). L’équipe a notamment constaté que le réseau pouvait mémoriser un point spécifique dans un circuit électrique indiqué jusqu’à sept séquences auparavant. Il s’est également avéré que cet apprentissage pouvait être renforcé en sollicitant constamment les voies synaptiques désirées, jusqu’à ce que l’information soit définitivement "fixée". Considérée comme essentielle à la mémorisation préférentielle chez les humains, une telle sélectivité explique notamment pourquoi nous conservons certains souvenirs et en oublions d’autres. Démontrant que les réseaux de nanofils peuvent fonctionner de la même manière que le cerveau humain, et développer une forme de mémoire à court et long terme, ces travaux suggèrent qu’ils pourraient être utilisés dans le domaine de la robotique ou être intégrés à des dispositifs de détection. « Nous avons découvert que les fonctions cognitives d’ordre supérieur, que nous associons normalement au cerveau humain, peuvent être imitées par des matériaux non biologiques », résume l’équipe. « Nos travaux actuels ouvrent la voie à la réplication de l’apprentissage et de la mémoire de type cérébral et suggèrent que la nature sous-jacente de l’intelligence de type cérébral peut être physique ». Article rédigé par Georges Simmonds pour RT Flash Science | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Built Robotics est une start-up californienne qui a mis sur pied le RPD 35, un gigantesque robot de construction autonome dont l’unique mission à l’heure actuelle est d’installer des panneaux solaires. À l’heure où l’énergie propre est un enjeu écologique majeur, une telle machine se présente comme particulièrement utile : elle est capable de travailler 3 à 5 fois plus vite qu’une équipe d’êtres humains formés à cette tâche. Précisément, le RPD 35 se consacre à l’installation des pieux solaires, de grandes poutres en acier d’environ 4,5 mètres de long qui doivent être enfoncées de moitié dans le sol, pour ensuite accueillir le reste de la structure du panneau solaire. Réalisée par des équipes humaines qualifiées, cette tâche prend un temps considérable. Mais c’est du gâteau pour le robot, qui peut transporter 200 poutres en même temps, et en installer une toutes les 73 secondes, le tout sans intervention humaine. Grâce à la présence d’un système GPS, la machine affiche une précision d’un pouce. À ce stade, l’imposante machine de Built Robotics peut installer jusqu’à 300 poutres par jour, une cadence jusqu’à 5 fois plus rapide que celle d’une équipe classique. Cela permet donc d’accélérer considérablement les chantiers, et ils sont nombreux en Californie, un État très ensoleillé. Mais pour Noah Ready-Campbell, le PDG de Built Robotics, le RPD 35 a d’autres avantages. « Nos robots améliorent considérablement l’efficacité des travailleurs sur les chantiers, ce qui est vital sur le marché du travail difficile de la construction. Tout aussi importants, ils assurent la sécurité des travailleurs en réduisant l’exposition au bruit, la fatigue physique et les risques d’accident. » Ce n’est effectivement pas négligeable. Ce gigantesque robot peut travailler cinq fois plus vite qu’une armée de maçons. Si le RPD 35 est un robot dont l’efficacité est facile à démontrer, il faut souligner que Built Robotics ne s’arrête pas à lui. L’entreprise a également développé un système d’automatisation pour les excavatrices, destiné à autonomiser le creusage de tranchées pour l’installation de câbles souterrains. Ces différentes solutions devraient commencer à être déployées dans des entreprises dédiées à la construction d’ici à la fin de l’année 2023. Article rédigé par Georges Simmonds pour RT Flash PVM | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Un système de pompes à chaleur, alimentées par l’eau du lac d'Annecy et connectées à un réseau de chaleur urbain, permettra de chauffer des bâtiments du quartier des Trésums. Le lac d’Annecy n’est pas qu’un décor de carte postale, c’est désormais aussi une source d’énergie renouvelable. Cette eau précieuse, avec sa teinte émeraude, va en effet alimenter un système innovant de boucle d’eau qui devrait couvrir 95 % des besoins en chauffage et en eau chaude sanitaire des bâtiments du nouveau quartier des Trésums, situé à proximité de la vieille ville médiévale de la Venise des Alpes. À savoir 570 logements, un hôtel et la future piscine municipale. Entré en service le 7 avril, ce projet baptisé "ali énergie" a été conçu, réalisé et financé par Idex, une ETI française de 5 700 salariés et 2 milliards d’euros de chiffre d’affaires, spécialisée dans les infrastructures énergétiques locales et décarbonées (déchets, biomasse, géothermie, solaire…). Son fonctionnement ? L’eau est d’abord puisée dans le lac, à 20 mètres de profondeur, où sa température reste stable autour de 7°C, été comme hiver. Elle va ensuite alimenter trois pompes à chaleur, connectées à un réseau de chaleur urbain. « On va utiliser les calories de l’eau du lac puis rejeter cette dernière à 7 mètres à 2°C. Cette différence de température multipliée par le volume d’eau (240 litres par seconde) permet de maintenir la chaleur de notre boucle d’eau chaude », explique Olivier Eck, chef et ingénieur du projet chez Idex. Le système utilise ainsi 35 % d’électricité et 65 % d’énergie renouvelable directement issue du lac. Un procédé qui n’est pas concerné par un potentiel risque de pénurie d’eau, l’in tégralité de l’eau puisée étant restituée. Ce n’est pas tout. Le lac va souffler le chaud… et le froid. En été, l’eau fraîche injectée dans le réseau va faire office de climatiseur naturel pour la piscine, l’hôtel et une résidence senior. Cette technologie utilise 15 fois moins d’électricité qu’un système de climatisation classique et permet donc d’éviter le phénomène d’îlot de chaleur qui en découle. À terme, cela représente une économie de 2 600 tonnes de CO2 par an. Débutée en septembre 2020, sa construction aura nécessité deux ans et demi de travaux. Initialement chiffré à 5,7 millions d’euros, le coût du projet a finalement atteint 10 millions d’euros, du fait de l’envolée du coût des matériaux et quelques aléas lors du chantier. L’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) en a pris à sa charge 1,7 million d’euros. Cette solution se traduira par une facture d’électricité trois fois inférieure, selon Olivier Eck, dont l’entreprise va exploiter l’installation durant les 25 prochaines années. Si ce réseau lacustre fait partie des premières initiatives de ce type en France, avec celui de la commune haut-savoyarde de Saint-Gingolph, il existe depuis plusieurs années en Suisse voisine. Dès 2009, les services industriels de Genève (SIG) ont mis en place cette technologie, nommée hydrothermie, alimentée par l’eau du lac Léman. Il alimente notamment le siège de l’ONU ou celui du Comité international de la Croix-Rouge. D’ici 2035, le réseau sera étendu à 350 bâtiments, ce qui en fera le plus important au monde. Article rédigé par Georges Simmonds pour RT Flash L'Usine Nouvelle | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des étudiants de l'Ecole de Chimie de Rennes, souhaitant lutter contre le gaspillage alimentaire, ont eu l'idée d'un spray comestible, qui permet de conserver les fruits et légumes plus longtemps. Le projet, né dans le cadre de leurs études, en est au stade expérimental, mais l'idée a déjà été protégée. Il s'agit de pulvériser une substance protectrice sur les fruits et légumes pour ralentir leur dégradation. Mais comment ça marche exactement, et que trouve-t-on dans ce spray ? La réponse de Romane Dieryck et Auriane Mabille, co-créatrices du spray : « Une molécule qui est présente dans la carapace des crevettes (chitosan) est un polymère, c'est plein de petites molécules qui vont se relier entre elles pour faire un film, et cela va protéger le fruit. Cela retient l'eau dans le fruit. C'est aussi un facteur qui était important pour la conservation des fruits & légumes. L'eau qui est dans le fruit doit y rester parce que sinon cela va sécher... Et si on a des petites bactéries, des petits champignons qui sont dans le frigo, vu que le film est antibactérien et antifongique, ils ne vont pas pouvoir se poser sur le fruit non plus... C'est un spray qui est comestible et sans risque pour la santé ni pour l'environnement. C'est sans goût et cela peut se consommer normalement& nbsp;». Les étudiants ont travaillé sur le modèle économique de leur invention, mais au final, le spray sera-t-il vraiment accessible à tous les consommateurs, et s'il voit le jour, à quel tarif pourrait-il être proposé ? Yann Launay a interrogé Lou Estines et Auriane Mabille : « on est arrivés à un prix de 13 € pour la bouteille avec la première recharge. C'est un prix qui a été élaboré avec le prix des réactifs, comme l'acide lactique et aussi le prix du chitosan, dans des entreprises qui l'extraient à partir des carapaces de crevettes... On essaie en tout cas de faire un produit qui est lui même zéro déchet, ce qui veut dire que le flacon est en verre, donc on pourra le réutiliser et on n'a aucun intérêt forcément à le jeter. Les pastilles de recharge qui sont solides, on va essayer de faire le moins d'emballages possibles, peut être seulement un carton recyclable, afin que le produit lui même soit ancré dans une politique de développement durable ». La formule imaginée par les étudiants associe de l'acide lactique à du chitosan, issu de la chitine, un des composants principaux des carapaces de crevettes ou de crabes. Une substance sans goût et sans danger pour la santé. Mais à quelle efficacité faut-il s'attendre ? La réponse d'Auriane Mabille et Romane Dieryck. « On pense pour l'instant que cela pourrait donner quelques jours de plus, jusqu'à une semaine de plus, au fruit en terme de consommabilité. Par exemple pour les fraises, ne serait-ce que trois à quatre jours de plus, c'est déjà beaucoup ! » Article rédigé par Georges Simmonds pour RT Flash Ouest France | | | |
| A côté des antalgiques classiques, les antidépresseurs sont des traitements couramment prescrits dans le traitement de la douleur chronique, qu’il s’agisse de la migraine, des céphalées de tension, ou de la fibromyalgie, par exemple. Mais quel est réellement leur niveau d’efficacité ? Selon une nouvelle revue Cochrane, dont les résultats viennent d’être publiés, le niveau de preuve concernant l’utilisation des antidépresseurs dans le traitement de la douleur chronique -mais ne portant pas sur les céphalées- serait en réalité faible, à une exception près. Avec 176 essais cliniques analysés et près de 30 000 patients inclus, il s’agit de la plus grande analyse à ce jour, sur ce sujet. La majorité des études étaient contrôlées par placebo et à bras parallèles. Les pathologies les plus fréquemment représentées étaient la fibromyalgie (59 études), les douleurs neuropathiques (49 études) et les douleurs musculo-squelettiques (40 études). 25 antidépresseurs ont été analysés. Concernant les données d’efficacité, la duloxétine était le seul traitement a montrer de façon certaine une efficacité, même si elle reste modérée. La dose standard est apparue aussi efficace qu'une dose élevée pour la majorité des critères de jugement. Le milnacipran a aussi montré un effet, « bien que la certitude des preuves soit inférieure à celle de la duloxétine », affirment les auteurs, suggérant des études supplémentaires. En revanche, « il n'y avait pas suffisamment de preuves pour tirer des conclusions solides sur l'efficacité et l'innocuité de tout autre antidépresseur pour la douleur chronique », poursuivent les chercheurs - y compris l’amitriptyline, couramment utilisée -. En outre, ils soulignent le manque de données concernant les effets secondaires de ces traitements, avec « des données probantes de très faible certitude pour tous les résultats de sécurité (événements indésirables, événements indésirables graves et retrait) pour tous les antidépresseurs ». Article rédigé par Georges Simmonds pour RT Flash Cochrane Library | | | |
| Tomasz Guzik, professeur de médecine cardiovasculaire à l’Université d’Édimbourg (Royaume-Uni) et au Jagiellonian University Medical College de Cracovie (Pologne), a dirigé une étude qui a permis d’identifier de manière précise les régions du cerveau affectées par l’HTA (Hyper Tension Arterielle) et impliquées dans les démences. Cette avancée a été rendu possible en utilisant une combinaison d’approches d’imagerie, de génétique et d’observation, « nous avons identifié des parties spécifiques du cerveau qui sont affectées par des hausses de la pression artérielle, comme le putamen et des régions spécifiques de la substance blanche ». Les chercheurs ont fait l’hypothèse que ces zones pourraient être celles où l’hypertension artérielle affecte les fonctions cognitives, telles que la perte de mémoire, les capacités de réflexion et la démence. En étudiant un groupe de patients en Italie souffrant d’hypertension artérielle, ces chercheurs ont constaté que les parties du cerveau qu’ils avaient identifiées étaient effectivement affectées. « Nous espérons que nos découvertes nous aideront à développer de nouvelles façons de traiter les troubles cognitifs chez les personnes souffrant d’hypertension artérielle. L’étude des gènes et des protéines de ces structures cérébrales pourrait nous aider à comprendre comment l’hypertension artérielle affecte le cerveau et induit des problèmes cognitifs. De plus, en examinant ces régions spécifiques du cerveau, nous pourrons peut-être prédire qui développera plus rapidement une perte de mémoire et une démence dans un contexte d’hypertension artérielle. Cela pourrait aider à réaliser une médecine de précision, afin que nous puissions donner des thérapies plus intensives en prévention du développement de troubles cognitifs chez les patients les plus &agr ave; risque ». L'équipe internationale de chercheurs a utilisé les données d’imagerie IRM cérébrale de plus de 30 000 participants à l’étude UK Biobank, des informations génétiques du Genome-wide association studies (GWAS) de UK Biobank et de deux autres cohortes internationales (COGENT et le Consortium international pour la pression artérielle), et une technique appelée randomisation mendélienne, pour voir si l’hypertension artérielle était réellement la cause de changements dans des parties spécifiques du cerveau plutôt que d’être simplement associée à ces changements. « La randomisation mendélienne est une façon d’utiliser l’information génétique pour comprendre comment un élément affecte un autre », a déclaré le professeur Guzik. « En particulier, il teste si quelque chose est potentiellement à l’origine d’un certain effet, ou si l’effet n’est qu’une coïncidence. Cela fonctionne en utilisant les informations génétiques d’une personne pour voir s’il existe une relation entre les gènes prédisposant à une pression artérielle élevée et les résultats. S’il existe une relation, il est plus probable que l’hypertension artérielle soit à l’origine du résultat. En effet, les gènes sont transmis au hasard par les parents, ils ne sont donc pas influencés par d’autres facteurs susceptibles de fausse r les résultats. Dans notre étude, si un gène qui cause l’hypertension artérielle est également lié à certaines structures cérébrales et à leur fonction, cela suggère que l’hypertension artérielle pourrait réellement causer un dysfonctionnement cérébral à cet endroit, entraînant des problèmes de mémoire, de réflexion et de démence ». Les chercheurs ont découvert que des changements dans neuf parties du cerveau étaient liés à une pression artérielle plus élevée et à une fonction cognitive moins bonne. Ceux-ci comprenaient le putamen, qui est une structure ronde à la base de l’avant du cerveau, responsable de la régulation des mouvements et de l’influence de divers types d’apprentissage. Les autres zones touchées étaient le rayonnement thalamique antérieur, la couronne radiale antérieure et le membre antérieur de la capsule interne, qui sont des régions de substance blanche qui se connectent et permettent la signalisation entre différentes parties du cerveau. Le rayonnement thalamique antérieur est impliqué dans les fonctions exécutives, telles que la planification des tâches quotidiennes simples et complexes, tandis que les deux autres régions sont impliquées dans la prise de décision et la gestion des émotions. Le premier auteur de l’étude, le professeur agrégé Mateusz Siedlinski a déclaré : « Notre étude a, pour la première fois, identifié des endroits spécifiques du cerveau qui sont potentiellement associés de manière causale à l’hypertension artérielle et aux troubles cognitifs. Cela a été uniquement possible grâce à la disponibilité des données de UK Biobank, y compris des IRM cérébrales, et grâce à des recherches antérieures identifiant des variants génétiques qui affectent la structure et la fonction de plus de 3 000 zones du cerveau ». Article rédigé par Georges Simmonds pour RT Flash EHj | | | |
| Un patient pourrait bientôt n'avoir plus besoin de passer des dizaines d’examens pour avoir un diagnostic précis. À l’avenir, les crises cardiaques pourraient être diagnostiquées avec une rapidité et une précision inégalées grâce à un nouvel outil d’intelligence artificielle. Selon les informations rapportées par le Daily Mail, les chercheurs ont développé un algorithme qui, selon eux, pourrait le permettre très prochainement. Cet outil, appelé CoDE-ACS, a été développé à partir des données de 10 038 patients arrivés à l'hôpital avec une suspicion de crise cardiaque. La technologie utilise certaines de leurs informations comme l'âge, le sexe, les résultats de l'électrocardiogramme et les antécédents médicaux, ainsi que les niveaux de troponine, pour prédire la probabilité qu'un autre individu puisse avoir une crise cardiaque. Le résultat est présenté sous la forme d'un score de probabilité de 0 à 100 pour chaque patient. « La douleur thoracique est l'une des raisons les plus courantes pour lesquelles les gens se présentent aux services d'urgence. Chaque jour, les médecins du monde entier sont confrontés au défi de séparer les patients dont la douleur est due à une crise cardiaque de ceux dont la douleur est due à quelque chose de moins grave », a affirmé le professeur Sir Nilesh Samani, directeur médical de la British Heart Foundation. Pour lui, cette capacité à diagnostiquer rapidement une crise cardiaque pourrait donc réduire considérablement les admissions à l'hôpital et identifier rapidement les patients qui peuvent rentrer chez eux en toute sécurité. Des essais cliniques sont actuellement en cours en Écosse pour évaluer si l'outil d'IA pourrait aider les médecins à réduire la pression sur les services d'urgence surpeuplés. Des recherches antérieures ont montré que les femmes sont 50 % plus susceptibles de recevoir un mauvais diagnostic initial et que les personnes mal diagnostiquées ont un risque 70 % plus élevé de mourir après 30 jours. Article rédigé par Georges Simmonds pour RT Flash BHF | | | |
| Des chercheurs du Beth Israel Deaconess Medical Center de Boston ont montré dans une étude qu’une alimentation saine – de type méditerranéen qui fait la part belle aux végétaux, aux bons gras et aux aliments frais non transformés, équivaudrait à faire 4.000 pas de plus chaque jour en termes de bienfaits sur la santé. Ce nombre de pas correspond à marcher environ 3km. Jusqu’à maintenant on savait qu’un régime alimentaire nutritif et de qualité était associé à de nombreux bienfaits pour la santé, mais on ne savait pas encore très bien s'il était également lié à la forme physique, expliquent les scientifiques. Pour mener leurs travaux, ils se sont basés sur les données des 2.380 personnes ayant participé à l'étude Framingham Heart Study, qui analyse les schémas familiaux de maladies cardiovasculaires et autres. L'âge moyen était de 54 ans et 54 % des participants étaient des femmes. Ils ont subi un test d'effort cardio-pulmonaire maximum sur un vélo pour mesurer le pic de “VO2”, qui indique la quantité d'oxygène utilisée au cours d'un exercice de la plus haute intensité possible. Ils ont également rempli un questionnaire sur leurs habitudes alimentaires afin d'évaluer la consommation de 126 aliments au cours de l'année écoulée, allant de “jamais” ou "moins d'une fois par mois" à “six portions ou plus par jour”. Un score élevé à ce questionnaire indiquait une alimentation de meilleure qualité mettant l'accent sur les légumes, les fruits, les céréales complètes, les noix, les légumineuses, le poisson et les graisses saines, et limitant la viande rouge et l'alcool. Cette alimentation est typique du régime méditerranéen, reconnu pour ses bienfaits sur la santé. Pour l'auteur de l'étude, le Docteur Michael Mi, du Beth Israel Deaconess Medical Center, à Boston aux États-Unis, le constat est sans appel : « Chez les adultes d'âge moyen, des habitudes alimentaires saines sont fortement et favorablement associées à la forme physique, même après avoir pris en compte les niveaux d'activité habituels. La relation était similaire chez les femmes et les hommes, et plus prononcée chez les moins de 54 ans que chez les adultes plus âgés ». L’étude met également en lumière l’impact d’une alimentation de qualité sur les métabolites – des substances produites pendant la digestion et libérées dans le sang pendant l'exercice : « Une alimentation saine est associée à une meilleure santé métabolique, ce qui pourrait être un moyen d'améliorer la forme physique et la capacité à faire de l'exercice », explique le Docteur Mi. Article rédigé par Georges Simmonds pour RT Flash EJPC | | | |
| Des scientifiques ont dévoilé le premier "pan-génome" humain, qui recense la gamme la plus complète à ce jour des gènes de l’espèce humaine, avec l’espoir qu’il aide à expliquer toute une série de maladies. Il compile les génomes de 47 individus d’origines diverses et pourrait permettre d’améliorer considérablement les tests génétiques. L’annonce a été saluée comme « inaugurant une nouvelle ère pour le diagnostic génétique », par le généticien David Adelson, de l’Université australienne d’Adélaïde. Un premier génome humain, qui rassemble l’ensemble du matériel génétique propre à un homme, a été séquencé en 2003. Il a servi de point de référence pour d’autres génomes humains publiés depuis. Il a permis d’identifier des gènes responsables de maladies spécifiques, d’engager la recherche vers une médecine plus personnalisée et d’éclairer le mécanisme de l’évolution humaine. Mais 70 % des séquences de ce premier génome provenaient d’un seul individu, le reste provenant de vingt autres personnes. Ce qui a limité son utilisation pour des populations d’autres origines ethniques. Le génome est le plan génétique de tout organisme. Il contient tous les éléments d’ADN incorporant les instructions pour lui permettre de vivre et se développer. Le génome de deux individus est identique à plus de 99 %, mais les différences restantes peuvent faciliter l’apparition de certaines maladies chez un individu plutôt que chez un autre. Le pan-génome de référence pourrait aider à éclairer ces différences dans des échantillons génétiques, a expliqué Benedict Paten, chercheur et co-auteur de l’étude. « Cela va améliorer les tests génétiques et fournir en même temps une meilleure compréhension de la contribution de tous les genres de variations génétiques sur la santé et les maladies. Pour David Adelson, le généticien australien, cette première édition du pan-génome a déjà accru la précision de détection de changements génétiques d’environ 34 %. Le projet « bénéficiera aux gens de toutes origines, à la différence de l’actuel génome de référence qui ne reflète pas la diversité de l’humanité », a-t-il dit. Au-delà de l’inclusion de séquences provenant de personnes appartenant à des groupes sous-représentés, l’adoption de ce nouveau référentiel demandera un entraînement des scientifiques. Quoi qu’il en soit, « cela permettra de faciliter la découverte de variantes génétiques qui influent sur les traits physiques et physiologiques et, - peut-on espérer-, de mener ensuite à des avancées sanitaires pour de nombreuses personnes », ont estimé deux experts américains cités dans Nature, Arya Massarat et Melissa Gymrek. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Transgene, société de biotechnologie qui conçoit et développe des immunothérapies virales pour le traitement du cancer, annonce le traitement du premier patient dans l’essai Delivir, un essai clinique de Phase I évaluant TG6050. Ce virus oncolytique multifonctionnel est administré par voie intraveineuse chez des patients atteints de cancer du poumon non à petites cellules au stade avancé, récurrent et métastatique (non-small cell lung cancer, NSCLC). TG6050 cherche à surmonter la résistance tumorale en initiant une réponse antitumorale par la combinaison de plusieurs mécanismes d’action qui incluent l’oncolyse (destruction directe des cellules cancéreuses suite à la réplication virale), l’induction d’une réponse immunitaire ainsi que la libération de concentrations élevées d’IL-12 et d’anticorps anti-CTLA4 dans la tumeur. L’essai Delivir inclura jusqu’à 36 patients atteints d’un NSCLC avancé, en rechute après des traitements de référence, y compris les inhibiteurs de points de contrôle immunitaire. La voie IV est considérée comme la plus appropriée pour cette population de patients présentant une maladie disséminée avec de nombreuses métastases visibles et invisibles par les techniques d’imagerie médicale. La fin de l’essai est prévue au deuxième semestre de 2024. Le potentiel d’administration par voie IV des virus oncolytiques, issus de la plate-forme brevetée Invir.IO® de Transgene, a été confirmé par les données présentées pour TG6002. TG6050 s’appuiera sur le profil de sécurité du virus Invir.IO® tout en améliorant le potentiel thérapeutique des deux thérapies puissantes et immunogènes que sont l’IL-12 et un anticorps anti-CTLA4 entier, tout en limitant leur toxicité systémique. Le Docteur Maud Brandely, MD, PhD, Directrice Affaires Médicales (CMO), de Transgene, explique : « Nous sommes enthousiastes d’initier ce premier essai clinique de TG6050 administré par voie intraveineuse chez des patients atteints d’un cancer du poumon non à petites cellules récurrent et métastatique qui sont dans l’attente de nouvelles options thérapeutiques. L’administration intraveineuse de TG6050 a pour but d’augmenter considérablement le potentiel thérapeutique de ce virus oncolytique prometteur, avec une approche ciblée de nombreuses lésions cancéreuses internes et métastatiques inaccessibles par injection intratumorale. Grâce à ses différents mécanismes d’action, dont l’oncolyse, l’induction d’une réponse immunitaire et l’expression de fortes concentrations intratumorales d’IL-12 et d’anticorps anti-CTLA4, et au recours à l’administration intraveineuse, TG6050 présente plusieurs avantages. Nous sommes impatients de poursuivre cet essai et d’obtenir des résultats cliniques pour ce nouveau virus oncolytique prometteur ». L’efficacité et la sécurité de TG6050 ont été démontrées dans des études précliniques et toxicologiques sur des modèles animaux non humains. Les données initiales ont été présentées lors de la réunion annuelle de l’American Association for Cancer Research (AACR), du 14 au 19 avril 2023. Article rédigé par Georges Simmonds pour RT Flash Mypharma | | | |
| Les micro-organismes sont capables de grandes choses. Des scientifiques suisses ont découvert une trentaine de souches de bactéries et de champignons capables de digérer les plastiques, en étant dans des environnements plus tempérés que d’ordinaire. La culture d’organismes capables d’une telle prouesse n’est pas nouvelle et constitue même une activité commerciale importante. Mais ces derniers fonctionnent généralement avec des températures supérieures à 30°C. Résultat, le chauffage nécessaire à leur travail reste coûteux et n’est pas neutre en carbone. Ici, les scientifiques ont découvert des souches capables de le faire à 15°C seulement. La recherche de microbes adaptés au froid et dont les enzymes fonctionnent à des températures plus basses était donc au cœur des préoccupations de ces scientifiques de l’Institut public de recherches sur la forêt, la neige et le paysage (WSL) en Suisse. Des scientifiques annoncent avoir trouvé ces micro-organismes à haute altitude dans les Alpes suisses ou dans les régions polaires. « Ces organismes pourraient contribuer à réduire les coûts et la charge environnementale d’un processus de recyclage enzymatique du plastique », commente le microbiologiste Joel Rüthi, qui a participé à l’étude. Une fois ces microbes prélevés dans les Alpes et régions polaires, les scientifiques se sont attelés à tester leur capacité d’ingestion de différents matériaux. Si aucune souche n’a pu digérer de polyéthylène (PE) non biodégradable (le plastique le plus répandu au monde), 56 % d’entre elles ont pu assimiler du polyester-polyuréthane biodégradable. D’autres s’en sont prises à deux mélanges biodégradables disponibles dans le commerce. « Nous avons été très surpris de constater qu’une grande partie des souches testées était capable de dégrader au moins l’un des plastiques testés », a déclaré Joel Rüthi. On sait désormais que les champions de la digestion de plastique sont deux champignons, capables d’assimiler tous les plastiques testés, à l’exception du PE. Les résultats ont également montré que la capacité à digérer le plastique dépendait du milieu de culture pour la plupart des souches, chacune réagissant différemment aux milieux testés. Les scientifiques n’en sont qu’aux prémices de cette étude, n’ayant testé la digestion qu’à 15°C. Pour la suite, l’objectif est de connaître la température optimale à laquelle les enzymes des souches retenues fonctionnent. Les différents types de plastique n’existant que depuis les années 1950, les bactéries et champignons présents dans la nature n’étaient pas prédestinés à pouvoir les dégrader. Mais ces espèces ont évolué. « Les microbes produisent une grande variété d’enzymes dégradant les polymères et participant à la décomposition des parois cellulaires des plantes », détaille Beat Frey, principal auteur de l’étude. Il cite « les champignons phytopathogènes » comme les principaux « biodégradant » des polyesters. Selon le scientifique, « le prochain grand défi consistera à identifier les enzymes de dégradation du plastique produites par les souches microbiennes et à optimiser le processus pour en obtenir de grandes quantités ». Révolutionner le recyclage du plastique à l’aide de ces microbes n’est pas prévu pour demain, d’autant que le principal plastique utilisé, le PE, reste encore épargné. Article rédigé par Georges Simmonds pour RT Flash Frontiersin | | | |
| Selon une étude américaine de l’Université d’Etat de l’Ohio, plus d'éducation et moins de stress apparaissent comme les 2 facteurs clés de la résilience mentale chez les femmes plus âgées. Le soutien social et une bonne santé contribuent aussi à cette résilience au plus grand âge. L’équipe de l’Ohio State University révèle aussi une association qui peut sembler surprenante : avoir traversé un nombre élevé d'expériences difficiles dans la vie est associé à une résilience très élevée, comme si, en dépit des épreuves, ces femmes affirmaient « Je suis toujours là et je continuerai à me battre ». Mais les études et le fait d’avoir fait au moins 4 années d’études supérieures et de faire face à cet âge plus avancé à de plus faibles niveaux de stress sont les 2 facteurs qui ressortent le plus fortement liés à la résilience psychologique chez ces femmes âgées de 80 ans et plus. L’étude analyse les données de la Women's Health Initiative pour identifier les facteurs associés à cette résilience auto-évaluée plus élevée, soit la capacité à affronter les difficultés et à rebondir après les revers de la vie. Au total, l’étude a porté sur les données de près de 30 000 femmes âgées en moyenne de 84 ans. La résilience a été mesurée en fonction du niveau d'accord ou de désaccord des participants avec ces 3 affirmations : « J'ai tendance à rebondir rapidement après des moments difficiles », « Cela ne me prend pas longtemps pour me remettre d'un événement stressant » et « J'ai des difficultés à surmonter des événements stressants ». Le score de résilience moyen global est de 3,96 sur 5. Bien que des associations entre le niveau de résilience et de nombreuses variables aient été trouvées, 2 facteurs, études et faibles niveaux de stress actuels sont déterminants, quels que soient l’origine ethnique et le niveau socio-économique ; l’importance du soutien social ; une bonne santé auto-évaluée, un faible risque de dépression, sont également des facteurs de résilience significatifs. En revanche, les facteurs d’origine ethnique ou de niveau de revenus ne semblent pas impacter directement la résilience au grand âge ; certains facteurs systématiquement liés à une plus grande résilience ne sont retrouvés que chez les femmes vivant dans des conditions socio-économiques modérées : le fait de vivre seule et la spiritualité ; enfin, une caractéristique sans corrélation avec la résilience apparaît comme le fait d'avoir vécu des événements douloureux et difficiles dans la vie, tels que des décès d'êtres chers, des accidents, des catastrophes majeures, des violences physiques et verbales ou la perte d'emplois. « Curieusement », écrivent les chercheurs, « les femmes très bousculées par la vie ont dans l’ensemble plutôt une capacité de résilience &eac ute;levée ». En attendant, ces conclusions peuvent inspirer les médecins, pour améliorer la qualité de vie de leurs patientes plus âgées, en dépistant la dépression ou encore la solitude ou l’isolement, souligne l’auteur principal, le Docteur Jessica Krok-Schoen, professeure de sciences de la santé à la School of Health and Rehabilitation Sciences de l'Ohio State University. Cependant la relation exacte entre ces différents facteurs et la résilience chez ces femmes âgées devra encore être précisée : ces femmes se sentent-elles moins stressées, déprimées ou accablées par la vie en fonction de leur résilience, ou bien la diminution du stress, de la dépression et de la douleur physique contribue-t-elle à renforcer le sentiment de résilience ? Article rédigé par Georges Simmonds pour RT Flash JOG | | | |
| Avec l’âge, la force des muscles diminue et nos mouvements ralentissent. Mais selon des recherches récentes de l’Université Edith Cowan (Australie), ces signes pourraient indiquer un problème plus grave : la démence tardive. Durant l’étude, les chercheurs ont examiné plus de 1000 femmes âgées en moyenne de 75 ans. Ils ont essayé de déterminer quelles sont les relations entre la fonction musculaire et la démence. Les résultats de l’étude pourraient servir à dépister précocement la démence et mener ainsi des actions préventives plus ciblées. Les chercheurs ont mesuré la force de préhension des femmes. Ils leur ont également fait passer un test TUG (Timed-up-and-go). Celui-ci consistait à mesurer le temps qu’il leur fallait pour se lever d’une chaise, marcher sur trois mètres et retourner s’asseoir. Ces tests ont été répétés au bout de cinq ans pour surveiller toute perte de performance. Les 15 années suivantes, 17 % des participants ont connu une hospitalisation ou un décès lié à la démence. L’équipe a constaté qu’une force de préhension plus faible et un TUG plus lent constituaient des facteurs de risques significatifs de démence. Cette conclusion exclut les facteurs liés au mode de vie, tels que le tabagisme, l’activité physique et la consommation d’alcool. Après 5 ans, les chercheurs ont examiné l’évolution de la force de préhension et les résultats du test TUG. Les résultats ont montré que la diminution des performances a également été associée à un risque accru de démence. La force de préhension peut être facilement mesurée à l’aide d’un appareil portatif appelé dynamomètre. Selon l’auteur principal de l’étude, elle pourrait être une indicatrice de la santé du cerveau. On pourrait ainsi l’utiliser pour identifier plus tôt les risques de démence. « Probablement en raison d’une série de similitudes sous-jacentes, la force de préhension peut également se présenter comme une mesure de substitution des maladies cardiovasculaires, de l’inflammation et de la fragilité, qui sont des facteurs de risque connus pour la démence ». La mesure de la force de préhension et le test TUG sont des outils de dépistage simples et peu coûteux. Les intégrer dans le cadre de dépistage de la démence pourrait être utile pour identifier les personnes à haut risque. Ces derniers pourront bénéficier de programmes de prévention primaire visant à empêcher l’apparition de la maladie. Article rédigé par Georges Simmonds pour RT Flash OAG | | | |
| On savait que la consommation de cannabis régulière avait un risque de favoriser le déclenchement de la schizophrénie chez certaines personnes. Mais une importante étude danoise donne plus de précisions sur le lien entre le cannabis et cette pathologie psychiatrique. Selon les scientifiques des services de santé mentale du Danemark et du National Insitute on Drug Abuse (NIDA), 30 % des cas de schizophrénie chez les jeunes hommes âgés de 21 à 30 ans sont liés à une consommation de cannabis. À noter que cette proportion est très différente entre les femmes et les hommes. Elle est de 15 % pour les hommes âgés de 16 à 49 ans et de 4 % pour les femmes âgées de 16 à 49 ans. Pour obtenir ces résultats, l’étude a examiné près de 7 millions de personnes âgées de 16 à 49 ans entre 1972 et 2021. Il s’agit de la plus vaste enquête réalisée sur ce sujet. « Nous avons constaté que la proportion de cas de schizophrénie attribuables à un trouble lié à la consommation de cannabis, et ceux qui auraient pu être évités, était beaucoup plus élevée chez les hommes que chez les femmes et, en particulier, chez les hommes plus jeunes chez qui le cerveau est encore en cours de maturation », explique Carsten Hjorthøj, l’un des auteurs de l’étude. Les chercheurs estiment que « les liens entre troubles liés à la consommation de substances et maladies mentales présentent un problème de santé publique majeur, qui nécessite une action urgente et un soutien aux personnes ». Le Docteur Casten Hjorthøj, de l’Université de Copenhague, met en garde contre la légalisation croissante de cette drogue dans le monde et des risques d’augmentation de troubles psychotiques graves. « La légalisation croissante du cannabis au cours des dernières décennies […] a diminué la perception par le public de ses effets nocifs », estime-t-il. Les chercheurs danois conseillent de miser sur plus de prévention face aux risques, sur le dépistage et sur le traitement des personnes susceptibles de souffrir de pathologies psychiatriques. La schizophrénie toucherait environ 24 millions de personnes dans le monde, soit une sur 300, selon l’OMS. En France, elle concernerait 600 000 personnes, selon l’Inserm. Elle entraîne des troubles importants de la perception de la réalité et des altérations du comportement qui peuvent être liés à un délire, des hallucinations ou une sensation d’influence, de contrôle ou de passivité. Article rédigé par Georges Simmonds pour RT Flash Cambridge | | | |
| En France, plus de 167.000 personnes sont atteintes de la maladie de Parkinson, selon l’Inserm. Cette pathologie neurodégénérative d’évolution lente et progressive se caractérise par trois principaux symptômes moteurs : l’akinésie (lorsque l’individu ressent une lenteur dans la mise en œuvre et la coordination de ses mouvements) l’hypertonie (une rigidité anormale des muscles), les tremblements qui concernent surtout les mains et les bras. Selon l’Inserm, des antécédents familiaux existent chez 15 % des patients et une origine génétique (liée à un seul gène causal) est retrouvée dans 5 % des cas. Mais une nouvelle étude, parue le 1er mai, met en lumière un autre facteur : le microbiote. A la recherche des facteurs possibles de la maladie de Parkinson, des chercheurs finlandais ont décidé d'étudier l'ensemble de micro-organismes (comme les bactéries, les virus, les parasites et les champignons non pathogènes) installés dans les intestins de personnes souffrant de cette pathologie. Les scientifiques estiment que certaines souches de bactéries intestinales, plus précisément celles appelées Desulfovibrio, seraient une des causes probables du développement de la maladie de Parkinson. « Nos découvertes sont importantes, car la cause de la maladie de Parkinson reste inconnue malgré les tentatives de l'identifier au cours des deux derniers siècles », indique le professeur Per Saris, l’un des auteurs, dans un communiqué. « Les résultats indiquent que des souches spécifiques de bactéries Desulfovibrio sont susceptibles de provoquer la maladie de Parkinson. Cette pathologie est principalement causée par des facteurs environnementaux, c'est-à-dire l'exposition environnementale aux souches bactériennes Desulfovibrio qui causent la maladie de Parkinson. Seule une petite partie [des personnes atteintes de la maladie de Parkinson], soit environ 10 %, est due à des gènes individuels ». L’objectif des chercheurs serait de pouvoir dépister les personnes porteuses de souches de bactéries Desulfovibrio afin de les éliminer de leur intestin. À terme, cette intervention pourrait permettre de prévenir le développement de la maladie… Ce serait alors une étape importante dans la recherche médicale, car jusqu'à présent, les traitements ne sont pas curatifs. Ils permettent seulement de ralentir la pathologie. « Nos découvertes permettent de dépister les porteurs de ces bactéries nocives », conclut le professeur Per Saris. Ainsi, des mesures visant à éliminer ces souches de l'intestin [peuvent être mises en place et ainsi atténuer et ralentir] les symptômes des patients atteints de la maladie de Parkinson ». Article rédigé par Georges Simmonds pour RT Flash Frontiers | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|