| | | | | | | Edition du 24 Septembre 2021 |
| |
|
| Edito Que faire face au fléau de l’alcool ?
Cette semaine je reviens sur un débat, à la fois médical, scientifique et social qui refait régulièrement surface, mais qui a pris, avec la publication de nouvelles études sur les méfaits de l’alcool, une tournure nouvelle, en relançant la question récurrente d’une éventuelle interdiction de la consommation d’alcool dans notre pays. Il y a deux ans, une étude publiée par l’Académie nationale de médecine a fait grand bruit en estimant que le coût social global de l’alcool en France était de l’ordre de 120 milliards d’euros par an (environ 6 % du PIB), si l’on intègre les coûts directs et indirects (soins, accidents du travail, pertes d’emplois). On mesure mieux l’ampleur de ce coût pour notre société quand on sait qu’il représente 58 % de l’ensemble de nos dépenses annuelles de santé (208 milliards en 2020) ou encore trois fois le déficit annuel de l’assurance-maladie. Selon cette étude, le « coût externe » de l’alcool est 8 % plus élevé que celui du tabac, bien que le nombre des décès par le tabac soit plus important que ceux engendrés par l’alcool. Cette différence s’explique par un âge moyen au décès plus jeune pour l’alcool que pour le tabac (63 ans, contre 71 ans) et par le fait que de nombreux décès accidentels engendrés par l’alcool interviennent précocement. Quant aux taxes sur les alcools, censées compenser les méfaits de cette substance pour la santé, elles ne représentent qu’un tiers du coût réel des soins des maladies engendrées par l’alcool. Il faut toutefois rappeler que la consommation moyenne d’alcool par habitant en France a considérablement reculé depuis 60 ans. Alors qu'un Français consommait en moyenne 200 litres d'alcool par an en 1960, il n'en consomme plus que 80 litres, selon l'Insee, en 2018. La consommation de vin a été divisée par 3,5 en 60 ans, passant de 128 à 36 litres en moyenne par adulte et par an. Reste qu’avec 11,7 litres d’alcool pur par an et par habitant (contre 21 litres en 1970) en 2020, la France reste un grand consommateur d’alcool et se situe toujours au-dessus de la moyenne européenne (10 litres par an et par habitant). Aujourd’hui, on estime qu’il y a dans notre pays 5 millions de buveurs excessifs, qui ne parviennent pas à maîtriser leur consommation d’alcool. En 2017, près de la moitié de la population (49 %) ne buvait que 3 % du volume total consommé dans l'année, un tiers (35 %) en consommait 91 %, tandis que les 10 % des plus gros buveurs consommaient 58 % de l’ensemble des boissons alcoolisées… . En 2018, des scientifiques, épidémiologistes et spécialistes de santé publique, ont revu à la baisse le niveau de consommation préconisé pour limiter les risques sanitaires liés à l’alcool. Selon ces scientifiques, il est recommandé de ne pas dépasser les 100 g d'alcool pur par semaine, avec abstinence au moins deux jours par semaine et un mois par an. Cela correspond à 10 verres “standard” de 25 cl de bière, de 10 cl de vin, ou de 3 cl d'alcool fort. Ce niveau de consommation a été calculé en examinant la durée de vie et les causes de décès chez 600.000 buveurs, sujets de 83 études médicales (Voir The Lancet). Ces travaux indiquent qu'à l'âge de 40 ans, l’espérance de vie est r&eac ute;duite de six mois en consommant de 100 à 200 g d'alcool par semaine, d'un à deux ans avec 200 à 350 g, et de quatre à cinq ans avec plus de 350 g. Face à ce fléau de l’alcoolisme, les pouvoirs publics n’ont cessé de durcir la législation au fil du temps. Il y a plus d’un siècle, la loi du 1er octobre 1917 organisa la répression de l’ivresse sur la voie publique. La loi du 24 septembre 1941 organisa la classification et la vente des boissons alcoolisées (dont la fameuse Licence IV), avec des restrictions de consommation selon ces groupes. La loi du 9 juillet 1970 a instauré, pour la première fois en France, un taux légal d’alcoolémie. La loi du 12 juillet 1978 a autorisé les contrôles d’alcoolémie, même en l’absence d'infractions ou d'accidents. La loi « Evin » du 10 janvier 1991 a notamment sensiblement encadré et restreint le champ de la publicité en faveur des boissons alcoolisées. La loi du 21 juillet 2009 portant réforme de l'hôpital et relative aux patients, à la santé et aux territoires, est ensuite venue étendre l'interdiction de la vente des boissons alcooliques à tous les mineurs. Le décret du 1er juillet 2014 est venu également strictement limiter la détention et la consommation d’alcool au sein des entreprises. La loi du 26 janvier 2016 est venue rendre obligatoire la vérification de l’identité, pour toute vente d’alcool à emporter. La loi du 27 décembre 2019 permet à présent au Maire de fixer une plage horaire, qui ne peut pas débuter avant 20h et qui ne peut pas s’achever après 5h, durant laquelle la vente à emporter de boissons alcoolisées est interdite. Enfin, le décret du 2 avril 2021, pris pour lutter contre la pandémie de Covid-19, interdit la consommation d'alcool sur la voie publique et la vente d'alcool à emporter. C’est dans ce contexte qu’un nouveau rapport très instructif de l’Inserm, intitulé, « ReÌduction des dommages associés aÌ la consommation d’alcool », a été publié il y a quelques semaines. Cette étude transdisciplinaire très complète révèle les dernières données épidémiologiques sur l’alcoolisme en France. Elle confirme que la consommation excessive d’alcool reste, on le sait peu, la première cause d’hospitalisation et la deuxième cause de mortalité évitable après le tabac en France (Voir Inserm). Cette étude rappelle que la consommation excessive de boissons alcoolisées est encore responsable d’au moins 41 000 décès dans notre pays, soit 11 % des décès chez les hommes et 4 % chez les femmes. Ce travail souligne que la consommation d’alcool est responsable directement ou indirectement d’une soixantaine de maladies, parmi lesquelles des pathologies cardiovasculaires, certains cancers, de graves troubles psychiques, des dépressions, des suicides et des dommages occasionnés par des accidents de la route ou du travail provoqués par l’alcool. Cette étude montre qu’un jeune de 17 ans sur dix consomme régulièrement de l’alcool et que la moitié a déjà connu une alcoolisation ponctuelle importante (binge drinking). Mais Chez les seniors (50 ans et plus), la consommation d’alcool est également excessive, ce qui se traduit par un risque accru de décès, ou de problèmes de santé liés aux interactions néfastes de l’alcool avec les traitements médicamenteux fréquents dans cette tranche d’âge. L’étude précise que la consommation d’alcool chez les femmes, sujet longtemps tabou, s’est par ailleurs banalisée, et augmente également, ce que confirme le Professeur Reynaud, addictologue réputé. Selon lui, il y aurait jusqu’à 1,5 million de buveuses excessives et 15 % des femmes de moins de 35 ans aurait une consommati on à risque d’alcool. Le rapport rappelle également qu’il n’existe pas de « risque zéro » en matière de consommation d’alcool, une réalité scientifique qui reste largement ignorée du grand public. C’est pourquoi cette étude a remplacé la notion de « seuils de risque » par celle de « repères de consommation à moindre risque », soit 2 verres par jour et 10 verres par semaine maximum. Le rapport insiste sur le fait qu’il existe toujours, comme pour le tabac, un bénéfice à réduire sa consommation d’alcool, même de façon minime, afin de diminuer les risques et les dommages associés. C’est pourquoi, précise l’étude, il est si important de mieux informer la population sur les repères de consommation, et d’identifier les consommateurs &ag rave; risque pour les aider à limiter leur consommation. Il faut également, précise l’étude, améliorer la prise charge médicale et psychologique des personnes dépendantes à l’alcool, qui doivent être considérées comme des patients souffrant d’une maladie chronique, et qui ne doivent plus être stigmatisées par la société. Les experts préconisent de mieux encadrer la vente d’alcool en augmentant le prix et les taxes et en limitant son accessibilité, notamment pour les mineurs. L’autre levier important est celui de la communication, de la prévention et de l’éducation du public, au travers d’interventions ciblées (en milieu scolaire, au travail, auprès des parents…) ou de campagnes, telles que le « Janvier sans alcool ». S’agissant de la prise en charge des personnes devenues dépendantes de l’alcool, les chercheurs soulignent son insuffisance criante et recommandent de développer la réinsertion psychosociale, en rappelant que seulement 10 % des personnes alcoolo-dépendantes bénéficiaient d’une bonne prise en charge en France. Soulignons également qu’il y a quelques jours, l’OMS a proposer de doubler les taxes sur l'alcool en Europe, ce qui permettrait, selon cette organisation, d’éviter 4 800 décès par cancer chaque année sur notre continent, soit environ 6 % des morts de cancers liés à la consommation d’alcool, relève l’organisation sanitaire de l’ONU. L’OMS souligne que les niveaux actuels de taxation de l’alcool restent trop faibles pour faire diminuer drastiquement la consommation d’alcool dans de nombreux pays européens. Selon l’OMS, sur les 4,8 millions de nouveaux cas de cancer chaque année en Europe, 1,4 million, ainsi que 650.000 décès, sont indirectement liés à la consommation d’alcool. Parmi ceux-ci, l’organisation estime que 180.000 cas et 85.000 morts sont directement causés par l’alcool. p> Il y a quelques semaines, une vaste étude publiée par le Centre international de recherche sur le cancer (CIRC) de Lyon a rappelé, pour sa part, qu’environ 4 % des cas de cancer détectés l’an dernier dans le monde étaient liés à la consommation d’alcool, y compris modérée, La plupart de ces cancers attribuables à l’alcool sont associés à une consommation « à risque et excessive » (plus de deux boissons alcoolisées par jour), selon l’étude. Mais ce travail précise que, même une consommation « légère à modérée » (jusqu’à deux verres d’alcool par jour) n’est pas sans risque et avait probablement entraîné plus de 100 000 nouveaux cas de cancer dans le monde en 2020, sur les 1 9 millions de nouveaux cas de cancers enregistrés par l’OMS. Cette vaste recherche précise qu’en 2020, les types de cancer avec le plus grand nombre de nouveaux cas associés à la consommation d’alcool étaient le cancer de l’œsophage (190 000 cas), le cancer du foie (155 000 cas) et le cancer du sein chez les femmes (98 000 cas). La proportion de nouveaux cas de cancers liés à l’alcool est estimée par le CIRC à 5 % en France (20 000 cas), 4 % au Royaume Uni (16 800), 3 % aux Etats-Unis (52 700) ou encore 4 % en Allemagne (21 500). Mais en épidémiologie, rien n’est simple, surtout lorsqu’on s’attaque à la question complexe de savoir quels sont les effets réels et globaux d’une consommation modérée d’alcool sur la santé et l’espérance de vie. Récemment, des chercheurs de l’University College London (UCL) ont par exemple estimé le risque de crise cardiaque, d'accident vasculaire cérébral, d'angine de poitrine et de décès chez 48.423 adultes atteints de maladies cardio-vasculaires (MCV), suivis pendant 20 ans. Ils ont montré que le fait de consommer jusqu'à 105 grammes d'alcool par semaine (ce qui équivaut à environ 13 unités ou un peu plus d'une bouteille de vin) est associé à une réduction significative du risque de crise cardiaque, d'accident vasculaire cérébral (AVC), d'angine ou de dé cès chez les personnes atteintes de MCV (Voir UCL Discovery). L’analyse constate que parmi ces personnes atteintes de maladies cardiaques, celles qui consomment jusqu'à 15 grammes d'alcool par jour, ce qui équivaut à 50 cl de bière ou 1 verre de vin encourent un risque plus faible de récidive d'infarctus du myocarde, d’AVC, d'angine de poitrine ou de décès que ceux qui ne boivent pas. L’étude montre également que les personnes présentant le risque de récidive de MCV le plus faible consomment entre 6 et 8 grammes d'alcool par jour- soit environ un demi-verre de vin : chez ces consommateurs très modérés, le risque de récidive de crise cardiaque, d'angine de poitrine ou d’AVC est réduit de 50 % ; le risque de décès de cause cardiaque de 27 %. Au final, ces travaux concluent qu’une consommation de 7 grammes d’alcool par jour est associée à un risque de déc ès réduit de 21 % toutes causes confondues, par rapport aux sujets qui ne consomment pas du tout d’alcool. Les scientifiques ayant mené cette étude précisent toutefois de manière claire, « qu’il convient en toute circonstance, de réduire sa consommation hebdomadaire d'alcool en deçà d’un niveau raisonnable, et que les personnes qui ne boivent pas d’alcool ne doivent pas se mettre à en consommer dans l’espoir d’un bénéfice en terme de prévention cardiovasculaire ou de réduction des risques de mortalité, car la consommation d’alcool est associée à un risque accru d'autres maladies ». Néanmoins cette étude, qui confirme d’autres travaux antérieurs, interroge. Comment une très faible consommation d’alcool peut-elle à la fois augmenter le risque de mortalité par cancer et diminuer le risque de mortalité « toutes causes ». Bien que cette étude n’apporte pas de réponse à cette question, l’hypothèse la plus probable est qu’il se pourrait qu’une consommation très modérée d’alcool, dans le cadre d’une vie saine, comportant une alimentation équilibrée et de l’exercice physique régulier, augmente, certes, légèrement les risques de certains cancers, mais parallèlement, et cela n’est pas contradictoire, diminue assez fortement les risques de décès pour certaines pathologies cardiovasculaires. Au final, une telle consommation, très mo dérée, il faut bien insister sur ce point, pourrait donc, mais ce point reste débattu au sein de la communauté scientifique, s’avérer neutre, voire plutôt bénéfique pour la santé, si l’on tient compte du risque global de décès et de la totalité des effets complexes de l’alcool sur l’organisme. Sur ce point qui ne fait pas consensus au sein de la communauté scientifique, rappelons qu’en 2009, une autre étude réalisée par des chercheurs de l'Université de Wageningen (Pays-Bas) avait déjà montré que le fait de boire jusqu'à un demi-verre de vin par jour peut prolonger l'espérance de vie de cinq ans chez les hommes. Selon ces recherches menées auprès de près de 1.400 hommes suivis sur quatre décennies, entre 1960 et 2000, le fait de consommer jusqu'à 20 grammes d'alcool, quel qu'il soit, par jour, permet de vivre environ deux ans de plus (Voir Wageningen). L’étude précise, de manière intéressante, que les hommes qui ne boivent que du vin, à condition de ne pas dépasser un demi-verre par jour, voient leur espérance de vie prolongée d'environ deux ans et demi par rapport à ceux qui consomment régulièrement de la bière ou d'autres alcools. Mais ils peuvent espérer vivre cinq ans de plus que ceux qui ne boivent pas d'alcool du tout. L’étude souligne que la consommation de vin permet notamment de réduire les risques de maladies coronariennes ou cérébrovasculaires. En 2018, une autre étude réalisée par des chercheurs de la prestigieuse Université américaine d’Harvard a par ailleurs montré que le fait d’observer cinq habitudes saines peut augmenter de dix ans l’espérance de vie. Ces recherches ont mis en lumière cinq facteurs réduisant les risques de mort prématurée : « ne pas fumer, afficher un Indice de Masse Corporelle bas, pratiquer au moins quotidiennement une activité physique de 30 minutes, avoir un régime alimentaire sain et avoir une consommation d’alcool modérée ». S’agissant de ce dernier point, une « consommation modérée » correspond, pour ces chercheurs, à un verre de vin standard par jour pour une femme, et deux verres pour un homme (soit respectivement 140 et 280 millilitres). Pour parvenir à ces conclusions, cette vaste étude a travaillé sur deux cohortes de 123 000 citoyens américains, suivis médicalement pendant une trentaine d’années (78 865 femmes suivies de 1980 à 2014 et 44 354 hommes de 1986 à 2014). À partir des 42 167 morts renseignés sur la période étudiée, les chercheurs ont conclu que le suivi simultané de ces cinq facteurs permet d’augmenter l’espérance de vie (Voir Harvard). Alors, que conclure de l’ensemble de ces travaux, tous solides et de grande qualité ? Tout d’abord, que la consommation excessive d’alcool, même si elle a heureusement fortement diminué au cours de ces dernières décennies, reste un véritable problème de santé publique, dont les graves conséquences sanitaires et humaines tragiques ont été longtemps sous-estimées dans notre pays. Ces recherches confortent également la nécessité d’abaisser les préconisations de seuils-limites de consommation d’alcool, comme cela vient d’être fait par nos autorités de santé. Le troisième point important que soulèvent ces études concerne la nécessité d’augmenter les taxes sur l’alcool, car les exemples étrangers montrent bien que le prix des boissons alcoolisées constitue un facteur contribuant à une baisse de la vente et de la consommation d’alcool. Enfin, dernier point, il est essentiel de renforcer de manière très importante l’information, à tous les âges et dans toutes les étapes de la vie (écoles, universités, entreprises, associations), concernant les dangers d’une consommation excessive d’alcool et l’ampleur du coût sanitaire et social de l’alcoolis me, encore largement sous-estimé dans le grand public. Mais faut-il aller plus loin et envisager d’aller jusqu’à une interdiction totale de la vente et de la consommation d’alcool dans notre pays ou préconiser officiellement l’abstinence, en matière de consommation d’alcool ? Je ne le pense pas, et ce pour plusieurs raisons. D’abord parce qu’il semblerait, bien que le débat scientifique ne soit pas définitivement tranché sur ce point, qu’une consommation très modérée d’alcool, et plus particulièrement de vin rouge (boisson particulière qui contient de nombreux antioxydants, dont le fameux resvératrol), dans le cadre d’un mode de vie sain, n’augmente pas les risques de mortalité globale prématurée et ne soit pas nuisible pour la santé. Ensuite, parce que l’exemple américain de prohibition de l’alcool, entre 1920 et 1933 a clairement mont ré qu’une telle interdiction n’avait pas permis de réduire de manière significative la consommation d’alcool, car un marché parallèle gigantesque de production et de vente d’alcool s’était rapidement mis en place aux Etats-Unis, sous le contrôle du crime organisé. J’ajouterai, pour conclure, que, comme le disait Cicéron, « Les lois ne doivent pas être plus parfaites que les hommes auxquels elles s’adressent » et je crois qu’il est important, dans une société comme la nôtre où le vin et la vigne sont, depuis l’Antiquité, profondément enracinés dans notre culture, que nous puissions, de manière éduquée et responsable, conserver des moments particuliers de convivialité, d’amitié et de joie qui s’accompagnent, pour ceux qui le souhaitent, d 217;un verre de bon vin… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | C'est une véritable prouesse qu'ont réalisée les ingénieurs chimistes de l’EPFL. Ils ont en effet réussi à mettre au point un modèle d’apprentissage machine qui peut prédire, dans tous les cas de figures, l’état d’oxydation d’un composé, une propriété qui est tellement essentielle que de nombreux chimistes affirment qu’elle doit faire partie du tableau périodique. Les éléments chimiques composent à peu près tout dans le monde physique. En 2016, nous connaissions 118 éléments, qui peuvent tous être classés dans le célèbre tableau périodique que l’on retrouve dans chaque laboratoire et classe de chimie. Chaque élément du tableau périodique apparaît sous forme d’abréviation à une ou deux lettres (par ex. O pour oxygène, Al pour aluminium) avec son numéro atomique, qui indique le nombre de protons présents dans le noyau de l’élément. Le nombre de protons est très important car il détermine le nombre d’électrons en orbite autour du noyau, ce qui définit l’élément et donne ses propriétés chimiques. En résumé, le numéro atomique est la carte d’identité de l’élément. Des chercheurs de la Faculté des Sciences de Base de l’EPFL étudient un autre nombre qui doit être indiqué pour chaque élément dans le tableau périodique : l’état d’oxydation de l’élément, également connu sous le nom de nombre d’oxydation. Pour simplifier, l’état d’oxydation décrit le nombre d’électrons que doit gagner ou perdre un atome afin de former une liaison chimique avec un autre atome. « En chimie, l’état d’oxydation est toujours indiqué dans le nom chimique d’un composé », explique le professeur Berend Smit qui a dirigé la recherche. « Les états d’oxydation jouent un rôle si important dans les principes fondamentaux de la chimie que certains estiment qu’ils devraient être représentés comme la troisième dimension du tableau périodique ». Le chrome est un bon exemple : dans l’état d’oxydation III, il est essentiel au corps humain alors que dans l’état d’oxydation IV, il est extrêmement toxique. Cependant, bien que la détermination de l’état d’oxydation d’un seul élément soit assez simple, les choses se compliquent lorsqu’il s’agit de composés constitués de plusieurs éléments. « Pour les matériaux complexes, il est impossible dans la pratique de prédire l’état d’oxydation à partir des principes de base », affirme Berend Smit. « En fait, la plupart des programmes quantiques exigent l’état d’oxydation du métal comme donnée d’entrée ». L’état actuel des connaissances en prédiction des états d’oxydation reste basé sur ce que l’on appelle la «théorie de la liaison de valence» développée au début du 20e siècle, qui estime l’état d’oxydation d’un composé sur la base des distances entre les atomes de ses éléments constitutifs. Mais cela ne fonctionne pas tout le temps, en particulier dans les matériaux avec des structures cristallines. « On sait que ce n’est pas seulement la distance qui importe, mais aussi la géométrie d’un complexe métallique », déclare Berend Smit. « Mais quand on a essayé d’en tenir compte, cela n’a pas été très fructueux ». Mais ces chercheurs ont réussi à entraîner un algorithme d’apprentissage machine pour classer un groupe célèbre de matériaux, les réseaux organométalliques, par état d’oxydation. L’équipe a utilisé la Cambridge structural database, un répertoire de structures cristallines où l’état d’oxydation est indiqué dans le nom des matériaux. « La base de données est très désordonnée, avec de nombreuses erreurs et un mélange d’expériences, de suppositions d’experts et de différentes variations de la théorie de la liaison de valence qui sont utilisées pour attribuer les états d’oxydation », explique Berend Smit. « Nous partons du principe que la chimie s’autocorrige », ajoute-t-il. « C’est pourquoi, même s’il y a de nombreuses erreurs sur les comptes individuels, l’ensemble de la communauté les corrigera ». « En fait, nous avons créé un modèle d’apprentissage machine qui a intégré les connaissances collectives de la communauté de chimistes », déclare Kevin Jablonka, doctorant dans le laboratoire de Berend Smit. « Notre apprentissage machine s’apparente au jeu télévisé "Who Wants to Be a Millionaire ? ». Si un chimiste ne connaît pas l’état d’oxydation, il a comme solution de demander l’avis de la communauté de chimistes. En téléchargeant une structure cristalline et notre modèle d’apprentissage machine, la communauté de chimistes lui indiquera l’état d’oxydation le plus probable ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Le phosphore reste une ressource rare et les réserves mondiales de phosphates sont limitées. Une pénurie d’engrais phosphatés aurait des conséquences importantes sur la production alimentaire mondiale. Il est donc urgent de trouver des solutions de récupération du phosphore. Des chercheurs américains de la Northwestern University ont développé une membrane appelée PEARL (Phosphate Elimination and Recovery Lightweight). Il s'agit d'un substrat nanocomposite à la fois poreux et flexible, fabriqué par un procédé aqueux. Les nanostructures déposées en surface du substrat ont la particularité de se lier aux ions phosphate, ce qui permet leur captation. Ces travaux montrent que la membrane qu’ils ont développée est capable de capter jusqu’à 99 % des ions phosphate contenus dans les eaux polluées, même à des concentrations significatives. Autre avantage : cette membrane PEARL peut être utilisée de manière réversible, c’est-à-dire qu’elle peut aussi bien absorber ou relarguer les ions phosphate. Le réglage se fait alors par simple contrôle du pH. Cette particularité permet d’une part la récupération du phosphate et d’autre part la réutilisation de la membrane pour de nombreux cycles. Les solutions de dépollution actuelles se contentent d’éliminer le phosphate des eaux polluées. Dans un communiqué de presse, Ninayak Dravid, auteur correspondant de cette étude, explique pourquoi : « On peut toujours faire certaines choses dans le cadre du laboratoire, mais il y a un diagramme de Venn quand vient le temps de passer une technologie à l’échelle : en plus d’être capable d’assurer ce passage, il faut que ce soit fait de manière efficace et économiquement abordable. Jusqu’à présent, il n’existait rien à l’intersection des trois critères, mais notre éponge semble être une plate-forme qui répond à l’ensemble de ces critères ». Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | ^ Haut | |
|
| | | Les éoliennes flottantes sont complexes à construire mais elles devraient offrir de meilleurs rendements en exploitant l'énergie des vents plus puissants qui circulent loin des côtes. Plusieurs pays s'y intéressent de près, notamment la France qui vient de valider un projet de parc de 250 mégawatts. Faire flotter une éolienne, sur le papier, l’idée semble saugrenue : ces équipements sont lourds, encombrants et onéreux. Ce n’est pas le genre de chose qu’on aimerait voir se renverser au bout de quelques secondes, et sombrer dans l’océan. En pratique pourtant, les éoliennes flottantes ont beaucoup de potentiel. Contrairement aux éoliennes fixes, qui ne peuvent être installées dans des zones où la profondeur de l’eau excède 50 mètres, les éoliennes flottantes peuvent aller plus loin des côtes, où les vents plus puissants et plus réguliers offrent de meilleurs rendements. Autre avantage : ces éoliennes gâchent moins la vue. Bien sûr, ces équipements très techniques posent de nombreux défis ; mais de plus en plus d’équipes commencent à leur trouver des solutions. En France, un projet de parc éolien flottant de 250 mégawatts au sud de la Bretagne a ainsi été validé par le gouvernement le 21 mai. Et une deuxième procédure de mise en concurrence devrait être prochainement lancée afin d’installer un parc éolien flottant de 500 mégawatts. Une capacité qui permet de produire approximativement l’électricité consommée annuellement par près de 800 000 personnes. Le géant General Electric s’intéresse également de près aux éoliennes flottantes. Et comme l’a expliqué The Verge le 24 mai, le groupe a beaucoup avancé sur le sujet. Le constructeur, qui a reçu 3 millions de dollars d’aide du département de l’Energie américain pour financer ses travaux, a pris une direction originale : plutôt que d’augmenter le volume des turbines — afin de rendre l’éolienne plus difficile à renverser –, il a décidé de travailler avec les équipements existants, en l’occurrence sa gigantesque turbine Haliade-X 12 MW dont le diamètre dépasse les 200 mètres. Ce pari devrait réduire le coût de ses futures éoliennes flottantes mais il pose des contraintes techniques encore plus élevées, puisque l’ensemble sera moins stable, face aux vagues et au vent. Construire une turbine flottante revient à « fixer un bus à un grand poteau, le faire flotter, et le stabiliser pendant qu’il interagit avec le vent et les vagues » explique d’ailleurs à The Verge, Rogier Bloom, le responsable du projet au sein de GE. Pour aider ses éoliennes flottantes à supporter les aléas de la haute mer, GE a prévu de les fixer à une plate-forme spécifique, reliée au sol par des câbles dont la longueur peut s’ajuster en permanence. Des technologies embarquées permettront d’analyser les rafales et la houle, afin que la plate-forme ajuste sa position en temps réel. Ces changements de position devraient non seulement garantir la stabilité de l’éolienne mais aussi lui donner un meilleur rendement. La prochaine étape pour GE est de montrer le potentiel d’un tel système via des simulations. Si les résultats sont prometteurs, un prototype sera construit. Article rédigé par Georges Simmonds pour RT Flash Numerama | | | |
| La plupart des matériaux plastiques sont fabriqués à partir du pétrole et sont régulièrement pointés du doigt pour leur impact négatif sur l’environnement, notamment parce qu’ils ne sont pas biodégradables. Il existe différentes façons de les fabriquer à partir de matériaux biosourcés, via par exemple l’amidon de maïs, un procédé fréquemment employé. Depuis 4 ans, un programme de recherche transfrontalier, réunissant des équipes belges et françaises, vise à développer de nouvelles méthodes de mise au point de matériaux polymères biosourcés issus des cultures de microalgues. Baptisé ALPO, son objectif est de fabriquer des bioplastiques à hautes performances et compétitifs, qui ne rentrent pas en compétition avec la biomasse alimentaire. Dès le départ de ce projet, les chercheurs ont préféré travailler à partir de microalgues plutôt que de macroalgues, comme le décrit Jean-Marie Raquez, maître de recherche à l’Université de Mons : « La complexité des macroalgues rend plus difficile le contrôle des différents constituants présents à l’intérieur. Dans le cas des microalgues, nous pouvons plus facilement moduler leur composition afin d’obtenir des constituants de type lipidique pour faire du polyuréthane ou alors saccharidique pour produire des acides lactiques et donc des polyesters ». Il existe plusieurs dizaines de milliers d’espèces de microalgues. Les chercheurs en ont principalement sélectionné deux : Chlorella vulgaris, qui possède une capacité à stocker des acides gras, et Arthrospira platensis, qui accumule des polysaccharides. Ce projet a consisté à optimiser la culture des microalgues, à travers l’optimisation de leur croissance à l’aide de bioréacteurs ainsi que des conditions de cultures, comme la température, le pH du milieu, la lumière et les apports en nutriments. Les microalgues ont la capacité de convertir l’énergie solaire en utilisant du CO2 et de l’eau pour produire de l’oxygène et de la biomasse algale grâce à la photosynthèse. Les scientifiques ont analysé l’impact des nutriments sur la croissance de ces micro-organismes aquatiques afin de produire certains constituants qui pourront ensuite être valorisés. « Le CO2 est le premier composant nécessaire aux microalgues. Des dérivés de l’azote ou des phosphores interviennent aussi dans la croissance de manière importante. Nous avons par exemple constaté que l’apport de nitrates et de phosphates dans le milieu va favoriser une croissance dirigée vers les lipides au détriment des saccharides ». La culture de ces microalgues a été réalisée à l’échelle du laboratoire. Entre 24 et 48 heures sont nécessaires à leur croissance avant de pouvoir récupérer la biomasse. La taille de ces micro-organismes étant de quelques microns, des procédés ont été développés pour faciliter leur extraction, notamment en les agglomérant. Ces travaux ont confirmé qu’il est possible de fabriquer certains polymères, nécessaires à la fabrication de bioplastiques, à partir de cette biomasse algale. Le déploiement de ce procédé à une échelle industrielle reste à ce stade difficile pour des raisons économiques. En cause, ses rendements limités : environ 5 grammes par litre et par heure pour la biomasse algale contre environ 100 g pour la biomasse issue de l’amidon de maïs. Il est possible d’atteindre 10 grammes en laboratoire, mais cette performance est difficilement atteignable à grande échelle. Malgré tout, Jean-Marie Raquez pense que la fabrication de plastiques issus de la biomasse algale à destination du packaging ou du textile a de l’avenir : « Pour rendre cette technique compétitive, il faudrait réussir à extraire, en plus des constituants pour fabriquer des bioplastiques, certaines molécules à plus haute valeur ajoutée, comme des antioxydants. Mais, pour l’instant, nous sommes encore loin de ce stade de développement, car il y a des incompatibilités au niveau de la chimie ». Certaines pistes pour améliorer la productivité de ce procédé sont également possibles comme la mise en place d’un système où l’on ajoute des micro-organismes dans un premier bassin et où on récupère la biomasse dans un second, afin de rendre le procédé circulaire et semi-continu. « Au niveau de la valorisation, on pourrait aussi aller plus vite vers la fabrication de matériaux plastiques en intensifiant la séparation des différents constituants des microalgues à l’aide de traitements micro-ondes par exemple », poursuit le chercheur. Un autre atout de ce procédé pourrait aider à son développement : la capacité des microalgues à stocker du CO2. « On pourrait imaginer l’installation de cette technique directement sur des sites industriels afin de capter les effluents gazeux émis et ainsi fabriquer de la biomasse algale », ajoute Jean-Marie Raquez. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| A Machecoul, une commune située près de Nantes, trois exploitations agricoles et deux maraîchers ont fondé la SAS Méthatreil. Il s’agit d’une unité de biométhanisation qui valorise les déchets organiques des fermes (tels que les fumiers et lisiers) ainsi que des CIVE, c’est-à-dire des cultures intermédiaires à vocation énergétique, comme des cultures dérobées et du maïs. Des déchets agroalimentaires (pommes de terre non commercialisables, feuillage des légumes, etc.) viennent compléter la ration journalière des deux digesteurs. Au total, la quantité d’intrants se monte à environ 13.000 tonnes par an, soit un apport moyen de 35 tonnes par jour. Le site procure 1,5 emploi à temps plein, dont un pour la gestion des déchets. L’ensemble des travaux de construction a été confié à la société AgriKomp.fr, filiale d’une entreprise allemande qui dispose aujourd’hui de près de 30 ans d’expertise dans le secteur. Le biogaz est récupéré sur les deux digesteurs et sur la cuve de stockage du digestat. Après purification, le biométhane obtenu (± 120 m3/heure) est injecté à une pression de 6,5 bars dans le réseau de distribution de gaz. Il doit représenter ± 10 % de la consommation de la commune. Ce qui oblige Méthatreil à faire preuve de beaucoup de souplesse, vu la baisse de la demande durant le weekend. La consommation la plus faible a lieu du 1er au 15 août. Pendant les vacances, le site tourne au ralenti pour éviter le recours à la torchère. Un des deux maraîchers fondateurs de Méthatreil utilise du dioxyde de carbone (CO2) comme « fertilisant » pour la croissance de ses cultures sous serres. On sait en effet que les végétaux utilisent le CO2 atmosphérique et l’eau puisée dans le sol par les racines, pour fabriquer de la matière organique. Une atmosphère riche en dioxyde de carbone favorise donc la croissance des plantes. Dans un univers clos comme l’est une serre, il est souvent utile de suppléer le CO2 de l’air par un apport extérieur. Il suffit pour cela de brûler un produit pétrolier, par exemple du pétrole lampant. Cette combustion fournit à la fois du dioxyde de carbone et de l’eau. Dans de telles conditions, ce CO2 peut être considéré comme un engrais d’origine fossile … et il participe aux changements climatiques. Mais pour les serres de ce maraîcher, c’est désormais MéthaTreil qui fournit du CO2. Si classiquement, le dioxyde de carbone issu de l’épuration du biogaz est renvoyé dans l’atmosphère, à Machecoul, il est donc récupéré et utilisé comme fertilisant. Comme on le comprend, ce gaz d’origine renouvelable et produit localement évite la production de CO2 à partir de combustibles fossiles. C’est une première en France. Le passage du biogaz dans des filtres membranaires, à une pression de 15 bars, assure la séparation du CO2 et de l’eau. Après l’épuration, le dioxyde de carbone est liquéfié par un processus de distillation à froid. A noter que cette méthode permet de récupérer totalement le biométhane. Bien qu'une telle installation suppose un investissement assez important, de l'ordre de 5 M€, elle permet la valorisation de 1500 tonnes de CO2 par an et devrait être amortie en moins de 10 ans. Article rédigé par Georges Simmonds pour RT Flash Révolution énergétique | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Le trait de côte ou ligne de rivage est la limite entre la terre et la mer. Il peut naturellement reculer lorsque le littoral est soumis à des effets d’érosion, ou avancer lorsque les sédiments s’accumulent. Mais face au dérèglement climatique, les changements prévus devraient être plus prononcés. Une étude réalisée par des chercheurs de l'Institut UNESCO-IHE sur l'eau (Delft-Pays-Bas), s’est intéressée à 41 estuaires (embouchures de fleuve) dans le monde, dont ceux de la Gironde et de la Loire en France. Les auteurs, une équipe de chercheurs pluridisciplinaire, se sont basés sur trois scénarios de forçage radiatif appelés RCP (Representative Concentration Pathway) pour modéliser le devenir de ces estuaires. Le forçage radiatif est une perturbation du bilan radiatif du système climatique de la Terre, soit entre le rayonnement solaire entrant et les émissions de rayonnements infrarouges sortant de l’atmosphère. Ce n’est plus un mystère, ce forçage radiatif est induit par le dérèglement climatique d’origine anthropique. Développé par le Groupe d'experts intergouvernemental sur l'évolution du climat (Giec), les RCP sont quant à eux des scénarios représentant des variantes probables du climat qui résultent de la hausse de ce niveau d'émission de gaz à effet de serre dans les années à venir (période 2000-2100). Selon les modélisations des chercheurs, quel que soit le scénario RCP, le dérèglement climatique fera reculer les traits de côtes de la quasi-totalité (90 %) des 41 estuaires étudiés au cours du 21ème siècle. Article rédigé par Georges Simmonds pour RT Flash Scientific Reports | | | |
| Selon une étude réalisée par des chercheurs chinois, australiens et britanniques, plus de 5 millions de personnes meurent chaque année à cause de températures « non optimales », qu'elles soient trop basses ou trop élevées. Les scientifiques ont analysé les données de la mortalité liées aux températures de près de 750 lieux dans 43 pays différents entre 2000 et 2019. 9,43 % des décès dans le monde (74 décès pour 100.000 habitants) seraient causés par des températures non optimales pour la population. De manière plus surprenante, la majeure partie de ces décès serait due à des températures trop basses (8,52 %, soit 67 décès pour 100.000 habitants) et beaucoup moins en raison de fortes chaleurs (0,91 %, soit 7 décès pour 100.000 habitants). Cependant, entre la période 2000-2003 et la période 2016-2019, le ratio tend à diminuer concernant le froid comme cause de décès (-0,51 %) tandis qu'il augmente pour la chaleur (+0,21 %). Le professeur de l'Université Monash (Australie) Yuming Guo, l'un des plus importants contributeurs de cette étude, affirme que les taux de mortalité mondiaux à cause de températures non optimales devraient continuer à augmenter : « Dans le futur, la mortalité due au froid devrait continuer à diminuer, mais la mortalité due à la chaleur devrait continuer à augmenter (en raison du réchauffement climatique) ». Il ajoute que « les populations ont la capacité de s'adapter aux changements de températures localisés ». L'Europe est le seul continent qui présente des taux de mortalité à cause de températures basses ou élevées supérieurs à la moyenne mondiale (89 décès pour 100.000 habitants à cause de températures trop basses, et 24 décès pour 100.000 habitants en raison de températures trop élevées). Article rédigé par Georges Simmonds pour RT Flash The Lancet | | | |
| Des chercheurs de l'Université de Cambridge au Royaume-Uni et de l'Université de Tübingen en Allemagne ont établi un lien entre la taille du corps humain et le climat. Pour cela, ils ont étudié la taille du cerveau et du corps de plus de 300 fossiles du genre Homo, auxquels les humains modernes - Homo sapiens - appartiennent. En parallèle, l'équipe de chercheurs a défini les climats régionaux de la Terre au cours du dernier million d'années. Ils ont ensuite déterminé le climat qu'aurait connu chaque fossile lorsqu'il était vivant. Et les résultats ont été probants : la taille du corps humain a varié en fonction de la température. Ainsi, les hommes qui vivaient dans un climat froid avaient des corps plus gros, alors que ceux vivant dans un climat plus chaud avaient un corps plus petit. « Les corps plus grands peuvent protéger les individus des températures froides - plus vous êtes grand, plus votre surface est petite par rapport à votre volume, donc vous conservez la chaleur plus efficacement », souligne Andrea Manica, professeur d'écologie évolutive à l'Université de Cambridge, qui ajoute, « C'est une relation que l'on retrouve chez de nombreux animaux, et même chez les humains contemporains, mais nous savons maintenant qu'elle a été l'un des principaux moteurs des changements de taille corporelle au cours du dernier million d'années ». En revanche, les résultats ont été moins évidents concernant la taille du cerveau. L'équipe en a déduit que le climat avait un rôle dans la taille du cerveau, mais que tout ne pouvait pas être expliqué par la variation des changements environnementaux. « Il est cependant important de noter que le climat explique beaucoup moins les changements de la taille du cerveau que de la taille du corps » a déclaré le scientifique. « Cela signifie que d'autres facteurs tels que les défis cognitifs supplémentaires liés à des vies sociales de plus en plus complexes, des régimes alimentaires plus diversifiés et une technologie plus sophistiquée étaient probablement les principaux moteurs de changements dans la taille du cerveau ». L'étude rappelle également que les humains ne sont pas les seuls à avoir leur taille impactée par le changement climatique. Ainsi, des scientifiques avaient révélé en 2019 que les oiseaux migrateurs nord-américains avaient diminué de taille au cours des 40 dernières années, en réponse à l'augmentation des températures. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des scientifiques américains de l’University of Illinois at Urbana-Champaign (Chicago) ont, pour la première fois, in vitro et in vivo, révélé un processus moléculaire liant un taux de cholestérol élevé à la récidive et aux métastases du cancer du sein. L’identification de ce processus, pourrait conduire au développement de nouvelles thérapies anticancéreuses, « personnalisées » en cas d’hypercholestérolémie. Les chercheurs montrent que ce métabolite du cholestérol amène certaines cellules à envoyer des signaux à d'autres cellules qui favorisent le cancer et que ces signaux sont conditionnés dans des compartiments liés à la membrane appelés « vésicules extracellulaires ». « Les vésicules extracellulaires jouent un rôle important dans la physiologie normale, mais elles ont déjà également été impliquées dans la biologie du cancer », souligne l’auteur principal, Erik Nelson, professeur de physiologie moléculaire et intégrative à l'Université de l'Illinois Urbana-Champaign : « Ces particules transportent une cargaison d'une cellule à une autre, une cargaison qui agit comme un réseau de communication ». Dans cette recherche, pour mieux comprendre comment un sous-produit du métabolisme du cholestérol, le 27-hydroxycholestérol (27HC) agit sur les cellules, l'équipe a exposé plusieurs types de cellules au métabolite, dont des cellules immunitaires, des globules blancs connus sous le nom de polynucléaires neutrophiles. Traités avec du 27-hydroxycholestérol, ces globules blancs ont commencé à évacuer des vésicules extracellulaires. 27HC agit sur les globules blancs et les induit à expulser des vésicules extracellulaires : 27HC favorise la croissance tumorale en se liant aux récepteurs des œstrogènes sur différents tissus, ce qui induit les cellules cancéreuses sensibles aux œstrogènes à proliférer et à se développer. De plus, le 27HC supprime la fonction immunitaire. Les vésicules contiennent toute une collection de molécules de signalisation. Lorsque les chercheurs les injectent chez des souris modèles de cancer du sein, ces vésicules favorisent à la fois la croissance des tumeurs et les métastases du cancer du sein. Ainsi, l’équipe démontre que le métabolite du cholestérol 27HC peut réguler ces vésicules extracellulaires. Ces travaux désignent ainsi une nouvelle cible thérapeutique, le 27HC qui pourrait donner lieu à de nouvelles thérapies permettant de prévenir le cancer du sein, ou sa récidive chez des femmes à taux de cholestérol élevé. Article rédigé par Georges Simmonds pour RT Flash Oxford Academic | | | |
| Des scientifiques de l’Université de Genève (UNIGE) et de la Harvard Medical School sont parvenus à établir les différences entre les réactions immunitaires délétères et celles visant les cellules tumorales qui sont désirées. Il apparaît en effet que si les mécanismes immunitaires sont similaires, les populations de cellules impliquées sont, elles, différentes. Ces travaux, à découvrir dans la revue Science Immunology, permettent d’envisager des traitements mieux ciblés, plus efficaces et moins dangereux pour les personnes atteintes de cancer. Si les immunothérapies – fondées sur la stimulation massive du système immunitaire des malades – ont sauvé de nombreuses vies, elles ne sont malheureusement pas sans conséquences. « En effet, lorsque le système immunitaire est activé de manière si intensive, la réaction inflammatoire qui en découle peut avoir des effets néfastes et provoquer des lésions parfois importantes dans les tissus sains », indique Mikaël Pittet, titulaire de la Chaire Fondation ISREC en immuno-oncologie de la Faculté de médecine de l’UNIGE (Genève) et membre du Swiss Cancer Centre Léman. « C’est pourquoi nous voulions savoir s’il existe des différences entre une réponse immunitaire souhaitée, qui permet l’élimination du cancer, et une réponse indésirable, qui peut affecter les tissus sains. L’identification d’éléments distinctifs entre ces deux réactions immunitaires permettrait le développement de nouvelles approches thérapeutiques encore plus efficaces et moins toxiques ». Grâce notamment à des échantillons de biopsies du foie de patients traités au CHUV et aux HUG ayant souffert de telles réactions toxiques, les scientifiques ont étudié les mécanismes cellulaires et moléculaires à l’œuvre pour en observer les similarités et les dissemblances. Lors d’une réaction toxique liée à l’immunothérapie, deux types de cellules immunitaires — des populations de macrophages et de neutrophiles — semblent responsables de l’attaque de tissus sains, sans pour autant être impliqués dans l’élimination des cellules cancéreuses. A l’opposé, un autre type cellulaire — une population de cellules dendritiques — n’est pas impliqué dans l’attaque de tissus sains mais est indispensable à l’élimination des cellules cancéreuses. « Les immunothérapies peuvent déclencher la production de protéines spécialisées qui alertent le système immunitaire et déclenchent une réponse inflammatoire », explique Mikaël Pittet. Dans une tumeur, ces protéines sont les bienvenues car elles permettent au système immunitaire de détruire les cellules cancéreuses. Dans les tissus sains, par contre, la présence de ces mêmes protéines peut aboutir à la destruction de cellules saines. Le fait que ces protéines inflammatoires soient produites par des cellules si différentes dans les tumeurs et les tissus sains constitue donc une découverte intéressante ». Les cellules dendritiques sont très rares, alors que les macrophages et les neutrophiles sont beaucoup plus courants. Certains macrophages sont présents dans la plupart de nos organes dès le développement embryonnaire et y restent tout au long de notre vie. Contrairement à ce que l’on pensait jusqu’ici, ces macrophages n’inhibent pas forcément l’inflammation mais, stimulés par les immunothérapies, ils enclenchent une réponse inflammatoire néfaste dans le tissu sain où ils résident, expliquant par là même pourquoi la toxicité peut atteindre différents organes. Lorsque les macrophages sont activés par les médicaments, ils produisent des protéines inflammatoires. Celles-ci vont à leur tour activer les neutrophiles qui déclenchent la réaction toxique. « Cela ouvre la possibilité de limiter les effets indésirables de l’immunothérapie en manipulant les neutrophiles », indique Mikaël Pittet. L’équipe de recherche a confirmé sa découverte en étudiant les réactions immunitaires de souris dont l’activité cellulaire était modulée grâce à des outils génétiques. Elle a pu identifier une faille qui pourrait être exploitée pour éliminer ces effets secondaires. Les neutrophiles produisent en effet certains facteurs importants pour l’apparition de toxicité, dont le TNF-α, qui constituerait une cible thérapeutique. Des inhibiteurs du TNF-α sont déjà utilisés pour moduler la réaction immunitaire chez les personnes atteintes d’arthrite et pourraient peut-être s’avérer utiles dans le contexte du cancer pour inhiber les effets toxiques des neutrophiles durant l’immunothérapie. « L’inhibition des neutrophiles pourrait aussi permettre de lutter plus efficacement contre le cancer : en plus de déclencher une réaction toxique, certaines de ces cellules favorisent également la croissance tumorale. Ainsi, en parvenant à les contrôler, nous pourrions avoir un double effet bénéfique : dominer la toxicité dans les tissus sains et limiter la croissance des cellules cancéreuses », conclut Mikaël Pittet. Article rédigé par Georges Simmonds pour RT Flash UNIGE | | | |
| Plusieurs complications majeures liées au diabète de type 2 peuvent maintenant être prédites et prévenues grâce à des percées liées à la génomique et à l'intelligence artificielle, affirment des scientifiques québécois. Les Docteurs Pavel Hamet et Johanne Tremblay du Centre de recherche du centre hospitalier de l'Université de Montréal (CRCHUM) ont mis au point un modèle de prédiction de risque en analysant les données cliniques et génétiques des participants provenant de 17 pays, explique l’institution. Plus de 300 millions de personnes dans le monde souffrent du diabète de type 2, dont 2 millions de Français. Ce chiffre devrait doubler dans les prochaines années en raison de l'augmentation de l'obésité. Le diabète est une maladie chronique qui se manifeste lorsque le corps est incapable de produire suffisamment d'insuline ou de l'utiliser correctement. Le corps a besoin d'insuline pour transformer le sucre en énergie. Il peut entraîner de graves complications et un décès prématuré. Le diabète augmente le risque de complications cardiovasculaires et rénales sérieuses ayant des conséquences majeures sur la qualité de vie des patients, entraînant une augmentation des coûts importante sur notre système de soins de santé, expliquent les chercheurs. Dans leur étude, le duo de scientifiques et leurs collègues ont analysé près de 600 variants génétiques associés aux maladies cardiovasculaires et rénales chez plus d'un million d'individus. Ce travail a permis de mettre au point le modèle de prédiction des risques. Sur une période de cinq ans, 20 % des personnes sont décédées de complications cardiaques dans le groupe à risque génétique élevé, contre seulement 5 % dans le groupe à risque faible. « Ce test génétique de prédiction de risque a aussi permis de repérer les personnes plus à risque de souffrir de néphropathie diabétique », explique le Docteur Pavel Hamet. En outre, ces travaux ont montré qu’un traitement intensif, qui consiste en un contrôle serré de la pression artérielle et de la glycémie, était bénéfique surtout chez les sujets à risque élevé. « Notre test génétique de prédiction de risque, combiné avec le traitement intensif (appelé ADVANCE), permet ainsi de réduire le taux de mortalité cardiovasculaire de 47 % dans le groupe à haut risque. Le nouveau test (mis au point en collaboration avec la compagnie OPTITHERA) a été validé dans quatre cohortes indépendantes », ajoute la Docteure Tremblay. L'étude montre que le nouveau modèle de prédiction de risque polygénique permet de stratifier les patients avec le diabète de type 2 selon leur risque de complications et de cibler plus tôt ceux qui auront le plus grand bénéfice du contrôle intensif de la glycémie et de la pression artérielle. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| Des chercheurs de l’Institut Gladstone de l’Université de Californie San Francisco (UCSF) et de l'Université Emory (Géorgie) viennent d’identifier des signatures de lymphocytes T qui peuvent contribuer à expliquer pourquoi certaines personnes développent un COVID-19 sévère et meurent tandis que d'autres personnes se rétablissent facilement. Ces caractéristiques des cellules T qui distinguent les cas mortels des cas non mortels de COVID-19, documentées dans les Cell Reports, confirment à nouveau le rôle déterminant des cellules T dans la réponse immunitaire contre COVID-19. Alors que les vaccins « font un travail remarquable » pour ralentir la pandémie de COVID-19, certaines personnes infectées peuvent toujours mourir d'une maladie grave et il existe peu de traitements capables d’éviter ces décès. Ce qui tue ces patients ne semble pas être le virus lui-même, mais une réaction excessive du système immunitaire qui entraîne une inflammation massive et des lésions tissulaires. Cette étude d’un type de cellules immunitaires appelées cellules T permet d’identifier des différences fondamentales entre les patients qui surmontent un COVID-19 sévère et ceux qui y succombent. Ainsi, les patients mourants hébergent un nombre relativement important de cellules T capables de s'infiltrer dans les poumons, ce qui contribue fortement à la détérioration pulmonaire caractéristique d’un COVID-19 mortel. Les cellules T sont un élément crucial d'une réponse immunitaire réussie à de nombreux virus, y compris le SRAS-CoV-2, le virus qui cause le COVID-19. Mais les lymphocytes T sont considérablement appauvris dans le sang en cas de COVID-19 sévère. Ici, les scientifiques caractérisent ces cellules T à partir d’échantillons de sang prélevés sur des patients COVID-19 en unité de soins intensifs (USI). La moitié de ces patients a finalement récupéré, l'autre moitié est décédée de la maladie. En examinant des échantillons prélevés à différents moments pendant le séjour des patients à l'USI, les scientifiques ont pu discerner des caractéristiques clivantes. La technique utilisée, CyTOF, permet justement de distinguer les nombreux types de cellules T circulant dans le corps. C’est ainsi que les chercheurs ont pu identifier de profondes différences entre la réponse des cellules T des différents types de patients en USI. En particulier, la réponse des lymphocytes T au SRAS-CoV-2 a augmenté chez les patients qui ont finalement été libérés de l'USI et se sont rétablis. Au contraire, chez les patients décédés, aucune réponse des lymphocytes T, ou une réponse très diminuée au fil du temps est constatée ; les patients décédés présentent un nombre élevé de cellules T sécrétant une molécule inflammatoire qui contribue à l’aggravation de l’état pulmonaire. Actuellement, les patients hospitalisés pour COVID-19 sévère reçoivent principalement de la dexaméthasone, un médicament utilisé pour réduire l'inflammation. Et « la dexaméthasone a sauvé la vie de nombreux patients », précise l’auteur principal, Nadia Roan, chercheur au Glastone Institute : « Notre étude suggère qu'il peut également être bénéfique d'empêcher directement cet excès de cellules immunitaires, dont les cellules T inflammatoires et de bloquer leur entrée dans les poumons. Cette approche pourrait être un bon complément aux traitements anti-inflammatoires de COVID-19 en USI ». Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Qui ne s’est jamais perdu dans ses pensées, plongé dans un vieux souvenir, à l’écoute d’une chanson, à la vue d’une vielle photo ou encore à la dégustation d’un aliment nous réexpédiant illico à notre enfance ? Cette machine à remonter le temps qu’est notre cerveau peut en effet nous transporter très loin, parfois des décennies en arrière. Cette faculté à se souvenir et à "revivre" certains événements du passé se situe dans l’hippocampe, zone du cerveau qui gère la mémoire. Cette étude réalisée par des neurologues français du Centre de Recherche Cerveau et Cognition (CerCo) de Toulouse montre que "les neurones hippocampiques" qui exercent ce processus seraient capables de reproduire ces souvenirs de manière autonome. « Une caractéristique indispensable de la mémoire épisodique est notre capacité à rassembler temporellement différents éléments d'une expérience en un souvenir cohérent. Les "cellules temporelles" de l'hippocampe - des neurones qui représentent les informations temporelles - pourraient jouer un rôle essentiel dans ce processus », expliquent les auteurs des travaux. Ces travaux reposent sur une expérience au cours de laquelle 15 hommes et femmes épileptiques ont été invités à réaliser des tâches tout en devant mémoriser 5 à 7 images dans l'ordre chronologique d'apparition. Leur activité neuronale de l'hippocampe a été observée à l'aide de microélectrodes implantées dans le cerveau des patients. « Nous avons constaté que les cellules temporelles humaines se déclenchent à des moments successifs de cette tâche. Les cellules temporelles ont également signalé des contextes temporels intrinsèquement changeants pendant les périodes vides de 10 secondes entre les essais, alors que les participants attendaient que la tâche reprenne », notent les chercheurs. Ces recherches suggèrent que les neurones hippocampiques humains pourraient jouer un rôle essentiel dans l'organisation temporelle de moments distincts d'une expérience dans la mémoire épisodique. Elles ouvrent une voie prometteuse pour la prise en charge de maladies neurologiques impliquant des pertes de mémoire et des difficultés à se repérer dans le temps, telles que la maladie d’Alzheimer ou la démence à corps de Lewy. Article rédigé par Georges Simmonds pour RT Flash JDNS | | | |
| La sclérose en plaques est due à un dérèglement du système immunitaire : ce dernier s’attaque au cerveau et aux fibres nerveuses en détruisant les gaines de myéline chargées de protéger les neurones. Peu à peu, les patients perdent alors l’usage de leurs membres, présentent des troubles de la vision, de la motricité et de la sensibilité. Il y a une dizaine d’année, des recherches menées auprès de patients ayant développé une forme grave de sclérose en plaques ont mis en évidence une forte inflammation chronique des plaques. Observée grâce à une technique d’imagerie à résonance magnétique (IRM) à haute sensibilité, cette inflammation se traduit par l’apparition d’anneaux noirs à la périphérie des plaques. Une nouvelle étude internationale, dirigée par le Docteur Pietro Maggi et à laquelle ont pris part les universités et hôpitaux universitaires de Lausanne et Bâle (Suisse), ainsi que l'UCLouvain et les cliniques universitaires Saint-Luc (Belgique), montre que ces anneaux noirs sont constitués de cellules inflammatoires, dont des phagocytes, qui s’attaquent aux neurones. Les chercheurs ont suivi 118 patients atteints de sclérose en plaques. Parmi eux, certains présentaient ces lésions inflammatoires chroniques avec des anneaux noirs et d’autres des lésions sans anneaux, c’est-à-dire qui ne sont pas encore au stade d’inflammation chronique active. Tous les participants à l’étude ont vu l’état de leur maladie contrôlé par un examen IRM. Ils se sont aussi soumis à une prise de sang pour détecter le taux de neurofilaments, des protéines normalement présentes à l'intérieur des neurones. Cette technique, qui nécessite de faire appel à un analyseur exécutant un dosage SIMOA (Single Molecule Array), utilise une plaque de puits qui ne peut accueillir qu'une unique molécule. Seules deux machines existent en communauté française, dont celle des cliniques universitaires Saint-Luc, où ont été menés les travaux. « Cette technique a été utilisée dans des maladies neurologiques pour démontrer une perte neuronale, comme dans la maladie dégénérative d'Alzheimer », explique le Docteur Pietro Maggi, chef de Clinique adjoint du service de neurologie aux cliniques universitaires Saint-Luc. « Pour la sclérose en plaques, elle a déjà été utilisée pour montrer que des malades avec des formes sévères avaient un taux de neurofilaments dans le sang plus important, mais c'est la première fois qu'elle est mise en rapport avec l'inflammation chronique au niveau cérébral ». La recherche a en effet mis en évidence une corrélation entre la présence de lésions avec anneau d’inflammation chronique à l’IRM et une augmentation importante du taux de neurofilaments dans le sang, ce qui indique une dégénérescence avancée des neurones. La présence de lésions avec anneau d’inflammation chronique à l’IRM est en outre associée à un handicap clinique plus sévère chez les patients. « C'est l'association la plus forte jamais trouvée au niveau statistique, quand on regarde les variables mesurées en lien avec l'augmentation des neurofilaments dans le sang, ce qui veut dire que ces lésions chroniques actives ont un rôle primordial dans la neurodégénérescence », souligne le Docteur Maggi. Les résultats de cette étude constituent une avancée importante au niveau de la compréhension des mécanismes physiopathologiques de la sclérose en plaques, estime le chercheur. Elle démontre pour la première fois que la présence d’une inflammation chronique à l’IRM s’associe à une dégénérescence neuronale accrue et à une évolution clinique plus sévère chez les patients atteints de sclérose en plaques. Elle montre enfin la possibilité de détecter à la fois la présence d’une inflammation chronique cérébrale et de son effet neurodégénératif grâce à l’utilisation combinée de marqueurs radiologiques et sanguins. Article rédigé par Georges Simmonds pour RT Flash Neurology | | | |
| C’est bien une révolution qui s’annonce en cancérologie, grâce à l'ARNm : des chercheurs de BioNTech ont développé un mélange de quatre ARNm délivrés par injection intratumorale. Ces 4 ARNm stimulent simultanément la production d'interleukine-12 (IL-12), d'interféron-α, de facteur de stimulation des colonies de granulocytes-macrophages et d'IL-15. Cette combinaison a conduit à des réponses immunitaires antitumorales robustes et à une régression tumorale dans plusieurs modèles de souris, y compris ceux présentant plusieurs tumeurs. En un mois et demi, ce traitement a permis d'élever sensiblement le niveau de production de cytokines, et 17 des 20 souris traitées ont vu leurs tumeurs régresser sans effets secondaires notables. Fort de ce succès, un essai clinique de phase 1 a commencé sur 230 patients. Fait remarquable, cette activité antitumorale s'est étendue au-delà des lésions traitées et a inhibé la croissance de tumeurs distantes et de métastases. La combinaison des ARNm avec des anticorps immunomodulateurs a nettement amélioré les réponses antitumorales. Ces résultats très prometteurs confirment que les stratégies à base d'ARNm codant pour des cytokines seront rapidement au cœur des nouveaux traitements contre le cancer. Article rédigé par Georges Simmonds pour RT Flash STM | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|