| | Edito Les vitamines : des alliées inestimables pour une bonne santé physique et mentale
La découverte des 13 vitamines que nous connaissons aujourd’hui (A, D, E, K, B1, B2, B5, B6, B8, B9, B12, et C), de leur structure chimique, de leurs nombreuses propriétés et effets sur le métabolisme, est une longue et passionnante histoire qui s’étale sur plus d’un demi-siècle, de 1887, date de la découverte de la vitamine B1 (Thiamine), par le biologiste hollandais Christian Eijkman, jusqu’à la découverte de la vitamine B9 (Acide folique), dont le rôle-clé dans l'anémie macrocytaire des femmes enceintes fut mis en évidence en 1930 par la grande hématologue britannique Lucie Wills, mais qui ne fut chimiquement identifiée qu’en 1941. Il est impossible de passer ici en revue l’ensemble des études récentes concernant les effets bénéfiques de certaines vitamines dans la prévention d’une multitude de pathologies organiques, mais également neurodégénératives ou psychiatriques. Néanmoins, quelques-unes de ces études méritent d’être évoquées. En mai 2020, une étude britannique, portant sur 20 pays européens, a constaté un lien entre les niveaux de vitamine D et les cas de COVID-19 (voir a.r.u.). Ce travail, dirigé par Lee Smith de l'Université Anglia Ruskin, a montré une nette corrélation entre les niveaux moyens de vitamine D, le nombre de cas de COVID-19 et les taux de mortalité. La vitamine D aurait cet effet protecteur en limitant la production de cytokines inflammatoires. Ces recherches ont notamment montré qu’en Italie et en Espagne, pays ayant eu, au regard de leur population, une mortalité très élevée due à la COVID-19, on observe des taux moyens de vitamine D inférieurs à ceux de la plupart des pays du nord de l'Europe. L’explication réside dans le fait que les habitants les plus âgés du sud de l'Europe évitent de s’exposer de manière intensive au soleil ; en outre, la pigmentation plus foncée de la peau dans ces pays méditerranéens réduit également la synthèse naturelle de la vitamine D. L’étude souligne qu’on trouve, en revanche, des taux moyens de vitamine D les plus élevés dans les pays du nord de l'Europe, en raison des habitudes alimentaires, telles que la consommation d'huile de foie de morue et de suppléments de vitamine D, et d’une exposi tion accrue au soleil. Or, les pays scandinaves, Finlande, Danemark, Norvège (à l’exception notable de la Suède pour d'autres raisons) sont parmi les pays d'Europe où le nombre de cas de COVID-19 et le taux de mortalité par habitant sont les plus faibles. « Nos travaux montrent une relation significative entre les niveaux moyens de vitamine D et le nombre de cas de COVID-19, et en particulier les taux de mortalité par COVID-19, considérés proportionnellement à la population, dans les 20 pays européens », indique Lee Smith. Il y a quelques semaines, début mars, une étude réalisée par l’Ecole des sciences de la vie de l’Université d’Hiroshima (Japon) a confirmé les bénéfices de la vitamine B6, que l'on trouve dans de nombreux aliments, pour renforcer notre système immunitaire et prévenir les formes les plus graves de la Covid-19 (Voir Frontiers in Nutrition). Ces recherches rappellent que la vitamine B6, qui exerce un effet protecteur contre les maladies chroniques telles que les maladies cardiovasculaires et le diabète en diminuant l'inflammation et le stress oxydatif, est également en mesure de diminuer les risques de développer une forme grave de Covid-19. L’étude souligne également le lien entre thromboses (coagulation du sang) et gravité de la Covi d-19, en précisant que la vitamine B6 possède des vertus anti-thrombotiques. La vitamine D joue également un rôle majeur en matière de prévention et de protection contre de nombreuses pathologies. Une méta-analyse portant sur 2 367 personnes a par exemple montré en 2018 que les personnes déficientes en vitamine D étaient moins bien protégées contre deux souches de grippe après avoir été vaccinées que celles qui avaient des niveaux de vitamine D adéquats (Voir NCBI). D’autres recherches ont montré que l’administration quotidienne de suppléments de vitamine E aux personnes de plus de 65 ans augmentait la quantité d’anticorps qu’elles produisaient après avoir été vaccinées contre l’hépatite B et le tétanos. Une autre étude publiée en février dernier par le Centre de recherche contre le cancer d’Heidelberg a montré, de manière saisissante, que, si tous les Allemands de plus de 50 ans prenaient des suppléments de vitamine D, on pourrait éviter jusqu'à 30 000 décès par cancer par an, et gagner plus de 300 000 années de vie (Voir FEBS PRESS). Selon ce travail, une supplémentation en vitamine D serait associée à une réduction du taux de mortalité par cancer d'environ 13 %. « Compte tenu des effets positifs potentiellement significatifs sur la mortalité par cancer, nous devrions chercher de nouveaux moyens de réduire la carence en vitamine D largement répandue dans la population âgée en Allemagne »,m> estime M. Brenner, qui a dirigé cette étude. Celui-ci souligne qu’en Finlande, pays où certains aliments sont enrichis en vitamine D, le taux de mortalité par cancer est inférieur de 20 % à celui de l'Allemagne, ce qui constitue un écart considérable pour deux pays ayant un niveau économique et médical comparable. L’étonnant pouvoir protecteur de la vitamine D en matière de cancer a également été mis en lumière par une autre étude américaine très solide, portant sur 25 800 patients, publiée en novembre 2020 (Voir JAMA Network). Ces recherches, effectuées par des scientifiques du réputé Hôpital Brigham and Women's de Boston, ont montré qu'une supplémentation en vitamine D pouvait réduire l'incidence des cancers avancés et métastatiques. Les participants à cette étude, qui s'est étendue sur sept ans, de 2011 à 2017, étaient des hommes de 50 ans ou plus et des femmes âgées de 55 ans ou plus qui ne souffraient, initialement, ni de cancer ni de maladie cardiovasculaire. Certains ont reçu u ne supplémentation en vitamine D, d'autres une supplémentation en Oméga-3 et un groupe a reçu un placebo. Dans le groupe ayant reçu de la vitamine D, le nombre de cancers graves qui se sont déclarés pendant la durée de l’étude a été inférieur de 20 % à celui observé dans le groupe-témoin, qui avait reçu un placebo. Ces études confirment un autre travail effectué en 2018, sous l’égide du Centre de santé publique du Japon, et mené auprès de plus de 33 000 patients issus de 9 régions différentes du pays (Voir The BMJ). Cette étude a montré que la concentration de vitamine D3 dans le sang était inversement associée au risque de cancer. Pour cette étude, des échantillons de sang avaient été prélevés pour mesurer les taux de vitamine D et les patients avaient été divisés en quatre groupes, allant du taux le plus faible au taux le plus élevé de vitamine D. Au cours de l'étude, 3301 nouveaux cas de cancers ont été enregistrés. Après pondération des facteurs de risque de cancer (âge, poids, tabagisme), les chercheurs ont constaté qu'un taux plus élevé de vitamine D diminuait le risque global de cancer. Cette diminution, pour les plus gros consommateurs de vitamine D, était particulièrement marquée pour le cancer du foie, puisqu’elle atteignait 30 %. Dans ce panorama des effets protecteurs et préventifs des vitamines contre de nombreuses pathologies, il faut bien sûr évoquer la plus connue et la plus médiatique d’entre elles, la vitamine C, découverte au XVIIIème siècle, mais synthétisée seulement en 1934. L’activité anticancéreuse de la vitamine C avait été pressentie et vantée par le grand biologiste américain Linus Pauling, seul, avec Marie Curie, à avoir eu deux fois le prix Nobel (Chimie en 1954 et Paix en 1962). En 2016, une étude américaine réalisée par l’Université de l’Iowa a montré, sur certains cancers du poumon et du pancréas, la meilleure efficacité d'un traitement combinant chimiothérapie, radiothérapie et doses élevées de vitamine C en intraveineuse. Dans cette étude, la vitamine C a &eacut e;té administrée à des niveaux de concentration 100 à 500 fois supérieurs à ceux observés lors d’une prise orale. Les chercheurs ont alors observé que la vitamine C formait du peroxyde d'hydrogène (H2O2), une molécule présente dans l'eau oxygénée, capable de détruire les cellules cancéreuses par différents mécanismes : en créant des dommages à l'ADN, en activant le métabolisme et en inhibant la croissance. Fait remarquable, les cellules normales sont épargnées par ces effets destructeurs car elles possèdent, contrairement aux cellules malades, un haut niveau de catalase, une enzyme qui leur permet de garder des niveaux de vitamine C très bas, en l’éliminant (Voir Science Direct). Rappelons qu’en 2009, une autre équipe de recherche française avait, elle aussi, pu montrer que l’acide ascorbique (le principe actif de la vitamine C) avait une action inhibitrice sur les gènes impliqués dans la prolifération cellulaire. Ces chercheurs avaient notamment réussi à augmenter sensiblement la durée de vie de souris atteintes de cancer, grâce à un traitement par injection de vitamine C (Voir PLOS). Cette étude, dirigée par Michel Fontès, directeur du laboratoire Thérapie des Maladies Génétiques de l’Université de la Méditerranée à Marseille, avait confirmé les propriétés anti-prolifératives et anticancéreuses de l’acide ascorbique à haute dos e. Mais si certaines vitamines, administrées de manière judicieuse et personnalisées, peuvent participer de manière puissante à la prévention et au traitement de nombreuses maladies graves (cancer, maladies cardiovasculaires, infections virales) elles peuvent également, ce qui est moins connu, avoir un effet bénéfique sur certaines pathologies neurodégénératives et neurologiques. Une récente étude réalisée par des chercheurs allemands de l’Université de Fribourg vient de montrer l’action bénéfique d’un dérivé de la vitamine A, l’acide rétinoïque, sur la santé synaptique et la connectivité du cerveau (Voir eLife). La vitamine A, déjà connue pour stimuler le système immunitaire, se trouve dans certains aliments d’origine animale, dont les produits laitiers, les œufs, la viande et le poisson gras, mais également dans certains fruits et légumes à feuilles. L’équipe du Docteur Andreas Vlachos, de l'Institut d'anatomie et de biologie cellulaire de l'Université de Fribourg, et du Professeur Jürgen Beck, chef du département de neurochirurgie de l’Université de Fribourg, a pu montrer, pour la première fois, que la vitamine A exerçait une action positive sur le maintien de la plasticité synaptique chez l'homme. Ces recherches ont montré que l'acide rétinoïque augmente non seulement la taille des épines dendritiques, mais renforce également leur capacité à transmettre des signaux entre les neurones humains. Ces travaux montrent donc que les acides rétinoïques sont des médiateurs importants pour la plasticité synaptique dans le cerveau humain, ce qui ouvre de nouveaux champs de recherche thérapeutique pour soutenir ou restaurer la plasticité cérébrale, qui peut être affectée dans de nombreuses maladies touchant le cerveau et le système nerveux. En 2017, une précédente étude réalisée par des chercheurs canadiens et chinois avait déjà montré (Voir Springer) qu’une carence, même faible, en vitamine A, augmentait le risque de maladie d’Alzheimer. Ces chercheurs de la Chongqing Medical University (Chine) et de l'University of British Columbia (Canada) ont observé que les souris déficientes en vitamine A présentent un développement anormal d'agrégats de protéines caractéristiques de la maladie d'Alzheimer. En outre, la descendance de ces souris présentait des capacités cognitives réduites. Cette étude a également analysé des prélèvements sanguins de 330 participants âgés en moyenne de 77 ans, résidant dans des foyers de soins ch inois. Leurs capacités cognitives ont été mesurées grâce à deux échelles d'évaluation, l’ADAS-Cog (Cognitive subscale of the Alzheimer's Disease Assessment Scale) et la CDR (Clinical Dementia Rating Scale). Les chercheurs ont ainsi pu montrer, en s’appuyant sur des analyses de sang régulières, l’existence d’un lien important entre les niveaux de vitamine A et la déficience cognitive. Ces travaux montrent de manière intéressante qu'une carence même faible en vitamine A favorise le dépôt de la plaque amyloïde chez les souris modèles Alzheimer et conduit à des déficits de mémoire. Les chercheurs préconisent donc la piste d’une supplémentation ciblée chez certains patients, en vitamine A, pour prévenir la maladie d'Alzheimer. Des recherches françaises menées par l’Inserm, réalisées en 2017, ont par ailleurs montré, sur plus de 10 000 personnes suivies pendant 17 ans, qu’une carence en vitamine D pouvait augmenter sensiblement les risques de développer une maladie d’Alzheimer. Ces travaux ont montré que les participants présentant une carence (25 %) ou une insuffisance (60 %) en vitamine D avaient un risque multiplié par deux de développer une démence et un risque multiplié par près de trois de développer une maladie d’Alzheimer par rapport à ceux ayant un niveau élevé en vitamine D. En 2013, une vaste étude américaine menée sur 85.000 enfants nés entre 2002 et 2008 par l’Université de Columbia a par ailleurs montré que des compléments de vitamine B9 (dont la carence durant la grossesse augmente sensiblement le risque de malformations du système nerveux primitif de l'embryon), avant et au début de la grossesse, pouvaient réduire de près de 40 % le risque d'autisme du nouveau-né (Voir JAMA Network). L’ensemble de ces découvertes et recherches récentes nous amènent à modifier profondément la vision scientifique et médicale que nous avons des vitamines. Même si le rôle et l’importance de ces substances dans le bon fonctionnement du métabolisme sont à présent connus depuis des décennies, leur utilité a longtemps été circonscrite à des domaines biologiques et des pathologies bien précises, le plus souvent bénignes. Mais ces travaux montrent qu’en réalité, les vitamines possèdent un immense pouvoir de prévention, pour de multiples maladies et constituent également un immense potentiel thérapeutique, loin d’être entièrement connu et exploité. Nous savons aujourd’hui qu’une utilisation personnalisée et appropriée des vitamines (c’est-à-dire combinant celles issues d’une alimentation rééquilibrée et celles issues d’une éventuelle supplémentation ciblée, correspondant à une prescription médicale), en fonction bien entendu de l’âge, des antécédents médicaux et du profil génétique du patient, pourrait devenir l’une des clefs de voute de la médecine préventive et prédictive qui s’annonce, et visera en priorité à nous maintenir le plus longtemps possible en bonne santé et en bonne forme physique et psychique. Alors que notre société est confrontée à un vieillissement accéléré et inexorable, qui risque de se traduire, quels que soient les progrès de la médecine, par une augmentation considérable des pathologies lourdes liées au grand âge, nous devons repenser complètement notre système de santé et nos concepts de soins de manière à prévenir, dès le plus âge, et tout au long de la vie, les maladies les plus graves, qui peuvent être très largement évitées ou retardées pour un coût global bien modeste au regard de nos dépenses de santé qui dépassent les 210 milliards d’euros par an, soit 7 200 euros par foyer français… Il serait souhaitable que les pouvoirs publics et l’ensemble des acteurs médicaux s’emparent enfin de ce formidable levier que représentent les vitamines, pour l’intégrer pleinement à notre politique de santé et de promotion du bien-être et permettre ainsi de franchir une nouvelle étape décisive dans la production active de la santé pour tous et l’amélioration de notre qualité de vie. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Nanotechnologies et Robotique | |
| | | Aujourd’hui, les robots chirurgicaux les plus perfectionnés fonctionnent uniquement de manière visuelle à partir d’imageries médicales. Dès qu’une intervention devient difficile, ils sont incapables de reproduire le savoir-faire d’un chirurgien qui se sert de tous ses sens pendant une opération, et pas seulement de sa vue. Il va par exemple utiliser son toucher en palpant le corps du malade ou alors écouter le son d’une perceuse dont la mèche s’enfonce dans un os. Un programme de recherche européen baptisé FAROS (Functionally accurate robotic surgery) vient de débuter avec pour objectif de développer un robot chirurgical autonome, capable d’acquérir des sens comparables, voire supérieurs à ceux des humains. Chercheur à l’ISIR (Institut des Systèmes Intelligents et de Robotique) et associé à ce projet, Guillaume Morel explique les limites des robots actuellement en service. « D’un point de vue scientifique, on a longtemps cru que le développement d’un robot chirurgical n’était qu’une affaire de millimètres. C’est selon moi une conception naïve de la chirurgie. Anatomiquement, il y a des choses qu’on ne voit pas à l’image. Au moment de faire son geste, le chirurgien va s’apercevoir que l’os est plus mou que prévu et va donc enfoncer une vis un peu plus en profondeur. Ou alors, avant de fixer un implant, il va prendre la décision de « rayer » la surface d’accroche pour une meilleure tenue du ciment. Un certain nombre de ses gestes ne sont donc pas liés à une planification de la géo métrie ». Partant de ce constat, le chercheur présente le projet FAROS en utilisant la métaphore de la conduite automobile. « Les robots actuels fonctionnent comme des systèmes de positionnement qui suivent une trajectoire. Un peu comme une voiture équipée d’un système de navigation par GPS et qui permet de savoir où vous êtes situés. Mais lorsque vous êtes arrivés à destination et que vous devez vous garer, le GPS n’a plus d’utilité. Il ne s’agit plus de se recaler dans un plan d’ensemble. Le projet FAROS, c’est la version d’après, celle de la conduite automatique où le véhicule va se servir de capteurs situés par exemple sur le pare-chocs pour détecter si des voitures sont présentes devant ou derrière, évaluer la distance avec le trottoir… » Plusieurs capteurs vont donc être développés puis intégrés à un robot chirurgical. L’objectif étant d’améliorer non pas sa précision géométrique mais plutôt fonctionnelle afin qu’il soit capable d’appréhender en temps réel ce qui se passe sur le plan anatomique. Il est ainsi prévu d’utiliser des capteurs de force pour mesurer les efforts effectués par le robot et évaluer si la zone où il intervient est dure ou molle. Des capteurs d’impédance électrique vont également être ajoutés, ces derniers équipent déjà certains instruments chirurgicaux utilisés manuellement comme ceux développés par la société SpineGuard, le partenaire de ce projet. Ils permettent de mesurer la conductivité électrique qui a la particularité d’être faible dans la partie corticale d’un os, celle située la plus à l’extérieur, et élevée dans la partie spongieuse, celle située au centre. « Ils fonctionnent comme un radar de recul sur une voiture, poursuit le chercheur. Le capteur émet un bip très espacé lorsque l’os est dur puis au fur et à mesure que la vis pénètre dans la partie spongieuse, les bips deviennent plus rapprochés, ce qui signifie qu’on est sur le point d’atteindre une zone interdite hors de l’os ». D’autres capteurs doivent également être ajoutés, cette fois-ci pour capter du son. Le robot devrait ainsi embarquer des micros afin d’analyser par exemple le son d’une perceuse. Il est aussi prévu d’utiliser des ultra-sons à l’aide d’un échographe en mode A pour obtenir non pas des images, mais analyser la variation d’un écho sous la forme d’un signal. Même si les capteurs seront principalement non visuels, les scientifiques pourraient se servir de l’imagerie hyper-spectrale, une technologie permettant d’obtenir une multitude d’images avec des fréquences différentes. Face au grand nombre d’informations fournies par ces capteurs, les équipes de recherche vont se servir de l’intelligence artificielle pour les aider à traiter toutes les données enregistrées. Chaque signal aura une grande variabilité et les algorithmes vont être capables, entre autres, de fusionner les résultats dans le but d’établir des lois de raisonnement et de prédiction à partir de tous les signaux émis. « Même si nous avons une idée des résultats obtenus par les capteurs, l’intelligence artificielle nous aidera à extraire des lois générales afin de mieux appréhender la réalité de ce qui se passe dans le corps », ajoute Guillaume Morel. Ce projet de recherche va se concentrer uniquement sur la chirurgie de la moelle épinière et nécessitera la réalisation de plusieurs essais en laboratoire. Quatre universités sont impliquées dans ce programme : la Sorbonne Université et la KU Leuven en Belgique pour leur savoir-faire en robotique, le King’s College London en Angleterre pour son expertise en imagerie et en intelligence artificielle et enfin l’hôpital universitaire Balgrist en Suisse qui regroupe des chirurgiens. D’une durée de trois ans, le projet FAROS devrait se conclure par la validation des concepts clés en laboratoire correspondant au niveau 4 sur l’échelle TRL (Technology readiness level), qui évalue le degré de maturité d’une technologie. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | ^ Haut | |
|
| | | L’entreprise allemande Synlift a conçu une plate-forme flottante pour le dessalement de l’eau de mer. Equipée d’une grande éolienne, elle produira de l’eau douce en utilisant uniquement de l’énergie renouvelable. Cette unité mobile pourra être facilement déplacée par un remorqueur vers les zones en pénurie d’eau et elle pourra alimenter une ville d’un demi-million d’habitants. La consommation mondiale d’eau potable est aujourd’hui six fois plus élevée qu’il y a 100 ans. Selon les Nations Unies, environ quatre milliards de personnes dans le monde souffrent au moins un mois par an de pénurie d’eau. Avec les changements climatiques et les épisodes de sécheresse toujours plus fréquents, ce nombre augmentera : d’ici 2050, la moitié de la population mondiale pourrait vivre dans des zones arides. Si 70 % de la surface terrestre sont recouverts d’eau, seuls 3 % le sont par de l’eau douce pouvant être utilisée pour les usages domestiques, l’agriculture ou l’industrie. Dans de nombreuses régions, les sources d’eau potable étant insuffisantes ou rares, le dessalement de l’eau de mer est une solution de plus en plus répandue. En 2018, 95 millions de mètres cubes d’eau douce ont été produits et la capacité mondiale installée augmente en moyenne de plus de 10 % par an. Auparavant, la technique de la distillation était la plus fréquente, mais elle est fort consommatrice d’énergie fossile. C’est pourquoi la technique de l’osmose inverse qui consiste à filtrer l’eau sous pression à travers une membrane affiche aujourd’hui 84 % de part de marché. En quinze ans, le coût du dessalement a été divisé par dix et aujourd’hui il suffit de 2 kWh d’électricité pour fabriquer un mètre cube d’eau douce. S’il s’agit d’électricité verte, l’empreinte carbone de l’installation est fortement réduite. C’est la raison qui a incité l’entreprise allemande Synlift à imaginer une unité de dessalement embarquée sur une plate-forme flottante équipée d’une éolienne. Son développement est mené avec un partenaire saoudien, ce pays étant le leader mondial du dessalement de l’eau de mer. Le concept est basé sur les plates-formes de forage flottantes ancrées dans le plancher marin. Baptisées Floating WINDdesal (FWD), ces unités de dessalement mobiles seront construites sur la côte puis remorquées vers leur lieu d’utilisation. Elles peuvent aussi être facilement déplacées en fonction des besoins vers des zones où sévissent des pénuries d’eau. Un premier prototype devrait entrer en service cette année au Moyen-Orient. Trois modèles sont prévus, avec des capacités journalières de production de 15 000, 30 000 ou 50 000 m3 d’eau potable. Le plus grand module pourra alimenter une ville d’un demi-million d’habitants. Selon Joachim Käufler, le responsable du projet, le coût de production du dessalement de l’eau de mer par une FWD sera inférieur à celui des procédés traditionnels. « Nous produirons de l’eau douce de façon écologique durable et rentable », explique-t-il, « tout en la rendant économiquement accessible à des endroits où ce n’était jusqu’à présent pas possible ». Article rédigé par Georges Simmonds pour RT Flash oedigital | | | |
| Safran Landing Systems a annoncé avoir démontré la faisabilité de la production d’une pièce de structure, une partie de l’atterrisseur d’un avion d’affaires, en impression 3D. Cette première mondiale pourrait renforcer l’utilisation de la fabrication additive en aéronautique. La fabrication additive continue à gagner du terrain dans l’aéronautique et le procédé fait émerger des designs innovants. L'équipementier aéronautique Safran a annoncé le 29 mars avoir démontré la faisabilité technique de l’impression d’une pièce particulièrement sensible : le caisson de l’atterrisseur avant d’un avion d’affaires. Il s’agit d’un composant de grandes dimensions (455 x 295 x 805 mm), soumis à de nombreuses reprises d’efforts mécaniques. « L’utilisation de la fabrication additive pour une pièce de cette nature et de cette dimension est une première mondiale », fait remarquer Nicolas Nguyen, responsable de la plate-forme R&T du projet chez Safran Landing Systems. « C’est un élément de structure soumis à beaucoup de contraintes : il doit pouvoir pivoter pour permettre à l’atterrisseur de s’escamoter sous l’appareil et il doit absorber les sollicitations mécaniques en provenance des roues de l’avion ». Habituellement produite grâce à l’usinage de 5 axes et l’assemblage de trois pièces de forge, cette partie de l’atterrisseur a été identifiée en 2019 par Safran Landing Systems comme l’une des références éligibles au passage vers l’impression 3D métallique. « Nous avions des idées pour optimiser le design, notamment pour réduire les temps de production, ainsi que la masse de la pièce. Mais elles étaient hors de portée des techniques d’usinage », explique Nicolas Nguyen. « Nous souhaitions éliminer les étapes d’assemblage et ne produire qu’une seule pièce là où trois composants étaient auparavant nécessaires ». Le caisson d’atterrisseur a donc été entièrement reconçu pour le procédé d’impression 3D et pour pouvoir être fabriqué en un seul cycle de production. Cette approche élimine les bourrelets d’assemblage normalement présents sur la pièce et permet une réduction significative de la masse, d’environ 15 %. Quant au procédé d’impression en lui-même, c’est la technologie de fusion laser sur lit de poudre (SLM) de titane qui a été privilégié. « Nous avons étudié la faisabilité d’une production par dépôt de fil métallique », souligne Nicolas Nguyen. « C’est un procédé intéressant car nous sommes moins limités en ce qui concerne la taille des pièces à produire. Cependant, l’état de surfaces des pièces en sortie nous aurait obligés à effectuer une reprise d’usinage, ce que nous souhaitions éviter au maximum ». Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | | |
| La mise en œuvre de bits quantiques en silicium nécessite des opérations à basses températures afin de préserver au maximum leur état quantique. Qu'en est-il de leur électronique de contrôle ? Le fonctionnement de ces composants à température ambiante limite de manière importante la vitesse du traitement des signaux. Il faut donc rapprocher le plus possible l'électronique de contrôle du dispositif quantique et la refroidir aussi. Les chercheurs grenoblois apportent la preuve de concept d'une telle électronique CMOS (Complementary Metal Oxide Semiconductor) cryogénique, connectée avec des boîtes quantiques silicium, qui, élaborées avec la même technologie, forment les briques élémentaires des bits quantiques en silicium. Ils ont intégré sur un même substrat FD-SOI des boîtes quantiques et un convertisseur courant-tension (amplificateur à transimpédance ou TIA) CMOS, capable de détecter le faible courant associé au passage d'électrons uniques (picoampères, 10-12 A) à travers les boîtes quantiques. Le circuit du TIA fonctionne à 10 mK, avec seulement 1 μW de consommation électrique, ce qui permet d'éviter l'échauffement du cryostat. Il présente une réponse linéaire jusqu'à ± 40&nbs p;nA avec une bande passante de 2,6 kHz qui pourrait être étendue à environ 200 kHz en optimisant sa conception. Dans une version plus complète, la puce intègrera d'autres fonctions analogiques et numériques (multiplexeur, tampon, amplificateur de signal, oscillateur, convertisseur de niveau) pour des mesures de courant avec une excitation dans le domaine du GHz. Ces résultats prometteurs ouvrent la voie à une électronique cryogénique dédiée en technologie FD-SOI afin d'améliorer le contrôle et la détection des états quantiques (qubits) dans un cryostat à très basses températures. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Sans eux, la fée électricité perdrait l’essentiel de ses pouvoirs. Les convertisseurs — le langage de tous les jours ne les distingue pas des transformateurs — alimentent ordinateurs, luminaires ou télévisions avec exactement ce qu’il faut de tension et de puissance. Ils transforment le courant alternatif des prises murales en courant continu, pour faire tourner votre mixer ou chauffer votre grille-pain. Mais ils perdent jusqu’à 20 % de l’énergie dans ces opérations. Les convertisseurs sont équipés de transistors de puissance : des éléments semi-conducteurs conçus pour résister à des tensions élevées. C’est ce composant qu’une équipe de l’EPFL a optimisé. D’une conception entièrement nouvelle, leur transistor devrait permettre de réduire les pertes des conversions. Il est en effet adapté aux applications de haute puissance, comme les installations photovoltaïques ou les véhicules électriques. La résistance électrique est un problème majeur des convertisseurs. C’est elle qui entraîne des pertes d’énergie sous forme de dissipation thermique. « Le phénomène est simple à constater dans la vie de tous les jours, par exemple lorsqu’on tient dans la main le transformateur encore chaud d’un ordinateur portable », explique Elison Matioli, co-auteur de l'étude et directeur du POWERlab de l’EPFL. Le problème est plus important encore avec les applications de haute puissance, continue le chercheur : « Plus la tension nominale des composants semi-conducteurs est élevée, plus leur résistance est importante ». De quoi plomber l’autonomie des véhicules électriques et saper le rendement des énergies renouvelables. Elison Matioli, son doctorant Luca Nela et son équipe, ont mis au point un transistor qui réduit drastiquement les pertes à haute puissance. Avec une tension électrique de plus de 1000 volts, il affiche une résistance deux fois moindre qu’un composant standard. Pour ce faire, les scientifiques ont conjugué diverses avancées technologiques. Première innovation, leur circuit comporte plusieurs canaux pour répartir le flux du courant électrique. Un peu comme de nouvelles pistes d’autoroute distribuent le trafic et permettent d’éviter les bouchons, « les multiples canaux distribuent le courant électrique et évitent la surchauffe », explique Luca Nela. Seconde innovation, les chercheurs utilisent des nanofils en nitrure de gallium, un matériau semi-conducteur. Les nanofils équipent aujourd’hui des puces électroniques de basse puissance — par exemple pour des téléphones portables et ordinateurs. Mais grâce à une structure spéciale en forme d’entonnoir, ces fils d’à peine 15 nanomètres de diamètre peuvent maintenant encaisser sans dommage une tension supérieure à 1000 volts. En résumé, les multiples canaux permettent d’augmenter le débit d’électrons, et la structure des nanofils renforce la résilience du système, lui permettant de supporter de hautes tensions. De quoi faire face aux applications de haute puissance, selon Elison Matioli. « Grâce aux nanofils en entonnoir, notre prototype affiche des performances deux fois supérieures au meilleur convertisseur jamais décrit dans la littérature scientifique ». Bien qu’expérimentale, la technologie ne présente pas d’obstacles majeurs à la production de masse, poursuit le chercheur. « Ajouter des canaux supplémentaires est un procédé assez trivial, et les nanofils sont d’un diamètre deux fois supérieur aux nanofils les plus fins que peut produire Intel ». Le chercheur a déposé plusieurs brevets sur son système. Avec les automobiles électriques, on anticipe une demande croissante pour des circuits ultra-performants à haut voltage. La réduction des pertes a un impact direct sur l’autonomie de ces véhicules. Des industriels majeurs seraient déjà sur les rangs pour collaborer avec Elison Matioli au développement de sa technologie. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Une étude menée par des chercheurs de l’Université d’État de Caroline du Nord montre qu’on peut avoir une bonne récolte en cultivant dans des serres dotées de cellules solaires organiques semi-transparentes (ou ST-OSC). Dans le cadre de leur expérience, les scientifiques ont observé de près la croissance et la santé de plusieurs groupes de laitue frisée rouge sous différents types de verre et différentes longueurs d’onde de lumière. Ces tests ont été menés en gardant les variables telles que la température, la concentration de CO2 ainsi que l’approvisionnement en eau et en engrais identiques. En plus de la volonté d’associer le concept de l’énergie renouvelable à l’agriculture, si les chercheurs ont imaginé cette solution, c’est parce que les plantes n’utilisent pas toutes les longueurs d’onde de la lumière pour la photosynthèse. Ils ont donc développé un concept permettant d’absorber les longueurs d’onde de lumière dont celles-ci n’ont pas besoin, et ce, tout en cherchant à produire de l’électricité. À cet effet, les cellules solaires semi-transparentes servent en quelque sorte de filtres. Dans leur article, les chercheurs affirment avoir déjà évalué la quantité d’énergie que les serres à énergie solaire sont capables de produire, sans pour autant étudier les éventuelles conséquences d’une telle installation sur la santé des plantes cultivées à l’intérieur. Désormais, c’est donc chose faite. « Nous avons été un peu surpris. Il n’y a pas eu d’effets négatifs notables sur la croissance et la santé des plantes », se réjouit Heike Sederoff, biologiste végétale de l’Université d’État de Caroline du Nord. « Cela signifie que l’idée d’intégrer des cellules solaires transparentes dans les serres peut être réalisée ». L’utilisation de cellules pho tovoltaïques semi-transparentes est incontournable étant donné que, contrairement aux panneaux solaires traditionnels, elles laissent passer la lumière, laquelle est un ingrédient essentiel pour la photosynthèse. Dans une serre, l’ensoleillement entraîne effectivement un chauffage important qui peut être bénéfique lorsque la température extérieure chute, mais peut entraîner un excès de chaleur lorsqu’il fait chaud. D’un autre côté, la perte thermique occasionnée par l’isolation rend souvent l’installation inefficace quand il fait froid. D’où le besoin d’énergie pour réguler la température interne. Face à ce résultat prometteur, les chercheurs vont tester la technologie avec des plantes autres que la laitue. Il semble que le concept intéresse déjà de nombreux agriculteurs. « Sur la base du nombre de personnes qui m’ont contacté au sujet des serres à énergie solaire lorsque nous avons publié nos travaux, je peux dire qu’il y a beaucoup d’intérêt de la part des producteurs », a assuré Brendan O’Connor, co-auteur de l’étude et professeur associé d’ingénierie mécanique et aérospatiale à l’Université d’État de Caroline du Nord. Article rédigé par Georges Simmonds pour RT Flash Neozone | | | |
| Une entreprise espagnole, Vortex Bladeless, basée à Madrid fondée par David Yáñez, a conçu une turbine capable de générer de l’énergie éolienne… sans pales pour capter le vent. Pour l'instant, ces turbines de formes de cylindres blancs s’élèvent à 3 mètres de haut et sont conçues pour osciller selon le souffle du vent et produire de l’électricité à partir des vibrations. « Notre technologie présente des caractéristiques différentes qui peuvent aider à combler les lacunes dans les zones où les parcs éoliens traditionnels ne sont pas appropriés », explique M. Yáñez. Par exemple, dans une zone résidentielle non adaptée à la construction d’un parc éolien volumineux, ces turbines sans pales pourraient rendre l’énergie éolienne domestique, aux côtés des panneaux solaires. « Ils se complètent bien, car les panneaux solaires produisent de l’électricité pendant la journée alors que la vitesse du vent a tendance à être plus élevée la nuit », affirme David Yáñez. « Mais le principal avantage de cette technologie réside dans la réduction de son empreinte au sol, de son impact environnemental, de son impact visuel et du coût de fonctionnement et d’entretien de l’éolienne », ajoute le fondateur de la start-up. En effet, sans ses pales, l’éolienne n’est plus un obstacle dans le cycle de migration des oiseaux, par exemple. De plus, le bruit généré par l’éolienne serait quasiment indétectable par l’humain, un progrès pour les personnes vivant ou travaillant à proximité des éoliennes. Vortex Bladeless travaille à présent sur une version géante de 140 mètres de haut de son Skybrator, qui aurait une puissance d'un MW. Article rédigé par Georges Simmonds pour RT Flash Industry Europe | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des chercheurs américains de la Mailman School of Public Health (Université Columbia) ont montré qu'une exposition même de quelques semaines à la pollution atmosphérique peut nuire à la performance mentale et plus généralement à la cognition. Ce constat, effectué chez des personnes âgées, suggère une corrélation entre cette exposition même brève et l’inflammation, ces effets indésirables semblant atténués chez les personnes prenant des anti-inflammatoires non stéroïdiens (AINS) comme l'aspirine. Le lien entre une exposition à long terme aux particules de la pollution et des altérations mentales et cognitives commence à être bien établi. Ces effets délétères se traduisent par une réduction du volume cérébral, une baisse des performances cognitives et le développement de certaines formes de démence. La pollution atmosphérique a également été associée à des capacités cognitives réduites et à des troubles de la santé mentale chez les enfants. Cette fois, ces recherches ont examiné la relation entre l’exposition aux particules fines (PM2,5) et au noir de carbone, une composante de ces particules, et les performances cognitives chez 954 hommes âgés participant à la Normative Aging Study (Boston). Les chercheurs ont également pris en compte la prise d’AINS et regardé l’effet de ce facteur sur les résultats d’exposition à la pollution. Les performances cognitives ont été évaluées à l'aide d’échelles reconnues (Global Cognitive Function (GCF) et Mini-Mental State Examination (MMSE). L’analyse montre qu'une exposition moyenne élevée aux PM2,5 pendant 28 jours seulement s’avère associée à des baisses des scores aux 2 tests d’évaluation cognitive. Cette étude montre également que les sujets prenant des AINS développent moins d'effets cognitifs indésirables : l'aspirine semble notamment en mesure de modérer la neuroinflammation ou les modifications du flux sanguin vers le cerveau, déclenchées par l'inhalation de pollution. Reste toutefois à identifier les composants chimiques de la pollution atmosphérique responsables de ces effets néfastes à court terme sur les performances cognitives. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Un chercheur toulousain de l’Inserm a mis au point, en collaboration avec l’Université d’Oxford, un nouveau test sérologique très performant pour détecter les anticorps du Sars-Cov2. Ce test innovant devrait être plus simple à produire et à utiliser et devrait coûter moins cher que les tests sérologiques classiques. « Fiable, bon marché, et ne requérant aucun matériel spécialisé ». Voilà comment l’Inserm (L’Institut national de la santé et de la recherche médicale) présente son nouveau test sérologique de détection des anticorps anti-Sars-CoV2. Celui-ci, élaboré par une équipe scientifique internationale dont un chercheur toulousain de l’Inserm, devrait permettre de « mieux suivre la pandémie de Covid-19 ». De nombreux tests sont déjà disponibles pour dépister le virus du Covid-19, mais ils sont souvent onéreux et nécessitent des équipements spécifiques, ce qui limite leur utilisation à grande échelle, notamment dans des pays aux ressources limitées. Etienne Joly, chercheur toulousain de l’Inserm à l’Institut de pharmacologie et biologie structurale (CNRS/Université Toulouse III – Paul Sabatier), a donc imaginé un nouveau test sérologique plus simple d’utilisation et peu coûteux. En collaboration avec Alain Townsend de l’Université d’Oxford, ils ont élaboré un test reposant sur l’utilisation d’un seul réactif, « qui provoque l’agglutination des globules rouges en présence d’anticorps spécifiques du Sars-CoV2 », explique l’Inserm dans un communiqué. Pour faire simple, mis en contact avec du sang, ce réactif se fixe sur les globules rouges. Il peut alors reconnaître les anticorps anti-Sars-CoV2. « Si dans ce même échantillon de sang, les anticorps anti-Sars-CoV2 sont présents », le réactif et les anticorps vont alors former "un amas". « Cette agglomération révèle donc une infection récente ou passée », conclut l’Inserm. Le procédé est simple. Il suffit de prélever un peu de sang comme une personne diabétique le ferait pour mesurer sa glycémie. Le réactif est par ailleurs facile à produire et à transporter puisque son approvisionnement se fait sous forme lyophilisée, ne nécessitant aucune réfrigération. Les résultats peuvent, eux, se lire à l’œil nu. Enfin le coût de production est dérisoire : un test est évalué à environ 0,3 centime d’euros. Ce test serait donc accessible aux pays aux ressources limitées. Selon l’Inserm, ce nouveau test sérologique présente une sensibilité de 90 %. « Cela signifie que sur 100 personnes ayant des anticorps, le test n’en détectera que chez 90 d’entre elles », détaille l’Inserm. Etienne Joly travaille donc à améliorer cette sensibilité, quelque peu en deçà des tests classiques effectués en laboratoires d’analyses. La sensibilité de ce nouveau test innovant est cependant supérieure à celle des tests rapides dits Trod Covid (test rapide d’orientation de diagnostic) disponibles en pharmacie. Autre avantage considérable, ce test pourrait être détourné pour dépister d’autres maladies, mais aussi les variants du Covid-19. « Il sera possible de s’attaquer au dépistage d’anticorps dirigés contre les formes variantes du virus, ou d’autres pathogènes, tels que le VIH », se félicite le Toulousain Etienne Joly. Le test pourrait dans un premier temps « être utilisé dans le cadre de la recherche clinique et épidémiologique ». Les scientifiques le mettent pour l’instant à la disposition des laboratoires de recherche "intéressés", « afin de les aider dans leurs travaux pour mieux comprendre la dynamique de l’épidémie de Covid-19 ». Il pourrait ainsi aider à suivre la progression de la pandémie. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| La Myopathie de Duchenne est une affection génétique grave due à l’absence d’une protéine de soutien essentielle à la contraction musculaire, la Dystrophine. Elle entraîne une atteinte musculaire et myocardique et ne dispose pas de traitement curatif spécifique actuel. L’approche développée dans les travaux publiés dans l’European Heart Journal est la première à démontrer une diminution non-discutable de la mortalité, notamment de la mortalité cardiovasculaire très significative, grâce à ce traitement précoce. Les patients inclus dans cette étude rétrospective ont été identifiés parmi les 668 patients inscrits dans le « DMD-Heart-Registry ». Ce registre, coordonné par le Professeur Wahbi, comprend des patients admis entre janvier 1986 et octobre 2018 dans huit centres médicaux français de prise en charge de la Myopathie de Duchenne. Une première étude pilote menée en 2007 sur 60 enfants, coordonnée au sein du service de cardiologie de l’hôpital Cochin AP-HP (Professeur Duboc, Professeur Meune, Docteur Bécane, Professeur Wahbi) indiquait déjà l’intérêt potentiel d’un tel traitement. Aujourd’hui, il s’agit d’une plus large étude, multicentrique nationale, portant sur plusieurs centaines de patients touchés par cette maladie orpheline, qui confirme les résultats initiaux. Trois principales structures au sein d’AP-HP ont largement contribué à l’aboutissement de ce travail : le centre de référence constitutif maladies rares sur l’atteinte cardiaque des myopathies (Professeur Wahbi , Professeur D. Duboc) au sein du service de cardiologie de l’hôpital Cochin AP-HP qui a coordonné ce travail, aidé par le service de neuro-pédiatrie de l’hôpital Necker-Enfants malades AP-HP (Professeur Desguerre) qui a permis l’analyse bio-statistique des résultats qui a été réalisée par le centre d’épidémiologie clinique de l’Hôtel-Dieu AP-HP (Professeur Porcher, Professeur Ravaud). La conclusion pratique de cette étude montre que ce traitement préventif précoce par Inhibiteur de l’Enzyme de Conversion (IEC) de l’Angiotensine pour les patients de 8 ans ou plus atteints de Myopathie de Duchenne est associé à une survie globale significativement plus élevée et à un taux d’hospitalisation pour insuffisance cardiaque plus faible pour les patients pris en charge. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Des chercheurs CEA-Jacob et l'Université d'Amsterdam travaillent sur un nouveau candidat-vaccin protéique composé de nanoparticules portant plusieurs protéines Spike (spicule en français) du virus SARS-CoV-2. Ces protéines, à la surface du virus, lui sont essentielles pour pénétrer dans la cellule et l'infecter. Elles sont également la cible prépondérante de la réponse anticorps neutralisante. Ce vaccin protéique a donc pour objectif de "présenter" les protéines Spike au système immunitaire dans un contexte non infectieux pour lui apprendre à forger ses propres armes, des anticorps spécifiques contre ces protéines. Des études dans différents modèles animaux ont démontré que ce nouveau candidat-vaccin induit des forts taux d'anticorps. Le vaccin a par la suite été administré chez des primates non-humains (PNHs) qui ont ensuite été infectés par le SARS-CoV-2. Les PNHs infectés et vaccinés ont vu leur charge virale fortement et rapidement réduite dans les voies respiratoires supérieures et inférieures. Cette protection est associée à la réponse anticorps neutralisante, ainsi qu'à la réponse cellulaire induite par le vaccin. Les PNHs vaccinés ont été préservés des lésions pulmonaires apparues chez les animaux témoins non vaccinés et infectés. Les résultats de cette étude mettent en lumière un nouveau candidat-vaccin utilisant une technologie basée sur les nanoparticules permettant ainsi de solliciter plus efficacement la réponse de l'organisme. Cette approche pourrait être déclinée dans les recherches d'autres vaccins, notamment contre le VIH. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Des chercheurs allemands de l’Université de Bonn proposent une nouvelle stratégie thérapeutique pour contrer le virus de la Covid-19 par son arme principale mais aussi l’un de ses talons d’Achille car la protéine Spike est la clé d’entrée du SARS-CoV-2 dans nos cellules mais aussi l’un des principaux signaux reconnus par notre système immunitaire en cas d’infection COVID-19. Les chercheurs allemands proposent, et testent ici in vitro, une nouvelle molécule aptamère qui vient museler la protéine de pointe, ce qui empêche le virus d’infecter la cellule hôte. Les aptamères sont de courtes chaînes d'ADN qui se fixent facilement à d'autres molécules. Contrairement à l'ADN constitué de 2 brins parallèles dont les côtés collants se font face et qui s'enroulent l'un autour de l'autre comme deux fils torsadés, les aptamères sont monocaténaires (ou simples brins). Cela leur permet de former des liaisons avec des molécules auxquelles l'ADN ne se lierait pas et d'influencer leur fonction. Les aptamères constituent aujourd’hui une voie de recherche privilégiée de nouveaux principes actifs, en raison de cette capacité de liaison, mais aussi parce qu’il est facile de produire d'énormes bibliothèques d'aptamères différents. Les chercheurs ont d’ailleurs utilisé une grande base d’aptamères pour isoler des candidats capables de se fixer à la protéine de pointe du SARS-CoV-2. Le Professeur Günter Mayer Bonn, qui dirige ces travaux, rappelle que son équipe est partie du postulat que la protéine Spike est essentielle pour l'infection. Le virus l'utilise pour s'ancrer sur les cellules qu’il infecte : durant ce processus, la protéine Spike se lie à une molécule à la surface ces cellules, ou récepteur, ACE2, qui s’arrime avec la protéine de pointe. Le virus peut ensuite fusionner avec la cellule hôte et la reprogrammer pour se répliquer. « En défense », nos anticorps tentent d’empêcher cet amarrage, mais différemment de l’aptamère, en se fixant au domaine de liaison de Spike au récepteur ACE (RBD ou receptor binding domain). SP6 se lie également à la protéine de pointe, mais à un site différent : il n'empêche pas le virus de s'accrocher à la cellule hôte mais, en tous cas, réduit le taux d'infection par le virus. Les premiers résultats in vitro sont très prometteurs, mais les scientifiques vont encore devoir les reproduire avec le « vrai » coronavirus. Ensuite viendront les études précliniques, puis les essais cliniques. Article rédigé par Georges Simmonds pour RT Flash AC | | | |
| Au cours de ces dernières années, plusieurs études ont montré de manière convergent des similarités entre les mécanismes impliqués dans la maladie d'Alzheimer et le diabète de type 2. Le diabète de type 2 survient lorsque l'insuline devient moins efficace pour éliminer le glucose de la circulation sanguine, ce qui entraîne un taux élevé de sucre dans le sang et peut provoquer des taux anormaux de cholestérol. Une situation similaire se produit dans la maladie d'Alzheimer, sauf qu'au lieu d'affecter le corps dans son ensemble, les effets sont localisés dans le cerveau. Des scientifiques de l'Université des sciences de la santé de l'Arizona (États-Unis) ont étudié ce lien de près. « La maladie d'Alzheimer et le diabète ont de nombreuses causes communes. Notre objectif était de mettre au point un moyen d'identifier les composés susceptibles de contrecarrer les nombreux changements préjudiciables qui contribuent à la fois à la maladie d'Alzheimer et au diabète de type 2 », explique Gregory Thatcher, professeur de pharmacologie et de toxicologie à l'Université Arizona College of Pharmacy et co-auteur de l'étude. Ces chercheurs se sont intéressés au processus de transport inverse du cholestérol, processus au cours duquel des molécules spécifiques transportent l'excès de cholestérol pour l'évacuer par le foie. Plus spécifiquement, les scientifiques ont étudié l'action de l'apolipoprotéine E (APOE), l'une des protéines impliquées dans le transport inverse du cholestérol, qui représente par ailleurs un facteur de risque génétique dans la maladie d'Alzheimer et le diabète de type 2. L'objectif de ces travaux était de parvenir à modifier la trajectoire de cette protéine dans le cerveau. « Déplacer le cholestérol là où il est nécessaire dans l'organisme a des effets positifs sur de nombreux processus physiologiques et peut aider à éliminer les protéines mal repliées qui s'accumulent dans le cerveau », explique le Professeur Gregory R. J. Thatcher, qui a participé à l'étude. L'équipe de scientifiques a testé les effets de petites molécules (CL2-57) susceptibles d'améliorer la fonction d'un autre transporteur de cholestérol appelé ABCA1 dans l'organisme, tout en évitant les effets indésirables sur le foie. L'utilisation de ces composés a notamment permis d'améliorer la tolérance au glucose et la sensibilité à l'insuline, ainsi que de réduire la prise de poids, notent les auteurs des travaux. De futures recherches visant à améliorer les propriétés des molécules CL257 sont prévues, afin d'en augmenter les niveaux dans le cerveau et de mettre au point un traitement. L'objectif à long terme consistera ensuite à déterminer quels patients atteints de la maladie d'Alzheimer pourraient en bénéficier. Article rédigé par Georges Simmonds pour RT Flash ACSP | | | |
| Depuis 20 ans, les troubles du spectre autistique (TSA), dont l'incidence atteint 1,2 % des naissances, sont en constante augmentation, sans que l'on sache pourquoi. Faute de disposer d'un traitement pharmaceutique approuvé par les autorités, il existe des techniques psychoéducatives permettant d'atténuer la sévérité des séquelles (troubles de la socialisation et de la communication, intérêts restreints, comportements répétitifs et stéréotypés). Mais ces techniques fonctionnent d'autant mieux qu'elles sont mises en œuvre plus tôt. Or, le diagnostic clinique de TSA est obtenu en moyenne alors que l'enfant a déjà cinq ans. Partant de ce constat, et sachant que les enfants présentant un TSA naissent avec leur syndrome, des scientifiques marseillais emmenés par le neurobiologiste Yehezkel Ben-Ari (Grand Prix de l'Inserm 2009) ont mis au point un algorithme de machine learning visant à identifier, dès la naissance, quel bébé risque de se voir poser un diagnostic de TSA dans les années qui viennent. Ses résultats sont détaillés dans la revue « Scientific Reports ». Concrètement, l'algorithme, appelé « Genesis », analyse, pour chaque naissance, les données fournies par la maternité, soit un total d'environ 115 paramètres biologiques (antécédents familiaux, paramètres pendant la grossesse, pendant l'accouchement, un jour après l'accouchement). Le test, réalisé en partenariat avec une maternité de Limoges, a montré que le pronostic proposé par l'algorithme (risque de TSA vs absence de risque) permettait d'identifier environ la moitié (41 %) des bébés à risque et la quasi-totalité (96 %) des enfants dits « neurotypiques ». Il s'agit d'une première mondiale, qui doit désormais être reproduite à plus grande échelle, sur la base des données d'autres maternités. Article rédigé par Georges Simmonds pour RT Flash Les Echos | | | |
| La pollution de l’air par les particules fines est un enjeu majeur de santé publique. Depuis plusieurs années, la littérature scientifique a mis à jour un lien entre cette pollution et le risque de cancer. En 2013, le Centre international de recherche sur le cancer (CIRC) a d’ailleurs classé l’ensemble des particules fines comme des cancérigènes certains pour l’Homme. Toutefois, le terme de particules fines constitue une « boîte noire » : tous les composés de ces particules n’ont probablement pas le même impact sur le risque de cancer. Plusieurs candidats sont à l’étude pour expliquer leurs effets néfastes sur la santé. C’est le cas notamment du carbone suie (ou « black carbon » en anglais), un constituant des particules fines issu de combustions incomplètes (produisant de la suie ; ce composé est également appelé noir de carbone de par sa composition et sa couleur). Ce dernier avait déjà été pointé du doigt par l’OMS comme ayant un impact général délétère sur la santé. Dans leurs travaux menés à l’Irset (Inserm/université de Rennes 1/EHESP) et à l’UMS 11 (Inserm/UVSQ), les chercheuses Inserm Emeline Lequy et Bénédicte Jacquemin ont évalué spécifiquement l’association entre exposition au carbone suie à long terme et cancer du poumon, pour mieux comprendre le rôle de ce composé dans les effets sanitaires délétères de la pollution de l’air. Les scientifiques se sont appuyées sur les données de santé des participants de la cohorte Gazel mise en place par l’Inserm au sein de l’UMS 11 en 1989, qui regroupe environ 20 000 participants suivis tous les ans. Point fort de cette cohorte : l’historique du lieu de résidence de tous les participants sur les trente dernières années est disponible. Les chercheuses avaient aussi accès à des estimations très précises des niveaux de pollution, issues du projet européen ELAPSE, au niveau de chacun des domiciles de chacun des participants sur cette longue période. Par ailleurs, il s’agit d’une cohorte très bien décrite du point de vue de facteurs de risque de cancer, comme par exemple le tabagisme, la consommation d’alcool, et les expositions professionnelles des participants. Sur la base de ces données, les chercheuses et leurs collègues ont déterminé le degré d’association entre niveau de pollution au domicile des participants depuis 1989 et risque de développer un cancer en général ou un cancer du poumon en particulier. Grâce à des modèles statistiques ajustés pour prendre en compte les autres facteurs de risque et s’affranchir de l’effet concomitant des particules fines dont le carbone suie fait partie, elles ont pu montrer spécifiquement l’association entre carbone suie et risque de cancer. Leur étude suggère ainsi que plus les niveaux d’exposition au carbone suie au domicile des participants étaient élevés, plus le risque de cancer du poumon était accru – et ce, indépendamment du niveau d’exposition aux particules fines. Les personnes les plus exposées au carbone suie depuis 1989 présentaient ainsi un sur-risque de cancer en général d’environ 20 % par rapport aux personnes les moins exposées. Ce sur-risque était de 30 % en ce qui concerne le cancer du poumon. Ce composé pourrait donc en partie expliquer les effets carcinogènes de la pollution de l’air. Ces résultats, inédits sur l’incidence de cancer et qui viennent renforcer une littérature scientifique déjà existante sur d’autres problèmes de santé, sont importants pour guider la décision publique en ce qui concerne la régulation de la pollution de l’air et les politiques sanitaires. « Au niveau individuel, il est difficile de recommander des mesures qui peuvent être prises pour limiter l’exposition au carbone suie des particules de l’air ambiant. Néanmoins, il est possible d’ajuster les politiques publiques si l’on arrive à montrer quels sont les polluants les plus nocifs dans la pollution de l’air. Nous espérons donc que nos résultats participeront à étendre les connaissances pour orienter et affiner ces politiques, par exemple en prenant des mesures spécifiques contre le carbone suie qui vient principalement du trafic automobile », souligne Bénédicte Jacquemin, dernière auteure de l’étude. Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|