| | | | | | | Edition du 04 Octobre 2019 |
| |
|
| Edito Intelligence artificielle, photonique et informatique quantique vont produire une puissance cognitive inimaginable
Avant Propos : Chaque semaine, jusqu'à la fin de notre campagne de dons qui se terminera au 31 Décembre, je vous ferai un bref résumé de l'état d'avancement de cette campagne de dons pour permettre à RT Flash de survivre. Au moment où je clos cet édito, nous venons de dépasser les 7.000 euros de dons. Comme la barre minimale est fixée à 15.000 euros et pour vous faire ressentir combien je suis toujours aussi optimiste, je constate que notre verre sera bientôt à moitié plein. Mais il ne faut pas se tromper, remplir l'autre moitié, ce sera inévitablement beaucoup plus long. Je veux remercier les 110 personnes qui ont déjà fait un don. J'ai été très touché par les mots particulièrement gentils et les encouragements qui souvent accompagnent ces dons. EDITORIAL : Nous assistons actuellement à une accélération exponentielle de l’intégration de l’intelligence artificielle (IA) et il ne se passe plus un jour sans une annonce relative à de nouvelles applications de cette technologie qui est en train d’envahir absolument tous les domaines d’activités, de la médecine à la défense, en passant par les loisirs et les services. C’est ainsi qu’il y a quelques semaines, Google a annoncé avoir développé un nouvel outil d’intelligence artificielle extrêmement puissant, capable de détecter avec une très grande fiabilité les cancers du poumon, à partir d’une analyse des images provenant des scanners, I.R.M. et autres appareils d’imagerie médicale (Voir Interesting Engineering). Ce nouvel outil a permis de détecter, avec un taux de précision de 94,4 % les cancers du poumon à partir des images analysées. Il s’est avéré plus performant que les six radiologues expérimentés auxquels il a été comparé en repérant 5 % de cancers supplémentaires, mais également en réduisant de 11 % le nombre de « faux positifs », c’est-à-dire de cancers diagnostiqués à tort. Une autre étude, publiée il y a quelques jours et réalisée sous la direction de Charlotte Manisty (Clinique cardiologique de Londres) (Voir AHA Journals), a montré qu’un nouvel outil d’IA était capable de lire et interpréter de manière très fiable une image cardiaque issue de scanners et d’I.R.M. en seulement quatre secondes, au lieu de 13 minutes en moyenne pour un médecin humain. L’étude montre qu’en comparant le temps gagné sur chaque analyse d’image avec le nombre de lectures effectuées chaque année, les médecins britanniques pourraient gagner, en moyenne, un total de 54 journées par an… L’intelligence artificielle est également en train de révolutionner le domaine ô combien important de la climatologie et les prévisions météorologiques (Voir Nature). Il y a également quelques jours, une étude réalisée par des chercheurs de l’Université de Chonnam, en Corée du Sud, a fait sensation au sein de la communauté scientifique en montrant qu’un nouveau système d’intelligence artificielle utilisant les réseaux de neurones était capable de prévoir jusqu’à 18 mois à l’avance les survenues du redoutable et difficilement prévisible phénomène météorologique El Niño, qui affecte, on le sait à présent, l’ensemble du climat mondial et correspond à un cycl e de variations de la pression atmosphérique entre l'est et l'ouest du Pacifique, couplé à un cycle du courant océanique le long de l'Equateur. Mais en plus, ce nouvel outil permet aussi de localiser de façon beaucoup plus précise ce redoutable phénomène et d’anticiper l’ensemble des mesures à prendre pour la protection alimentaire et sanitaire des populations concernées, ce qui constitue évidemment un immense progrès. La défense et la sécurité n’échapperont pas non plus non plus à la puissance de l’intelligence artificielle. Le département de la défense américain a ainsi créé en juin 2018 un Centre interarmées pour l’intelligence artificielle (IA). Le but de cette nouvelle structure est de fournir d'ici cinq ans à toutes les unités de l’armée, qu’elle soit combattante, technique, logistique, une aide à la décision basée sur l’analyse des multiples données constituant l’environnement militaire, qu’il soit tactique ou stratégique. En matière de transports, la société allemande Siemens a présenté, en septembre dernier, le premier tram autonome du monde, qui a parcouru la ville de Potsdam en Allemagne dans les conditions réelles de circulation et en toute sécurité. Équipé de caméras intelligentes, de lidars et de systèmes de reconnaissance d’image, ce nouveau type de tram peut faire face, grâce à son logiciel d’IA, à des situations inattendues et à de brusques changements dans son environnement, y compris le surgissement inopiné d’un piéton sur la voie (voir Siemens). Toujours en utilisant les nouvelles ressources de l’intelligence artificielle, Google a développé depuis trois ans une nouvelle technologie dont on n’a pas fini d’entendre parler : le VPS (Visual Positioning Service). Cet outil qui utilise la cartographie 3D permet de se positionner à l’intérieur d’un lieu à partir des images filmées par la caméra d’un smartphone. Cette technologie très puissante ouvre un champ d’applications considérable. Elle permet notamment de repérer très facilement, grâce à la reconnaissance visuelle intelligente, une personne ou un objet dans des espaces fermés, immeubles, magasins, domiciles… Autre domaine qui va rapidement être bouleversé par l’arrivée de l’IA, les transports routiers de marchandises. Il y a quelques jours, le constructeur de poids-lourds suédois Scania a présenté l’AXL, son nouveau concept étonnant de camion de transport de matériaux, qui ressemble à un engin de science-fiction. Dépourvu de cabine, cet engin est destiné à être utilisé de manière autonome dans les exploitations minières. D’ici la fin de l’année, la ligne 393 de la RATP (reliant Thiais à Sucy-Bonneuil, dans le Val-de-Marne) devrait quant à elle accueillir les premiers bus autonomes en situation réelle de circulation. Bien entendu, pendant une période d’essai relativement longue, un chauffeur sera présent à l’intérieur de ce bus pour superviser la conduite, rassurer les voyageurs et parer à toute éventualité. Néanmoins, l’objectif à terme de la RATP est bien de généraliser la circulation de ces bus entièrement autonomes sur l’ensemble de son réseau, une perspective qui n’est envisageable qu’en utilisant toute la puissance des nouveaux outils d’intelligence artificielle. L’Intelligence artificielle est également en train de s’imposer dans des domaines plus inattendus, comme celui du recrutement. Dans ce secteur, par exemple, de nouveaux outils de « gaming mobile » s’avèrent très efficaces pour repérer certains candidats tout à fait aptes à remplir les emplois visés mais présentant des profils atypiques qui ne permettent pas toujours de les identifier par les méthodes classiques. Dans le domaine de la mode, Facebook a développé une nouvelle intelligence artificielle capable de choisir une tenue vestimentaire « tendance ». Cet outil baptisé Fashion ++ a été conçu pour proposer à l’utilisateur un véritable service de « relooking » personnel. Concrètement, le système propose non seulement des combinaisons de vêtements à porter (en fonction de l’âge et des circonstances) mais suggère également différentes façons de porter ses tenues vestimentaires pour être « dans le vent ». Reste que, pour pouvoir diffuser l’intelligence artificielle partout et augmenter encore sa puissance et ses performances, il faudra parvenir à résoudre la « quadrature du cercle » technologique qui consiste à la fois à miniaturiser encore des composants électroniques, diminuer drastiquement la consommation énergétique globale des outils informatiques et augmenter considérablement la puissance de calcul de ces nouveaux outils. On le sait peu, mais la consommation globale des activités numériques mondiales atteint déjà 10 % de la consommation planétaire d’électricité, soit environ 2400 TWh, cinq fois la consommation annuelle de la France. Il est donc devenu crucial de parvenir à améliorer de manière drastique l’efficacité énergétique du monde numérique, qu’il s’agisse des composa nts électroniques, des réseaux ou des terminaux. Pour parvenir à relever ce défi, de nombreuses voies technologiques classiques ou plus exotiques sont explorées. Google a ainsi développé l’unité de traitement de tenseur (tensor processing unit, ou TPU), qui présente une consommation d’énergie bien inférieure à celle des deux microprocesseurs GPU (graphics processing unit) et CPU (central processing unit) par unité de calcul. Mais à plus long terme, des ruptures technologiques majeures se profilent avec l’arrivée de la photonique et de l’informatique quantique. Contrairement à leurs homologues électroniques, les unités de calcul optique (OPU en anglais) effectuent une transformation linéaire des vecteurs d’entrée suivie d’une transformation non linéaire, ce qui permet in fine d’obtenir une très grande puissance de calcul, associée à une faible consommation d’énergie. Il est intéressant de souligner que la France est à l’avant-garde dans ce domaine et que la société française LightOn a récemment développé un nouveau dispositif basé sur l’optique, baptisé Optical Processing Unit (OPU). Ce processeur optique révolutionnaire, qui devrait être commercialisé en 2020, est déjà capable de multiplier par cinq la vitesse de calcul de certains algorithmes utilisés en intelligence artificielle, tout en divisant par cinq la consommation énergétique globale nécessaire à ces calculs. Outre-Atlantique, la société Cerebras Systems a, pour sa part, dévoilé fin août un processeur d'une taille jamais vue, destiné à accélérer la capacité de calcul des intelligences artificielles. Cette puce est 57 fois plus grande que la plus large puce actuelle du marché et compte pas moins de 1200 milliards de transistors, 400.000 cœurs et 18 gigaoctets de mémoire. Dotée d’une telle puissance, elle devrait permettre de faire tourner les algorithmes d'intelligence artificielle 150 fois plus rapidement que les meilleurs systèmes informatiques actuels et à moindre coût énergétique. Comme il est impossible de réaliser et de graver sur une seule plaque autant de transistors sans qu’un certain nombre ne soient défectueux, Cerebras a conçu et réalisé sa puce géante en la divisant en 84 modules interconnectés. Chaque module dispose de composants similaires qui assurent un haut niveau de redondance. Grâce à cette conception astucieuse, si un dysfonctionnement se produit dans l’un des modules, la puce peut quand même continuer à fonctionner en recourant aux composants opérationnels des autres modules. C’est dans ce contexte d’effervescence technologique qu’il y a quelques jours Google a annoncé qu'il était parvenu au stade de la "suprématie quantique" (Voir article Usahitman), ce qui signifie qu'il aurait développé une machine qui surpasse de très loin, pour une tâche donnée, la puissance d’un ordinateur traditionnel reposant sur la logique binaire. Les spécialistes considèrent que le point de suprématie ou d’avantage quantique est atteint lorsqu’un ordinateur quantique comportant au moins 50 qubits parvient à un taux d’erreur suffisamment bas, ce qui lui permet d’effectuer de manière fiable des calculs complexes, beaucoup plus vite que ne pourrait le faire la plus puissante des machines classiques. Google affirme que ses chercheurs seraient parvenus à faire effectuer un calcul bien spécifique à un ordinateur quantique en seulement 3 minutes et 20 secondes, alors que 10 000 ans seraient nécessaires au plus puissant supercalculateur au monde, le Summit, pour y parvenir. Bien que les chercheurs de Google aient pris soin de souligner que leur machine quantique ne pouvait, pour l’instant, effectuer qu’un seul calcul à la fois, les spécialistes en informatique quantique ont salué cette avancée remarquable qui n’était pas attendue avant cinq ans et constitue une étape essentielle vers un ordinateur quantique opérationnel et commercialisable, qui devrait voir le jour au cours de la prochaine décennie. Il est raisonnable désormais d'espérer que d’ici une dizaine d’années les premiers ordinateurs photoniques et quantiques sortiront des laboratoires et seront utilisés dans tous les secteurs d’activité. Il faut bien comprendre que la révolution qui résultera de l’arrivée sur le marché de ce nouveau type de machine sera absolument vertigineuse. En effet, des problèmes extrêmement complexes qui demanderaient aujourd’hui plusieurs décennies, voire plusieurs siècles de calcul, pourront être effectués en quelques heures ou quelques jours. Concrètement, cela signifie qu’il sera par exemple possible de réaliser enfin des prévisions météorologiques à long terme fiables et précises, de prévoir de manière beaucoup plus fine l’évolution probable du climat, ou encore de prévoir des catastrophes naturelles aujourd’hui malheureusement imprévisibles, comme les séismes. Dans le domaine des sciences de la vie, les bouleversements que va provoquer l’arrivée de tels outils ne seront pas moins grands. En disposant d’une puissance de calcul absolument gigantesque, médecins et biologistes pourront mettre au point, de manière individualisée, de nouvelles molécules et médicaments, mais également de nouveaux vaccins qui seraient tout simplement impossibles à concevoir aujourd’hui dans un temps raisonnable. Ils pourront également modéliser et simuler numériquement le fonctionnement et l’évolution d’interactions biologiques très complexes d’organes entiers. Dans le secteur des matériaux et des nouvelles énergies, ces outils informatiques permettront également des révolutions que l’on peine encore à imaginer. Il deviendra notamment possible de concevoir et de produire à la demande une multitude de nouveaux matériaux possédant des propriétés très spécifiques, ce qui permettra par exemple de produire des cellules solaires bien plus performantes qu’aujourd’hui, ou encore de nouveaux matériaux ultralégers, souples et extrêmement résistants qui permettront de fabriquer des véhicules à haut niveau de sécurité, des avions ultralégers, des bâtiments pouvant affronter les pires catastrophes naturelles, ou encore des composants électroniques de taille atomique. Cette révolution scientifique et technique, qui résultera de l’alliance de l’intelligence artificielle et de l’informatique photonique et quantique, s’appuiera sur une synergie théorique, conceptuelle et industrielle entre quatre grandes disciplines : les mathématiques et la logique, la physique et les matériaux, la chimie et enfin la biologie et les sciences du vivant. Notre pays, en raison de sa tradition scientifique, technique et industrielle, et de la qualité de sa recherche publique, est particulièrement bien placé pour être à la pointe de cette extraordinaire rupture de société qui s’annonce. Nous devons, dans le cadre d’une coopération beaucoup plus intense au niveau européen, nous donner tous les moyens qui nous permettront, à l’horizon 2030, d’être les premiers au monde à maîtriser et à utiliser largement ces futurs outils d’intelligence artificielle quantiques et photoniques. Il faut en effet bien comprendre que cet enjeu va bien au-delà de sa dimension scientifique et économique et constitue également la clef qui nous permettra demain, face aux nouveaux géants chinois, indiens et africains qui émergent, de conserver notre souveraineté politique et de préserver non seulement notre prospérité mais également notre modèle de société. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Nanotechnologies et Robotique | |
| | | Aux États-Unis, des chercheurs de la Georgia Institute of Technology ont inventé un robot à peine visible, aussi petit qu'une fourmi. Ces scientifiques américains expliquent qu'ils se sont inspirés des "vibrobots" ou "bristle-bots". Ils peuvent être fabriqués avec une tête de brosse à dents, un petit moteur et une pile électrique. Grâce aux vibrations du moteur, les poils souples de la brosse se déforment et font ainsi avancer le petit robot. La nouvelle version de la Georgia Tech a quant à elle été imprimée en 3D et ne mesure que deux millimètres de long, soit la taille d'une fourmi. Équipé de quatre à six pattes, le robot ne pèse que cinq milligrammes. Comme il n'existe pas, pour l'instant, de pile adaptée à la petite taille de ces robots, ces derniers se déplacent grâce à un actionneur externe. Un simple haut-parleur, qui émet des vibrations, peut faire l'affaire. Le groupe de scientifiques envisage désormais de développer des mini-robots capables de sauter ou de nager. L'imprimante 3D est capable de créer des robots encore plus petits, mais leur force d'adhésion risque d'être trop élevée, si bien qu'ils pourraient se coller à la surface sur laquelle ils sont posés. À terme, ces mini-robots pourraient être un jour capables de pressentir le changement environnemental, de déplacer des matériaux et de soigner des blessures à l'intérieur d'un être humain, explique Azadeh Ansari, professeure auxiliaire à la Georgia Tech. Article rédigé par Georges Simmonds pour RT Flash IOP Science | | ^ Haut | |
|
| | | Une équipe de l'Institut de chimie et biologie moléculaire et supramoléculaire (CNRS/Université Claude-Bernard Lyon 1/Insa Lyon/ESCPE Lyon) a développé une nouvelle voie de valorisation du dioxyde de carbone : la fabrication, en conditions vertes, de composés fluorés à haute valeur ajoutée, utilisés dans les industries pharmaceutique et agrochimique. Le phénomène de réchauffement climatique est en étroite corrélation avec le taux très élevé des gaz à effet de serre dans notre atmosphère et, notamment, du dioxyde de carbone (CO2) dont le taux n'a cessé de croître depuis la révolution industrielle pour dépasser récemment 400 ppm (partie par million). Un défi majeur consiste donc à réduire la libération de ces gaz dans l'atmosphère : dans le cas du dioxyde de carbone, son utilisation comme source de carbone peut être envisagée, à condition de trouver de nouvelles applications permettant sa valorisation industrielle. C'est ce que propose une équipe de l'Institut de chimie et biologie moléculaire et supramoléculaire. Les chercheurs ont développé un nouveau concept associant l'utilisation directe du CO2 à l'insertion de fluor dans des composés organiques. Les produits fluorés suscitent en effet l'intérêt du monde industriel par leurs propriétés physico-chimiques (notamment un caractère hydrophobe marqué et une stabilité renforcée de la liaison entre atomes de carbone et de fluor) ; actuellement, plus de 20 % des produits pharmaceutiques et 40 % des produits agrochimiques contiennent au moins un atome de fluor. Grâce au procédé développé, des produits à très haute valeur ajoutée peuvent ainsi être obtenus, et ce en conditions douces, à pression atmosphérique de CO2 et température ambiante. Une alternative verte pour la synthèse de composés d'intérêt qui s'inscrit dans la démarche actuelle de la valorisation du CO2. Article rédigé par Georges Simmonds pour RT Flash ICBM
| | | |
| Les réseaux organométalliques (MOF pour metal-organic framework) sont une classe particulière de matériaux semblables à des éponges avec des pores de taille nanométrique. Ces nanopores engendrent des surfaces internes records, qui atteignent jusqu’à 7800 m2 pour un seul gramme. Cette caractéristique fait des MOF des matériaux polyvalents utilisés pour de multiples applications, comme la séparation de produits pétrochimiques et de gaz, l’imitation de l’ADN ainsi que l’élimination de métaux lourds, d’anions fluorés et même d’or de l’eau, pour n’en citer que certaines. Le diamètre des porosités des MOF est l’une de leurs caractéristiques clés. En effet, comme pour d’autres matériaux poreux, il sert de critère de classification. S’il est de 2 nm ou moins, on parle de MOF "microporeux" ; s’il dépasse cette taille, on dira qu’ils sont "mésoporeux". Aujourd’hui, la plupart des MOF appartiennent à la première catégorie. Ils ne peuvent donc pas être utilisés pour capter de grandes molécules ou pour catalyser des réactions entre elles. Pour simplifier, on peut dire que les molécules ne passent pas dans les pores. Depuis peu, les MOF mésoporeux sont au centre de l’attention parce qu’ils s’avèrent très prometteurs pour les applications où de grosses molécules interviennent. Ils posent toutefois certains problèmes : les pores de plus de 2 nm ont tendance à s’effondrer. Forcément, cela réduit la surface interne des MOF mésoporeux et donc leur utilité globale. Étant donné qu’une des préoccupations centrales de la branche est de trouver des moyens innovants de maximiser la surface des MOF et la taille de leurs porosités, résoudre le problème de l’effondrement revêt une priorité absolue. Li Peng, chercheuse postdoctorale à l’EPFL Valais Wallis, a trouvé la solution en ajoutant aux MOF mésoporeux une petite quantité d’un polymère, qui maintient les pores des MOF ouverts. Il en résulte une augmentation considérable de la surface accessible, de l’ordre de 5 à 50 fois. L’étude a été menée par le groupe de recherche de Wendy Lee Queen, en collaboration avec les laboratoires de Berend Smit et de Mohammad Khaja Nazeeruddin de l’Institut des sciences et ingénierie chimiques (ISIC) de l’EPFL. L’ajout du polymère aux MOF a permis de conserver leur importante surface et leur cristallinité même après les avoir chauffés à 150°C, une température que l’effondrement des pores ne permettait pas d’atteindre auparavant. Cette nouvelle stabilité donne accès à bien plus de sites de coordination métallique ouverts, ce qui accroît aussi la réactivité des MOF. Lors de cette étude, deux doctorants, Sudi Jawahery et Mohamad Moosavi, ont eu recours à des simulations moléculaires pour rechercher pourquoi les porosités s’effondrent en premier lieu dans les MOF mésoporeux. Ils proposent en outre un mécanisme pour expliquer comment les polymères stabilisent leur structure au niveau moléculaire. "Nous espérons que cette méthode de stabilisation par des polymères nous permettra de créer une série de nouveaux MOF mésoporeux qui n’étaient pas réalisables auparavant à cause de l’effondrement des pores", explique Wendy Queen. "Ce travail peut donc déboucher sur de nouvelles applications passionnantes impliquant la séparation, la conversion ou la livraison de larges molécules". Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Lorsque des tissus humains sont endommagés par un traumatisme ou une maladie, les chirurgiens ont besoin de tissus de remplacement pour les réparer. Le tissu est généralement transplanté d’une partie du corps du patient à une autre (autogreffe) ou d’une personne à une autre (allogreffe). Les autogreffes peuvent sauver des vies, mais elles sont compliquées : leur prélèvement est douloureux et coûteux et il peut en résulter des infections et un hématome (gonflement solide du sang coagulé) dans les tissus. Dans le cas d’une allogreffe, la transplantation est également complexe car le système immunitaire du receveur peut rejeter le tissu et le greffon peut transmettre une infection ou une maladie au receveur. Le domaine de l’ingénierie tissulaire vise à régénérer ou à remplacer les tissus endommagés à l’aide de tissus fabriqués en laboratoire. Pour ce faire, des cellules extraites du corps sont incorporées à des biomatériaux poreux établis sur des échafaudages moléculaires, qui servent de modèles 3D guidant la croissance de nouveaux tissus. Les échafaudages sont alors ensemencés avec des cellules développées in vitro pour créer des tissus à implanter ou sont introduits directement dans le site où le corps du patient a été endommagé. Les tissus sont ensuite amenés à se régénérer artificiellement. La création de vaisseaux sanguins apportant de l’oxygène et des nutriments au tissu régénéré est l’une des tâches les plus difficiles à accomplir, le processus devant réussir à créer des tissus et des organes épais et transplantables. La « pré-vascularisation » in vitro de tissus synthétiques a été suggérée pour favoriser une « anastomose » rapide (connexion des vaisseaux sanguins) entre le greffon et les tissus du receveur. Mais une thrombose dans les greffes peut en résulter. Pour essayer de surmonter cet obstacle majeur, l'équipe de recherche du Professeur Ben-Shaul de l’Institut d’ingénierie biomédicale du Technion a cherché à savoir si la transplantation de vaisseaux plus matures, conçus pour s’intégrer aux tissus du patient, pourrait accélérer ce processus sans provoquer de thrombose dans les greffes. Pour cela, ils ont cultivé des cellules endothéliales (la couche la plus interne des vaisseaux sanguins, celle en contact avec le sang) et des fibroblastes (cellules présentes dans le tissu conjonctif ; elles sont parfois appelées cellules de soutien et ce sont notamment des cellules résidentes du derme qui en assurent la cohérence et la souplesse) sur des échafaudages tridimensionnels pendant 1, 7 ou 14 jours pour former des vaisseaux d’âges différents. Il en a résulté que les greffes les plus matures, avec des réseaux vasculaires complexes qui se sont allongés, ont augmenté l’anastomose (la connexion entre deux structures, organes ou espaces ; il s’agit en général de connexions entre vaisseaux sanguins ou d’autres structures tubulaires telles qu’une boucle de l’intestin) du vaisseau greffe-hôte et ont amélioré la pénétration des vaisseaux chez le receveur. Les vaisseaux moins matures ont moins bien réussi à se combiner avec le tissu hôte et ont provoqué la formation de davantage de caillots. Ces découvertes démontrent l’importance d’établir des réseaux de vaisseaux matures et complexes dans les tissus artificiels avant implantation pour favoriser l’anastomose chez l’hôte et accélérer la perfusion de sang dans les tissus. Après l’étude actuelle sur les cellules murines, le Professeur Ben-Shaul espère mener d’autres recherches précliniques qui pourraient conduire à la mise en œuvre des conclusions tirées de cette étude chez l’homme. Article rédigé par Georges Simmonds pour RT Flash PNAS | | | |
| Le médulloblastome (MB) est la tumeur cérébrale maligne la plus fréquente chez l’enfant. Il s’agit d’une tumeur neuro-ectodermique localisée au niveau du cervelet. Aujourd’hui, la prise en charge des patients est lourde et inclut la chirurgie, la chimiothérapie et un protocole de radiothérapie. Le pronostic de la maladie s’est beaucoup amélioré au cours des vingt dernières années ; cependant à long terme, ces bons résultats sont ternis par de lourdes séquelles neurocognitives dues aux traitements. Dans ce contexte, le développement de nouvelles stratégies thérapeutiques pour le traitement du médulloblastome est une priorité. Les MBs sont des tumeurs très hétérogènes ; auj ourd’hui il est admis qu’il existe quatre groupes au sein du MB, néanmoins ceux-ci partagent, pour la plupart, des altérations dans les voies de signalisation impliquées dans le développement. Le groupe 1 présente une activation constitutive de la voie WNT (15 % des cas). Le second groupe est caractérisé par une surexpression de gènes impliqués dans la voie de signalisation Sonic Hedgehog (SHH) et représente environ 25 % des cas chez l’homme. Ce groupe est caractérisé par une forte activation de la signalisation sonic hedgehog (SHH). Au cours du développement du cervelet, la voie de signalisation SHH exerce une régulation majeure sur la prolifération des précurseurs des neurones à grains. Enfin, les autres médulloblastomes (groupes 3 et 4) proviennent d’origines moléculaires différentes et représentent, à eux deux, plus de la moitié des cas de MB. Des chercheurs du laboratoire UMR3347 / U1021 - Signalisation normale et pathologique : de l'embryon aux thérapies innovantes des cancers - ont pu montrer qu' Atoh1 jouait un facteur de transcription de type hélice-boucle-hélice essentiel à la formation du cervelet mais aussi du SHH MB. Cette équipe a également montré que la surexpression d’Atoh1 dans des progéniteurs des neurones en grains du cervelet induisait la formation de MB SHH in vivo. De plus, son inactivation dans les tumeurs conduit à l’arrêt de la prolifération tumorale in vivo. En ayant recours à une approche protéomique in vivo, ces chercheurs ont pu mettre en évidence le mécanisme moléculaire qui régule ce facteur de transcription au cours du développement du cervelet. Ce mécanisme est essentiel puisque sa dérégulation a pour conséquence un défaut du développement du cervelet. Dans les tumeurs, cette voie de signalisation est altérée, induisant ainsi une surexpression de ce facteur de transcription. La découverte de ce nouveau mécanisme fondamental ouvre la voie à de nouvelles pistes thérapeutiques contre le médulloblastome. Article rédigé par Georges Simmonds pour RT Flash Institut Curie | | | |
| Au niveau mondial, la tuberculose reste la maladie infectieuse la plus redoutable, avec plus d'un million et demi de morts par an. Elle est causée par la bactérie Mycobacterium tuberculosis qui, une fois à l’intérieur du corps, évolue pour devenir plus résistante et plus difficile à éradiquer. Il est possible de guérir la maladie grâce à des injections d’isoniazid, chaque jour pendant plus de 6 mois, mais ce traitement est très long, coûteux et compliqué à mettre en place. Des chercheurs de l’Université d’Umeå ont trouvé un traitement complémentaire qui permet de rendre plus efficaces les injections d’isoniazid et ainsi potentiellement faciliter l’action dans les zones du globe où la maladie se propage. Quand la bactérie porteuse de tuberculose entre dans un corps, celle-ci mute et devient plus résistante aux attaques extérieures. Un groupe de recherche suédois et américain a cherché une nouvelle approche pour traiter la tuberculose. Plutôt que de vouloir des antibiotiques plus performants capables de détruire les bactéries une fois mutées, l’idée est d’empêcher les bactéries de devenir plus résistantes. Pour cela, Christina Stallings et son équipe de l’école de médecine de l’Université de Washington ont observé le comportement de bactéries tuberculeuses élevées en laboratoire. Quand celles-ci rencontraient un endroit inhospitalier équivalent à leur arrivée dans les corps, elles se regroupaient pour former un biofilm résistant à la fois au manque d’oxygène mais aussi aux antibiotiques. Fort de ce constat, Fredrik Almqvist et son équipe de l’Université d’Umeå ont essayé 91 molécules connues pour inhiber les biofilms créés par d’autres bactéries. Ils en ont trouvé une, appelée C10, qui ne tuait pas les bactéries responsables de la tuberculose, mais qui les empêchait de se regrouper en biofilm. La poursuite des études a montré que l’effet inhibiteur du C10 facilite l’action des antibiotiques et a même permis de diminuer la résistance des bactéries déjà mutés. Pour un résultat identique, la quantité d’isoniazid est grandement diminuée en présence de C10. De plus, certaines bactéries infectieuses peuvent muter de façon à devenir résistantes au traitement actuel. En rajoutant du C10, ces molécules meurent. Ainsi, le C10 pourrait permettre aux millions de personnes porteuses de bactéries immunisées d’utiliser à nouveaux des traitements à base d’isoniazid. Ces derniers résultats n’étaient pas prévus et sont potentiellement révolutionnaires. Toutefois, il n’a été testé que sur des bactéries en laboratoire. Il faut encore vérifier que cette molécule n’est pas nocive pour le corps humain. Il faut désormais continuer à améliorer cette molécule avant de la tester sur les animaux et mieux comprendre le mécanisme à l’origine de la destruction du biofilm. « Nous avons une nouvelle stratégie pour soigner la tuberculose, mais la route est encore longue avant de pouvoir s’en servir », expliquent Christina Stallings et Fredrik Almqvist. Article rédigé par Georges Simmonds pour RT Flash NLCN | | | |
| Des chercheurs de l’Université de Californie à San Francisco ont réalisé une avancée majeure, dans le domaine des biotechnologies et de la biologie synthétique, en créant LOCKR, une protéine totalement artificielle capable de reprogrammer en profondeur les cellules. Les protéines artificielles ne sont pas une nouveauté en soi. Leur usage est même envisagé pour traiter la maladie d'Alzheimer. Mais là où ces protéines synthétiques provenaient jusqu’ici de molécules naturelles altérées, LOCKR est réellement artificielle car elle ne trouve aucun équivalent dans la nature. "LOCKR est une biotechnologie qui a été conçue et construite du début à la fin par les humains", explique Hana El-Samad, qui fait partie de l’équipe de recherche. Conçue sur ordinateur puis synthétisée en laboratoire, cette protéine est la première de son genre. Un peu à l’image d’un nanorobot réparateur, LOCKR transforme les cellules normales en cellules « intelligentes ». D’une longueur de 8 nanomètres (0.000008 millimètre), elle est présente directement au sein des cellules vivantes. Dans son état normal, elle est fermée et inactive. Elle a besoin d’une clé : une molécule prévue à cet effet est intégrée par les scientifiques et permet à LOCKR de s’ouvrir. Une protéine sous forme d’interrupteur, avec des boutons on et off, « procure un niveau sans précédent de contrôle sur la façon dont la protéine interagit avec les autres composants de la cellule », précise Hana El-Samad. Et en effet, une véritable reprogrammation s’opère. La protéine artificielle peut changer l’expression des gènes, rediriger le réseau cellulaire, dégrader d’autres protéines, contrôler les interactions entre les protéines. Une version appelée degronLOCKR a été testée et démontrée sur des cellules humaines cultivées en laboratoire. Dans ce cas précis, les scientifiques ont construit les protéines LOCKR sous forme de circuit biologique autonome, dans le but de dégrader une protéine (réduire le fonctionnement d’une protéine problématique permet de restaurer l’activité normale de la cellule). Sous forme de circuit, lorsque LOCKR enregistre certains stimuli spécifiques, synonymes d’une anomalie, elle prend alors le contrôle de la cellule. Comme un thermostat automatique, l’action ne se déclenchera que pour le temps nécessaire, avant de se remettre sur "off". En utilisant degronLOCKR et des molécules similaires destinées à être développées dans le futur, Hana El-Samad estime dans le communiqué que « nous serons capables de composer des circuits toujours plus sophistiqués, qui pourront très bien conduire à une nouvelle génération de thérapies cellulaires intelligentes, précises et robustes ». En cas de thérapie cellulaire (pour soigner des organes défaillants), il est parfois difficile pour les médecins de savoir à quel moment précis administrer le médicament biothérapeutique car il doit intervenir au bon moment et à la bonne dose, sous peine sinon d’être inefficace, voire même d’avoir des effets néfastes. LOCKR peut non seulement détecter la maladie ou le dommage, mais en plus agir en conséquence au bon endroit, au bon moment et dans des proportions adaptées. La protéine a été littéralement créée pour cet objectif. L’équipe n’hésite pas à envisager que son invention biotechnologique puisse avoir une application concrète pour aider à soigner des cancers, des tumeurs et des maladies auto-immunes. « De la même façon que les circuits électroniques intégrés ont permis l’explosion de l’industrie des puces informatiques, ces interrupteurs biologiques polyvalents et dynamiques vont bientôt permettre un contrôle précis du comportement des cellules vivantes et, à terme, de notre santé », précise Hana El-Samad. Article rédigé par Georges Simmonds pour RT Flash UWSM | | | |
| Une équipe de l'Université de Virginie (UVA) a réussi à montrer que la perturbation des bactéries intestinales rend le cancer plus agressif, avec une propagation plus rapide dans les autres parties du corps. Le microbiome est la communauté de microorganismes qui vivent en nous et sur nous. L’auteur principal, Melanie Rutkowski, du département de microbiologie, immunologie et biologie du cancer de l'UVA montre ici que le fait de perturber le microbiome de la souris modèle de cancer du sein à récepteurs hormonaux positifs rend son cancer plus agressif. La modification du microbiome, la collection de micro-organismes vivant dans les intestins, entraîne ici des effets dramatiques sur le corps, induisant le cancer à se propager. Les deux tiers des cancers du sein sont positifs aux récepteurs hormonaux. Cela signifie que leur croissance est alimentée par une hormone, soit l'œstrogène ou la progestérone. La bonne nouvelle est que ces types de cancers répondent normalement plutôt bien à la thérapie hormonale. Prédire si de tels cancers vont se propager au-delà du sein et dans d'autres parties du corps en métastasant est un défi majeur en oncologie. La prédiction de cette propagation est complexe et dépend principalement des caractéristiques cliniques au moment du diagnostic et obéit à de multiples facteurs. Dans ces travaux, les chercheurs ont perturbé l'équilibre du microbiome chez les souris modèles de cancer du sein, en les traitant de manière chronique avec des antibiotiques. Cette perturbation du microbiome a entraîné une inflammation systémique, en particulier au niveau du tissu mammaire. Dans cet environnement enflammé, les cellules tumorales se sont disséminées très rapidement à partir du tissu mammaire, dans le sang et dans les poumons, un site majeur de métastases du cancer du sein à récepteurs hormonaux positifs. Ces recherches confirment que le fait d'avoir un microbiome déséquilibré avant le développement d’un cancer du sein entraîne une inflammation à long terme dans les tissus puis dans l'environnement de la tumeur. Les changements qui se produisent dans les tissus liés à un microbiome malsain pourraient alors constituer un prédicteur précoce du cancer du sein invasif ou métastatique. Finalement, sur la base de ces découvertes, les chercheurs concluent que « l’état du microbiome contribue à une propagation accrue et à une incidence plus élevée de métastases ». Article rédigé par Georges Simmonds pour RT Flash AACR | | | |
| Selon une méta-analyse présentée à l'occasion du congrès annuel de l'American Psychiatric Association (APA) 2019, les œstrogènes en adjuvant pourraient être efficaces pour limiter les symptômes chez les femmes atteintes de schizophrénie et pourraient constituer une nouvelle option de traitement. Une revue systématique de la littérature menée par des chercheurs de l'Université du Maryland à Baltimore a montré que l’ajout d’œstrogènes réduit les symptômes de schizophrénie d'une façon dose-dépendante et statistiquement significative par rapport au traitement antipsychotique seul. « Notre analyse suggère que les œstrogènes ont un effet significatif sur l'amélioration des symptômes psychotiques, un résultat que je trouve très encourageant et qui doit être exploré plus avant dans d'autres études », souligne le Docteur Viviana Alvarez Toro, investigateur de l'étude. La schizophrénie affecte environ 1 % de la population et, bien que sa prévalence soit similaire chez les hommes et les femmes, sa présentation est souvent différente selon le sexe. Le Docteur Alvarez Toro et sa co-investigatrice le Docteur Elise Turner, toutes deux internes en psychiatrie à l'Université du Maryland / Sheppard Pratt à Baltimore, notent que les jeunes femmes développent généralement des symptômes 3 à 4 ans plus tardivement que leurs homologues masculins et que, par ailleurs, ces symptômes peuvent apparaître chez les femmes pendant des périodes où se produisent des changements hormonaux importants, notamment pendant les périodes post-partum ou en post-ménopause. En outre, des études ont suggéré précédemment que les taux d’œstrogènes totaux sont généralement plus bas chez les femmes atteintes de schizophrénie, comparé à leurs homologues ne présentant pas ce trouble. Des recherches suggèrent aussi que les œstrogènes stimulent les antagonistes de la dopamine dans des modèles animaux et pourraient servir « d'agent antipsychotique naturel » susceptibles d’expliquer les différences de symptômes entre hommes et femmes, notent les chercheuses. Elles soulignent également que les œstrogènes peuvent jouer un rôle protecteur des lésions neuronales en favorisant la neurogenèse et la remyélinisation. Sur la base de ces données, Alvarez Toro et ses collaborateurs ont procédé à une analyse systématique des effets des œstrogènes en adjuvant chez des femmes adultes et les ont comparés à des traitements à base d’antipsychotiques seuls – le traitement standard actuel. Dans cette revue de la littérature, seuls les essais contrôlés randomisés (ECR) ont été sélectionnés. L'analyse finale était basée sur six ECR avec un total de 426 femmes adultes diagnostiquées avec une schizophrénie selon les critères du DSM. Le critère principal retenu pour l'étude était la réduction des symptômes positifs et négatifs de la schizophrénie, mesurés à l'aide des échelles de symptômes PANSS et BPRS. Les investigateurs ont constaté que toutes les études mesurant les symptômes avec l’échelle PANSS montraient des réductions statistiquement significatives des scores totaux chez les femmes traitées par œstrogènes comparé aux femmes traitées par un antipsychotique seul. L’analyse a également montré que l'augmentation des doses d'œstrogènes entraînait une réduction plus importante des scores totaux mesurés par PANSS. La seule étude qui a mesuré les symptômes à l’aide de la BPRS a montré une tendance – non statistiquement significative – à la réduction des scores totaux chez les participantes traitées à l’œstrogène par rapport à ceux traités par un antipsychotique en monothérapie. Dans l'ensemble, a déclaré Alvarez Toro, les œstrogènes en tant que traitement d'appoint chez les femmes atteintes de schizophrénie semblent réduire les symptômes positifs et négatifs de manière dose-dépendante. Bien que cette observation n’ait aucune implication clinique à ce stade, le Docteur Alvarez Toro considère que les résultats méritent d’être étudiés plus avant dans des populations plus vastes et diversifiées. Article rédigé par Georges Simmonds pour RT Flash Medscape | | | |
| De nombreux travaux ont montré que le cholestérol était un élément fondamental pour le bon fonctionnement des différents types cellulaires du cerveau. Ce lipide est important au moment du développement embryonnaire et tout au long de la vie post-natale et adulte puisqu'il est un élément de base des membranes cellulaires. En structurant celles-ci, il permet aux neurones de communiquer entre eux et d'assurer leurs fonctions, notamment pour des processus essentiels tels l’apprentissage et la mémoire. Contrairement aux organes périphériques qui peuvent utiliser le cholestérol alimentaire et celui produit par le foie, le cerveau doit synthétiser son propre cholestérol, car ce lipide ne peut pas passer la barrière hémato-encéphalique. Cette spécificité nécessite une régulation très fine du métabolisme du cholestérol au sein du cerveau ; toute dérégulation de sa synthèse et/ou de sa dégradation provoque des dysfonctionnements cellulaires importants, pouvant conduire à des maladies neurodégénératives. La Maladie de Huntington (MH) est une maladie génétique héréditaire, conduisant à une neurodégénérescence progressive qui commence 15 ans avant les premiers symptômes. Les patients souffrent de troubles moteurs (chorée…), cognitifs et psychiatriques, cependant les seuls traitements actuellement disponibles n’ont pour cibles que les symptômes, sans guérir la maladie. La maladie est due à la mutation –des expansions anormales de « triplets CAG »– au niveau du gène codant la Huntingtine, ce qui conduit à de nombreuse dysfonctions neuronales. Les chercheurs avaient précédemment montré que l’enzyme CYP46A1, qui dégrade le cholestérol en excès dans les neurones, est déficiente dans le cerveau des patients atteints de la MH, mais aussi dans des modèles murins de la MH. Sa restauration, par des approches de thérapie génique, permet de rétablir le métabolisme du cholestérol, protège le cerveau de la neurodégénérescence et rétablit des fonctions motrices normales chez un modèle murin de la MH. Dans cette étude, les chercheurs ont élucidé les mécanismes précis qui président à cette neuroprotection. Ainsi, la restauration de CYP46A1 permet, dans un modèle murin de la MH, de réguler la transmission neuronale, l’expression de nombreux gènes importants pour la survie neuronale, ainsi que l’élimination de la protéine Huntingtine mutée agrégée, toxique pour les cellules. Ces résultats mettent donc en évidence de nouveaux mécanismes neuroprotecteurs de CYP46A1, associés à une régulation du cholestérol au sein du cerveau, avec une compensation de nombreuses dysfonctions cellulaires associées à l’évolution lente de la maladie. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs de l’Université de Tel Aviv ont découvert un fascinant mécanisme, chez les nématodes (de petits vers), par lequel de petits ARN transmettent aux descendants des informations dérivées des neurones et influencent différents processus physiologiques, y compris le comportement alimentaire. Ce mécanisme, décrit dans la revue Cell, qui permet aux neurones de communiquer avec les cellules germinales, vient confirmer que le système nerveux transmet un certain nombre d’informations sur plusieurs générations. Les nématodes, de petits vers, font partie des organismes modèles les plus étudiés. Ils se reproduisent rapidement et leur génome contient presque le même nombre de gènes que le génome humain. Cette étude révèle qu'un mécanisme observé chez les nématodes permet aux cellules du système nerveux – les neurones – de communiquer avec les cellules germinales, les cellules qui contiennent les informations (génétiques et épigénétiques) transmises aux générations futures. La recherche identifie ainsi le mode par lequel les neurones transmettent des messages à ces générations futures. Le mécanisme est contrôlé par de petites molécules d'ARN, qui régulent l'expression des gènes et ce sont ces petits ARN qui communiquent ces données dérivées des neurones à la progéniture. On a longtemps pensé que l'activité cérébrale ne pouvait avoir absolument aucun impact sur le sort de la progéniture. La barrière de Weismann, également connue sous le nom de « Deuxième loi de la biologie », déclare que l'information contenue dans la lignée germinale est censée être isolée de toute influence environnementale. Cette étude, en identifiant pour la première fois un mécanisme capable de transmettre des réponses neuronales à travers les générations, s'inscrit en faux. Avec des implications majeures pour notre compréhension de l'hérédité et de l'évolution. « Le système nerveux est unique dans sa capacité à intégrer nos réponses aux facteurs environnementaux et nos réponses corporelles. L'idée qu'il puisse également contrôler le sort de la progéniture est renversant ». Il reste certes à reproduire ces observations chez les humains et, si tel était le cas, l'identification de ce mécanisme pourrait avoir une utilisation pratique en médecine : une meilleure compréhension et de nouveaux traitements pour de nombreuses maladies à composante héréditaire et épigénétique. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| On savait déjà que les acides gras polyinsaturés à longue chaîne, oméga 3 et oméga 6, étaient indispensables au bon fonctionnement du cerveau et neuroprotecteurs. Mais, selon une équipe de scientifiques de l'école de médecine de l'Université Johns Hopkins, aux Etats-Unis, certaines matières grasses permettraient de ralentir l'apparition de la démence. Dans leur étude, publiée dans la revue Journal of the Alzheimer Disease, les scientifiques annoncent qu'un régime cétogène permettrait de stimuler les capacités cognitives des personnes atteintes de démence. Dans les grandes lignes, le régime cétogène se caractérise par un apport riche en graisses, mais pauvre en sucres. "En pratique, c'est un régime très difficile à suivre", souligne le Professeur Luc Cynober, chef du service de biochimie à l'hôpital Cochin. Le régime cétogène proscrit les aliments à base de céréales, les légumineuses, certains féculents, les sucreries et le lait. En revanche, il prône les aliments riches en gras et en protéines comme les huiles végétales, le beurre, les oeufs et les viandes, les poissons gras... Après avoir analysé les données médicales de 14 patients souffrant des premiers signes de la maladie d'Alzheimer, les chercheurs ont en effet constaté un effet positif chez ceux ayant suivi un régime cétogène. En revanche, les personnes ayant adopté le régime méditerranéen n'avaient vu aucune amélioration de leur mémoire immédiate, ce qui semble en contradiction avec plusieurs autres études, notamment une étude réalisée en 2016 par des chercheurs de l'Université de Californie à Los Angeles. Ceux-ci ont soumis près de 1 000 patients à des questionnaires réguliers durant quatre ans et demi. Ils ont pu constater que le risque de démence et de perte de mémoire avait diminué de 53 % chez les personnes qui avaient adopté le régime méditerranéen… D'autres études épidémiologiques de grand ampleur seront donc encore nécessaires pour mieux évaluer les effets intrinsèques des différents régimes alimentaires sur le cerveau et leur pouvoir préventif en matière de déclin cognitif et de démences. Article rédigé par Georges Simmonds pour RT Flash NCBI | | | |
| Chaque année, les maladies non transmissibles mais pouvant être prévenues (majoritairement des affections cardiovasculaires) sont responsables d’environ 38 millions de décès dans le monde. De ce total, près de la moitié (40 %) concernent des personnes âgées de moins de 70 ans et 80 % des personnes décédées prématurément vivaient dans un pays à revenus faibles ou moyens (PRFM). En théorie, la prévention peut sauver de très nombreuses vies, mais une grande partie de la population mondiale n’y a pas accès. Une étude a tenté de mesurer l’impact, sur la mortalité globale, de trois méthodes de prévention relativement faciles à mettre en œuvre : traiter au moins 70 % des cas d’hypertension artérielle, supprimer la consommation d’acides gras ajoutés, et réduire de 30 % celle de sodium, en comparaison avec les chiffres 2015. « Ces trois mesures efficaces pourraient sauver presque 100 millions de vies d’ici 25 ans. Les efforts nationaux et internationaux pour mettre en place ces mesures devraient être un objectif phare des programmes de prévention des maladies cardiovasculaires », selon l'auteur de l’étude, Vasilis Kontis (Imperial College London). Les auteurs ont effectué une analyse combinée d’enquêtes de population incluant la pression artérielle moyenne ainsi que la consommation de sel et d’acides gras trans, mais aussi les données sur le pays de résidence, l’âge et le sexe des participants. Ils ont également tenu compte des données régionales sur la couverture par antihypertenseurs, le taux de mortalité pour cause définie, et sur des projections pour la période 2015-2040. Le travail s’est appuyé aussi sur les plus récentes méta-analyses d’études épidémiologiques pour en déduire la réduction du risque relatif que chaque type de prévention pouvait générer. Il en ressort que l’effet combiné des trois interventions préventives étudiées permettrait théoriquement de prévenir 94,3 millions de décès prématurés en 2040 (IC 95% : 85,7 – 102,7), la réduction du nombre de maladies cardiovasculaires (surtout la cardiopathie ischémique et l’AVC) comptant pour plus de 90 % dans cette amélioration. Ce nombre important de vies épargnées correspondrait à environ 7,7 % de l’ensemble des décès pour cause de maladie non transmissible. Le seul traitement de 70 % des cas d’HTA serait déjà en mesure d’éviter 39,4 millions de décès précoces (35,9 – 43,0), tandis que la réduction de 30 % de la consommation sodique permettrait d’épargner 40,0 millions de décès prématurés (35,1 – 44,6) et que l’élimination des acides gras trans en éviterait encore 14,8 millions (14,7 – 15,0). L’effet de l’ensemble de ces mesures préventives serait le plus marqué en région sub-saharienne. Dans les pays à revenus faibles ou moyens, 31,5 % des adultes sont hypertendus, mais ils sont seulement 29 % à être traités et 7,7 % à avoir une pression artérielle sous contrôle. Une étude du Kaiser Permanente (Etats-Unis) a pourtant montré qu’il était possible d’atteindre le niveau des 90 % de contrôle. Au Canada, une approche similaire a d’ailleurs permis d’obtenir les 70 % suggérés dans l’étude. Quant au sodium, l’OMS recommande de ne pas dépasser une consommation quotidienne de 2 g, soit 5 g de sel, alors qu’elle s’élève en moyenne à 9-12 g par jour. Cet excès de consommation est important, dans la mesure où il est responsable d’environ 2,3 millions de décès chaque année dans le monde. A titre d’illustration, la Salt Initiative a contribué à réduire de 15 % la consommation de sel au Royaume-Uni entre 2003 et 2011, entraînant une baisse de 3 mm Hg de la pression systolique moyenne. L’OMS se fixe pour objectif la réduction de 30 % de cette consommation d’ici à 2025. Quant à l’ajout d’acides gras trans dans l’alimentation, dont la part énergétique varie entre 0,6 et 6,5 % selon les pays, l’Organisation espère qu’un terme pourra y être mis d’ici 2023. p> Article rédigé par Georges Simmonds pour RT Flash Circulation | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Après la présentation, en début d'année, d'un véhicule hybride autonome, baptisé ART » (pour Autonomous Rail Rapid Transit), le constructeur ferroviaire chinois CRRC vient de révéler ses recherches concernant le métro du futur. Ce nouveau train, pouvant atteindre la vitesse de 140 km/h, a récemment effectué son premier essai. Ce modèle comporte de nombreuses innovations tant sur le plan technique que sur le plan de l’aménagement intérieur. La première innovation promet de réaliser des économies d’énergie substantielles. En effet, une grande partie de la structure du train a été conçue en fibres de carbone, ce qui la rend 13 % plus légère que le précédent modèle. Les parties concernées sont la carrosserie des wagons, les bogies (partie assurant la jonction entre le châssis des voitures et les essieux reliés aux roues), la cabine de conduite et les équipements des différents compartiments. Le recours à un onduleur en carbure de silicium et à un moteur synchrone à aimants permanents joue également un rôle important dans la réduction des dépenses d’énergie. De plus, la rame de métro est modulable, avec un nombre de wagons allant de deux à douze. Cette modularité s’adaptera au flux de voyageurs et permettra donc d’éviter de faire rouler des voitures vides aux heures creuses. Côté high-tech, on fait un bond dans le futur. Au lieu de consulter leurs petits écrans de smartphones, les voyageurs auront la possibilité de regarder des programmes de tout genre directement sur les fenêtres. Celles-ci feront office d’écran tactile géant connecté. L’expérience high-tech est aussi complétée par un confort inédit dans un métro où deux nuisances majeures, le bruit et les vibrations, sont considérablement réduites. Un nouveau matériau diminue effectivement le bruit ambiant à l’intérieur des compartiments et une nouvelle suspension entièrement automatique atténue les vibrations. Le train possède aussi des fonctionnalités automatisées telles que la surveillance intelligente et le système d’alerte. Les problèmes techniques peuvent être identifiés et, au besoin, une procédure de maintenance pourra être déclenchée. Ainsi, ce système actif de détection et de résolution des pannes permet-il de cibler les endroits à réparer sans avoir à attendre les inspections périodiques de maintenance. Le train futuriste n’est pas encore commercialisé et continuera bientôt ses tests. Son succès, prévisible à l’intérieur de la Chine, pourrait bien dépasser les frontières dans l’optique de conduire toujours plus de voyageurs vers le futur. Article rédigé par Georges Simmonds pour RT Flash China Plus | | | |
| Fin juin, lors du congrès annuel de l’Airports Council International Europe (ACI Europe), les aéroports européens se sont engagés à ramener leurs émissions de carbone au niveau zéro d’ici 2050. L’engagement vaut pour les émissions produites dans le cadre des opérations d’exploitation aéroportuaire, côté piste et côté terminal. Dans un communiqué, l’Union des Aéroports Français et francophones associés s’engage pleinement dans cette résolution. Cet engagement de zéro émission nette de carbone va plus loin que la neutralité carbone qui accepte la compensation carbone. Il devra être atteint via une réduction des émissions dans la plus large mesure possible. La résolution exclut le recours à la compensation carbone. Elle lui préfère l’investissement dans des solutions de captage et de stockage du carbone. L’engagement est pris par 194 aéroports gérés par 40 exploitants d’aéroports de 24 pays européens. Les exploitants Aéroports de la Côte d’Azur (Nice, Cannes et Saint-Tropez), Aéroport Brest Bretagne, le groupe ADP (Paris-CDG et Paris-Orly) et Vinci Airports, exploitant neuf aéroports en France (Lyon, Chambéry, Clermont-Ferrand, Dinard, Grenoble, Nantes, Poitiers, Rennes et Toulon) sont signataires de l’engagement. Les 194 aéroports signataires ont accueilli 62,5 % du trafic aérien européen en 2018. Chaque aéroport s’engage individuellement dans le même objectif. Sur la base des volumes de trafic actuels des aéroports européens (2,34 milliards de passagers accueillis en 2018) et de l’empreinte carbone estimée, cet engagement zéro carbone net devrait permettre d’annuler l’émission de 3,46 millions de tonnes de CO2 par an à partir de 2050. En 2009, l’ACI Europe a lancé le programme Airport Carbon Accreditation pour servir de norme à la gestion du carbone dans les aéroports. Déjà 127 aéroports se sont engagés, dont 43 ont atteint la neutralité carbone. En 2017, l’ACI Europe s’est engagé à atteindre 100 aéroports neutres en carbone d’ici 2030. "Les aéroports européens ont déjà commencé les travaux, et je suis convaincu que plusieurs d’entre eux atteindront le zéro émission nette de carbone avant 2050", estime Michael Kerkloh, président de l’ACI Europe. Il existe déjà trois aéroports européens à zéro émission nette de carbone : Luleå, Ronneby et Visby – opérés par l’exploitant d’aéroports suédois, Swedavia. Swedavia ambitionne d’atteindre des émissions zéro nettes pour tous ses aéroports, y compris Stockholm-Arlanda d’ici 2020, et l’aéroport de Hambourg d’ici 2022 – tandis que les aéroports d’Amsterdam-Schiphol, d’Eindhoven et de Copenhague se sont fixé cet objectif pour 2030. L’ACI Europe a profité de l’occasion pour appeler l’ensemble des acteurs du transport aérien à compléter et renforcer leurs engagements. Les aéroports souhaitent une vision et une feuille de route pour conduire l’écosystème du transport aérien dans sa totalité aux émissions zéro carbone d’ici 2050. Article rédigé par Georges Simmonds pour RT Flash UAF | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|