| | | | | | | Edition du 15 Janvier 2021 |
| |
|
| Edito L’IA (Intelligence Artificielle) ouvre la voie vers une nouvelle médecine
Avant-Propos : Commentaires sur mon édito du 25 Décembre 2020 intitulé : « L’impression 3D va bouleverser la construction, la médecine…et l’alimentation » Chères lectrices, Chers lecteurs, Mr Jean Claude André, Directeur de Recherche émérite au CNRS et pionnier en 1984 avec deux amis de la fabrication additive, a eu l’obligeance de nous faire part de plusieurs réflexions et remarques pertinentes, concernant mon éditorial du 25 décembre 2020, intitulé « L’impression 3D va bouleverser la construction, la médecine…et l’alimentation ». Je tiens à remercier vivement ce chercheur, et fidèle lecteur de notre lettre, pour l’ensemble des précisions utiles et enrichissantes qu’il a bien voulu nous transmettre, et dont vous trouverez ci-dessous la synthèse. Je profite de cette occasion pour rappeler que notre modeste lettre reste un outil de vulgarisation scientifique. Elle s’adresse d’abord à un large public, même si elle est lue par de nombreux scientifiques, elle n’a ni les moyens ni la prétention de rivaliser avec des revues ou publications scientifiques spécialisées. De la même manière, mes éditoriaux, qui abordent chaque semaine un sujet différent, n’ont pas vocation à l’exhaustivité et visent essentiellement à éclairer une mutation technologique en cours. Ils ne prétendent pas se substituer aux travaux et études scientifiques très complètes que chacun peut à présent consulter facilement sur Internet, s’il souhaite approfondir sa connaissance dans un domaine scientifique particulier (malgré des absences de filtrage et nombre de mélanges entre r&eacut e;alité et visions des possibles, voire de science-fiction). Nous avons essayé, depuis la création de notre lettre en 1998, d’avoir constamment le souci de l’exactitude et l’exigence de la rigueur. Nous tenons beaucoup à conserver cette éthique d’honnêteté et de crédibilité intellectuelles. C’est pourquoi, lorsqu’il nous arrive, bien involontairement, de publier des informations inexactes, incomplètes ou contestables, je vous demande de ne pas hésiter à nous le signaler, afin que nous puissions opérer les rectifications nécessaires, et continuer ainsi à améliorer sans cesse notre contenu éditorial. Vous remerciant à nouveau pour votre fidélité Bien cordialement René Trégouët Fondateur et Directeur de la publication ================= Synthèse de l’apport de Jean Claude André, Directeur de Recherche émérite au CNRS, à propos de mon éditorial « L’impression 3D va bouleverser la construction, la médecine…et l’alimentation » J.C. André souligne dans un courrier des imprécisions quant au chiffre d’affaires du marché mondial de l’impression 3D. Après vérification, ce chiffre d’affaires atteindrait 10,4 milliards de dollars dans le monde en 2019, selon l’étude publiée par le Cabinet SmarTech Analysis (Voir SmarTech Analysis). Toujours selon les données de ce cabinet réputé, la France serait à la 4ème place mondiale sur ce marché, derrière l’Allemagne, les États-Unis et la Chine, avec un chiffre d’affaires de 489 millions d’euros en 2019. J.C. André pointe ensuite notre définition trop imprécise et inexacte de la stéréolithographie. La stéréolithographie a été inventée dans le but de permettre aux ingénieurs de créer rapidement des pièces prototypes. Le 16 Juillet 1984, trois semaines avant que l’américain Chuck Hull ne dépose son brevet, les français Alain Le Mehaute, Olivier de Witte et Jean Claude André ont déposé un brevet sur le processus de la stéréo-photolithographie. A l’époque, la France n’a pas su exploiter l’idée et c’est aux USA que le devenir de la fabrication additive a démarré. Le terme “stereolithography” a été développé en 1986 par Charles W. Hull, qui définit alors cette technologie comme « une méthode de création d̵ 7;objets en 3D en imprimant de façon successive de fines couches durcissantes par lumière ultraviolette ». Vous pouvez voir une présentation vidéo de ce procédé par Charles W. Hull lui-même, en regardant une vidéo sur le lien suivant : YouTube. Il souligne ensuite que les techniques d’impression 3D ne sont pas toutes entièrement respectueuses de l’environnement. En effet, tout dépend des procédés utilisés et des produits fabriqués à l’aide de cette technologie. Sur cette question importante, les travaux du professeur Gutowski ont montré que les supports d’impression 3D ne peuvent pas toujours être retraités et recyclés. D’autres études montrent par ailleurs que l’impression 3D à la demande peut conduire à une augmentation du nombre de produits de consommation jetables. Enfin, certaines techniques d’impression 3D entraînent l’émission de composés organiques volatils (COV) qui peuvent s’avérer dangereux pour la santé dans des espaces de travail fermés ou mal ventilés. Il convient donc, comme le souligne Mr André, de bien évaluer, au cas par cas, l’impact réel des technologies d’impression additive sur l’environnement et la santé. S’agissant de l’utilisation accrue de l’impression 3D dans le domaine de la construction et des travaux publics, Mr André souligne que cette technique se heurte encore à plusieurs limites qui en freinent la généralisation, telles que la résolution spatiale, l’obligation de travailler avec un unique matériau, ou encore les installations de fluides en 3D, et qu’il convient donc de bien évaluer la rentabilité réelle de l’impression 3D dans le bâtiment pour en envisager une utilisation étendue. Mr André souligne également les limites actuelles liées à l’utilisation de l’impression 3D dans le domaine de la médecine réparatrice et des biotechnologies. Il remarque que cette technologie se limite pour l’instant à des tissus ou structures biologiques simples, peu innervés et à faible vascularisation, et qu’un important travail de recherche reste à accomplir pour parvenir, dans un futur sans doute encore relativement lointain, à « imprimer » des structures et organes entiers complexes et fonctionnels, composés d’un grand nombre de cellules de natures et de fonctionnalités différentes. Dans le domaine alimentaire, Mr André rappelle que, si l’impression 3D peut être utilisée de manière ponctuelle dans le domaine spécifique de la grande cuisine, pour étendre les champs de la créativité culinaire, elle conserve pour l’instant des contraintes et des coûts d’utilisation qui freinent son utilisation à grande échelle dans le secteur agroalimentaire. Il indique qu’il est important d’évoquer le rôle des Fab-Labs, dans le développement de l’impression additive. Le concept de Fab-Lab est né à la fin des années 90 à l'université américaine du MIT (Massachusetts Institute of Technology), sous la forme d'un cours intitulé « How to make (almost) everything », sous l'impulsion du professeur Neil Gershenfeld. Le terme de Fab-Lab, issu de la contraction de Fabrication Laboratory, laboratoire de fabrication en français, est un lieu ouvert au public mettant à la disposition de ce dernier un arsenal de machines et d’outils utilisés pour la conception et la réalisation d’objets de toutes sortes. On y apprend à réaliser soi-même des objets complexes. Il existerait aujourd’hui plus de 1 500 Fab-Lab dans le monde, dont environ 380 en France, selon le site sp&eac ute;cialisé Markery. D’ailleurs, le coût d’acquisition d’une machine FDM (l’une des deux grandes technologies d’impression utilisant le dépôt de filaments fusibles) a considérablement baissé et on peut à présent trouver ce type de machines neuves à moins de 300 euros, et parfois moitié moins cher pour les machines d’occasion ou qu’on réalise soi-même…. J.C. André tient à juste titre à souligner l’importance de l’impression 4D, une nouvelle technologie née de l'union de la fabrication additive et des matériaux qualifiés d'« intelligents », c'est-à-dire dont la structure ou les propriétés fonctionnelles sont capables de réagir à des stimuli externes. Dans cette approche technologique novatrice et très récente, un objet imprimé en 3D peut voir sa structure changer de forme ou de fonctionnalité sous impulsion d'une énergie extérieure, d’origines thermique, chimique, lumineuse ou électromagnétique. Cette technologie a fait partie du projet lancé par le Self-assembly Lab du MIT et se développe en France au CNRS et à l’INRIA. Il est enfin important de souligner que la France, qui a joué dès l’origine de cette nouvelle technologie de l’impression additive un rôle pionnier (et qui aurait pu disposer sur son territoire d’un réel leadership), grâce aux découvertes et avancées des chercheurs, continue aujourd’hui à rester l’un des pays les plus innovants dans ce domaine, comme le rappelle un récent article de l’excellente revue "3dnatives" (Voir 3DNatives). Selon l’article cité, l’Office européen des Brevets (OEB), dans son nouveau rapport intitulé “Brevets et fabrication additive – Tendances en matière de technologies d’impression 3D”, place notre pays dans le top 3 des pays européens les plus innovants en matière d 8217;impression 3D ! La France serait le 3e pays européen demandeur de brevets en impression 3D, après l’Allemagne et le Royaume-Uni, preuve que la France et ses excellentes équipes de recherche publiques et privées continuent d’innover et d’avancer dans ce vaste champ technologique d’avenir. Dommage que les industries françaises ne suivent qu’imparfaitement cette dynamique… EDITORIAL : Cette semaine, je reviens sur un sujet qui n’a pas fini de transformer nos vies et qui va faire entrer la médecine et plus largement la santé –dans une nouvelle ère : l’arrivée massive de l’IA (intelligence artificielle) en médecine et en biologie. En octobre dernier, des chercheurs du MIT ont présenté un nouvel outil de détection du coronavirus en programmant une IA capable de reconnaître une toux caractéristique d’un malade du Covid-19. Pour parvenir à ce résultat, ces scientifiques se sont appuyés sur l’analyse de 5000 enregistrements sonores de la toux de plusieurs centaines de volontaires, malades et asymptomatiques. (Voir EMB). Résultat : l’outil d’IA du MIT atteint une sensibilité de 98,5 % ainsi qu’une spécificité de 94,2 %. Les chercheurs sont à présent en train de développer une application gratuite pour smartphone, qui pourrait devenir un outil précieux, très simple d’utilisation et peu coûte ux de dépistage du coronavirus. Il y a quelques semaines, des médecins et chercheurs de Gustave Roussy, de l'Assistance Publique-Hôpitaux de Paris, de CentraleSupélec, de l’Université de Paris, de l’Université Paris-Saclay, de l’Inserm, de l’Inria et de TheraPanacea ont défini et modélisé les biomarqueurs prédictifs de l’évolution de la Covid-19. Cette IA est capable d’identifier les patients qui risquent de développer des formes graves et de nécessiter l’assistance d’une ventilation ; elle pourrait donc aider de manière précieuse les hôpitaux à prendre en charge en priorité les malades en fonction de la gravité de leur état. (Voir Science Direct). Ces chercheurs ont entraîné l’IA en lui fournissant les images de scanner de 478 patients de cinq cohortes indépendantes qui avaient précédemment reçu un diagnostic de Covid-19 par test RT-PCR. Parmi ces dossiers, on comptait 110 cas graves dont 6 % sont décédés de la Covid-19 et 17 % ont été intubés. Utilisant conjointement des outils d’apprentissage profond (deep learning) et des réseaux neuronaux, les chercheurs ont appris à l’IA, en lui fournissant 20 000 coupes de scanner, à reconnaîitre les régions où la maladie était présente sur les images de scanner. L'algorithme conçu a permis de définir 10 biomarqueurs traduisant l’étendue et les caractéristiques cliniques de la maladie, notamment en matière d’atteintes pulmonaires, cardiaques ou neurolo giques. La dernière étape de ces recherches a consisté à corréler ces biomarqueurs à l’âge et au sexe des patients, ainsi qu’aux informations cliniques, ce qui a permis à l’IA d’évaluer rapidement et précisément la sévérité de la maladie et de poser un pronostic à court terme pour les différents patients. Il devient alors possible de repérer ceux qui risquent de développer des symptômes sévères et de se retrouver en réanimation. Mais si l’IA a déjà pris une place de choix dans la lutte et la prévention contre le coronavirus, cette révolution de l’intelligence médicale n’en est qu’à ses prémisses et ce sont bien les sciences de la vie dans leur ensemble qui sont en train d’être bouleversées par l’arrivée de ces nouveaux outils informatiques dont la puissance et la capacité prédictive semblent sans limites. Un exemple récent est, à cet égard, tout à fait parlant, et l’on peut s’étonner qu’il n’ait pas eu plus d’écho dans les médias : il s’agit des performances extraordinaires que vient d’atteindre le programme AlphaFold, développé par DeepMind, la filiale de Google dédiée à l’intelligence artificielle (IA) (Voir Smithsonian Mag). Les chercheurs de Google DeepMind sont en effet parvenus à utiliser un nouveau programme d’intelligence artificielle pour prédire la structure des protéines avec une rapidité et un niveau de précision inégalée. Cette prouesse a été réalisée dans le cadre de la compétition internationale d’algorithme ”Critical Assessment of Structure Prediction“, ou CASP, créée en 1994, qui consiste, pour chaque participant, à essayer de déterminer la forme 3D d’une protéine à partir de sa séquence ADN. Le repliement des protéines obéit à des lois physiques et mathématiques précises. Mais, compte tenu du nombre d’acides aminés et de la grande variété des positions intermédiaires que peut prendre une molécule avant de se stabiliser, il s’avère très difficile, et parfois même impossible, de déterminer la structure exacte d’une protéine - dont les replis et enchevêtrements de chaînes moléculaires peuvent être très complexes - à partir de sa composition chimique. Pour y parvenir, les chercheurs doivent avoir recours à trois outils lourds, coûteux et imparfaits. Le premier, le plus ancien, est la cristallographie par rayons X, qui consiste à transformer une solution de protéines en un cristal puis à le bombarder avec des rayons X pour parvenir à visualiser sa structure interne grâce à la diffraction de ces rayons. Mais cette méthode nécessite plusieurs mois de travail et plus de 100 000 euros de dépenses pour déchiffrer la structure d’une seule protéine. Plus récemment, deux autres techniques expérimentales sont venues compléter la cristallographie par rayon X : la résonance magnétique nucléaire et la cryo-microscopie électronique. Mais ces outils manquent encore de précision pour pouvoir révéler la structure précise de toutes les protéines. A partir d’une base de données rassemblant quelque 170 000 protéines, le logiciel de DeepMind, grâce à son nouvel algorithme, Alphfold2, a utilisé un réseau de neurones basé sur l’attention, capable de hiérarchiser le traitement des données en exploitant notamment sur les résultats d'autres séquences proches. Cette méthode a permis à AlphaFold 2 de calculer la structure de protéines complexes en seulement quelques jours. Mais le plus étonnant est que cette avancée majeure a été réalisée avec une puissance informatique relativement modeste, seulement 128 TPU (tensor processing units) réparties sur 16 puces dédiées. Le 30 novembre 2020, les résultats d’AlphaFold ont dépassé les prévisions les plus optimistes des experts. Le professeur John Moult, co-fondateur des CASP en 1994, explique que « L'erreur moyenne du système est d'environ 1,6 angström, “soit à peu près la largeur d'un atome”. D’une certaine façon, je crois qu’on peut dire qu’avec ce nouvel outil de DeepMind, le problème vieux de plus d’un demi-siècle de la détermination de la structure de l’ensemble des protéines humaines est en passe d’être résolu… ». Un seul exemple suffit à illustrer l’importance de cette rupture technologique : Andrei Lupas, un chercheur à l’Institut Max Planck, essayait depuis dix ans de déterminer la forme d’une protéine difficile à analyser. A sa grande stupéfaction, il a pu, à l’aide de ce logiciel AlphaFold, résoudre son problème en moins d’une heure… L’intelligence artificielle AlphaFold 2 a également été utilisée pour prédire avec précision la structure de la protéine ORF3 présente dans le virus SARS-CoV-2 responsable de la maladie COVID-19. En outre, cet outil informatique va considérablement accélérer la création de protéines synthétiques, et ouvre la voie à une révolution comparable à celle de l’outil d’édition CRISP-Cas, dans le domaine de la recherche génétique. Cette percée historique pourrait permettre d’identifier bien plus rapidement que prévu la structure de toutes les protéines du corps humain, un objectif tout aussi important que la cartographie complète du génome humain, si nous voulons pouvoir concevoir les médicaments ciblés qui permettront demain de traiter efficacement les nombreuses pathologies sans solutions thérapeutiques satisfaisantes. C’est en effet la structure spatiale des protéines qui détermine leurs fonctions dans l’organisme et permet de prédire leurs potentialités thérapeutiques. Rappelons que l’organisation mondiale HUPO (pour Human Proteome Organization) a lancé le projet Protéome humain (ou HPP pour Human Proteome Project), qui vise l’objectif ambitieux de décrire l’ensemble des protéines qui correspondent aux 19 800 gènes a priori "codants" du génome humain. Cette avancée majeure que représente l’IA de DeepMind en matière de connaissance de la structure des protéines survient alors qu’il y a quelques semaines a été publiée la première carte "haute qualité" du protéome humain, précise à plus de 90 % (Voir Nature Communications). Le protéome humain regroupe la totalité des protéines produites dans notre organisme à partir de nos gènes. Il s’agit d’une entité à la fois plus vaste, plus complexe et plus évolutive que notre génome car un même gène peut commander la synthèse de nombreuses protéines différentes (parfois plus de 1000). On estime aujourd’hui qu’il y aurait au moins un million de protéines humaines distinctes, si l'on prend en compte toutes les modifications qui peuvent intervenir au niveau d'une même protéine. Mais il se pourrait que ce nombre soit bien plus élevé, car aux protéines classiques, qui sont des macromolécules, il faut ajouter les nombreuses « micro-protéines », découvertes il y a seulement 30 ans et qui ont longtemps échappé aux outils d’analyse génomique, en raison de leur taille minuscule. Mais il est un autre domaine qui est en train d’être révolutionné par les nouveaux outils d’IA, c’est celui des thérapies anticancéreuses. Face à la grande variété de cancers et à des tumeurs qui présentent souvent une grande hétérogénéité génétique et moléculaire, la médecine dispose aujourd’hui de centaines de molécules anti-cancéreuses, plus ou moins actives, en fonction du type de cancer, de son évolution et du profil génétique du malade. Il est devenu impossible pour un cancérologue, quelles que soient ses compétences, de connaître le meilleur choix de tous les médicaments possibles pour traiter un patient particulier. Face à ce défi médical, une équipe finlandaise, composée de chercheurs des Universités d’Aalto d'Helsinki et de Turku, a conçu une IA qui permet de prédire quelles combinaisons de médicaments vont tuer les cellules cancéreuses chez un patient donné. Ces chercheurs ont développé un modèle d'apprentissage automatique qui prédit avec précision comment les combinaisons de différents médicaments anticancéreux tuent les différents types de cellules cancéreuses. « Nourri » par une immense quantité de données issues d'études précédentes, ce modèle utilise une fonction polynomiale « classique mais très complexe, qui lui permet d’identifier les meilleurs combinaisons cellulles-molécules », précise l’auteur principa l, le professeur Juho Rousu de l'Université Aalto. Ce nouvel outil a montré qu’il pouvait prédire avec précision comment une combinaisonde médicaments inhibe sélectivement des cellules cancéreuses spécifiques via l'effet synergique de la combinaison, y compris dans les nombreux cas où la combinaison proposée sur ce type de cancer n'a jamais été testée. Ce nouvel outil qui devrait rapidement équiper tous les grands établissements hospitaliers, va aider de manière précieuse médecins et chercheurs pour prendre, dans tous les cas de figure, les meilleures options thérapeutiques pour chaque malade, parmi la multitude de combinaisons possibles. Mais cet outil va aussi trouver des applications bien au-delà de la cancérologie en proposant, par exemple, de nouvelles combinaisons d'antibiotiques pour lutter contre des infections bactériennes résistant es. Autre exemple de cette percée fulgurante de l’IA en médecine : Google et l'Institut Curie, centre de lutte contre le cancer, viennent d'annoncer leur collaboration autour de la création de systèmes d'apprentissage automatique pour les thérapies ciblées dans le cadre d'un programme de recherche sur le traitement du cancer. Ces chercheurs, sous la direction de Jean-Philippe Vert, vont travailler sur l'hétérogénéité des tumeurs, facteur déterminant de la réponse et de la résistance au traitement du cancer. Le but est de concevoir un outil d’IA qui puisse analyser les données épigénomiques, relatives à l'ensemble des modifications épigénétiques d'une cellule pouvant être transmises lors des divisions cellulaires, et de recouper ces données avec l'ensemble des ARN présents dans une cellule à instan t donné. Lorsque l’IA aura appris à prédire l’évolution particulière de ce processus pour chaque malade, les chercheurs pourront alors anticiper la résistance au traitement et adapter en permanence leur stratégie thérapeutique, en modifiant les combinaisons de médicaments constituant le traitement. Récemment, des chercheurs américains, dirigés par Rajov Dhir, pathologiste à l’Université de Pittsburgh (UPMC), ont également présenté un nouvel outil d’IA d’une efficacité sans égal pour repérer les cancers de la prostate, le cancer le plus fréquent chez l’homme. Pour apprendre à l’IA à identifier le cancer de la prostate, Dhir et ses collègues lui ont fourni des images de plus d’un million de prélèvements de tissus colorés provenant de biopsies. Chaque image a été indexée par des pathologistes expérimentés, afin que l’IA apprenne à distinguer les tissus sains des tissus malins. L’algorithme a ensuite été testé sur un ensemble de 1 600 images de prélèvements provenant de 100 patients ayant été examin&eacu te;s au centre médical de l’UPMC, dans le cadre d’une suspicion de cancer de la prostate. A l’issue de ces premiers essais, cette IA a atteint le niveau remarquable de 98 % pour la sensibilité et de 97 % pour la sélectivité dans la détection de ce cancer de la prostate, qui représente pratiquement un quart de tous les cancers masculins (50 000 cas par an en France). Enfin, il y a quelques mois, une équipe, composée de chercheurs du Collège impérial de Londres et du service national de santé de Grande-Bretagne, a présenté un remarquable outil qui peut identifier les cancers du sein, à partir de milliers de mammographies. Les prévisions ont ensuite été comparées aux résultats d'un ensemble de 25.856 mammographies réalisées au Royaume-Uni et 3.097 aux Etats-Unis. Ce système d'intelligence artificielle s’est montré capable d'identifier les cancers avec un degré de précision similaire à celui des radiologues experts, tout en réduisant le nombre de faux positifs de 5,7 % dans le groupe américain et de 1,2 % dans le groupe britannique. « Nos résultats montrent que cet outil d’IA a le potentiel de « dépasser la capacité humaine à identifier des signaux subtils que l'œil et le cerveau humains ne sont pas en mesure de percevoir », souligne Connie Lehman, chef du service d'imagerie mammaire de l'hôpital général du Massachusetts. Toutes ces avancées et découvertes récentes confirment le rôle désormais irremplaçable et moteur que joue l’IA en matière de recherche médicale et de soins, qu’il s’agisse de la conception rapide d'un nouveau médicament ciblé, de la connaissance exhaustive de notre protéome, de la recherche de mutations génétiques individuelles, ou encore de combinaisons thérapeutiques optimales et personnalisées. Au rythme actuel de développement, les systèmes d’assistances numériques médicales utilisant l’IA seront présents partout dans moins de 5 ans, y compris dans les cabinets médicaux de nos généralistes. Mais ces nouveaux algorithmes et outils d’IA n’exprimeront toutes leurs potentialités qu’en s’appuyant sur des calculateurs toujours plus rapides et plus puissants et dans le cadre de réseaux de communication à très haut débit sur l’ensemble du territoire, ce qui suppose notamment d’accélérer le plan d’accès à la fibre optique dans les zones les plus reculées et de déployer rapidement le nouveau réseau 5G, pour les échanges à très haut débit, via l’internet mobile. C’est pour répondre à ce défi scientifique majeur que la Commission européenne vient de proposer, il y a quelques jours, de débloquer 10 milliards d’euros sur les cinq prochaines années, pour accélérer l’arrivée de la nouvelle génération de superordinateurs «  ;exaflopiques » (capables de calculer à la vitesse vertigineuse d’un milliard de milliards d’instructions par seconde) et favoriser l’innovation dans le domaine tout aussi capital des logiciels d’IA. Et le moins que l’on puisse dire est que cet effort exceptionnel est le bienvenu : aujourd’hui près de la moitié des 500 plus puissants ordinateurs du monde sont chinois et la Chine a dépensé en 2019 2 % de son PIB pour la recherche, soit 256 milliards de dollars (sans compter les dépenses de recherche militaire, non déclarées, mais très importantes), contre 282 milliards pour l’Europe et 397 milliards pour les USA. Le géant chinois devrait doubler cette année l’UE en nombre de chercheurs (1,7 million) et devenir le pays au monde qui compte le plus grand nombre de scientifiques et d’ingénieurs. Autre indicateur révélateur, la Chine dépasse depuis deux ans les USA en termes de publications scientifiques. Mais l’Empire du Milieu ne compte pas s’arrêter là et devrait devenir la première économie mondiale en 2030, affirme la Banque Mondiale, avec un PIB qui atteindrait 26 000 milliards de dollars à cet horizon. Elle pourrait alors consacrer 700 milliards de dollars par an à la recherche, soit autant que les dépenses de recherche cumulées actuelles de l’Europe et des Etats-Unis… Si nous voulons que notre pays et notre continent restent dans cette course scientifique vitale pour notre avenir, notre prospérité et notre qualité de vie, nous devons plus que jamais redoubler d’efforts pour permettre à notre recherche de rester à la pointe dans ce domaine de l’intelligence artificielle et des supercalculateurs, mais aussi, face à la déferlante asiatique, pour assurer en France et en Europe la formation en nombre suffisant des millions de chercheurs et d’ingénieurs qui feront demain la richesse de nos sociétés et nous permettront de conserver notre souveraineté et notre puissance politique. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Développés à l’EPFL (Ecole Polytechnique Fédérale de Lausanne), les nouveaux algorithmes d’apprentissage profond DeepChest et DeepBreath, capables d’identifier le COVID-19 dans les images pulmonaires et les bruits respiratoires, permettront de lutter contre les autres maladies respiratoires et de répondre à l’enjeu croissant posé par la résistance aux antibiotiques. Depuis le début de la pandémie de COVID-19, l’équipe de recherche du docteur Hartley travaille sans relâche aux côtés des hôpitaux universitaires suisses sur deux projets majeurs. Grâce à l’intelligence artificielle, elle a développé de nouveaux algorithmes qui, combinés aux données issues d’images ultrasonores et de sons d’auscultation (thorax/poumons), peuvent établir un diagnostic précis du nouveau coronavirus chez les patients et prédire le degré de gravité. Le groupe iGH se situe au Machine Learning and Optimization Laboratory du professeur Martin Jaggi, un pôle mondial de spécialistes en intelligence artificielle, et fait partie de la Faculté informatique et communications de l’EPFL. « Nous avons appelé les nouveaux algorithmes d’apprentissage profonds DeepChest (en exploitant les images ultrasonores pulmonaires) et DeepBreath (en exploitant les bruits respiratoires à partir d’un stéthoscope numérique). L’intelligence artificielle nous permet de mieux comprendre les schémas complexes dans ces examens cliniques fondamentaux. Jusqu’à présent, les résultats sont très prometteurs », déclare le professeur Martin Jaggi. Le CHUV, à Lausanne, gère la partie clinique du projet DeepChest, en recueillant des milliers d’images ultrasonores pulmonaires auprès de patients souffrant de symptômes compatibles avec le Covid-19 et admis aux urgences. Noémie Boillat-Blanco, chercheuse principale, explique que le projet a démarré en 2019 et qu’il visait d’abord à définir des marqueurs capables de mieux distinguer la pneumonie virale de la pneumonie bactérienne. Mais le projet a pris un autre tournant avec le COVID en 2020. « Bon nombre des patients qui ont accepté de participer à notre étude étaient effrayés et très malades », confie-t-elle, « mais ils voulaient contribuer à élargir le champ de la recherche médicale, comme nous le faisons. Je pense qu’il y a une motivation collective à tirer les leçons de la crise et à intégrer rapidement de nouvelles connaissances scientifiques dans la pratique médicale au quotidien ». Aux Hôpitaux Universitaires de Genève (HUG), le professeur Alain Gervaix, chef du département de la femme, de l’enfant et de l’adolescent, recueille des bruits respiratoires depuis 2017 pour concevoir un stéthoscope numérique intelligent, le « pneumoscope ». Alors que le projet avait à l’origine été élaboré pour mieux diagnostiquer la pneumonie, le nouveau coronavirus a réorienté ses travaux. Les enregistrements sont aujourd’hui utilisés pour développer l’algorithme DeepBreath à l’EPFL. Attendu dans ces temps prochains, il devrait permettre de diagnostiquer le COVID-19 à partir de bruits respiratoires. Étonnamment, les premiers résultats indiquent que le DeepBreath est même capable de détecter le COVID asymptomatique en identifiant les modifications des tissus pulmonaires avant même que le patient ne s’en rende compte. « Le pneumoscope associé à l’algorithme DeepBreath peut être comparé aux applications capables d’identifier de la musique à partir d’un bref morceau joué. L’idée est venue de ma fille lorsque je lui ai expliqué que l’auscultation me permet d’entendre des sons qui m’aident à identifier l’asthme, une bronchite ou une pneumonie », affirme le professeur Alain Gervaix. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | La coloscopie est un examen médical largement répandu et très utile en matière de prévention. Il permet l’exploration visuelle du côlon et la recherche dans le rectum et le côlon des indices de maladies telles que le cancer. Une équipe de l’Université britannique de Leeds travaille depuis douze ans à la simplification de cet examen, en asservissant une petite sonde aimantée aux mouvements d’un bras robotisé. Le guidage effectué grâce à une manette par le médecin reste cependant peu intuitif. Pietro Valdastri et ses collègues ont donc développé plusieurs niveaux d’assistance à la navigation. Dans l’un, l’opérateur désigne la zone à explorer, et le système y dirige la sonde ; dans l’autre, l’exploration se fait de façon semi-automatique, le médecin pouvant reprendre la main à tout moment. Reste maintenant à passer du porc, utilisé pour les premiers tests, à l’homme. La position de l’endoscope est contrôlée à travers les tissus par les mouvements d’un bras robotisé dont le champ magnétique permet de l’attirer ou le repousser à volonté. Une manette permet de guider la sonde en manipulant le bras robotisé, mais l’apprentissage est laborieux. S’inspirant de la voiture autonome, l’Université de Leeds a donc développé des algorithmes de guidage semi-automatique et d’analyse d’image pour que le médecin soit dégagé des fonctions de navigation et qu’il puisse se concentrer sur l’examen médical. Article rédigé par Georges Simmonds pour RT Flash Vanderbilt University | | | |
| Une équipe de chercheurs du Massachusetts Institute of Technology a récemment présenté RoboGrammar, un robot capable de concevoir sa propre forme pour s’adapter parfaitement à l’environnement dans lequel il se trouve. Le robot analyse les obstacles à franchir et conçoit son équipement à partir de cette analyse. C’est une véritable prouesse que les chercheurs du MIT viennent de révéler, et cela pourrait intéresser de nombreux secteurs d’activité. RoboGrammar a été conçu et imaginé en grande partie par Allan Zhao, un chercheur expérimenté du MIT. Il a déclaré à propos de cette invention que : « malgré la variété des tâches dans lesquelles les robots sont utilisés, leurs conceptions ont tendance à être toutes très similaires dans leur forme ou leur conception et j’estime que c’est un problème ». Dans la plupart des cas, les robots sont conçus pour ressembler à des humains ou du moins pour effectuer des tâches qui reviennent habituellement aux humains. Ici, le professeur Zhao sort de ce cadre et donne plus de liberté à son robot. Car oui, il faut bien le reconnaître, les robots sont la plupart du temps conçus pour « imiter » des personnes ou des animaux. C’est par exemple le cas du robot Cheetah (guépard en français) présenté par le MIT il y a maintenant quelques années. Cheetah est un petit robot qui ne possède pas de caméra mais il est tout de même capable de se déplacer grâce à deux algorithmes : le premier fonctionne grâce aux données provenant des gyroscopes, accéléromètres et articulations, lui permettant de définir ce qu’il touche et ainsi se déplacer. Le second sert à déterminer l’intensité du déplacement et permet au robot d’éviter d’être orienté en cas d’obstacles. Selon Allan Zhao, les formes humaines ou animales ne sont pas les plus utiles ni les plus efficaces. Les seules limites de RoboGrammar sont celles des limites de la construction des robots. Pour mieux comprendre, dans une simulation où le terrain était « accidenté », composé de nombreux slaloms, le robot a estimé que la forme la plus adaptée était celle qui s’apparentait à une sorte de crocodile. Une fois transformé, le robot est placé virtuellement sur le terrain pour s’assurer qu’il fonctionne de manière logique. Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| Des chercheurs de l’Institut de Science des Matériaux de Mulhouse (IS2M) et de l’Institut de Chimie Radicalaire (ICR) d’Aix-en-Provence ont mis au point un additif qui permet aux matériaux thermoplastiques de s’auto-réparer avec de la lumière. Ces travaux ont été publiés en novembre dans la revue Advanced Functional Materials. Pour accroître la durée de vie des pièces en matière plastique, la recherche explore depuis quelques années la piste des polymères capables de réparer les fissures qui peuvent apparaître avec le vieillissement du matériau. Les thermoplastiques, que l’on trouve dans la plupart des produits en matières plastiques mis sur le marché, possèdent une structure polymère réversible sous l’action de la chaleur. Cette caractéristique, qui leur permet de passer d’un état solide à un état liquide, rend possible leur recyclage et pourrait également faciliter la réparation des pièces. En appliquant localement une chaleur dépassant le seuil de transition vitreuse (Tg) du matériau, il serait ainsi possible de combler certaines fissures ou défauts qui apparaissent lors du vieillissement de la pièce. Cette opération nécessite cependant de fortes températures selon le thermoplastique employé, ce qui empêche une action circonscrite à une zone précise et présente le risque de nuire aux propriétés mécaniques de l’ensemble de la pièce. Plusieurs travaux ont montré l’efficacité de certains additifs, comme des nanotubes de carbones, des carbures de silicium et des oxydes de graphène, qui permettent d’absorber localement l’énergie d’une lumière proche infra-rouge et de chauffer la pièce à des endroits ciblés. Ces solutions offrent cependant des résultats limités : ces charges étant peu solubles dans le polymère, elles diminuent de manière importante les propriétés mécaniques de la pièce. Et la chaleur dégagée, souvent peu importante, peine à faire dépasser le seuil de Tg. Les chercheurs de l’IS2M et de l’ICR ont découvert que l’utilisation d’un colorant organique, l’IR-813, permettait d’atteindre la température de transition vitreuse d’un thermoplastique à base d’acrylate sous l’action d’une lumière proche infra-rouge. L’ajout de moins de 0,1% de colorant, associé à une faible température de transition vitreuse du polymère, permet de produire un plastique capable de se réparer sous l’action d’une irradiation dans des longueurs d’ondes comprises entre 785 et 850 nm. En absorbant ces longueurs d'onde, l’IR-813 permet au matériau de dépasser localement les 100°C, Tg du thermoplastique utilisé, et de permettre ainsi le réarrangement moléculaire du matériau. Le thermoplastique peut donc se réparer et être remodelé aisément, au moyen d’une source de lumière peu coûteuse. Les chercheurs ont annoncé que d’autres recherches seront menées prochainement avec d’autres thermoplastiques, possédant des seuils de transition vitreuse différents, pour élargir la gamme des applications possibles. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| | | Les opérations des systèmes laser communément utilisés sont restreintes à un mode transverse unique, ce qui limite le développement des technologies laser. Jusqu’à tout récemment, les modes supérieurs étaient considérés comme nuisibles, puisqu’ils sont enclins à l’instabilité et à l’effondrement. C’est ce qui rend l’incidence de ce travail scientifique remarquable. Les paquets d’ondes multidimensionnels observés, qui sont autosuffisants, sont générés lors du passage d’impulsions d’excitation en picosecondes dans l’infrarouge proche dans une fibre creuse remplie de gaz. Ces résultats sont significatifs pour la communauté scientifique mondiale. Les chercheuses et les chercheurs de l’INRS ont réussi à générer des champs laser hautement énergétiques dont les propriétés spatio-temporelles sont contrôlées. Cette découverte pourrait mener à des percées dans la science des lasers à travers diverses applications. Ce travail de recherche est constitué d’énormes avancées théoriques, de simulations numériques complexes et d’études expérimentales systématiques. Il a été exécuté dans les installations du laboratoire ALLS de l’INRS, une installation de recherche de classe mondiale dédiée au développement de nouveaux types de lasers aux applications révolutionnaires. « L’incidence technologique immédiate de ce travail de recherche sera la génération d’impulsions laser de quelques cycles optiques à partir des impulsions en picosecondes provenant des systèmes laser ytterbium avec une approche simple, robuste et efficace qui procurera une nouvelle technologie laser pour la physique des champs forts », a mentionné Guangyu Fan, doctorant à l’INRS. L’équipe estime que cette idée pourrait faire avancer les technologies laser, qui ont été plus ou moins bloquées dans un seul mode depuis plus de 20 ans. Elle permettra le développement de systèmes laser de haute puissance très compacts qui serviront à une grande variété d’applications, dont le micro-usinage et le traitement de matériaux. De plus, cette technologie laser innovante est maintenant utilisée dans le développement d’une source compacte d’impulsions ultra-brèves de rayons X qui permettra d’étudier des phénomènes ultrarapides tels que des réactions chimiques et les dynamiques de l’aimantation, et qui sera applicable à l’imagerie biomédicale à haute résolution spatiale dans la région spectrale de la fenêtre de l’eau. De plus, l’INRS a protégé la propriété intellectuelle des technologies potentiellement révolutionnaires de cette méthode laser. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | | |
| Produits à partir d’eau, de dioxyde de carbone et d’électricité renouvelable, les électro-carburants sont envisagés comme une alternative à la biomasse. Le défi consiste à les produire à l’échelle industrielle et à les rendre compétitifs. Regroupés au sein du consortium Norsk e-Fuel, quatre partenaires européens – Sunfire, Climeworks, Valinor et Paul Wurth – veulent produire des électro-carburants. Dévoilé en juin, le projet envisage la construction d’un site de production sur le parc industriel d’Herøya à Porsgrunn (Norvège). La mise en service est prévue en 2023 avec une capacité annuelle de 10 millions de litres dans un premier temps, puis de 100 millions d’ici à 2026. « Nous terminons la phase d’ingénierie et le bouclage du financement », précise Karl Hauptmeier, le directeur général de Norsk e-Fuel. « Les travaux débuteront en 2022 ». Alternative aux biocarburants, les électro-carburants, ou e-fuels, sont produits à partir de technologies power-to-liquid. Norsk e-Fuel mise sur la réaction de Fischer-Tropsch (FT) à partir d’un gaz de synthèse. Ce mélange d’hydrogène et de monoxyde de carbone est obtenu à partir d’eau et de dioxyde de carbone (CO2) par un co-électrolyseur à oxyde solide et haute température développé par Sunfire. Le CO2 utilisé sera soit capté dans l’air grâce à la technologie de Climeworks, soit capté dans des fumées industrielles. Toutefois, le prix des électro-carburants est bien plus élevé que celui des biocarburants conventionnels ou avancés. Notamment à cause du coût de l’électricité renouvelable. « L’objectif de 1,5 euro, voire 1 euro, par litre nous semble envisageable », souligne Karl Hauptmeier. Il faut également améliorer les performances de chacune des étapes, les intégrer au mieux les unes aux autres, et valoriser au maximum les coproduits. Zoom sur deux technologies clés : la co-électrolyse et la réaction FT. Capable de produire de l’hydrogène vert à partir de vapeur d’eau et d’électricité renouvelable, un électrolyseur à oxyde solide et haute température (Soec) peut aussi être utilisé en mode co-électrolyse. En ajoutant du dioxyde de carbone à la vapeur d’eau en entrée, de l’oxygène est produit en sortie d’un côté, et de l’autre un mélange d’hydrogène et de monoxyde de carbone : le fameux gaz de synthèse, qui sert de base à la production d’hydrocarbures liquides alternatifs. « Plusieurs entreprises développent des Soec, mais, à ma connaissance, nous sommes les seuls à l’employer pour de la co-électrolyse », assure Jan Freymann, chargé des relations publiques chez Sunfire. « Après le succès de plusieurs démonstrateurs, nous travaillons sur une production à plus grande échelle ». Avec à la clé, des économies. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | ^ Haut | |
|
| | | Aevum, une startup discrète, combative et ambitieuse, a dévoilé le plus gros drone du monde. Appelé Ravn X, ce véhicule entièrement autonome mesure 24 mètres de long, a une envergure de 18 mètres et fait 5 mètres de haut. Ce n'est pas le plus grand drone par sa taille - les ailes du MQ-4C Triton de Northrop Grumman s'étendent sur près de 40 mètres. Mais le Ravn X gagne sur la masse, avec un poids de 25 tonnes si l'on inclut la fusée censée sortir de son "ventre" en plein vol pour lancer un satellite dans l'espace. Malgré sa taille et sa mission inhabituelles, le drone n'est pas si différent d'un avion standard. Il vole comme un avion de ligne, et utilise le Jet A, un carburant très courant à base de kérosène, explique Jay Skylus, le PDG et fondateur d'Aevum. « Nous n'avons pas besoin d'un site de lancement. Tout ce dont nous avons besoin, c'est d'une piste d'un kilomètre de long et d'un hangar », explique Jay Skylus à Business Insider US. Même les petits aéroports commerciaux ont des pistes qui répondent facilement à cette exigence. Aevum a travaillé sur le projet pendant environ cinq ans dans son siège improvisé : une ancienne usine textile devenue un incubateur technologique en Alabama, aux Etats-Unis. Jay Skylus a déclaré avoir réfléchi au concept une décennie auparavant, alors qu'il passait d'une startup spatiale à l'autre après avoir travaillé pour la NASA. Après avoir été déçu par les approches qu'il a vues et la résistance aux idées nouvelles, il a réussi à obtenir un peu de financement et s'est mis au travail avec quelques collègues spécialisés, comme lui, en aérospatiale. Une fois que le Ravn X a atteint la bonne position, la bonne vitesse et la bonne altitude, sa fusée à deux étages est larguée puis s'enflamme en une demi-seconde avant de lancer une charge utile d'environ 100 kg en orbite terrestre basse. L'approche est similaire aux systèmes de fusées à lancement aérien développés par Virgin Orbit et Pegasus, même si Jay Skylus affirme que la version sans équipage d'Aevum est plus efficace, plus rentable et plus entreprenante. Aevum présente un « nouveau paradigme d'accès à l'espace », a déclaré son fondateur. « Il y a maintenant le lancement au sol, le lancement aérien et le lancement autonome ». Le Ravn X est conçu pour répondre à une commande en l'espace de quelques heures seulement. Mais l'avantage non-négligeable qu'a Aevum sur ses concurrents, c'est la bénédiction et le financement de l'armée de l'air américaine. L'année dernière, le ministère de la Défense a confié à Aevum le lancement d'une nouvelle mission appelée Agile Small Launch Operational Normalizer 45 (ASLON-45) pour 4,9 millions de dollars (4 millions d'euros). L'objectif est de faire voler de petits satellites expérimentaux capables de détecter les lancements de missiles ennemis. Aevum a décroché le contrat en partie parce que la société affirme qu'elle peut prendre en charge un petit satellite et le mettre en orbite dans les trois heures, si nécessaire - une tâche qui prendrait généralement des mois à réaliser. Selon Jay Skylus, des années de développement intensif de logiciels ont permis d'automatiser la plupart des tâches administratives nécessaires au lancement, au profilage de la mission, à l'intégration de la charge utile, etc. En conséquence, Aevum n'a selon lui besoin que d'environ 10 % du personnel généralement requis pour le lancement des fusées. Article rédigé par Georges Simmonds pour RT Flash Business Insider | | | |
| Les premiers astronautes qui fouleront le sol martien, d'ici le milieu de ce siècle, ne pourront pas respirer librement. En effet, alors que sur Terre, le dioxygène (O2) que nous respirons constitue 21 % du gaz de notre atmosphère, sur la planète rouge, la teneur en O2 n'est que de 0,13 %. Le gaz majoritaire dans l’atmosphère martienne, à environ 96 %, est le dioxyde de carbone (CO2), que nous rejetons lorsque nous respirons ou que les plantes absorbent pour réaliser leur photosynthèse. De toute évidence, si l’humanité doit gagner la Planète Rouge pour s’y établir, elle doit trouver un moyen de pouvoir y respirer sans danger. L’Agence aérospatiale américaine (NASA) y a déjà réfléchi. Les chercheurs et ingénieurs du Laboratoire de propulsion de l’Institut Caltech ont ainsi fabriqué MOXIE (pour Mars Oxygen In-Situ Resource Utilization Experiment). À la manière justement d’une plante, MOXIE est un générateur d’oxygène : il produit le précieux gaz, à un rythme de dix grammes par heure, en séparant deux atomes d’oxygène du CO2 natif de l’atmosphère martienne. Il serait aussi capable de produire de l’oxygène liquide, pouvant servir de carburant. Un premier prototype, de 300 watts et de la taille d’une batterie de voiture, a été installé sur le rover Perseverance pour être testé sur Mars, à l’arrivée de ce dernier en février 2021. Si la technologie fonctionne convenablement, les premiers explorateurs envoyés vers Mars pourraient se servir d’une réplique 100 fois plus grande pour produire de l’oxygène respirable et du carburant oxygéné en quantité suffisante. Ce carburant pourrait aussi permettre aux astronautes de repartir de notre planète voisine, à l’aide de 30 à 45 tonnes d’oxygène liquide. Article rédigé par Georges Simmonds pour RT Flash NASA | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | La Chine développe massivement son projet de contrôle de la météo, et vise à pouvoir faire tomber de la pluie et de la neige artificielles sur la moitié du pays d'ici 2025, a déclaré le gouvernement chinois mardi 2 novembre. La technique de l'"ensemencement des nuages" ("cloud seeding" en anglais) a été découverte aux États-Unis en 1946 par un chimiste travaillant pour General Electric. La Chine a lancé un programme similaire dans les années 1960. Des dizaines d'autres pays - dont les États-Unis - travaillent également sur de tels programmes, mais celui de Pékin est le plus ambitieux au monde, employant environ 35 000 personnes, rapporte The Guardian. Dans un communiqué, le gouvernement chinois a déclaré que le projet sera multiplié par cinq pour couvrir 5,5 millions de km2, et sera achevé d'ici 2025. (La Chine s'étend sur 9,6 millions de km2, ce qui signifie que le projet pourrait couvrir plus de la moitié de la surface du pays). Le projet sera bien avancé d'ici 2035, a déclaré le gouvernement chinois, et contribuera à atténuer "les catastrophes telles que la sécheresse et la grêle", et à faciliter les interventions d'urgence "en cas d'incendie de forêt ou de prairie". La production de pluie et de neige artificielle est en principe assez simple. La vaporisation de produits chimiques comme l'iodure d'argent ou l'azote liquide dans les nuages peut faire condenser les gouttelettes d'eau et les faire tomber sous forme de pluie ou de neige. La Chine avait lancé un projet d'ensemencement localisé de nuages à Pékin peu avant les Jeux olympiques de 2008, qui, selon elle, a réussi à forcer les pluies prévues à tomber avant le début de l'événement. En juin 2016, la Chine a alloué 24,6 millions d'euros à son projet d'ensemencement des nuages et a commencé à tirer des balles remplies de sel et de minéraux dans le ciel. Un an plus tard, la Chine a dépensé 138 millions d'euros pour une énorme quantité d'équipements destinés à faciliter le projet, y compris quatre avions et "897 lance-roquettes", rapporte The Guardian. Comme Business Insider US le rapportait à l'époque, le ministère chinois des finances voulait utiliser l'ensemencement des nuages pour créer au moins 60 milliards de mètres cubes de pluie supplémentaires chaque année d'ici 2020. En janvier 2019, des médias d'État chinois affirmaient que les tactiques d'ensemencement des nuages dans la région occidentale du Xinjiang avaient empêché les cultures de subir 70 % des dommages causés par la grêle. Article rédigé par Georges Simmonds pour RT Flash Business Insider | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une étude menée par des chercheurs de l'Université d'État de Caroline du Nord a permis de mettre en lumière le rôle de composés chimiques présents dans ces aliments et qui pourraient empêcher, ou du moins limiter, la réplication du SARS-CoV-2. Comment ce mécanisme fonctionne-t-il ? Le chocolat noir, le thé vert ou encore le raisin muscadine ont des composés chimiques qui peuvent se lier à une enzyme particulière, ou protéase, du virus du SARS-CoV-2, et bloquer sa fonction. Selon le Professeur De-Yu Xie, auteur principal de l’étude, ces protéases sont importantes pour la santé et la viabilité des cellules et des virus. Si les protéases sont inhibées, les cellules ne peuvent pas remplir de nombreuses fonctions importantes - comme la réplication, par exemple. « L'un des objectifs de notre laboratoire est de trouver des nutraceutiques (des composés ayant un effet bénéfique sur la santé) dans les aliments ou les plantes médicinales qui inhibent soit la façon dont un virus s'attache aux cellules humaines, soit la propagation d'un virus dans les cellules humaines », explique le chercheur, également professeur de biologie végétale et microbienne à l'Université d'État de Caroline du Nord. Pour déterminer le rôle joué par un certain nombre de composés chimiques végétaux, déjà identifiés pour leurs propriétés anti-inflammatoires et antioxydantes, les scientifiques ont utilisé un modèle informatique capable de simuler la réaction de la protéase principale (Mpro) du SARS-CoV-2 en leur présence. Les simulations informatiques ont montré que les composés chimiques étudiés provenant du thé vert, de deux variétés de raisin muscadine, de la poudre de cacao et du chocolat noir, étaient capables de se lier à différentes portions de Mpro. Plus spécifiquement, à une "poche" de la protéase qui a été "remplie par les composés chimiques", détaille le Professeur De-Yu Xie. « Lorsque cette poche a été remplie, la protéase a perdu sa fonction importante ». Les expériences in vitro ont donné des résultats similaires. Les composés chimiques du thé vert et du raisin muscadine ont très bien réussi à inhiber la fonction du Mpro ; les composés chimiques de la poudre de cacao et du chocolat noir ont réduit l'activité du Mpro de moitié environ. « Le thé vert a cinq composés chimiques testés qui se lient à différents sites dans la poche du Mpro, le submergeant essentiellement pour inhiber sa fonction. La peau et les pépins des raisins de Muscadine contiennent ces substances chimiques inhibitrices. Les plantes utilisent ces composés pour se protéger, il n'est donc pas surprenant que les feuilles et les peaux des plantes contiennent ces composés bénéfiques », conclut le Professeur De-Yu Xie. Article rédigé par Georges Simmonds pour RT Flash Frontiers in Plant Science | | | |
| Des chercheurs de l’institut japonais Riken ont réussi à analyser l’évolution d’une bactérie face aux antibiotiques. Les scientifiques ont mis au point un système de culture bactérienne robotisé. Ce mécanisme leur a permis d’analyser l’évolution de la bactérie E. Coli sur plus de 250 générations, avec une exposition à 95 antibiotiques différents. Les chercheurs ont notamment étudié les variations de l’ARN messager des bactéries : cela leur a permis de comprendre quels gènes étaient exprimés. Pour 192 souches de la bactérie, ils ont pu mettre au point un profil de résistance. « Nous avons constaté que les dynamiques d’évolution d’E. Coli sont liées au petit nombre d’états intracellulaires, cela signifie qu’elle dispose d’un nombre limité de stratégies pour résister aux antibiotiques », explique Tomoya Maeda, l’un des auteurs de cette recherche. Grâce à leurs travaux, ils ont réussi à définir 157 combinaisons d’antibiotiques efficaces pour empêcher la résistance des bactéries. « Nous pensons que nos résultats peuvent être utilisés pour développer des stratégies alternatives pour bloquer les bactéries multi-résistantes ». C'est la première fois qu'une recherche scientifique identifie les mécanismes de résistance d'une bactérie face à un grand nombre d'antibiotiques. L’antibiorésistance est une menace pour la santé mondiale : c’est ainsi qu’elle a été classée par l’Organisation mondiale de la santé. Si les bactéries deviennent résistantes à un antibiotique et qu’il n’y a pas d’autre recours, le risque est l’impasse thérapeutique, soit l’absence de traitement efficace. Des infections faciles à soigner aujourd’hui pourraient devenir compliquées à traiter, voire entraîner des décès aujourd’hui évitables. En France, entre 2009 et 2018, la consommation d’antibiotiques a été réduite de 15 %. Mais elle reste encore trop élevée : ses niveaux sont supérieurs de 30 % à la moyenne européenne. D’après une étude du Centre européen de prévention et de contrôle des maladies, 5 543 personnes décèdent chaque année en France à cause d’une infection par une bactérie multi-résistante, et 124 806 patients sont infectés par ce type de bactéries. Si les stratégies de lutte contre l’antibiorésistance sont inefficaces, elle pourrait être la première cause de décès dans le monde en 2050. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Les acides gras essentiels (omégas 3 et 6) s'incorporent massivement dans le cerveau des petits via l'alimentation maternelle, au cours de la gestation et de la lactation. Des données scientifiques parcellaires indiquent qu'une consommation insuffisante de ces acides gras par la mère durant la période périnatale est un facteur de risque pouvant engendrer des déficits cognitifs chez l'enfant (langage, mémoire, apprentissage...). Mais quel est le mécanisme responsable ? Les chercheurs INRAE Nouvelle-Aquitaine, de l'Université de Bordeaux, et leurs collègues se sont intéressés à un type cellulaire particulier du cerveau : les cellules microgliales (ou microglie), qui participent à la construction des réseaux neuronaux de la mémoire. Ces macrophages du cerveau sont à l'interface entre l'environnement et les neurones. Pendant le développement du cerveau, les cellules microgliales "sculptent" les réseaux neuronaux en "mangeant" les synapses inutiles, ces liens de connexions entre les neurones, et en conservant celles qui sont essentielles pour le bon fonctionnement cérébral. Les scientifiques ont mené leurs travaux sur des souris pour évaluer si le statut alimentaire maternel en omégas 3, et donc celui du cerveau du petit, avait une influence sur l'activité des microglies. Les résultats montrent pour la première fois que des apports insuffisants en omégas 3 dans l'alimentation maternelle affectent l'activité des microglies du cerveau en développement : ces cellules adoptent un fonctionnement anormal et deviennent hyperphagiques, c'est-à-dire qu'elles perdent leur capacité à reconnaître les synapses qu'il faut supprimer et "mangent" trop de synapses. Le réseau neuronal est alors mal formé, ce qui entraîne des altérations de la mémoire des petits. Les scientifiques ont également décrypté les mécanismes moléculaires responsables de l'activité aberrante des cellules microgliales. Pour étudier ce lien entre apports en omégas 3 et développement du cerveau, les chercheurs ont également mis au point différentes technologies innovantes pour évaluer les changements de comportement des cellules microgliales vis-à-vis des synapses, analyser leur contenu lipidique, tester les différentes molécules pour identifier celles responsables de la dysfonction et trouver comment restaurer cette fonction. Ces travaux chez l'animal ouvrent de nouvelles perspectives de recherche et des études se poursuivront chez l'humain pour mieux comprendre les liens entre oméga 3 et développement du cerveau. Dans la population générale, beaucoup de femmes enceintes présentent des carences alimentaires en omégas 3, et identifier au plus tôt les personnes à risque pourrait être une étape préventive afin de rééquilibrer cette carence par l'alimentation. Article rédigé par Georges Simmonds pour RT Flash Inrae | | | |
| La maladie d'Alzheimer reste la plus fréquente des maladies neurodégénératives. Chaque année, 225 000 nouveaux cas sont recensés. Aujourd’hui, plus de 900 000 personnes en sont atteintes en France. On sait que cette pathologie résulte sans doute de l'accumulation de protéines dans le cerveau qui conduiraient à la mort des neurones. Certaines de ces protéines sont traçables dans le sang des patients. Ainsi, des tests basés sur la concentration de ces protéines peuvent permettre de diagnostiquer la maladie. Les scientifiques suédois et britanniques assurent maintenant que les analyses de sang peuvent être utilisées pour prédire la maladie d'Alzheimer des années avant l'apparition des symptômes. Les chercheurs de la Société contre l'Alzheimer de Londres, dirigés par Richard Oakley, ont développé et validé des modèles de risque individuel basés sur les niveaux de deux protéines clés dans des échantillons de sang prélevés sur plus de 550 patients souffrant de troubles cognitifs mineurs. Le modèle basé sur ces deux protéines a eu un taux de réussite de 88 % pour prédire l'apparition de la maladie d'Alzheimer chez les mêmes patients pendant quatre ans. « Si ces biomarqueurs sanguins peuvent prédire la maladie d'Alzheimer dans des groupes plus vastes et plus diversifiés, nous pourrions assister à une révolution dans la façon dont nous testons de nouveaux médicaments contre la démence », assure Richard Oakley, chef de la recherche à la Société Alzheimer. Pour lui, le principal combat dans la lutte contre la maladie était de diagnostiquer les cas suffisamment tôt pour intervenir avec des traitements expérimentaux. Pour Musaid Husain, professeur de neurologie à l’Université d’Oxford, cette piste pourrait changer les choses : « Ces résultats doivent être confirmés mais dans le contexte d’autres travaux récents, cela pourrait être un pas important vers un diagnostic plus précoce, ainsi que vers l’expérimentation de nouveaux traitements à un stade moins avancé de la maladie ». Article rédigé par Georges Simmonds pour RT Flash Medical Xpress | | | |
| Selon une étude présentée lors de la réunion annuelle de la société de radiologie d’Amérique du Nord, l'anxiété pourrait accélérer l’apparition de la maladie d’Alzheimer. Pour cette recherche, 339 personnes, âgées de 72 ans en moyenne, ont été recrutées. Toutes souffraient a minima d’une déficience cognitive de faible gravité ; au cours de l’étude, 72 participants ont développé une maladie d’Alzheimer. Les chercheurs ont analysé les IRM des différents participants pour évaluer la taille de l’hippocampe et du cortex enthorinal, car ces deux zones sont associées à la formation des souvenirs. Ils ont également détecté la présence de l’allèle ApoE4, l’un des marqueurs génétiques de la maladie d’Alzheimer. Pour déterminer si les patients souffraient d’anxiété, les scientifiques ont eu recours à des sondages cliniques. Ces travaux montrent que les patients atteints de troubles cognitifs de faible gravité et de symptômes anxieux ont développé la maladie d’Alzheimer plus rapidement que les personnes ne souffrant pas d’anxiété, indépendamment de la présence ou non du facteur de risque génétique et du volume cérébral. Mais l'étude ne peut trancher, pour le moment, sur la nature du lien entre l’anxiété et Alzheimer. « Nous ne savons pas si l’anxiété est un symptôme, en d’autres termes, leur mémoire se dégrade et ils deviennent anxieux, ou si l’anxiété provoque le déclin cognitif », explique Maria Vittoria Spampinato, autrice principale de l’étude. Le lien entre anxiété et maladie d’Alzheimer a déjà été démontré en 2018. Des chercheurs de l’Université de Cambridge avaient prouvé que l’anxiété était un facteur de risque pour la maladie d’Alzheimer et pour la démence vasculaire. Pour les auteurs de la recherche la plus récente sur le sujet, il est important de détecter l’anxiété chez les seniors. « Les personnes âgées sont régulièrement testées pour la dépression dans les hôpitaux, mais peut-être faudrait-il soumettre cette population vulnérable à des tests d’anxiété », souligne Jenny L.Ulber, co-autrice de l’étude. Détecter l’anxiété précocement pourrait permettre de ralentir l’apparition ou le développement des troubles cognitifs. Article rédigé par Georges Simmonds pour RT Flash Science Daily | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Vinci a annoncé que sa filiale Eurovia lançait un projet pilote de route à recharge électrique dynamique par induction en Allemagne, dans la ville de Karlsruhe. Une première pour le spécialiste des travaux routiers, qui a signé un accord de collaboration avec l’entreprise ElectReon, spécialisée dans la recharge de véhicules électriques. Dès 2021, Eurovia équipera donc les voiries du centre de formation de l’énergéticien EnBW de Karlsruhe, pour une expérimentation sur une longueur de 100 m. Dans un second temps, 600 m de voirie publique, reliant le centre de formation à la ville de Karlsruhe, devraient être construits. La société de transport public qui opère au sein de la commune allemande a l'intention d'utiliser ce système pour charger certains de ses bus, a fait savoir l’entreprise. Concrètement, l'infrastructure sera dotée de bobines à l’intérieur desquelles circulera un courant électrique. Lorsqu’un véhicule électrique se déplacera sur les sections concernées, il captera ainsi une partie de ce courant qui sera transféré au moteur à l’aide d’un convertisseur pour permettre la recharge sans utiliser la batterie. « Les interventions programmées restent relativement légères. Il suffit de raboter la chaussée existante, puis d’y installer les bobines avant de recouvrir celles-ci avec un enrobé. Une fois mis en place, le système n’est pas visible et n’a pas d’incidence sur la circulation. Bien que rapide, la pose est, pour l'heure, réalisée manuellement, mais l’expérimentation de Karlsruhe doit nous permettre de travailler au développement d’une méthode mécanisée », détaille Didier Deschanel, directeur de l’innovation chez Eurovia. L'entreprise du groupe Vinci n’est pas la première à s’intéresser de près à la route à induction avec recharge dynamique. Cette solution avait déjà été testée il y a cinq ans par la fondation Vedecom, au travers d'un prototype construit dans le quartier de Satory, à Versailles. Dans ce quartier essentiellement composé d’installations militaires et d’habitations, la voirie avait été équipée sur une section de 100 m. A l’époque, le système devait encore faire la preuve de son rendement énergétique, en particulier pour les véhicules de gros gabarit. Pour Eurovia, les essais pour qualifier le dispositif de Karlsruhe devraient durer deux années. « Nous sommes convaincus que le développement de ce type d’infrastructure aidera à l’adoption de l’électromobilité. A ce jour, les principaux obstacles au déploiement de la voiture électrique restent le manque d’autonomie de sa batterie et son coût élevé. Or, la route à induction peut contribuer à diminuer ces contraintes et, par conséquent, à démocratiser l’utilisation de voitures électriques », assure Didier Deschanel. Article rédigé par Georges Simmonds pour RT Flash Le Moniteur | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|