| | Edito L’intelligence artificielle ouvre une nouvelle ère dans l’histoire de la médecine
Nous sommes le 3 juillet 2026. Jean Dubart, 65 ans, sait depuis quelques semaines qu’il souffre d’une valvulopathie, nécessitant un acte chirurgical : la pose d’une valve mitrale. Une semaine avant son arrivée dans le nouveau service de cardiologie du CHU de Lyon-Sud, il a transmis, par Internet sécurisé et crypté, au secrétariat médical du service qui doit réaliser son intervention, tout le contenu de son dossier médical personnel (issu de la fusion en 2020 du dossier médical partagé et du dossier pharmaceutique), qui contient sur une carte à puce et sur un serveur sécurisé la totalité de ses bilans médicaux, comptes rendus, traitements médicamenteux et examens d’imagerie. Arrivé à 17 heures dans le secrétariat du service de cardiologie, Jean Dubart procède avec l’hôtesse d’accueil à son identification biométrique, qui combine différents paramètres, dont l’empreinte vocale, la carte de l’iris, et l’arbre veineux de la paume de la main. Le robot assistant qui réalise en quelques secondes cette identification en profite pour effectuer dans la foulée, sans même que Jean Dubart n’y prête attention, toute une série d’examens médicaux : tension artérielle, rythme cardiaque, analyse chimique de la transpiration, prise de sang, grâce à une micro aiguille, analyse de la démarche spécifique et de l’intonation vocale. Immédiatement convertis en données numériques, ces examens viennent s’ajouter à son dossier médical pour le compléter. Jean Dubart est ensuite amené directement dans sa chambre par un robot accompagnateur qui lui rappelle que l’intervention aura lieu le lendemain matin à sept heures et que son chirurgien le contactera dans une heure par téléconférence, pour faire le point avec lui sur le déroulé de cette opération. Effectivement, 1h15 plus tard, alors qu’il lit son journal sur son Smartphone à écran enroulable, Jean Dubart reçoit sur la tablette mise à sa disposition l’appel en visiophonie de son chirurgien, le professeur Janry. Celui-ci lui indique qu’il vient de procéder à un nouvel examen approfondi de ses antécédents et de son dossier médical, et lui confirme que l’intervention aura bien lieu comme prévu le lendemain matin. Il lui indique également qu’il a procédé la veille à une répétition complète de cette intervention sur son « double numérique » et que la valve mitrale qui sera implantée à bien entendu été réalisée sur mesure, par impression 3D, de manière à s’adapter parfaitement à ses caractéristiques anatomiques et physiologiques. Le lendemain matin, le professeur Janry réalise comme prévu, en un peu moins d’une heure, cette intervention en pilotant son robot chirurgien de dernière génération, à immersion virtuelle. Jean Dubart rentrera chez lui le lendemain de l’opération et sera alors conseillé et surveillé pendant plusieurs semaines en permanence par son chatbot personnalisé, qui pourra non seulement lui rappeler par téléphone de bien prendre son traitement, mais lui donnera également des conseils individualisés en matière d’alimentation et de remise en forme. Son chatbot sera également en mesure d’analyser à distance, grâce à son puissant algorithme d’IA, une multitude de paramètres biologiques et physiologiques transmis sous forme numérique depuis le domicile de Jean Dubart, grâce à de nombreux capteurs portables int égrés dans son Smartphone et sa montre communicante. À la moindre alerte ou anomalie, le chatbot enverra immédiatement un message d’urgence au professeur Jean Janry, accompagné d’un compte rendu médical de synthèse. Vous pourriez croire que ce scénario relève encore pour longtemps de la science-fiction. Et pourtant, il n’en est rien. Tous les outils et technologies que je viens d’évoquer existent déjà, soit au stade commercial, soit à un niveau expérimental avancé, et ils seront très probablement utilisés de manière routinière en 2026. L’algorithme de Deep Learning développé par Google, baptisé LYNA, peut par exemple repérer les métastases d’un cancer du sein avec une fiabilité de 99 %. En observant des diapositives de mammographies, cette IA est capable de détecter des métastases extrêmement petites que les humains risquent de rater. Pour parvenir à cette prouesse, Google a entraîné son algorithme LYNA (Lymp Node Assistant) à reconnaître les caractéristiques des tumeurs en utilisant deux ensembles de diapositives pathologiques. Ainsi, l’algorithme est en mesure de repérer les métastases dans une grande variété de conditions. Bien entendu, LYNA se révèle encore plus efficace lorsqu’il est utilisé comme un assistant par les pathologistes. Ceux-ci ne tarissent d’ailleurs pas d’éloges sur cet outil extraordinaire qui leur pe rmet non seulement de réduire de moitié le nombre de micro-métastases non détectées, mais divise également par deux le temps nécessaire à cette investigation. En France, des médecins de l’hôpital Cochin, à Paris, expérimentent un outil d’intelligence artificielle développé par la start-up Therapixel pour reconnaître un cancer du sein sur une imagerie médicale. Ce système a d’abord digéré une très grande quantité d’images puis a appris à repérer une grande diversité d’anomalies. Après plusieurs mois d’apprentissage, cet outil a permis de réduire le nombre de "faux positifs" – c’est-à-dire de suspicions de cancer qui s’avèrent fausses – de 25 % à 4 % … L'intelligence artificielle est également en train de devenir une arme redoutable dans la détection des lésions précancéreuses du col de l'utérus. Il faut rappeler que le cancer du col de l'utérus est le quatrième cancer le plus fréquent dans le monde, avec 570.000 cas par an en 2018 selon l'Organisation mondiale de la santé (OMS). L’amélioration des traitements et la prévention ont heureusement permis d’abaisser de manière spectaculaire le niveau de mortalité de ce cancer dans les pays développés. Mais il n’en va pas de même dans les pays pauvres ou émergents, qui concentrent à présent plus de 90 % des décès. Pour changer cette situation, le professeur Schiffman, qui travaille à l'Institut national du cancer près de Washington depuis 35 ans, cherche à mettre au point des outils fiables, simp les et bon marché, pouvant détecter ces lésions précancéreuses. Avec son équipe, il a développé un algorithme à partir d'une archive de 60.000 images de cols de l'utérus prises au Costa Rica dans les années 1990. Au total, 9.400 femmes ont participé et ont été suivies pendant plusieurs années, pendant 18 ans pour certaines - ce qui a permis de relier chaque cancer apparu parmi elles à l'image du col avant l'apparition de la maladie. L’algorithme mis au point par ces chercheurs est à présent capable, en exploitant cette base de données, de repérer visuellement des cellules précancéreuses dans 91 % des cas, alors que ce taux de reconnaissance est de 70 % pour un expert humain. « Nous sommes parvenus à un outil d’intelligence artificielle bien plus précis que le meilleur des praticiens, y compris moi-même », souligne Mark Schiffman. À présent, cette même &e acute;quipe veut adapter cette technologie d’ici cinq ans, de manière à ce qu’elle puisse être utilisée par des personnels soignants sans formation particulière, simplement en prenant une photo qui sera analysée par l'algorithme. « Nous allons enfin bientôt disposer d'un outil fiable et peu coûteux, potentiellement utilisable partout, et qui ne sacrifie pas la qualité scientifique », ajoute cet éminent chercheur. En mai 2018, une autre équipe franco-germano-américaine a testé son nouvel algorithme de diagnostic du mélanome avec 58 praticiens expérimentés. Les chercheurs ont ainsi appris à un algorithme de vision artificielle à distinguer des lésions de la peau et grains de beauté, en lui proposant plus de 100.000 images. Puis les performances de la machine (un réseau neuronal convolutif) ont été comparées à celles de 58 médecins spécialistes, originaires de 17 pays différents (Voir Annals of Oncology). Ces derniers ont testé leur intelligence artificielle, en lui présentant 100 photos représentant des cas jugés compliqués. Ces images ont également été présentées, en parallèle, aux 58 m&eac ute;decins. Résultat : les dermatologues ont correctement identifié 89 % des mélanomes qui leur étaient présentés. Mais la machine a fait mieux, avec 95 % de mélanomes détectés directement à partir de la première série de photos, et sans avoir besoin, comme les praticiens humains, d’informations cliniques et biologiques complémentaires. En août 2018, une autre étude, dirigée par Andrew Steele, chercheur au Laboratoire de bioinformatique et de biologie computationnelle de l’Institut Francis Crick, à Londres a montré que l’intelligence artificielle est désormais capable de prédire, mieux que ne pourrait le faire un médecin, les risques de décès dus aux pathologies cardiovasculaires. Ce chercheur a conçu un système de modélisation informatique capable de prédire les conséquences d’une pathologie en particulier : l’insuffisance coronarienne, une maladie très fréquente des artères coronaires qui est devenue la première cause de décès au Royaume-Uni. Pour mettre au point leur algorithme, ces chercheurs ont exploité, en utilisant plus de 600 facteurs différents, les données de santé de plus de 80.000 patients. Cet outil parvient à présent, non seulement à surpasser n’importe quel médecin en matière de diagnostic, mais même aussi à identifier des paramètres auxquels les spécialistes n’avaient pas pensé. « Bien que notre outil en soit encore à un stade expérimental, il est si puissant et si fiable qu’il ne faudra pas attendre longtemps avant que les médecins ne l’utilisent de manière systématique dans les établissements de santé afin d’établir de meilleurs diagnostics et de meilleurs pronostics", souligne Andrew Steele. Des chercheurs de l'Institut Gustave Roussy, de l'Inserm, de l'Université Paris Sud et de la start-up TheraPanacea, issue de Centrale Supélec, sont allés encore plus loin récemment. Ils ont en effet développé un algorithme d'intelligence artificielle qui parvient, à partir d'images scanner d'une tumeur cancéreuse, à estimer si un patient va réagir favorablement à un traitement qui consiste à stimuler le système immunitaire pour combattre son cancer (Voir The Lancet). Dans ces recherches, les chercheurs ont constaté que la présence dans la tumeur de certaines cellules du système immunitaire était associée à une meilleure réponse du patient à l'immunothérapie. Mais pour la mettre en évidence, il fallait jusqu'alors réaliser une biopsie. Or, grâce à ce nouvel outil, il devient à présent possible de se passer du séquençage génétique souvent réalisé grâce à une biopsie (excision d'une partie de la tumeur afin de pouvoir l'analyser en laboratoire), un acte qui n’est pas dénué de risques pour certains malades. Cette nouvelle approche pourrait permettre à la fois d'améliorer significativement la sélection des candidats à l'immunothérapie, et d'éviter d'y soumettre certains patients pour lesquels cette immunothérapie risquerait au contraire d’avoir des effets néfastes. Dans ce cas de figure, l'algorithme développé a été « nourri » par les données biologiques génétiques et médicales provenant de 135 patients ayant bénéficié d’une immunothérapie. Ce nouvel outil a permis d’établir une « signature radiomique », indicateur construit à partir de caractéristiques extraites des images par l'IA. « Cette signature a finalement été associée à un profil génomique donné, ce qui permet de modéliser par les chances de succès de l'immunothérapie », précise Nikos Paragios, qui dirige ces recherches. Il est important de souligner que l’outil d’intelligence artificielle développé pour réaliser cette application prédictive ne repose pas sur l’apprentissage profond (deep learning), qui présente l’inconvénient de nécessiter une base d'apprentissage considérable afin de déterminer les critères à prendre en compte pour aboutir à une prédiction exacte. Nikos Paragios et son équipe ont préféré utiliser un modèle qui calcule un score à partir d'un nombre restreint mais judicieusement choisi de critères mesurables à l'imagerie scanner : pour l’instant, cet outil parvient déjà à déterminer correctement le profil immunitaire de la tumeur à partir de l'image dans environ 60 % des cas, et ce score devrait pouvoir être encore sensiblement amélioré dans les mois qui viennent, selon ces chercheurs. Mais si l’intelligence artificielle est devenue indispensable pour accélérer les recherches et améliorer les soins dans des domaines comme la cancérologie ou les maladies cardio-vasculaires, elle est également en train de s’imposer pour avancer plus vite dans la recherche de nouvelles solutions thérapeutiques pour les principales pathologies neurologiques et neurodégénératives. En Californie, Jae Ho Sohn, chercheur au département de radiologie et d’imagerie biomédicale de l’Université de San Francisco, a par exemple développé un nouvel outil d’intelligence artificielle qui permet de repérer très précocement les premiers symptômes de la maladie d’Alzheimer. Pour obtenir ce résultat, ces scientifiques ont exploité les données provenant des PET scans des patients. Ils ont ainsi pu mesurer et suivre les fluctuations du niveau de glucose traversant le cerveau. Sachant que lorsqu’une cellule est malade, elle consomme plus de glucose, ces chercheurs ont ainsi pu construire un indicateur prédictif très fiable d’apparition de la maladie d’Alzheimer. Le taux de précision de l’algorithme créé par l’équipe de Jae Ho Sohn a atteint 92 % lors du premier test, et 98 % lors du second, et grâce à ce nouvel outil, la détection d’Alzheimer peut se faire six ans avant un diagnostic clinique. En Suisse, une autre équipe de recherches de l’Université de Zurich a montré à la fin de l’année dernière qu’il était possible de diagnostiquer cette maladie par le biais d’un smartphone muni d’un logiciel d’intelligence artificielle. Ces chercheurs ont utilisé une base de données concernant 1853 personnes impactées par la maladie de Parkinson. Ils ont ensuite défini un protocole en quatre phases. Dans un premier temps, ils demandent à un patient de faire un trajet à pied et de revenir sur ses pas, alors que le smartphone placé dans sa poche sert de balise. Ensuite, les capacités vocales de ce patient sont analysées via un micro. Dans un troisième temps, une analyse du doigté est pratiquée, durant laquelle le patient doit appuyer sur des boutons tactiles. Enfin, le dernier test évalue la mémoire du patient. Finalement, l’ensemble des données ainsi recueillies est traité par un algorithme baptisé Evidence Agrégation Model (EAM), qui détermine le diagnostic final. Cet outil permet déjà de diagnostiquer précocement la maladie de Parkinson dans 85 % des cas, ce qui constitue un progrès majeur, quand on sait que les traitements au cette maladie sont d’autant plus efficaces qu& #8217;ils sont mis en œuvre le plus tôt possible. Mais l’IA, complétée par la réalité virtuelle est également en train de transformer radicalement la chirurgie. L’Institut Hospitalo-Universitaire (IHU) de Strasbourg est, par exemple, en train d’intégrer des techniques d’IA aux opérations chirurgicales. Grâce au projet Visible Patient : virtual and augmented reality, les chirurgiens commencent à disposer de solutions assistées par ordinateur, de réaliser une modélisation 3D et personnalisée du patient avant l’opération. Cette technologie simplifie l’intervention chirurgicale, car le chirurgien peut planifier son opération à l’avance. Ces informations 3D sont ensuite stockées afin de créer une importante base de données, très utile pour le développement de technologies d’IA en chirurgie. Si l’intelligence artificielle, comme on vient de le voir, révolutionne les outils de diagnostic et accélère l’avènement d’une médecine de précision adaptée à chaque individu, elle permet également, d’une manière encore plus large, de modifier et d’élargir le concept même de santé publique. Dans un pays comme la France, caractérisé par de grandes zones rurales connaissant un vieillissement de la population, l’intelligence artificielle est en train de devenir un outil décisif pour lutter contre la désertification médicale et se substituer de manière efficace à la fermeture de certains établissements hospitaliers qui ne parviennent plus à conserver un niveau d’activité ou de compétences médicales compatibles avec une qualité de soins et une sécurité suffisante pour les malades. Combinés avec les nouveaux réseaux et moyens de communication à très haut débit, qui devraient être accessibles sur l’ensemble du territoire d’ici cinq ans, ces outils de plus en plus puissants et polyvalents d’intelligence artificielle vont permettre une généralisation bien plus rapide que prévu de la télémédecine, de la téléconsultation et de la télésurveillance médicale, tant à domicile qu'en établissement. Portés par des vecteurs, comme les robots de soins, les Chatbots d’assistance, qui peuvent dialoguer avec les malades, et les capteurs communicants, qui seront bientôt présents partout (au domicile, mais également dans les vêtements, les véhicules, l’espace public) ces outils d’intelligence artificielle a visée médicale vont révolutionner, j’en suis convaincu, la prise en charge des pathologies lourdes et chroniques, mais également la prévention, avant la fin de la prochaine décennie. Avec la généralisation de ces extraordinaires outils, dont le coût va baisser très rapidement, c’est toute la médecine, et le système de santé qui l’entoure, qui vont s’adapter à chaque patient pour lui proposer un parcours de soins personnalisé. Paradoxalement, ces nouveaux outils vont permettre aux médecins et à l’ensemble des personnels de santé de dégager un temps précieux pour recentrer leurs missions sur les relations personnelles avec les malades, et je crois que cette nouvelle médecine numérique, si elle est utilisée dans un cadre social et éthique approprié, peut contribuer de manière puissante à rendre notre système de santé, non seulement bien plus performant, mais également plus égalitaire et plus humain. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Santé, Médecine et Sciences du Vivant | |
| | | Une équipe de chercheurs du Rutgers Cancer Institue (New Jersey) a montré que le risque de métastases de cancer de la prostate pourrait être déterminé en fonction de l'activité d'un gène spécifique chez les patients, suggérant ainsi que la réduire permettrait d'augmenter leurs chances de survie. Les chercheurs ont utilisé un algorithme testé sur des tissus cancéreux provenant de souris et d'humains. Ils ont ainsi pu déterminer les gènes responsables de la propagation du cancer. De là, le gène NSD2 (pour nuclear receptor binding SET Domain Protein 2) a été identifié. Ils ont ensuite été capables de bloquer son activité dans les cellules cancéreuses, ce qui a considérablement limité la propagation de la tumeur. Une découverte qui pousse les chercheurs à élaborer un médicament agissant sur le gène NSD2, afin de prévenir les métastases le plus tôt possible et ainsi améliorer le pronostic du patient. Car "actuellement, quand un patient est diagnostiqué avec un cancer de la prostate, les médecins peuvent déterminer le stade de la tumeur mais pas le risque de métastases", explique Antonina Mitrofanova, l'une des auteurs de l'étude. "Si on peut déterminer ce risque au moment du diagnostic, on peut commencer à le mettre sous un traitement spécifique le plus vite possible pour réduire ce risque". En attendant, les chercheurs encouragent les médecins à réaliser des tests de dépistage de ce gène et envisagent également d'appliquer l'algorithme à d'autres types de cancers. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| On le savait, les virus sont pernicieux. Ils ont évolué pour tromper les cellules de l'organisme qu’ils infectent. Ils échappent au système immunitaire de l’hôte et utilisent son métabolisme à leur avantage. Le cytomégalovirus (CMV), un virus de l'herpès particulièrement dangereux pendant la grossesse, ne fait pas exception. Un groupe de chercheurs du Mount Sinaï a découvert que le CMV, à l'instar d'autres virus de l'herpès, induit l'activation d'une séquence d'ADN normalement inactive dans des cellules humaines. Fait surprenant : c'est le même mécanisme que celui observé dans le développement des tumeurs. "L'évolution des tumeurs peut nous donner des informations sur les virus et vice versa. Comprendre un système peut nous aider à traiter l’autre", a souligné Benjalin Greenbaum, premier auteur de l’étude. Les chercheurs ont découvert que le cytomégalovirus, lorsqu'il infecte des cellules humaines, favorise l'activation d'une séquence d'ADN, appelée HSA TII, qui reste normalement inactive. La séquence HSA TII se trouve dans différentes parties de l'ADN humain, sur différents chromosomes et, dans des conditions physiologiques, elle n'est pas traduite en protéines. Cependant, après l’infection, cette séquence s’active et produit un messager (un ARN), une sorte de copie de la séquence d’ADN, qui aide le virus à produire ses protéines, à se multiplier et à sortir de la cellule pour en infecter d’autres. Une quantité anormale d'ARN de HSA TII est également produite dans les cellules cancéreuses, en particulier dans les cancers du poumon, du pancréas, des ovaires, du côlon, du foie et de la prostate. Cette découverte pourrait être une première étape pour découvrir comment les virus de l'herpès, qui restent latents dans l'organisme toute la vie après l'infection, peuvent être liés à d'autres maladies. Le cytomégalovirus, par exemple, peut causer des colites ulcéreuses, avec douleurs abdominales et saignements gastro-intestinaux. Les chercheurs ont mené une étude préliminaire sur un petit nombre de patients atteints de colite due au cytomégalovirus et ont constaté que la HSA TII était exprimée dans les cellules du côlon. Les auteurs supposent que ce mécanisme pourrait jouer un rôle dans le développement d'autres maladies causées par les virus de l'herpès, telles que l'encéphalite, la pneumonie, l'hépatite et même la maladie d'Alzheimer, dont l'apparition pourrait, selon certaines recherches, être également déterminée par les virus de l'herpès. La recherche représente peut-être un pas en avant dans la compréhension du lien entre le cytomégalovirus et le cancer. En effet, plusieurs études ont suggéré que le CMV est également impliqué dans le développement de tumeurs, il pourrait en favoriser la croissance et la progression. Article rédigé par Georges Simmonds pour RT Flash France Info | | | |
| Une équipe de chercheurs de l'Inserm et du CNRS a réussi à développer des capteurs chimiques de nouvelle génération pour surveiller le métabolisme du cerveau, notamment lors d’accidents vasculaires cérébraux, de traumas ou de crises épileptiques. D’une taille inférieure à 15 µm, ces outils permettent de suivre ce qui se passe dans le cerveau en minimisant les lésions du tissu nerveux afin d’obtenir des données beaucoup plus fiables et représentatives des échanges neurochimiques. L’analyse du liquide interstitiel du cerveau peut révéler des informations chimiques importantes sur l’état du cerveau. En clinique ou chez les animaux de laboratoire, détecter, au fil du temps, les concentrations de métabolites caractéristiques de l’énergie cérébrale (comme le glucose) peut aider à déceler l’apparition de lésions cérébrales afin de permettre aux médecins d’agir avant qu’il ne soit trop tard. De plus, l’activation des réseaux neuronaux qui entraîne une libération de neurotransmetteurs peut aussi être détectée dans le fluide interstitiel. Cependant, jusqu’à présent, la taille des sondes et les lésions locales dues à leur implantation étaient des paramètres qui perturbaient la qualité des mesures. La rupture des petits vaisseaux cérébraux pendant l’implantation de la sonde représente notamment un déclencheur majeur de l’inflammation. Dès l’heure qui suit l’implantation, la composition chimique locale des tissus cérébraux peut être affectée. Invisibles à l’œil nu, ils ont un diamètre inférieur à 15 microns (contre 50 à 250 microns actuellement), soit inférieur à celui d’un cheveu. L’énorme avantage d’être arrivé à miniaturiser autant les capteurs est que leur implantation ne déclenche plus de lésion au niveau des tissus nerveux. « Leur taille est inférieure à la distance moyenne entre 2 capillaires du cerveau, donc ces derniers ne sont pas endommagés par le dispositif » explique Stéphane Marinesco, chercheur Inserm en charge de l’étude. Jusqu’alors l’analyse électrochimique à l’aide de microélectrodes en fibre de carbone se limitait à un nombre très restreint de molécules dites « oxydables ». Les recouvrir de platine les rend compétentes pour y accrocher des enzymes et détecter un nombre potentiellement illimité de molécules. Pour Stéphane Marinesco, « si le dépôt de platine est une technique couramment utilisée dans le domaine de la microélectronique, elle est généralement réalisée avec des substrats plats en silicium. Nos résultats montrent que, malgré leur géométrie cylindrique inhabituelle, les fibres de carbone peuvent être recouvertes avec succès par une couche de p latine. La sensibilité obtenue est similaire ou meilleure que celle des fils en platine massif plus épais qui sont disponibles sur le marché ». Quand ces capteurs ont été implantés dans les cerveaux de rats lors de tests en laboratoire, aucune blessure au niveau des tissus ou des vaisseaux sanguins cérébraux n’a été détectée. De plus, ces microélectrodes ont fourni des évaluations des taux de glucose, lactate et des concentrations d’oxygène plus fiables et plus précises en comparaison des capteurs conventionnels (ici un capteur est nécessaire pour chaque paramètre en implantant un "peigne" avec plusieurs microélectrodes). De nombreux tests ont été réalisés sur ces nouvelles microélectrodes, notamment sur leur stabilité dans le temps, puisqu’elles ont également été testées après 6 mois de stockage (température ambiante dans l’obscurité). Stéphane Marinesco précise que : "Ce dispositif peu envahissant représente une avancée majeure dans notre capacité d’analyser le liquide interstitiel cérébral, ouvrant la voie à la mesure de nouveaux paramètres physiologiques et à de multiples applications". Ce nouvel outil pourrait être utilisé pour tester l’effet de certains médicaments sur le cerveau. Enfin, à plus long terme, le monitoring du cerveau humain pourrait fournir de précieuses informations aux médecins pour mieux comprendre comment un patient atteint de lésions cérébrales récupère après un traumatisme crânien ou un accident vasculaire cérébral. Ce dispositif pourrait également les aider à prendre les meilleures décisions thérapeutiques en fonction de l’évolution du patient . Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| De nouveaux résultats portant sur une triple association de thérapies ciblées dans le cancer colorectal, expérimentée par Pierre Fabre et son partenaire Array BioPharma, ont été présentés le 19 janvier à San Francisco lors du symposium sur les cancers gastro-intestinaux organisé par l'American Society of Clinical Oncology (ASCO). Il s'agit des résultats actualisés de la partie « évaluation de la sécurité d'administration » de l'étude de phase III BEACON CRC. Cet essai international vise à évaluer l'intérêt de l'association de l'inhibiteur de BRAF Braftovi (encorafenib), de l'anticorps monoclonal anti-EGFR Erbitux (cetuximab) et de l'inhibiteur de MEK Mektovi (binimetinib) chez des patients adultes atteints d'un cancer colorectal métastatique avec mutation du gène BRAFV600E dont la maladie a progressé après une ou deux lignes thérapeutiques antérieures. Entre 10 et 15 % des patients atteints de cancer colorectal métastatique sont porteurs de la mutation BRAF, la mutation V600 étant la plus fréquente. Trente patients ont été traités avec cette combinaison dans cette étude préliminaire. Les nouvelles données mettent en évidence une médiane de survie globale de 15,3 mois. Elles confirment par ailleurs la bonne tolérance de la combinaison, une médiane de survie sans progression de 8 mois et un taux de réponse globale de 48 %. Ce dernier passe à 62 % en considérant uniquement les 17 patients n'ayant reçu qu'une seule ligne de traitement au préalable. Ces résultats autorisent ainsi la partie randomisée de l'essai qui va comparer la combinaison à un traitement à base d'irinotecan en association à Erbitux (bras témoin). Le critère principal d'évaluation est la différence de survie globale entre la triple association et le bras contrôle. En août 2018, la triple association a reçu la désignation de « Traitement innovant » pour cette indication par la Food and Drug Administration (FDA). Article rédigé par Georges Simmonds pour RT Flash Business Wire | | | |
| Des scientifiques ont réussi pour la première fois à créer, dans des boîtes de Petri, des vaisseaux sanguins qui ressemblent à ceux du corps humain et qui agissent de façon similaire. Ces vaisseaux pourront notamment être utilisés pour la recherche, expliquent ceux qui ont participé à leur création, dans la revue Nature. "La structure ressemble aux vaisseaux humains et les gènes qui s’expriment dans notre corps et dans ces capillaires sont très similaires", affirme Josef Penninger, auteur principal de la recherche et directeur de l’Institut des sciences de la vie à l’Université de la Colombie-Britannique (UBC). "Ce n’est pas 100 % fidèle à ce que nous voyons dans notre corps, évidemment", souligne M. Penninger. "Mais c’est très proche". Les vaisseaux sanguins ainsi créés aident déjà les scientifiques à mieux comprendre certains dommages causés par le diabète, expliquent les auteurs. À l’avenir, ils pourraient être utilisés pour mieux comprendre d'autres maladies, comme la maladie d'Alzheimer, le cancer et les accidents vasculaires cérébraux, et élaborer des traitements à cet effet, ou encore être transplantés dans des humains pour guérir ou remplacer des tissus endommagés, soutient M. Penninger. Maintenant que la méthodologie pour produire ces vaisseaux en laboratoire a été publiée, ce dernier estime que « tout le monde peut le faire ». Les chercheurs ont mis environ trois ans pour réussir à reproduire les vaisseaux sanguins en laboratoire. Les auteurs précisent que les vaisseaux agissent normalement quand ils sont transplantés dans des souris, ce qui leur permet d’effectuer des recherches sur des maladies comme le diabète, qui avaient jusque-là été impossibles à réaliser. Les vaisseaux humains exposés à de hauts taux de sucre sont gravement endommagés et peuvent entraîner des problèmes cardiaques, de la gangrène et un ralentissement de la guérison chez les diabétiques. Ces genres de maux ne surviennent toutefois pas dans les vaisseaux endommagés chez les souris diabétiques, même si elles sont souvent utilisées pour étudier cette maladie. Toutefois, quand les vaisseaux sanguins mis au point en laboratoire ont été transplantés dans des souris, ils ont été endommagés comme chez les humains par le diabète. C'est pourquoi les auteurs pensent que la découverte pourra mener à de nouveaux traitements contre cette maladie. Ils souhaitent maintenant tenter de transplanter des vaisseaux sanguins dans différentes parties de la souris et observer ce qui se produit. M. Penninger ajoute que les scientifiques réussissent à créer ce qui est appelé des organoïdes - des sortes de « mini-organes » - en utilisant des cellules souches depuis près d’une décennie, mais qu’ils contenaient jusqu’à maintenant une seule sorte de cellules. « Ce dont nous avons besoin maintenant, ce sont des organoïdes comportant différents types de cellules », précise-t-il. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| L’agrégation de la protéine alpha-synucléine est à l’origine de la dégénérescence neuronale dans la maladie de Parkinson. En utilisant des cellules souches humaines reprogrammées en cellules nerveuses, des chercheurs du CNRS et de l’Inserm viennent de montrer que les agrégats d’alpha-synucléine se propagent de neurones en neurones. Cette découverte réalisée sur des réseaux de neurones humains pourrait permettre d’élaborer de nouvelles stratégies thérapeutiques afin de prévenir la multiplication des agrégats d’alpha-synucléine et la dégénérescence des neurones. L’étude a été publiée le 10 janvier 2019 dans la revue Stem Cell Reports. Des recherches publiées en 2015 démontraient que des formes altérées et agrégées de la protéine alpha-synucleine se multipliaient dans le cerveau de rongeurs et étaient à l’origine de différents symptômes parkinsoniens. Dans cette nouvelle étude, les chercheurs ont utilisé des cellules souches humaines, dites pluripotentes, les ont transformées en neurones, et ont conçu un réseau de neurones simplifié et robuste, représentatif du cerveau humain. En exposant ces neurones à des formes altérées de l’alpha-synucléine, ils ont observé l’apparition de signes pathologiques caractéristiques de la maladie de Parkinson et de l’atrophie multi-systématisée (AMS), une autre maladie neurodégénérative. En effet, pour chacune de ces maladies, l’alpha-synucléine s’agrège différemment, formant une « signature » de la pathologie. Les scientifiques ont également démontré que les neurones « malades » transfèrent l’alpha-synucléine altérée à des neurones sains, notamment à travers des connexions synaptiques. Ainsi, en passant de neurones en neurones et en se multipliant à la manière de la protéine infectieuse prion, les formes altérées de l’alpha-synucléine affectent l’intégrité et la fonction du réseau neuronal. Le nouveau modèle de réseau neuronal issu de cellules souches humaines et imaginé par les chercheurs permettra d’étudier l’effet de molécules inédites capables de cibler les formes altérées de l’alpha-synucléine afin d’empêcher leur propagation et donc la dégénérescence neuronale. En outre, en étudiant les « signatures », de la maladie de Parkinson et l’AMS, ces travaux pourraient permettre d’améliorer le dépistage de ces maladies. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Aux Etats-Unis, les opioïdes sont devenus un problème majeur de santé publique : la consommation excessive de ces médicaments fait en effet plus de victimes que les accidents de la route ou les armes à feu dans ce pays, avec plus de 64.000 décès en 2016. Les chercheurs du Scripps Research Institute (Californie), spécialistes de l’immunothérapie contre les dépendances, ont annoncé les premiers résultats positifs d’un vaccin contre l'abus d'opioïdes. Le vaccin est destiné à bloquer les effets de l'héroïne et du fentanyl chez les patients présentant un trouble de l'usage d'opioïdes. Cette étude illustre également, les efforts de recherche pharmacologique pour lutter contre la crise des opioïdes : les vaccins anti-opioïdes représentent un domaine de recherche prometteur pour les troubles de l'usage des opioïdes, dont les rechutes et les overdoses, car ils suivent un processus différent des traitements actuellement approuvés par la FDA, tels que la naloxone, la méthadone et la naltrexone, qui ciblent les récepteurs opioïdes. Le vaccin agit en incitant le système immunitaire à fabriquer des anticorps empêchant les molécules de médicaments, telles que l'héroïne ou le fentanyl, de franchir la barrière hémato-encéphalique et d’atteindre le système nerveux central, ce qui bloque les effets des opioïdes. De manière similaire à la manière dont le vaccin antigrippal déclenche une réponse immunitaire par le biais d'une exposition au virus de la grippe, les vaccins anti-opioïdes dépendent d'une certaine exposition à des molécules d'opioïdes ciblées pour produire une réponse immunitaire. Les molécules d'opioïdes ne produisent pas naturellement de réponse immunitaire. Elles sont donc ici liées à des protéines « vecteurs » cliniquement disponibles, pour déclencher cette induction de la réponse immunitaire. Enfin, le candidat vaccin est renforcé d’un adjuvant pour renforcer la réponse immunitaire. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Des chercheurs américains de l'Université de Californie du Sud ont découvert qu'une protéine humaine génétiquement modifiée, actuellement développée contre l’AVC, pourrait également se montrer efficace contre la maladie d'Alzheimer. Cette molécule, baptisée 3K3A-APC, réduit l’inflammation, protège les neurones et les cellules vasculaires de la dégénération et de la mort. Ces caractéristiques ont incité les chercheurs à évaluer l’impact de cette molécule dans le cas de la maladie d’Alzheimer. Résultat, « 3K3A-APC est capable de réduire significativement l’accumulation de plaques amyloïdes dans le cerveau des souris étudiées », indiquent les auteurs. « Ces rongeurs ont pu conserver leur mémoire et un débit sanguin normal au niveau du cerveau ». Par ailleurs, l’inflammation cérébrale a également été supprimée. 3K3A-APC semble empêcher les cellules nerveuses de produire une enzyme (BACE1) indispensable à la fabrication des plaques amyloïdes. « Ces résultats soutiennent l’hypothèse que cette molécule pourrait être la base d’une thérapie efficace anti-plaque amyloïde pour les stades précoces de la maladie d’Alzheimer », concluent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| Une équipe de physiciens de l’Institut lumière matière (CNRS/Université Claude Bernard Lyon 1), en collaboration avec le Centre de recherche en cancérologie de Lyon (CNRS/Inserm/Université Claude Bernard Lyon 1/Centré Léon Bérard/Hospices civils de Lyon), a démontré le potentiel, pour la cancérologie, d’une technique d’imagerie uniquement basée sur les propriétés physiques des tumeurs. Elle permet de différencier des populations de cellules de malignités différentes et de suivre l’efficacité d’un traitement anticancer. Malgré une compréhension fine de la biologie du cancer, 90 % des médicaments testés échouent lors des études cliniques. Par ailleurs, on soupçonne de plus en plus les propriétés mécaniques des tumeurs d’influencer la progression de la maladie, et sans doute l’efficacité des traitements. S’il était possible d’évaluer l’élasticité des tumeurs de manière globale, la rigidité locale, en profondeur, et la résistance à la pénétration de liquides thérapeutiques au cœur de la tumeur restaient plus difficiles à mesurer. Afin de sonder ces propriétés physiques, les chercheurs ont utilisé une technique d’imagerie sans contact et ne nécessitant pas l’utilisation d’agents de contraste – donc ne perturbant pas le fonctionnement des tissus – qui tire parti des vibrations infimes naturelles de la matière. Pour simuler le comportement de tumeurs colorectales in vitro, les chercheurs ont créé des organoïdes, des sphères de 0,3 mm de diamètre formées par l’agrégation de cellules tumorales. Sur ces objets, ils ont focalisé un faisceau laser rouge. Les infimes vibrations naturelles de la matière, générées par l’agitation thermique, modifient très légèrement la couleur du faisceau de lumière qui ressort de l’échantillon. L’analyse de cette lumière permet alors de cartographier les propriétés mécaniques des tumeurs modèles : plus la zone balayée par le laser est rigide, plus les vibrations sont rapides et, de manière comparable à l’effet Doppler sonore (le mécanisme qui rend une sirène plus aigüe à mesure qu’elle se rapproche), plus le changement de couleur est important. A partir d’organoïdes composés de deux lignées de cellules de malignités différentes, les chercheurs ont montré qu’ils pouvaient distinguer les deux types cellulaires par leurs propriétés mécaniques. Une telle information est cruciale car elle peut permettre de raffiner le diagnostic issu de l’analyse de biopsies, et offrir une meilleure appréciation du stade de la tumeur. Cette technique leur a aussi permis de suivre les variations locales de propriétés mécaniques suite à un traitement médicamenteux : le centre de la tumeur reste rigide plus longtemps que le bord, démontrant un gradient d'efficacité du traitement. Ainsi, la mesure locale des propriétés mécaniques pourrait permettre de s’assurer de la destruction totale de la tumeur, et de choisir une dose et une durée de traitement les plus faibles possibles. Cette approche permet donc d’explorer l’impact méconnu des propriétés mécaniques sur la réponse thérapeutique. Elle devrait déboucher sur des modèles de tumeurs in vitro plus prédictifs pour tester de nouvelles molécules thérapeutiques, mais aussi sur des thérapies combinées, agissant par exemple sur la rigidité des tissus afin d’accélérer la pénétration des principes actifs au centre de la tumeur. Par ailleurs, elle pourrait fournir de nouveaux indicateurs pour guider les cliniciens dans la personnalisation des thérapies. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| | | La semaine dernière, j’évoquais dans mon éditorial intitulé, "ATTENTION : L'Europe doit réaffirmer ses ambitions spatiales ! (Voir Editorial), la montée en puissance inexorable de la Chine, comme nouvelle puissance spatiale. L'actualité scientifique vient encore de confirmer, s'il en était besoin, que la Chine veut s'imposer à marche forcée comme la puissance spatiale dominante avant la fin du siècle. Après avoir réussi il y a quelques semaines le tout premier alunissage spatial de l’histoire sur la face cachée de la Lune, la Chine vient de révéler qu'elle souhaitait placer en orbite une centrale solaire géante d’ici 2025. Concrètement, cette centrale solaire évoluerait à 36 000 kilomètres de la Terre, et capterait l’énergie solaire avant de la renvoyer vers la Terre. Une « source d’énergie propre, constante et inépuisable, fiable 99 % du temps avec une intensité 6 fois supérieure à celle des parcs solaires traditionnels, puisqu’elle ne serait soumise ni aux saisons ni aux nuits ou aux nuages », rappelle Pang Zhihao, chercheur à l’agence spatiale chinoise (Académie chinoise des technologies de l’espace). Méthodiques et pragmatiques, les scientifiques chinois comptent procéder par étapes. Ils enverront, dans une première phase, des centrales solaires de taille petite et moyenne entre 2021 et 2025. Dans un second temps, l'objectif est de mettre sur orbite, sans doute pas avant 2030, une centrale solaire d'au moins un gigawatt. Les scientifiques songent à avoir recours à l’impression 3D et un système robotique pour construire progressivement leur station solaire. Selon les informations disponibles, un prototype de ferme solaire aurait été construit à Chongqing, mégalopole économique située au sud-ouest du pays. Pour parvenir à réaliser ce projet spatial très ambitieux, les scientifiques chinois vont devoir relever de multiples défis technologiques, à commencer par celui du poids d'une telle installation. A titre d’exemple, la station spatiale internationale pèse 400 tonnes. Une plate-forme telle qu’envisagée par les Chinois atteindrait le poids plume de 1 000 tonnes. Pour surmonter cet obstacle, les scientifiques chinois envisagent d'avoir recours à l’impression 3D et un système robotique pour construire au fur et à mesure, et de manière autonome, la station. Subsiste un autre problème : comment une fois captée, transmettre l’énergie ? Elle serait d’abord convertie en électricité, puis transmise sur Terre, grâce à un faisceau dirigé de micro-ondes et un rayon laser. Cette idée est très ancienne, puisqu'on la trouve déjà dans les années 40, dans une nouvelle d’Isaac Asimov. Mais si le Japon et les Etats-Unis travaillent depuis des décennies sur la mise au point de faisceaux dirigés permettant une transmission précise et efficace d'énergie, personne n'est en mesure d'évaluer l'impact réel que pourrait avoir sur l'atmosphère, sur le climat et sur l'environnement l'utilisation permanente de faisceaux d'énergie à très grande puissance. Restent également à résoudre les questions liées à la précision de ces faisceaux. On imagine en effet sans peine qu'un simple décalage de seulement quelques centaines de mètres à la réception de ce flux intense d'énergie pourrait avoir des conséquences catastrophiques. Enfin, de telles centrales solaires géantes pourraient devenir des cibles de choix, en cas de conflits entre états, ou même dans le cadre de cyber-attaques terroristes, et leur protection dans l'Espace risque de poser de redoutables défis techniques. Enfin, un dernier point peu évoqué mérite également d'être soulevé : même s'il n'existe aucun obstacle technologique insurmontable à la réalisation de ce type de centrale solaire en orbite, on peut se demander, alors que se profile, dans un proche avenir, l'arrivée d'une nouvelle génération de cellules solaires beaucoup plus performantes et moins chères, si le coût de production de l'électricité produite par ces installations spatiales a un jour des chances de devenir réellement rentable…. Article rédigé par Georges Simmonds pour RT Flash Engadget SMH | | ^ Haut | |
|
| | | Une des solutions pour répondre à la demande croissante en eau potable dans le monde est la désalinisation de l’eau de mer. Jusqu’ici, les méthodes de dessalement "classiques" nécessitaient des infrastructures coûteuses et celles fonctionnant à l’énergie solaire étaient peu rentables. Le principe de fonctionnement de la nouvelle technologie proposée est très simple : elle s'inspire des plantes qui transportent l’eau des racines aux feuilles par capillarité et transpiration. Selon ses concepteurs, leur dispositif flottant est capable de collecter de l’eau de mer en utilisant un matériau poreux à faible coût. L'eau de mer recueillie est ensuite chauffée par l'énergie solaire, ce qui permet de séparer le sel de l'eau en train de s'évaporer. Ce processus peut être facilité par des membranes insérées entre l'eau contaminée et l'eau potable pour éviter leur mélange. Le nouveau système proposé par des ingénieurs italiens permettrait de doubler la quantité d’eau traitée avec la même quantité d’énergie solaire. "Nous avons été capables d’atteindre des valeurs record de productivité, allant jusqu’à 20 litres d’eau potable par jour et par mètre carré exposé au soleil". Cette découverte pourrait apporter une solution durable à la question du manque d'eau potable, problématique majeure des années à venir. En effet, selon la FAO (l’Organisation des Nations Unies pour l’Alimentation et l’Agriculture), la rareté de l’eau concerne aujourd’hui 40 % de la population mondiale et devrait s’étendre aux deux tiers d’ ;ici 2050. L'un des principaux facteurs du manque d'eau potable est la hausse de la population mondiale qui, d'après un rapport de l’ONU de 2017, atteindra 9,8 milliards de personnes en 2050 et 11,2 milliards en 2100. Cette hausse aura un impact significatif sur la demande en eau, qui augmentera de 55 % d’ici 2050 selon l’OCDE (l’Organisation de Coopération et de Développement Économiques). Mais un autre facteur est désormais à prendre en compte : celui du changement climatique. Les perturbations associées à la hausse du niveau des mers, à l’altération des cycles de précipitations et à l’augmentation des catastrophes météorologiques, affecteront la qualité et la disponibilité des ressources en eau. Le dispositif imaginé par les chercheurs italiens pourrait être implanté dans les régions côtières isolées des pays en développement et permettrait un approvisionnement en eau dans des situations d’urgence. Il pourrait également alimenter des jardins flottants dans des zones très peuplées où les ressources d’eau souterraine sont déjà surexploitées. Article rédigé par Georges Simmonds pour RT Flash Science Daily | | | |
| Dans son dernier rapport sur « La géopolitique de la transformation énergétique », l'Irena rapporte que depuis 2010, le coût moyen de l'électricité d'origine solaire photovoltaïque et éolienne a chuté de 73 % pour la première et de 22 % pour la seconde. Ainsi, par exemple, le coût des batteries lithium-ion, utilisées dans les véhicules électriques, a chuté de 80 % depuis 2010. Devant la volatilité du prix du baril de pétrole, volatilité qui épargne les énergies renouvelables, le prix moyen mondial du mégawatt heure, 30 dollars, « se situera à l'extrémité inférieure du coût de l'électricité produite à partir de combustibles fossiles », précise l'Irena. « Des réductions de coûts importantes devraient se poursuivre au cours de la prochaine décennie », poursuit le Rapport. Ces résultats rejoignent ceux de la Convention-Cadre des Nations unies sur le changement climatique selon laquelle l'énergie solaire, avec un total de 279,8 milliards de dollars en 2017, a dominé les investissements mondiaux dans la production d'énergie électrique. En 2017, l'énergie solaire, qui arrive en tête du classement, a bénéficié de 160,8 milliards de dollars d'investissements, soit une augmentation de 18 % en comparaison avec l'année précédente. Quelque 98 gigawatts de nouvelle capacité solaire ont été installés dans le monde durant la même période, dépassant ainsi l'ensemble des autres sources énergétiques, y compris les combustibles fossiles et le nucléaire. Article rédigé par Georges Simmonds pour RT Flash Le Matin | | | |
| Le constructeur Wiliot vient de présenter une nouvelle technologie, sous forme d'une étiquette Bluetoot passive, qui va concurrencer les puces NFC. Ces dernières sont capables de fournir des données, comme un numéro de série ou quelques informations sommaires (jusqu'à 8 kilooctets), en passant un lecteur dessus. Ces puces ne nécessitent aucune pile, et sont alimentées par le lecteur grâce à l'induction. Dans leur fonctionnement le plus simple, les étiquettes Bluetooth de Wiliot remplissent le même rôle. En exploitant l'énergie contenue dans les ondes radio qui saturent l'environnement, ces petits appareils, à peine plus grands qu'un timbre-poste, fonctionnent sans pile ni alimentation de la part d'un lecteur. L'étiquette est composée d'une antenne, imprimée sur une feuille de plastique ou papier, associée à un processeur ARM développé par la firme. Elle s'alimente en captant de l'énergie dans les signaux radio ambiants, comme le Wi-Fi, le Bluetooth ou les téléphones mobiles. Elle communique ensuite grâce à la technologie Bluetooth à basse consommation (BLE). Ces puces peuvent échanger des données avec n'importe quel appareil compatible avec la norme Bluetooth 4.0 ou plus récente, comme des smartphones ou des objets connectés. Il s'agit donc de versions miniaturisées des balises Bluetooth, parfaitement autonomes. Le premier avantage majeur, par rapport à la technologie NFC, est la capacité de communiquer à distance, jusqu'à trois mètres. L'une des applications possible sera donc de retrouver plus facilement des objets perdus ou de faire l'inventaire dans un entrepôt. En plaçant régulièrement des récepteurs connectés en réseau, les entreprises pourront localiser la totalité de leur stock et détecter très facilement un objet mal répertorié. Wiliot a également ajouté des capteurs de pression et de température sur ses étiquettes. Les objets signaleront ainsi, automatiquement, toute surchauffe, gel, ou problème avec leurs conditions de stockage. Le capteur de pression offre encore plus de possibilités. La firme imagine des boîtes de cachets ou d'aliments qui se commandent automatiquement dès qu'elles sont vides. Il est en mesure, également, de détecter si un objet a été soulevé, ce qui permettrait de savoir si l'on a bien pris son traitement. Connecté au cloud, par exemple via une base spécialisée ou un hub de maison connectée, les données des capteurs pourront être traités en temps réel et permettre de nombreuses nouvelles applications. La technologie Wiliot devrait être disponible en 2020. Article rédigé par Georges Simmonds pour RT Flash The Verge | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Sera-t-il possible un jour d’ingérer de minuscules robots, afin qu’ils livrent un traitement directement à nos tissus malades ? Tel est le scénario auquel pourraient participer les robots nageurs développés par l’EPFL et l’ETHZ. L’équipe de Selman Sakar de l’EPFL et celle de Bradley Nelson à l’ETHZ ont conçu des microrobots nageurs mous, intelligents et biocompatibles. Ces petits mécanismes inspirés des bactéries ont la particularité de pouvoir se déformer largement, ce qui leur permet d’évoluer à travers des vaisseaux sanguins étroits, et dans des milieux étriqués et complexes, sans perdre en vitesse ou en maniabilité. Constitués d’un hydrogel nanocomposite contenant des nanoparticules magnétiques, ils sont pilotés en leur appliquant un champ électromagnétique. Dans leur étude, les chercheurs proposent une méthodologie pour « programmer » la morphologie des robots, afin d’optimiser leurs déplacements dans des différents milieux, qu’ils soient visqueux, à fort débit ou très denses. Traditionnellement, à l’échelle macroscopique, les robots sont dotés de circuiterie électronique, de capteurs, de batteries et d’actuateurs. A l’échelle microscopique, il en va tout autrement. La miniaturisation de ces systèmes complexes pose énormément de problèmes en terme de fabrication. Les chercheurs ont donc construit leurs robots en utilisant une méthode de pliage inspirée des origamis, et gèrent leur locomotion grâce à une intelligence « embarquée » des robots. « Nos robots ont une structure et une composition spéciales, qui déterminent la façon dont ils se déforment dans des conditions données. Ainsi, lorsque la viscosité ou la concentration osmotique de l’environnement change, par exemple le robot modifie sa forme pour préserver sa vitesse et sa maniabilité, et reste stable en cas de changement de direction », explique Selman Sakar. Ces déformations « programmées » à l’avance et maîtrisées permettent d’optimiser les performances du robot, qui s’adapte constamment à son environnement sans avoir besoin de recourir à des capteurs, ou à des actuateurs. Le robot peut être contrôlé à l’aide d’un champ magnétique, ou naviguer seul à travers les cavités, en utilisant le débit des flux. Dans les deux cas, le robot optera naturellement pour la morphologie la plus adaptée. « La nature a créé une multitude de micro-organismes qui changent de forme pour s’adapter aux conditions de leur environnement », explique Bradley Nelson. « Ce principe simple nous a inspirés. Le défi majeur était de développer la physique qui décrivait ce type de changements, et ensuite d’intégrer le tout dans nos nouvelles technologies de fabrication ». Les robots miniatures présentent l’avantage d’être faciles à fabriquer, et à des coûts moindres. Pour l’instant, les chercheurs travaillent toujours à améliorer leurs performances pour nager dans des fluides complexes, similaires à ceux qui se trouvent dans le corps humain. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des chercheurs du MIT et de l'Université du Colorado viennent de fabriquer un transistor en 3 dimensions, moitié moins encombrant que ceux disponibles dans le commerce. Le processus de micro-fabrication développé permet de modifier atome par atome le matériau à semi-conducteurs. Cette équipe de recherche indique avoir modifié une technique de gravure chimique récemment inventée (gravure thermique au niveau atomique - thermal ALE en anglais) pour pouvoir manipuler avec précision des matériaux à semi-conducteurs, atome par atome. Ce procédé a permis de fabriquer des transistors d'une taille de 2,5 nm, bien inférieure à celle des composants de même type déjà commercialisés. Des techniques similaires de gravure au niveau atomique existent déjà aujourd'hui, mais le nouveau procédé est plus précis et permet d'obtenir des transistors de meilleure qualité. L'outil de micro-fabrication est déjà utilisé pour effectuer des dépôts de couches atomiques sur des matériaux, ce qui permet d'envisager d'incorporer facilement cette technique dans les processus de fabrication existants. Il va donc être possible d'accroître la densité et les performances électriques des transistors d’une puce informatique. La micro-fabrication de transistors se résume à deux opérations : dépôt (formation d'un film sur un substrat) et gravure (délimitation de motifs sur la surface). La surface du substrat est exposée à la lumière au travers de masques photographiques pour définir les contours et la structure du transistor. Le matériau exposé à la lumière est ensuite éliminé par gravure alors que le motif protégé par le masque photographique est préservé. Ces techniques de micro-fabrication dernier cri sont baptisées ALD (Atomic Layer Deposition, ou dépôt de couches minces atomiques) et ALE (Atomic Layer Etching, ou gravure de couches au niveau atomique). Avec l’ALD, deux substances chimiques sont déposées à la surface du substrat et réagissent l'une avec l'autre dans un réacteur sous vide pour former un film de l'épaisseur souhaitée à l’aide de couches atomiques successives. De leur côté, les techniques traditionnelles d’ALE utilisent un plasma avec des ions à haute énergie pour éliminer des atomes spécifiques à la surface du matériau. Ce processus provoque certains dommages de surface et expose le matériel à l'air, source d’autres défauts liés à l'oxydation et d'une dégradation des performances des transistors. Le procédé de gravure thermique au niveau atomique (ALE thermique) de l’Université du Colorado est similaire à l’ALD et emploie une réaction chimique baptisée « ligand exchange » (ou échange de coordinats, en français). Dans ce processus, un ion contenu dans un composé appelé « coordinat » — où deux atomes métalliques sont liés — est remplacé par un coordinat d’un composé différent. Une fois les produits chimiques purgés, la réaction aboutit au remplacement des coordinats pour éliminer des atomes spécifiques à la surface du film. Jusqu'ici, cette technique n’avait été exclusivement utilisée que pour des opérations de gravure d'oxydes. Les chercheurs ont réussi à modifier la gravure thermique au niveau atomique, mais avec le même réacteur que l’ALD. Pour ce faire, ils ont utilisé un alliage à semi-conducteurs (arséniure d'indium-gallium - InGaAs), alternative de plus en plus appréciée dans la fabrication de puces électroniques pour des questions de rapidité et d'efficacité par rapport au silicium. La grille du transistor est créée dans un réacteur distinct par une opération de dépôt. Les chercheurs ont ainsi réussi à éliminer des tranches de 0,02 nm à la surface du matériau, avec à la clé une précision extrême et un contrôle rigoureux du processus. Le processus est similaire à l’ALD et permet l'intégration de la gravure thermique au niveau atomique dans le même réacteur que celui chargé du dépôt, ce qui assure la compatibilité avec les procédés industriels existants. Cette technique a été utilisée pour fabriquer des composants FinFET. La configuration de ces composants, munis d'ailerons verticaux destinés à réduire leur encombrement, permet de rassembler 7 à 30 milliards de transistors sur une seule puce. Depuis cette année, Apple, Qualcomm et d’autres entreprises high-tech utilisent des transistors FinFET en 7 nm. La plupart des FinFET obtenus par les chercheurs possèdent une largeur inférieure à 5 nm — seuil attendu dans l’industrie — pour une hauteur proche de 220 nm. Par ailleurs, ce procédé de fabrication limite les défauts liés à l'exposition à l'oxygène, source de détérioration des caractéristiques des transistors. La transconductance des transistors obtenus est supérieure de 60 % à celle des FinFET traditionnels et permet de réduire la consommation d'énergie en fonctionnement. Article rédigé par Georges Simmonds pour RT Flash MIT | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|