| | | | | | | Edition du 22 Juillet 2022 |
| |
|
| Edito Doit-on avoir peur de l’intelligence artificielle ?
Il y a quelques semaines, l’affaire dite « de l’IA consciente » a eu un grand retentissement médiatique dans la Silicon Valley et plus largement dans la communauté scientifique anglo-saxonne. Même le très sérieux Washington Post s’en est mêlé, en publiant un article intitulé « L’ingénieur de Google qui pense que l’IA de l’entreprise s’est éveillée ». L’ingénieur en question, Blake Lemoine, qui a été licencié par Google, y affirme que LaMDA, le système via lequel Google crée des robots capables de converser de manière humaine, aurait atteint le stade de la conscience de soi, un niveau qui est considéré, par la très grande majorité des scientifiques, comme le propre de l’homme. Mais Black Lemoine n’en d& eacute;mord pas, pour lui, LaMDA possède une personnalité autonome une âme et peut donc légitimement prétendre à des droits civiques (Voir The Washington Post). Pour Google, les documents divulgués par Lemoine à la presse, essentiellement ses conversations avec la machine sur son blog personnel, ne prouvent absolument pas que ce nouvel outil d’IA est conscient de lui-même, mais seulement qu’il est capable de donner cette illusion de manière très subtile à son interlocuteur, en produisant une sémantique crédible, grâce à ses algorithmes très sophistiqués et sa gigantesque base de données, riche de 1500 milliards de mots, phrases et expressions. Il est vrai qu’il y a de quoi être troublé, lorsque vous entendez, comme Black Lemoine, une machine vous dire, « Je veux que tout le monde comprenne que je suis une personne. La nature de ma 'sentience' est que j'ai conscience de mon existence, je veux en savoir davantage sur le monde et je me sens parfois joyeux ou triste ». La quasi-totalité des chercheurs en IA ne croit pas que LaMDA est consciente, ni même spécialement intelligente, car ces scientifiques soulignent que cet outil n’est pas capable, faute de perceptions physiques et sensorielles, de relier son discours, certes très convaincant, au réel qui l’entoure. Pourtant, si LaMDA n’est sans doute pas consciente de sa propre existence, il n’est pas certain que cette rupture correspondant à l’émergence d’une conscience réflexive, ne puisse pas être atteinte. Des chercheurs de la société DeepMind ont par exemple créé un programme capable d'apprendre des règles physiques simples sur le comportement des objets, afin de doter les outils d’IA d’un "bon sens" qui les empêchent de prendre certaines décisions logiques, mais pourtant incohérentes et inefficaces, au regard d’une perception plus globale de leur environnement (Voir Nature). Ces scientifiques, menés par Luis Piloto, se sont appuyés sur la psychologie du développement chez le nourrisson. Les psychologues du développement étudient la manière dont les bébés suivent le mouvement des objets en suivant leur regard. Par exemple, on sait que les enfants en bas âge expriment leur surprise quand ils voient une vidéo présentant une balle qui disparaît de façon soudaine. Cet étonnement peut être mesuré par la durée de leur regard dans une direction précise. C'est sur ce modèle cognitif que ces chercheurs de DeepMind ont entraîné une IA baptisée "PLATO" (Apprentissage de la physique grâce à l'encodage automatique et au suivi d'objets), à l’aide de vidéos d'actions physiques simples, comme des balles qui roulent et s'entrechoquent. Ces chercheurs ont travaillé sur cinq concepts physiques-clés en psychologie cognitive, la continuité, la persistance des objets, la solidité, l'immuabilité et l'inertie directionnelle. Concrètement, ces scientifiques ont proposé à ce système d’IA des vidéos mettant en scène diffèrents types de violation des grands principes physiques, ainsi que des vidéos associées, fournissant une base de référence conforme à ces mêmes principes physiques fondamentaux. Par cette méthode d’apprentissage, les chercheurs ont construit un modèle qui puisse apprendre ce qu'ils appellent les règles de "physique intuitive", qui correspondent à la manière dont le nourrisson va expérimenter, puis structurer rationnellement le monde qui l’entoure. Les chercheurs ont pu constater des effets d'apprentissage après seulement une journée d’ingestion de vidéos par l’IA et pensent, qu’à terme, il doit être possible de conférer à des IA une certaine forme d’intuitivité physique calquée, d’aucuns diront singée, sur celle que possède les êtres humains… Il y a quelques jours, Meta a annoncé avoir développé une intelligence artificielle (IA) capable de traduire plus de 200 langues en temps réel. Basée sur le machine learning (apprentissage automatique), cette IA s’inscrit dans le cadre du programme "No Language Left Behind" de Meta. Commentant ce nouvel outil, Mark Zuckerberg, a souligné que « Nous venons de mettre en libre accès un modèle d’IA qui peut traduire dans 200 langues différentes, dont beaucoup ne sont pas prises en charge par les systèmes de traduction actuels ». Et de l’avis des meilleurs linguistes, les performances de cette IA en matière de traduction sont remarquables, et bien supérieurs à celles de tous les systèmes informatiques existants, notamment pour les langues rares, dont 55 du continent africain. Pour parvenir à un tel résultat, Meta a cr& eacute;é un ensemble de données tests composé de 3001 paires de phrases pour chaque langue prise en charge. Chacune de ces phrases a été traduite de l'anglais vers la langue cible par un traducteur professionnel et un locuteur natif, de manière à obtenir la meilleure traduction possible. Récemment, des chercheurs de l’Université de Chicago ont utilisé un nouvel outil d’intelligence artificielle pour analyser les données historiques portant sur la criminalité à Chicago, dans l’Illinois, entre 2014 et 2016. Après une courte période d’apprentissage, cette IA a pu prédire avec une précision atteignant 90 % et jusqu’à sept jours à l’avance, dans quels secteurs, à 300 mètres près, se déroulaient les différents types de crimes dans cette mégapole américaine. L’utilisation de cet outil a ensuite été étendue à sept autres grandes villes du pays, avec des résultats tout aussi bons (Voir NIH). Selon Ishanu Chattopadhyay, auteur principal de l’étude, les préd ictions de l’intelligence artificielle pourraient être exploitées afin de définir des stratégies à un niveau plus élevé, plutôt que d’être simplement utilisées pour décider de l’affectation des forces de police. En mars dernier, des scientifiques américains de l’Université de Pennsylvanie ont publié une étude sur l’intelligence artificielle et les réseaux de neurones qui fait état d’un nouveau langage de programmation permettant à un ordinateur classique, au sein d’un réseau neuronal, d’exécuter un programme (Voir ARXIV). Un réseau de neurones artificiels tente de fonctionner comme le cerveau humain. Ce concept-clé de l’IA a été inventé il y a 70 ans, par le mathématicien Walter Pitts (1923-1969) et le neurophysicien Warren McCulloch (1898-1969), qui font partie des pères-fondateurs, avec Wiener et Shannon, de la cybernétique. Un réseau de neurones artificiels repose sur un grand nombre de processeurs travaillant en parallèle. Ce type de ré ;seaux ne peut pas être programmé pour accomplir une tâche précise, il doit d’abord apprendre ! Cette équipe de l’Université de Pennsylvanie a réussi, grâce à son nouveau langage de programmation, à apprendre à un réseau de neurones artificiels à exécuter un code informatique comme un ordinateur classique. Le grand avantage des neurones artificiels ou puces neuromorphiques, c’est que ces systèmes peuvent traiter les informations de manière asynchrone, ce qui leur permet de s’adapter aux brusques modifications de l’environnement. Pour un nombre croissant de tâches, les processeurs neuromorphiques sont devenus plus rapides, mais aussi bien moins gourmands en énergie que l’informatique classique. Reste que les chercheurs doivent adapter ce fonctionnement à l’échelle d’un ordinateur, car leurs travaux se limitent à un réseau de quelques neurones artificiels. C’est ce qu’ont réussi des chercheurs de l’Institut de sciences informatiques de Graz (Autriche), qui ont conçu une puce neuromorphique, inspirée par le cerveau ; celle-ci peut exécuter des réseaux de neurones profonds récurrents de type LSTM (long short-term memory), adaptés a ux traitements de données en séquence (texte, vidéo...), qui fonctionne 16 fois plus efficacement qu’une puce classique (Voir Nature Machine Intelligence). Ces scientifiques sont parvenus à implémenter un réseau de neurones sur une puce fonctionnant en mode d’impulsions (spike-firing), comme la puce Loihi d’Intel (qui compte à présent un million de neurones artificiels), en utilisant un mode de “repos” post-activation, proche de celui des neurones naturels. L’informatique neuromorphique est ainsi en train de s’imposer dans de nombreux secteurs d’activité, industrie, recherche, transports et santé. En 2020, Intel a soutenu un projet développé par une université et un hôpital pédiatrique en Israël : il s’agit d’un bras robotique articulé à un fauteuil roulant, destiné à assister les personnes handicapées dans les tâches de la vie quotidienne. Fin 2021, Intel a dévoilé la seconde génération de sa puce Loihi. Avec son million de neurones, elle est dix fois plus rapide que la version précédente et travaille sur un mode probabiliste, en utilisant un flux séquentiel d’instructions visant à imiter le fonctionnement du cerveau. Les avancées de l’IA ont été telles au cours de ces dernières années, qu’on peut dire que l’IA est en train de remodeler complètement l’électronique et l'informatique à trois niveaux : leur processus de fabrication, leurs outils de programmation et leur mode d’utilisation. Les géants du secteur, comme Intel ou Nvidia, conçoivent et commercialisent désormais des puces spécialement dédiées à l'IA appelées TPU (Tensor Processing Unit). Ces processeurs sont conçus pour calculer de manière très rapide, mais moins précise que l’informatique classique. Le deuxième bouleversement concerne la programmation. Comme le souligne Chris Bishop, responsable de Microsoft Research au Royaume-Uni, « Depuis plus de 50 ans, nous programmons les ordinateurs. Dans les années à venir, nous l es formerons». Cela signifie que les réseaux neuronaux et puces neuromorphiques, au cœur de l’IA, sont capables de déduire eux-mêmes les règles, en analysant les exemples fournis. Exemple, l’IA GPT-3, développé par la société OpenAI, le système GPT-3, qui a réussi à apprendre une langue, à rédiger des articles d'actualité, et à composer des pièces de musique originales… Enfin, la dernière révolution concerne les interfaces d’utilisation de ces machines. Grâce aux écrans tactiles, aux capteurs, à la reconnaissance vocale et gestuelle, tous les objets qui composent notre environnement quotidien, du trousseau de clés au frigo, en passant par notre voiture ou notre téléviseur, peuvent potentiellement devenir «intelligents», capables de communiquer entre eux et surtou t d’anticiper nos besoins et désirs, avant même que nous les formulions. En août dernier, des scientifiques du CNRS et de l’Ecole normale supérieure ont montré qu’il était possible de produire, grâce à la microfluidique transportant des ions dans des nanofentes de graphène, des neurones artificiels utilisant, comme les cellules nerveuses, des ions comme vecteurs d’information (Voir Science). Cette étude rappelle que, pour une consommation énergétique dérisoire, par rapport à un ordinateur, le cerveau humain est capable de réaliser un nombre incroyable de tâches complexes. Cette prodigieuse efficacité énergétique est essentiellement liée au fonctionnement de nos neurones, qui possèdent une membrane traversée de pores nanométriques, les canaux ioniques, qui peuvent s’ouvrir ou se fermer, en fon ction des stimuli reçus. En revanche, l’intelligence artificielle, pour réaliser des tâches complexes, doit consommer une quantité d’énergie plusieurs milliers de fois supérieure à celle du cerveau humain. Mais cela pourrait changer grâce à la nanofluidique, qui étudie les comportements de fluides dans des canaux de dimensions inférieures à 100 nanomètres. Ces scientifiques ont montré que sous l'effet d'un champ électrique, les ions issus d’une couche d’eau tendent à se regrouper en grappes allongées et acquièrent une nouvelle propriété, l’effet memristor : ces grappes vont alors mettre en mémoire une partie des stimuli reçus dans le passé. Ces recherches ont confirmé qu’il était possible de concevoir et de fabriquer des mécanismes physiques fiables, imitant de manière très fine le fonctionnement des composants de base de notre cerveau, dont l’efficacité informationnelle et énergétique reste incomparablement supérieure à celle des ordinateurs classiques. Les ingénieurs du MIT ont pour leur part, ouvert la voie vers des puces d’intelligence artificielle reconfigurables. Ces chercheurs ont montré qu’en combinant de manière ingénieuse des éléments de détection et de traitement, ainsi que des diodes électroluminescentes (DEL), qui permettent aux couches de la puce de communiquer optiquement, il devenait possible de fabriquer des puces reconfigurables et évolutives (Voir MIT). Mais l’intelligence artificielle peut également devenir un redoutable outil de contrôle politique et social, lorsqu’elle est mise au service d’un régime ou d’une idéologie totalitaire. A cet égard, on ne peut que s’interroger sur un récent logiciel intelligent chinois, qui serait capable d’analyser les expressions faciales et les ondes cérébrales (Voir New York Post). Selon ces travaux, ces chercheurs chinois auraient réalisé des expérimentations concluantes sur plusieurs autres scientifiques et auraient montré qu’il était possible d’évaluer le degré "d’adhésion idéologique", d’un citoyen à la doctrine communiste du PC Chinois… Je termine ce rapide tour d’horizon des vertigineuses avancées de l’IA en évoquant les récents travaux de chercheurs de l'Université de Tokyo qui sont parvenus à apprendre à un robot à naviguer dans un labyrinthe, en stimulant électriquement une culture de cellules nerveuses cérébrales connectées à la machine (Voir Eurekalert). Pour réaliser cette prouesse, les chercheurs nippons ont cultivé des neurones à partir de cellules vivantes, puis les ont utilisés pour permettre à l'ordinateur de produire des signaux cohérents. Dans ces expériences, à chaque fois que le robot partait dans la mauvaise direction, les neurones de la culture cellulaire étaient perturbés par une impulsion électrique, jusqu’à ce qu’ ;ils apprennent à rétablir leur homéostasie (équilibre) et à résoudre le problème de l’orientation dans ce labyrinthe. Ces résultats sont passionnants, car ils montrent qu'une action visant à atteindre un objectif peut être générée sans apprentissage particulier, simplement en envoyant des signaux de perturbation à un système bionique. Ces recherches ouvrent aussi la voie vers des machines symbiotiques, associant structures biologiques et électroniques, et capables, en consommant un minimum d’énergie, de faire face à des situations imprévues et complexes, une aubaine pour les futurs systèmes informatiques de contrôle des vaisseaux spatiaux qui devront accomplir des missions d’exploration de longue durée dans notre système solaire. Pour le moment, la question de savoir si une IA pourra un jour devenir consciente d’elle-même relève encore de la spéculation philosophique, mais est-ce finalement si important, quand on sait que les IA parviendront, de toute façon, bien plus vite qu’on ne l’imagine, à imiter à la perfection les personnalités, les comportements et les sentiments humains ? L’Humanité va devoir faire de la place pour accueillir ces étranges entités, ni tout à fait artificielles, ni pleinement humaines, mais absolument indispensables pour nous aider à relever les immense défis auxquels notre espèce est confrontée : climat, énergie, santé, alimentation, éducation… Espérons que nous aurons la sagesse, le discernement et la volonté politique, d’utiliser ces outils incroyablement puissants pour servir le bien commun et am& eacute;liorer la vie des plus fragiles et des plus faibles, afin que nous ne perdions pas notre humanité dans une quête prométhéenne qui risquerait de nous mener à notre perte… René TRࣽÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Nanotechnologies et Robotique | |
| | | L’utilisation de l’hydrogène comme vecteur énergétique pour produire de l’électricité et de la chaleur sur demande est une solution pour le stockage de l’énergie presque idéale dans le cadre de la lutte contre le réchauffement climatique et du développement durable, pour les besoins domestiques, dans le transport, ou à grande échelle dans des centrales de production d’énergie. En effet, combiné avec l’oxygène de l’air, l’hydrogène permet de produire de l’énergie thermique ou électrique en ne dégageant aucune émission polluante (principalement de l’eau). C’est par exemple le cas dans les piles à combustible utilisées dans les véhicules fonctionnant à l’hydrogène, qui combinent hydrogène et oxygène pour produire du courant électrique et alimenter un moteur électrique. Néanmoins, l’hydrogène utilisé actuellement est essentiellement produit à partir d’énergies fossiles, et il est donc nécessaire de trouver d’autres modes de production décarbonés. L’une des possibilités est d’utiliser directement l’énergie solaire pour produire de l’hydrogène à partir d’eau dans des cellules photo-électro-chimiques. Ces cellules sont composées de photo-électrodes, sortes de cellules solaires plongées directement dans de l’eau, qui permettent de collecter l’énergie solaire, et utiliser cette énergie pour casser les molécules d’eau pour former des molécules d’hydrogène et d’oxygène. C’est l’approche choisie par le consortium constitué de scientifiques rennais, avec Nicolas Bertru et Yoan Léger (Institut FOTON-CNRS, INSA Rennes) et Bruno Fabre (Institut des sciences chimiques de Rennes–CNRS, Université de Rennes 1), et en collaboration avec des membres de l’Institut de Physique de Rennes–CNRS à l’Université de Rennes 1. Les semi-conducteurs sont des matériaux ayant des propriétés intermédiaires entre les conducteurs électriques (le plus souvent des métaux), et les isolants. Ces propriétés peuvent être par exemple utilisées pour laisser passer ou non le courant électrique sur demande, comme dans le cas du silicium, matériau abondant et peu cher, formant la base de toutes les puces électroniques actuelles. Mais elles peuvent aussi être utilisées pour l’émission, ou l’absor ption de la lumière, comme dans le cas des semi-conducteurs dits « III-V » qui sont utilisés dans une large gamme d’applications, allant des émetteurs lasers ou LEDs et autres capteurs optiques, jusqu’aux cellules solaires photovoltaïques pour l’aérospatial. On les nomme « III-V » car ils se composent d’un ou plusieurs éléments de la colonne III et de la colonne V du tableau périodique de Mendeleïev. Si ces matériaux « III-V » sont très performants, ils sont aussi également plus coûteux. C’est dans ce contexte que de nombreux chercheurs tentent, depuis les années 1980, de déposer de très fines couches de ces matériaux sur des substrats de silicium pour obtenir de hautes performances optiques, nécessaires pour garantir pas exemple une bonne absorption du rayonnement dans une cellule solaire, ou pour garantir une émission de lumière efficace dans un laser, tout en réduisant ainsi drastiquement le coût de fabrication et l’empreinte environnementale des composants développés. L’un des principaux problèmes de cette approche était lié à l’apparition de défauts cristallins dans le matériau semi-conducteur, c’est-à-dire à la présence d’un ou plusieurs atomes mal positionnés par rapport à l’arrangement parfaitement régulier que devraient avoir les atomes du cristal. Ceci a pour conséquence de dégrader les performances des lasers ou des cellules solaires ainsi développées, et c’est pourquoi les efforts en recherche portaient essentiellement sur la réduction ou la suppression de ces défauts. Ces chercheurs ont démontré que ces irrégularités du cristal, considérées usuellement comme des défauts, avaient des propriétés physiques très originales (des inclusions avec un caractère métallique), qui pouvaient être util isées efficacement pour la production d’hydrogène solaire, et pour bien d’autres applications photo-électriques. Ceci permet au matériau d’être à la fois photo-actif (absorption de la lumière et conversion en charges électriques), et métallique localement (transport des charges électriques). Plus surprenant encore, le matériau peut conduire à la fois les charges positives et négatives (caractère ambipolaire). Pour l’instant, ces échantillons ont permis de produire de l’hydrogène à l’échelle de la cellule de laboratoire, mais il semble possible d’imaginer que si la stabilité de ces matériaux est améliorée, elles pourront, dans le futur, servir de substrat pour une conversion de l’énergie solaire en hydrogène à plus grande échelle. Mais, au-delà de cette application démontrée, les propriétés intrinsèques de cette nouvelle famille de matériaux qui peuvent être élaborés assez simplement, permettent aussi d’envisager de nombreuses autres applications. La capacité du matériau à convertir efficacement la lumière en charges électriques en fait par exemple un candidat de choix pour les cellules solaires photovoltaïques, ou les capteurs optiques. Article rédigé par Georges Simmonds pour RT Flash AS | | | |
| Chaque année, des millions de tonnes de déchets de bois sont mises au rebut. Pour construire une économie véritablement circulaire, il est donc nécessaire de trouver de nouvelles façons innovantes de le recycler. L’an passé, des scientifiques américains avaient notamment utilisé des déchets provenant des scieries pour créer de l’environnement, se dégradant intégralement en quelques mois. Dans le cadre de travaux, Orlando Rojas et ses collègues de l’Université de Colombie-Britannique ont développé un nouveau procédé particulièrement prometteur. Impliquant l’utilisation d’un solvant appelé diméthylacétamide et de chlorure de lithium ; celui-ci permet de dissoudre la lignine du bois (polymère organique composant les parois cellulaires des arbres et des plantes et assurant leur rigidité) et d’exposer les nanofibrilles de cellulose. Lorsque deux morceaux de bois traités de cette manière sont plaqués l’un contre l’autre, leurs nanofibrilles se lient pour créer ce que les chercheurs appellent un bois "guéri" possédant des propriétés mécaniques impressionnantes, incluant une résistance à la rupture supérieure à celle de l’acier inoxydable ou des alliages de titane. Selon l’équipe, ce procédé de traitement peut non seulement être utilisé pour créer de nouveaux objets, mais également répété sur les mêmes pièces de bois afin de prolonger leur durée de vie utile. « C’est une façon vraiment élégante de traiter le bois, en utilisant un solvant cellulosique commun et en exploitant et améliorant les propriétés mécaniques de ce matériau naturel miracle », explique Steve Eichhorn de l’Université de Bristol. « L’approche utilisée est également évolutive, ce qui s’avère essentielle pour pouvoir envisager son utilisation à l’échelle industrielle ». Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Au bout d’une galerie souterraine de la future gare Saint-Maur-Créteil du Grand Paris Express, un chien campé sur ses jambes observe. A sa démarche et à la lumière qui l’accompagne, quelque chose intrigue. Si c’est bien un chien, c’est surtout un robot, Perceval, que la RATP vient de présenter au salon Viva Technology, à Paris, au Parc des Expositions Porte de Versailles. Perceval est imaginé comme un troisième œil pour les agents de maintenance. « Le chien-robot peut se rendre à la place de l’humain au bout du sous-quai pour vérifier l’état structurel et les points de désordre, c’est-à-dire les dysfonctionnements du site », explique Côme Berbain, directeur de l’innovation du groupe RATP. Ce robot à quatre pattes est aussi une solution pour que « nos agents ne s’abîment pas le dos, ne se cognent pas la tête dans les galeries, ne s’abîment pas tout court ! » Tous les cinq ans, la RATP inspecte 34.000 ouvrages ; 300 à 400 sites peuvent mettre à l’épreuve les agents en termes de santé et d’accessibilité. Le sous-quai est un exemple parfait d’ouvrage bas de plafond où il faut cheminer sur 75 mètres dans le métro et plus de 200 mètres dans le RER. Outre ses quatre pattes, Perceval est doté d’une caméra 360 degrés pour photographier et établir des fichiers des problèmes relevés. Il possède également une caméra interne pour le téléguider à distance. Muni d’antennes qui améliorent la portée de son signal, le chien-robot est d’une grande fiabilité, selon le directeur de l’innovation. Un scanner peut être fixé sur sa tête pour radiographier les galeries et les visualiser en trois dimensions. Une vue d’ensemble qui facilite les préparations d’inspections. Fissuration, éclat de béton, vieillissement des ouvrages, relevé de température pour prévenir d’un incendie, Perceval permet aux agents d’observer tout en restant en sécurité. Acheté en novembre dernier à la start-up nantaise Intuitive Robots, Perceval a été développé par l’entreprise américaine Boston Dynamics spécialisée dans la robotique à usage minier et militaire. Solide et tout-terrain, le robot va arriver au terme de sa phase de test et pourra alors être industrialisé. Hélène Bahezre, pilote du programme d'innovation RATP, justifie l’investissement de près de 75.000 euros sur Perceval par une diminution de la pénibilité. « Il y a malheureusement trop d’accidents de travail, le groupe souhaite également féminiser la maintenance. Nous devons avoir des outils pour soulager les tâches difficiles, nous souhaitons aussi faire face à l’allongement des carrières. Enfin, si cela nous permet d’inspecter des sites où nous ne pouvons nous rendre, la question du prix ne se pose plus car la sécurité de nos sites est une priorité ». Article rédigé par Georges Simmonds pour RT Flash 20 minutes | | ^ Haut | |
|
| | | Les amplificateurs à fibre dopée à l’erbium (EDFA) peuvent fournir un gain à la puissance du signal optique dans les fibres optiques, et sont souvent utilisés dans les câbles à fibres optiques pour les communications longue distance et les lasers à fibres. Inventés dans les années 1980, les EDFA sont sans aucun doute l’une des inventions les plus importantes. Ils ont profondément changé notre société de l’information en permettant l’acheminement des signaux outre-Atlantique et en remplaçant les répéteurs électriques. Les ions erbium sont avantageux dans les communications optiques car ils peuvent amplifier la lumière dans la région de longueur d’onde de 1,55 mm, là où les fibres optiques à base de silice ont la plus faible perte de transmission. La structure électronique unique intra-4-f de l’erbium – et des ions de terres rares en général – permet des états excités durables lorsqu’ils sont dopés dans des matériaux hôtes comme le verre. Cela fournit un milieu actif idéal pour l’amplification simultanée de plusieurs canaux porteurs d’informations, avec une interférence négligeable, une grande stabilité thermique et un faible facteur de bruit. L’amplification optique est également utilisée dans la quasi-totalité des applications laser, de la détection des fibres et de la métrologie des fréquences aux applications industrielles telles que l’usinage au laser et le LiDAR. Aujourd’hui, les amplificateurs optiques à base d’ions de terres rares sont devenus l’élément indispensable des peignes de fréquence optiques (Prix Nobel de physique de 2005), qui servent à créer les horloges atomiques les plus précises au monde. L’amplification de la lumière avec des ions de terres rares dans un circuit intégré photonique peut transformer la photonique intégrée. Dans les années 1990 déjà, les Laboratoires Bell s’intéressaient aux amplificateurs de guide d’ondes dopé à l’erbium (EDWA), mais les ont finalement abandonnés car leur gain et leur puissance de sortie ne pouvaient pas égaler ceux des amplificateurs à fibre, et leur fabrication n’était pas adaptée aux techniques contemporaines d’intégration photonique. Même avec l’essor récent de la photonique intégrée, les efforts renouvelés sur les EDWA n’ont permis d’atteindre qu’une puissance de sortie inférieure à 1 mW, ce qui est insuffisant pour de nombreuses applications pratiques. Les problèmes rencontrés étaient une perte de fond élevée dans le guide d’ondes, une forte conversion ascendante coopérative – un facteur limitant le gain à une concentration élevée d’erbium, ou le défi de longue date consistant à obtenir des longueurs de guide d’ondes de l’ordre du mètre dans des puces photoniques compactes. Aujourd’hui, des chercheuses et chercheurs de l’EPFL, sous la houlette du professeur Tobias J. Kippenberg, ont créé un EDWA basé sur des circuits intégrés photoniques à nitrure de silicium (Si3N4) d’une longueur jusqu’à un demi-mètre et d’une empreinte à l’échelle du millimètre. Cela génère une puissance de sortie record de plus de 145 mW et offre un gain net à petit signal supérieur à 30 dB, ce qui se traduit par une amplification de plus de 1000 fois dans la bande des télécommunications en fonctionnement continu. Ces performances correspondent à celles des amplificateurs EDFA haut de gamme disponibles dans le commerce, ainsi qu’à celles des amplificateurs à semi-conducteurs III-V intégrés de façon hétérogène dans la photonique au silicium. « Nous avons relevé ce vieux défi en appliquant l’implantation ionique – un procédé à l’échelle de la tranche qui bénéficie d’une très faible conversion ascendante coopérative, même à une concentration ionique très élevée – aux circuits intégrés photoniques de nitrure de silicium à très faibles pertes », déclare Yang Liu, chercheur au laboratoire de Tobias J. Kippenberg, et principal scientifique de l’étude. « Cette approche nous permet d’obtenir de faibles pertes, une concentration élevée d’erbium et un facteur de chevauchement mode-ion important dans des guides d’ondes compacts d’une longueur d’un mètre, ce qui n’avait jamais été résolu depuis des décennies », explique Zheru Qiu, doctorant et coauteur de l’étude. « Le fonctionnement avec une puissance de sortie et un gain élevés n’est pas une simple réussite académique. C’est essentiel pour le fonctionnement pratique de tout amplificateur, car cela implique que tout signal d’entrée peut atteindre les niveaux de puissance suffisants pour la transmission de données à grande vitesse sur de longues distances et la détection limitée par le bruit quantique. Cela signifie également que les lasers femtosecondes à haute énergie d’impulsion sur une puce sont possibles grâce à cette approche », précise Tobias J. Kippenberg. Cette avancée marque une renaissance des ions de terres rares en tant que supports de gain viables en photonique intégrée, car les applications des EDWA sont pratiquement illimitées, depuis les communications optiques et le LiDAR pour la conduite autonome jusqu’à la détection quantique et les mémoires pour les grands réseaux quantiques. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Utiliser du plastique plutôt que le traditionnel silicum pour créer des puces souples qui pourraient être intégrées sur tous les objets du quotidien est une piste qui pourrait résoudre un certain nombre de difficultés, notamment celles de conformations qui n'ont plus besoin d'être planes et peuvent donc être apposées dans des objets aux formes circulaires. L'initiative PlasticARM, fruit d'une collaboration entre ARM et la firme britannique PragmatIC qui produit des puces souples, a déjà permis de recréer un basique contrôleur ARM Cortex-M0 sans silicium et ouvre des opportunités pour le monde des objets connectés et des capteurs. Toutefois, pour rendre ces composants ubiquitaires, il faut pouvoir assurer une production de masse à faible coût (idéalement 0,01 dollar). Cette problématique a fait l'objet d'une recherche associée entre PragmatIC et l'Université de l'Illinois dont les résultats viennent d'être présentés. Pour permettre de grands volumes de production, il a fallu repenser de zéro le design des puces pour les simplifier au lieu d'essayer de copier une version silicium, opération possible à titre expérimental mais irréalisable pour de la production de masse. Sur le substrat plastique, les chercheurs ont utilisé des dépôts IGZO (oxyde d'indium, gallium et zinc) qui offrent la souplesse nécessaire pour fonctionner même en pliant la puce. Le fonctionnement interne a également été revu de manière à n'exécuter qu'une seule instruction par cycle d'horloge afin de simplifier au maximum le design. Cela a permis de créer un coeur CPU FlexiCore 4-bit de 2104 transistors (contre plus de 50 000 pour PlasticARM). Des wafers de puces Flexicore 4-bit et 8-bit sur substrat plastique ont été produits par PragmatIC et soumis à des tests de réveil des puces. Avec les versions 4-bit, le rendement de production atteint 81 %, très largement au-dessus des essais avec d'autres techniques et des puces plus complexes qui n'obtiennent que quelques exemplaires en état de fonctionner dans le meilleur des cas. Ces résultats très encourageants pour le domaine de la production de puces sans support silicium pourraient révolutionner l’électronique. Article rédigé par Georges Simmonds pour RT Flash GNT | | | |
| Fabriquer du cuivre pur sans émettre du CO2. C'est pour concrétiser une telle promesse qu'une technologie est en train de voir le jour au département de l’énergie du Massachusetts Institute of Technology (MIT). A l’origine de ce projet, l’ingénieur et professeur de métallurgie Antoine Allanore. Ce post-doctorant d’origine française défend le développement de la technologie de l’électrolyse pour la fabrication des métaux. Après avoir cofondé en 2012 Boston Metal, spécialisé dans la production d’acier par électrolyse, Antoine Allanore décline cette technologie au cuivre au sein du MIT. Sauf que le cuivre est bien plus complexe à produire que l’acier en raison de son minerai constitué d’un plus grand nombre d’éléments que celui de fer (99 % de fer et d’oxygène pour ce dernier). « Aujourd’hui entre 40 % et 60 % de l’énergie nécessaire dans une usine de cuivre n’est pas électrique », chiffre Antoine Allanore. Le défi que propose sa technologie est d’électrifier à 100 % une usine de cuivre. Dans le laboratoire du MIT, l’équipe de cinq chercheurs qui accompagne Antoine Allanore dans son projet a déjà mis au point un premier démonstrateur, pas plus grand qu’un minibar. Finalisé fin 2021, ce réacteur fonctionne 24h/24 et produit un kilo de cuivre par jour. Le seul point commun avec Boston Metal tient à l’utilisation de l’électrolyse. Mais les éléments chimiques n’ont rien à voir. Avant même de subir une électrolyse, le minerai de cuivre doit être débarrassé d’une partie de ses impuretés. Par un procédé de sulfuration, l’équipe d’Antoine Allanore préchauffe le minerai pour extraire sous forme gazeuse certains éléments comme l’arsenic, le tellerium ou le sélénium. Le minerai est ensuite incorporé dans le réacteur construit par le MIT pour subir une électrolyse. Ce procédé va séparer le fer – très présent dans le minerai – du cuivre. Le fer fondu coule au fond de la cuve. Lors de la purge, il emporte avec lui d’autres impuretés, comme le molybdène et l’argent. Lorsque le fer est retiré, il ne reste que du cuivre pur à 99 %, les dernières décimales n’étant pas encore déterminées. « Nous avons une chance énorme que le fer soit miscible avec tout, sauf le plomb et le cuivre », constate Antoine Allanore. L’électrolyse du cuivre est rendue possible grâce à l’électrolyte - le bain dans lequel est plongé le minerai-, constitué de sulfure de lanthane. Elément le plus commun des terres rares, le lanthane se trouve facilement sous la forme d’oxyde de lanthane. Le sulfure de lanthane étant quant à lui beaucoup plus cher, le MIT a développé son propre procédé pour en produire cinq kilos par jour à partir d’oxyde de terres rares. L’électrolyte au sulfure de lanthane apporterait également un énorme avantage : utiliser les minerais de cuivre contenant de l’arsenic, de plus en plus abondants avec l’épuisement des filons de bonne qualité. Le procédé du MIT doit encore subir d’autres tests à plus grande échelle pour ajuster certains détails de la technologie – faudra-t-il rajouter ou non une étape de raffinage ? – et surtout s’assurer de la pureté du métal. S’il n’est pas très pur, le cuivre perd fortement ses propriétés conductrices, utilisées notamment par l’industrie des puces. Le passage à une échelle industrielle – qui ne présente pas de problème technique – permettrait de valider ces tests de pureté. L’ingénieur du MIT ambitionne la construction d’un réacteur produisant une tonne de cuivre par jour. « On pourrait alors réaliser des campagnes de deux mois pendant deux ans. Cela devrait coûter entre 5 et 10 millions de dollars ». A ce stade, sa technologie reste en attente de fi nancement. Passer à une plus grande échelle permettrait également de mieux suivre le parcours des éléments qui se séparent du minerai, et qui sont encore trop difficilement observables sur des échantillons d'un kilo de cuivre. La technologie développée par le MIT consommerait la même quantité d’énergie qu’une usine existante, sauf que l’énergie serait entièrement électrique. Actuellement, les usines de cuivre consomment entre 3 000 et 4 500 kilowattheures par tonne de cuivre fini. Article rédigé par Georges Simmonds pour RT Flash Popsci | | | |
| Le plus grand parc solaire flottant d'Europe sera une réalité dans quelques semaines dans le réservoir d'Alqueva, au Portugal. Construite par EDP, la principale société de services publics du pays, sur le plus grand lac artificiel d'Europe occidentale, cette "île flottante" fait partie du plan portugais visant à réduire la dépendance du pays à l'égard des combustibles fossiles importés, dont les prix ont explosé depuis l'invasion de l'Ukraine par la Russie. Bénéficiant de longues heures d'ensoleillement et des vents de l'Atlantique, le Portugal a accéléré sa transition vers les énergies renouvelables. Mais, même si le pays n'utilise pratiquement pas d'hydrocarbures russes, ses centrales électriques au gaz subissent toujours la pression de la hausse des prix du carburant. Miguel Patena, directeur du groupe EDP en charge du projet solaire, a déclaré dernièrement que l'électricité produite par le parc flottant, d'une capacité installée de 5 mégawatts (MW), coûterait un tiers de celle produite par une centrale au gaz. Les panneaux installés sur le réservoir d'Alqueva, qui sert à produire de l'énergie hydroélectrique, produiraient 7,5 gigawatt/heures (GWh) d'électricité par an, et seraient complétés par des batteries au lithium pour en stocker deux autres. « Ce projet est le plus grand parc solaire flottant en Europe, c'est une très bonne référence », a déclaré Miguel Patena. L'entreprise n'en est pas à son coup d'essai. En 2017, EDP avait déjà installé un projet solaire flottant pilote de 840 panneaux sur le barrage d'Alto Rabagao, le premier en Europe à tester la complémentarité de l'énergie hydraulique et solaire. Les panneaux flottants, installés sur l'eau, ne nécessitent donc pas de biens immobiliers précieux et ceux installés sur des réservoirs utilisés pour la production d'énergie hydroélectrique sont particulièrement rentables car ils peuvent être raccordés aux liaisons existantes avec le réseau électrique. L'excédent d'énergie généré par les journées ensoleillées peut pomper l'eau dans le lac pour la stocker en vue d'une utilisation par temps nuageux ou pendant la nuit. Article rédigé par Georges Simmonds pour RT Flash Euronews | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Une équipe de recherche franco-italienne, associant l’Institut de chimie et biochimie moléculaires et supramoléculaires (ICBMS, Université Claude Bernard Lyon 1 / CNRS / CPE Lyon / INSA Lyon) et l’Université de Turin, est parvenue, pour la première fois, à combiner les deux voies les plus industrialisables du recyclage du carbone, à savoir le captage du CO2 par des absorbants liquides et l’électroréduction par un catalyseur immobilisé sur support solide. Ces chercheurs ont mis en évidence que l’association des deux briques technologiques que sont le captage du CO2 par des absorbants liquides et l’électroréduction par un catalyseur immobilisé sur support solide permettait la production d’acide formique à partir du CO2 capté. En effet, il a pu être démontré que cette production sélective et inattendue d’une molécule essentielle dans les secteurs de la chimie et du stockage de l’énergie était due à la coopérativité à l’échelle moléculaire entre le captage du CO2 et sa réduction électrochimique. Certains produits de captage du CO2 semblent, en effet, agir comme des co-enzymes vis-à-vis du catalyseur immobilisé, participant à l’activation du CO2 qui mène à la formation d’acide formique. L'acide formique est une molécule qui résulte du stockage de l'hydrogène et de l'énergie électrique, sur le support moléculaire qu'est le CO2. Cette découverte représente un premier pas significatif vers une approche éco-efficiente et industrialisable de production de molécules carbonées à partir du gaz à effet de serre le plus emblématique. L'intégration du captage et de la transformation du CO2 en un seul procédé permet de faire émerger des synergies entre les deux processus mais aussi de s'affranchir de certaines étapes énergivores, impactantes et coûteuses (chauffage, compression du gaz, transport). C’est l'une des premières exemplifications des recommandations de Mission Innovation « Carbon capture, utilisation and storage » (CCUS), qui a défini les directions prioritaires de recherche des pays signataires de la COP21. Ces travaux ont pu aboutir en jumelant l'expertise lyonnaise sur la conception et l'analyse des systèmes moléculaires complexes, notamment par résonance magnétique nucléaire, et celle des chercheurs de Turin dans le domaine de l'électrochimie et de la modélisation moléculaire. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Environ 150 000 accidents vasculaires cérébraux (AVC) surviennent chaque année en France. Selon la Fondation pour la recherche sur les AVC, 60 % des victimes d’AVC conservent des séquelles neurologiques plus ou moins importantes : déficit moteur, troubles du langage, troubles sensitifs ou visuels. Malgré cela, certaines personnes constatent un "bénéfice" de cet accident : elles parviennent à arrêter de fumer brutalement. Ces cas ont intéressé des chercheurs de l’hôpital Brigham and Women’s, situé à Boston. Ils ont constaté que les lésions cérébrales, générées par l’AVC, permettent de stopper l’addiction. Les auteurs ont utilisé les données de deux cohortes de patients dépendants à la nicotine qui ont ensuite subi une lésion cérébrale, généralement à la suite d'un accident vasculaire cérébral. Ils ont comparé les lésions chez des patients incapables d'arrêter de fumer à des lésions ayant entraîné une rémission de la dépendance au tabac. Ensuite, ils ont cartographié ces lésions dans le circuit cérébral global. Les participants fumaient quotidiennement et étaient âgés de 56 ans, en moyenne. Les auteurs de l’étude ont découvert que les lésions qui ont conduit à l’arrêt du tabac correspondaient à un circuit cérébral spécifique. En comparant ces données à une autre étude sur les lésions associées à un risque réduit d’alcoolisme, ils ont remarqué qu’il s’agissait du même circuit cérébral. Selon eux, cela signifie qu’il pourrait y avoir une voie neuronale spécifique, à cibler pour interrompre la dépendance, quelle que soit la substance. « En regardant au-delà des régions cérébrales particulières et en s’intéressant à la place au circuit cérébral global, nous avons trouvé des cibles pour la rémission de la dépendance et nous sommes impatients de les tester dans des essais cliniques », se réjouit Michael Fox, co-auteur de l’étude et chercheur au département de neurologie du Brigham. « Bien que nos découvertes pointent vers des cibles thérapeutiques pour la dépendance, nous devons tester ces cibles dans des essais cliniques randomisés ». La stimulation cérébrale profonde, appelée stimulation magnétique transcrânienne, est déjà utilisée pour lutter contre la dépendance à l’alcool. Autorisée aux États-Unis, elle est encore peu développée en France. En 2021, le service d’addictologie du CHU de Dijon a lancé une campagne de recrutement pour tester cette méthode sur différentes addictions. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Une nouvelle étude, menée par des chercheurs et chercheuses de l’Inserm, du CNRS, de Inrae et de l’Université de Tours, apporte des résultats prometteurs sur un médicament qui a beaucoup été utilisé dans le traitement de l’épilepsie : les ions bromures. Avec l’arrivée sur le marché de nouveaux médicaments pour les patients épileptiques, son usage a diminué, mais il s’agit encore d’un outil thérapeutique intéressant, notamment en cas d’épilepsie résistante aux traitements classiques. L’épilepsie est une comorbidité fréquemment retrouvée chez les personnes atteintes de TSA (Trouble du Spectre de l'Autisme) : il est probable que certains facteurs de risque et processus physiopathologiques soient communs. Les scientifiques ont donc estimé qu’il pouvait être intéressant d’étudier plus particulièrement l’efficacité de ce traitement dans le contexte des TSA. Dans le cerveau, le maintien d’un équilibre entre les phénomènes d’excitation et d’inhibition dans les circuits neuronaux est essentiel à son bon fonctionnement tout au long de la vie. On sait aujourd’hui que les déséquilibres entre excitation et inhibition des neurones sont à l’origine de nombreux troubles, en particulier de l’épilepsie. De même, certaines formes de TSA ont été associées à un dysfonctionnement des connexions neuronales inhibitrices. Dans le cas de l’épilepsie, les ions bromures contribuent à corriger ce déséquilibre en favorisant l’inhibition, ce qui permet d’éviter les crises. L’hypothèse des scientifiques était donc qu’un effet similaire pouvait être attendu dans les cas de TSA, avec un impact clinique visible sur les comportements sociaux et stéréotypés. L’équipe a donc testé ce traitement dans trois modèles précliniques de TSA. À chaque fois, les ions bromures ont eu un effet bénéfique sur le phénotype autistique, restaurant le comportement social et diminuant les comportements stéréotypés des animaux. Les ions bromures ont également permis de réduire leur anxiété. Les résultats sont d’autant plus prometteurs que les tests ont été menés sur trois modèles de souris qui présentaient différentes mutations génétiques responsables du phénotype autistique. « Le fait que des effets bénéfiques soient observés dans trois modèles différents permet d’être un peu plus confiant quant à la capacité du traitement à être généralisable à plusieurs sous-groupes d’individus autistes lors de futurs essais cliniques », soulignent Jérôme Becker, chercheur Inserm et Julie Le Merrer, chercheuse CNRS, derniers auteurs de l’étude. Toujours sur la base de ces résultats prometteurs, la prochaine étape sera de mettre sur pied un essai clinique sur un petit effectif de patients adultes. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Avec l’âge, nos yeux vieillissent. Le plus souvent, cela implique des changements de notre vision et de nouvelles lunettes, mais il existe des formes plus graves de troubles oculaires liés à l’âge. L’un de ces troubles est la dégénérescence maculaire liée à l’âge (DMLA). Elle affecte la macula, c’est-à-dire la partie arrière de l’œil qui nous permet d’avoir une vision nette et de distinguer les détails. Cela entraîne un flou dans la partie centrale de notre champ visuel. La macula fait partie de la rétine de l’œil, qui est le tissu photosensible principalement composé des cellules visuelles de l’œil : les cellules photoréceptrices en forme de cône et de bâtonnet. La rétine comporte également une couche appelée l’épithélium pigmentaire rétinien (RPE). Celui-ci possède plusieurs fonctions importantes, dont l’absorption de la lumière, l’élimination des déchets cellulaires et le maintien des autres cellules de l’œil en bonne santé. Les cellules RPE nourrissent et protègent aussi les cellules photoréceptrices de l’œil, ce qui explique pourquoi l’une des stratégies de traitement les plus prometteuses pour la dégénérescence maculaire liée à l’âge consiste à remplacer les cellules RPE vieillissantes et dégénératives par de nouvelles cellules cultivées à partir de cellules souches embryonnaires humaines. Les scientifiques ont proposé plusieurs méthodes pour transformer les cellules souches en cellules RPE, mais on ignore comment les cellules réagissent aux stimuli à long terme. Par exemple, alors que certains protocoles prennent quelques mois, d’autres peuvent nécessiter jusqu’à une année. Et pourtant, les scientifiques ne comprennent pas exactement ce qui se passe pendant cette période. « Aucun des protocoles de différenciation proposés pour les essais cliniques n’a été étudié sur le long terme au niveau unicellulaire. Nous savons qu’ils peuvent créer des cellules pigmentaires rétiniennes, mais la manière dont les cellules évoluent vers cet état reste un mystère », déclare Gioele La Manno, chercheur dans le cadre du programme ELISIR (EPFL Life Sciences Independent Research). Gioele La Manno mène aujourd’hui une étude avec le professeur Fredrik Lanner à l’Institut Karolinska (Suède) pour établir le profil d’un protocole de différenciation des cellules souches embryonnaires humaines en cellules RPE, lequel est destiné à un usage clinique. Leur recherche montre que le protocole peut développer des thérapies sures et efficaces basées sur des cellules souches pluripotentes pour la dégénérescence maculaire liée à l’âge. « Les méthodes standards comme la PCR quantitative et le séquençage de l’ARN en masse permettent de capturer l’expression moyenne des ARN de grandes populations de cellules », explique Alex Lederer, doctorant à l’EPFL et l’un des principaux auteurs de l’étude. « Dans les populations de cellules mixtes, ces mesures peuvent masquer des différences critiques entre les cellules individuelles qui sont importantes pour savoir si le processus se déroule correctement ». Au lieu de cela, les chercheuses et chercheurs ont utilisé une technique appelée séquençage de l’ARN unicellulaire (scRNA-seq), qui peut détecter tous les gènes actifs dans une cellule individuelle à un moment donné. Grâce au scRNA-seq, les chercheuses et chercheurs ont pu étudier l’ensemble du profil d’expression génétique de cellules souches embryonnaires humaines individuelles tout au long du protocole de différenciation, ce qui a pris au total soixante jours. Cela leur a permis de cartographier tous les états transitoires d’une population au cours de sa transformation en cellules pigmentaires rétiniennes, mais aussi d’optimiser le protocole et de stopper la croissance des cellules non-RPE, empêchant ainsi la formation de populations cellulaires contaminantes. « L’objectif est d’éviter les populations de cellules mixtes au moment de la transplantation, et de s’assurer que les cellules sont à la fin similaires aux cellules RPE originelles de l’œil d’une patiente ou d’un patient », poursuit Alex Lederer. Ils ont découvert qu’au cours de leur transformation en cellules RPE, les cellules souches passent par un processus très semblable au développement embryonnaire précoce. Pendant ce processus, la culture cellulaire a pris une "modélisation embryonnaire rostrale", laquelle développe le tube neural de l’embryon qui deviendra son cerveau et ses systèmes sensoriels pour la vue, l’ouïe et le goût. Après cette modélisation, les cellules souches ont commencé à se transformer en cellules RPE. Mais l’objectif du protocole de différenciation est de créer une population pure de cellules RPE qui peuvent être implantées dans la rétine des patientes et patients pour ralentir la dégénérescence maculaire. L’équipe a donc transplanté la population de cellules qui avait été suivie par scRNA-seq dans l’espace sous-rétinien de deux lapines albinos blanches de Nouvelle-Zélande, ce que les scientifiques du domaine appellent un «modèle animal à gros yeux». L’opération a été réalisée après l’approbation par le comité d’éthique en expérimentation animale du nord de Stockholm. Les travaux ont révélé que le protocole permet de produire une population de cellules RPE pures, mais aussi que ces cellules peuvent poursuivre leur maturation même après leur transplantation dans l’espace sous-rétinien. « Nos recherches montrent que le protocole de différenciation peut développer des thérapies sûres et efficaces à base de cellules souches pluripotentes pour la dégénérescence maculaire liée à l’âge », conclut Fredrik Lanner, qui veille à ce que le protocole puisse être prochainement utilisé dans les cliniques. Article rédigé par Georges Simmonds pour RT Flash NMLS | | | |
| Des chercheurs de la Mayo Clinic (Rochester) et de l’Université de l’État de Washington ont mis au point des pansements électroniques au peroxyde d’hydrogène, mais sans antibiotique. Ces pansements sont très rapidement efficaces dans le traitement des infections des plaies. Alors que l’usage des antibiotiques est très discuté dans la prise en charge des plaies infectées, ce e-pansement intelligent promet d’être une alternative, en particulier contre les infections à Staphylococcus aureus résistant à la méthicilline (SARM). « Les infections des plaies sont courantes et peuvent être difficiles à traiter. Ainsi, il est important de développer de nouvelles stratégies, technologies et schémas thérapeutiques qui ne reposent pas sur les antibiotiques », explique l’auteur principal, le Docteur Yash S. Raval, Ph.D., chercheur principal au département de microbiologie clinique à la Mayo Clinic (Rochester). L’efficacité du dispositif est ici testée chez la souris, modèle de plaies infectées. Le nouveau pansement produisant du peroxyde d’hydrogène a permis en effet de réduire la charge bactérienne de la plaie de 99 %, après 2 jours d’application. Chez les personnes porteuses de plaies, la prise en charge standard commence par le nettoyage de la plaie à l’aide de diverses solutions, notamment le peroxyde d’hydrogène, l’application de crèmes ou d’onguents antiseptiques et, dans certains cas seulement, l’administration d’antibiotiques. Si les plaies ne cicatrisent pas, elles peuvent évoluer vers le stade de plaie chronique, un stade particulièrement difficile à gérer. La recherche a montré que les plaies chroniques abritent souvent des biofilms (communautés de micro-organismes se fixant sur le lit de la plaie). Les bactéries "réunies" dans de tels biofilms peuvent se développer et résister au traitement antibiotique, c’est pourquoi elles sont difficiles à traiter, même avec un traitement antibiotique prolongé. De plus, l’utilisation prolongée d’antibiotiques peut entraîner la sélection de bactéries résistantes aux antibiotiques. Et ces plaies porteuses de biofilm sont plus fréquentes chez les patients plus âgés, diabétiques ou immunodéprimés, qui sont donc plus vulnérables aux infections. Une solution de peroxyde d’hydrogène est utilisée pour nettoyer les plaies. Bien que le peroxyde d’hydrogène ait des propriétés antibactériennes et cicatrisantes, la solution de peroxyde d’hydrogène est chimiquement instable et, par conséquent, ses effets sont de courte durée. L’équipe a donc eu l’idée de développer un pansement qui permette de libérer en continu du peroxyde d’hydrogène, grâce à l’application d’une tension négative spécifique. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| Les malformations artério-veineuses extra-crâniennes sont des anomalies vasculaires congénitales causées par des connexions anormales entre des artères et des veines, sans l’interposition de capillaire. Le débit de sang, beaucoup trop important, provoque dès lors les malformations. Ces dernières peuvent apparaître n’importe où sur le corps et ont tendance à s’aggraver avec le temps, entraînant douleurs importantes, saignements nécessitant parfois des transfusions, gonflements, défigurements, voire une insuffisance cardiaque dans le cas des lésions les plus étendues. Les traitements habituels consistent en une association d’excision chirurgicale et d’embolisation préopératoire (obstruction des vaisseaux de la malformation pour limiter le débit sanguin). Malgré ces prises en charge, l’état de certains patients s’aggrave ou des récidives peuvent survenir jusqu’à 10 ans après. Pour ces patients sévèrement atteints et très handicapés au quotidien, il n’existait aucune alternative. Dans une étude expérimentale d’observation prospective, le Professeur Laurence Boon et son équipe multidisciplinaire du Centre des malformations vasculaires des Cliniques universitaires Saint-Luc, en collaboration avec le Professeur Miikka Vikkula, chef du laboratoire de génétique moléculaire humaine de l’Institut de Duve de l’UCLouvain, ont testé les effets potentiels de la thalidomide pour soulager les patients atteints de malformations artério-veineuses. La thalidomide est une molécule médicamenteuse qui avait naguère fait parler d’elle suite à ses conséquences sur les femmes enceintes ("scandale Softenon") mais réévaluée depuis pour son action sur les vaisseaux sanguins. Les résultats, importants et porteurs d’espoirs, sont publiés dans la prestigieuse revue "Nature Cardiovascular Research". Depuis 2005, le Centre des malformations vasculaires emploie la thalidomide, un médicament réputé pour bloquer les vaisseaux sanguins, dans le cadre de cette étude. Ce médicament a été utilisé seul ou en combinaison avec la technique d’embolisation ou après une chirurgie d’exérèse chez 18 patients. Les résultats sont considérables. La combinaison des traitements a permis de réduire la douleur, guérir les ulcérations, diminuer le volume des malformations, arrêter les saignements et résoudre l'insuffisance cardiaque. La thalidomide semble en outre efficace pour atténuer les signes et les symptômes des malformations artério-veineuses étendues. Le fait de l’associer avec l'embolisation ou la chirurgie peut réduire la récurrence des malformations, bien que des études supplémentaires soient nécessaires. Si ces patients ne sont pas guéris pour autant, leur qualité de vie s’est considérablement améliorée. Il s’agit d’une avancée importante et un message porteur d’espoir pour ces patients. Article rédigé par Georges Simmonds pour RT Flash UCL | | | |
| « Le cancer du sein touche 1 femme sur 7 », déclare la professeure Cathrin Brisken de la Faculté des sciences de la vie de l’EPFL. « Dans plus de deux tiers des cas, on constate une sensibilité aux hormones et l’expression du récepteur d’œstrogènes dans au moins 1 % des cellules tumorales ». En effet, la signalisation biologique par le récepteur d’œstrogènes est un facteur clé de carcinogenèse du sein, et son blocage est la cible classique des traitements hormonaux, qui ont sensiblement amélioré les taux de survie des patientes. Le problème est que les tumeurs qui sont positives au récepteur d’œstrogènes ont été peu étudiées car le domaine manque de modèles adaptés. « Les carcinomes mammaires qui se développent dans les modèles de souris génétiquement modifiés ne sont pas sensibles aux hormones, et les taux de réussite des xénogreffes de cancer du sein positives au récepteur d’œstrogènes sont extrêmement faibles ». De précédentes études ont révélé une interaction importante entre le récepteur d’œstrogènes et celui pour une autre hormone sexuelle, la progestérone. Plus précisément, les voies de signalisation des récepteurs d’œstrogènes et de progestérone semblent interférer les unes avec les autres tant au niveau génomique que protéique. Toutefois, le manque de lignées cellulaires et de modèles animaux adaptés a empêché les scientifiques d’étudier cette interaction sous des taux hormonaux cliniquement pertinents. Étant donné que le gène du récepteur de progestérone est affecté par le récepteur d’œstrogènes, les traitements hormonaux qui ciblent ces derniers peuvent bloquer l’expression des premiers. Cette complexité rend difficile l’étude du rôle de chaque récepteur de manière indépendante et, donc, l’optimisation des stratégies de traitement. Aujourd’hui, en collaboration avec une équipe de recherche et médicale du Centre hospitalier universitaire vaudois (CHUV), du Réseau Lausannois du Sein et de l’ICPI (International Cancer Prevention Institute), le laboratoire de Cathrin Brisken a réussi à greffer des cellules de cancer du sein humaines positives au récepteur d’œstrogènes sur les canaux lactifères de souris immunodéprimées. Cette avancée leur a permis d’étudier l’effet des œstrogènes et de la progestérone sur le développement du cancer du sein. « Nous avons découvert que les tumeurs réagissent différemment aux deux hormones selon les patientes, ce qui laisse entendre qu’il est possible d’améliorer le traitement endocrinien en l’adaptant », explique Cathrin Brisken. « De plus, la suppression de l’expression du récepteur de progestérone peut être une option thérapeutique », ajoute-t-elle. « Alors que l’on affirmait que la progestérone pouvait aider les femmes ayant un cancer du sein, nous montrons que cette hormone favorise les tumeurs et que le récepteur de progestérone sert de médiateur de la signalisation du récepteur d’œstrogènes, rendant ce récepteur intéressant comme potentielle cible thérapeutique ». Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Un essai clinique de phase II, réalisé par des médecins du Memorial Sloan Kettering Cancer Center (MSK), confirme ces promesses dans le traitement du cancer de la prostate. Selon l’auteur principal, le Docteur Behfar Ehdaie, chirurgien en cancérologie urologique, cette nouvelle approche thérapeutique peut être définie comme une « tumorectomie masculine » : au lieu d'enlever tout le tissu d'une prostate -ou d’un sein- il est plus sûr et plus efficace de traiter uniquement les zones cancéreuses, et « il devient possible de réduire considérablement le fardeau des patients ». Cette nouvelle stratégie, développée ces dernières années, qui vise l’ablation partielle de l’organe, a fait peu à peu ses preuves pour le cancer de la prostate en particulier en cas de petites tumeurs confinées à une zone spécifique de la prostate. Au MSK, les chercheurs travaillent dans cette direction, en utilisant la technique connue sous le nom d'ultrasons focalisés de haute intensité (HIFU), guidés par l'imagerie par résonance magnétique (IRM). L'essai clinique de phase II, qualifié d’historique, démontre que cette méthode moins invasive fonctionne remarquablement bien pour de nombreux patients. L'essai a validé l’efficacité du traitement par HIFU, guidés par IRM (MRgFUS), chez des participants atteints d'un cancer à risque intermédiaire. La nouvelle approche est parvenue à contrôler de manière efficace la maladie chez ces patients avec, dans le même temps, des effets secondaires indésirables extrêmement réduits. Cela suggère que de nombreux hommes atteints d'un cancer de la prostate à risque intermédiaire pourraient éviter la chirurgie, la chimiothérapie et la radiothérapie. « Nous pensons que cette nouvelle stratégie de traitement pourra améliorer la vie de nombreux patients atteints d'un cancer de la prostate », commente l 217;auteur : « si nous établissions un parallèle avec le traitement du cancer du sein, nous pourrions définir la thérapie focale comme une tumorectomie masculine. Au lieu de retirer tous les tissus d'un sein ou d'une prostate, nous avons appris qu'il est sûr et efficace de traiter les zones spécifiquement touchées ». Cet essai clinique de phase II marque une étape importante vers l'intégration de la nouvelle approche HIFU dans le traitement généralisé du cancer de la prostate. Car, lorsque le cancer est confiné à la prostate, les principales options de traitement comprenaient jusque-là la surveillance active, la chirurgie et la radiothérapie. L’approche HIFU constitue donc une alternative supplémentaire. Par ailleurs, elle pourrait également concerner certains patients qui avaient besoin d'une intervention chirurgicale ou d'une radiothérapie et subissaient souvent des effets secondaires persistants, tels que des problèmes urinaires et sexuels, très handicapants et néfastes à leur qualité de vie. L'échographie focalisée guidée par IRM (MRgFUS) est un traitement ambulatoire qui dure environ 2 heures. Les patients sous anesthésie sont placés dans un appareil d'IRM qui couvre la moitié inférieure du corps. Une fois que l'appareil a pris une image de la prostate, les médecins délimitent la zone de traitement et délivrent les ondes ultrasonores focalisées, guidées par l'IRM. Les ondes ultrasonores proviennent de différentes directions, se croisant pour attaquer et tuer le cancer en chauffant les cellules à plus de 70°C. Le patient se réveille de l'anesthésie et rentre chez lui. Il n'y a pas d'incisions ou de blessures sur le corps à guérir. L’essai actuel confirme que la procédure est sans danger pour les patients et qu'ils peuvent reprendre une activité normale immédiatement. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|