| | | | | | | Edition du 11 Février 2022 |
| |
|
| Edito Les ondes sonores : un nouvel outil incroyablement puissant qui va s’imposer partout…
Connu depuis presque un siècle, le phénomène de lévitation acoustique repose sur l’utilisation de haut-parleurs produisant des ondes sonores inaudibles à l’oreille humaine. Orientés avec précision, les haut-parleurs créent des faisceaux d’ultrasons qui interfèrent les uns avec les autres. Au centre de ce dispositif, on peut alors observer l’apparition d’un état étrange, appelé "onde stationnaire". A ce point précis, la pression acoustique peut devenir assez forte pour annuler les effets de la gravité, et soulever, puis maintenir en sustentation dans l’air, un petit objet correctement placé. Le concept de lévitation acoustique ne date pas d’hier, puisque les premières expériences de lévitation acoustique, effectuées par les chercheurs allemands Karl Buck et Hans Muller, remontent à 1933 ! En 1975, la NASA, dans le cadre de ses recherches sur la pesanteur, avait expérimenté cette technologie en générant des ondes sonores stationnaires générées par des haut-parleurs. En 2014, des chercheurs japonais de l’Université de Tokyo (Yoichi Ochiai, Takayuki Hoshi et Jun Rekimoto) ont réalisé une avancée majeure dans ce domaine. En focalisant des faisceaux d’ultrasons, ils sont parvenus à inventer un système de lévitation acoustique leur permettant de faire entrer des particules ou des petits objets (composants électroniques) en lévitation et de les déplacer à volonté dans un espace en trois dimensions (Voir PLOS ONE). En 2016, une équipe du CNRS a réussi, pour sa part, à utiliser la lévitation acoustique pour piéger et déplacer une bille de polystyrène d’une centaine de micromètres de diamètre via un unique faisceau ultrasonore progressif et focalisé. En 2018, l’équipe d' Asier Marzo, chercheur à l'Université de Bristol, a mis au point au point un nouvel appareil de lévitation acoustique qui a permis, en utilisant des ultrasons de 40 kHz, pour la première fois, de bloquer et stabiliser dans les airs un objet de taille significative, une balle d'environ 2 cm de diamètre. En décembre 2019, des chercheurs du Massachusetts Institute of Technology (MIT) sont parvenus à réaliser une échographie laser en détectant à distance les ultrasons à la surface de la peau (Voir Nature). Cette nouvelle technique permet d’obtenir des images de l’intérieur de l’organisme, sans contact avec le corps, et à distance. Il suffit d’approcher la sonde à ultrasons de la surface de la peau pour générer une image du site visé. La sonde émet des ondes sonores dans les différents types de tissus, muscles, graisse, os, vaisseaux sanguins, et ceux-ci vont alors réfléchir de manière spécifique ces ondes vers la sonde, qui peut produire ainsi une image ultrasonore. Expérimentée avec succès sur l’homme, ce système a montré que les ultrasons-laser sont sensibles aux mêmes propriétés physiques des tissus que ceux détectés par les ultrasons conventionnels. Comme le souligne Brian W. Anthony, chercheur au département de génie mécanique du MIT(IMES), « Nous commençons juste à explorer tout ce que nous pourrions faire avec l'échographie laser, et dans un futur proche, nous pourrons faire à distance tout ce que l'échographie peut faire maintenant. Concrètement, cela veut dire qu’il deviendra possible de voir les organes à l'intérieur du corps et de déterminer les propriétés des tissus profonds, sans entrer en contact avec le patient ». En 2020, d’autres chercheurs du CNRS, associés à leurs collègues de l’Université technologique de Delft (Pays-Bas) ont démontré, en déplaçant une microbulle à l’aide d’un vortex acoustique, qu’il était possible d’utiliser ces pinces acoustiques en biologie et biomédecine, pour le largage ultra-localisé, reproductible et contrôlé de médicaments ou pour l’ingénierie de tissus in vitro à partir de cellules souches (Voir CNRS). Toujours en 2020, des chercheurs de l’Université de Washington, à Seattle ont réussi, à l’aide d’un vortex créé par un ensemble de 256 émetteurs d’ul trasons, à manipuler des billes de 3 mm dans une vessie de porc, sans dommages collatéraux. Ces pinces optiques – qui permettent de faire léviter et de déplacer d’infimes particules sans contact, au moyen de lasers – sont déjà utilisées aujourd’hui dans le domaine des nanotechnologies et le développement de produits pharmaceutiques. Il est vrai que les ondes sonores ont un champ d’application plus étendue que celui des ondes lumineuses, car elles peuvent être utilisées sur une gamme plus large d’objets et de matériaux, de plus grande taille (jusqu’à l’échelle millimétrique). Elles sont en outre sans danger pour les cibles biologiques. Concrètement, l’objet à manipuler subit la force de rayonnement acoustique exercée par les ondes sonores, qui le déplace vers une région spécifique du champ acoustique. Mais pendant très longtemps, faute de matériau adéquat et de logicie ls suffisamment puissants, il était très difficile de produire un «piège» d’ondes sonores fiable et durable et de contrôler avec précision des transducteurs à ultrasons en temps réel pour obtenir le champ acoustique adéquat. En juin dernier, des chercheurs japonais de l’Université métropolitaine de Tokyo ont présenté une nouvelle technologie de manipulation sans contact, également basée sur les ondes sonores : leur dispositif repose sur une coupelle de 12cm qui supporte un réseau hémisphérique de transducteurs à ultrasons multicanaux. La phase et l’amplitude des ondes sonores de chaque canal est contrôlable de manière à piéger et soulever une bille de polystyrène reposant sur une surface réfléchissante (Voir IOP Science). C’est la première fois que des scientifiques parviennent à manipuler un objet sans contact à partir d’une surface réfléchissante. Leur technique repose sur l’organisation des transducteurs en différents blocs, constituant in fine un réseau global, plus simple à contrôler que chaque transducteur pris séparément. Ces chercheurs ont donc conçu un réseau hémisphérique divisé en huit blocs et la polarité de la moitié des transducteurs de chaque bloc a été inversée. En utilisant un filtre inverse pour reproduire les sons en fonction de la forme d’onde acoustique, ces scientifiques ont pu optimiser la phase et l’amplitude de chaque canal de transducteur, de manière à produire exactement le flux d’ondes acoustique souhaité. C’est ainsi que ces chercheurs ont pu déplacer de manière très précise la bille de polystyrène piégée dans ce champ acoustique. La grande innovation présentée par ces chercheurs réside dans l’optimisation de la phase et de l’amplitude de chaque canal, à l’aide de la méthode de reproduction sonore avec filtre inverse. Grâce à cette nouvelle approche, il est possible de créer un seul piège et il n’est plus nécessaire que le réseau de transducteurs et l’objet cible soient proches. Cette technique pourrait trouver de multiples applications dans les domaines des nanotechnologies et de l’ingénierie dans l’industrie pharmaceutique. Il y a un an, une autre étape décisive a été franchie, quand une équipe française dirigée par Michael Boudoin et Jean-Louis Thomas, associant l’Institut d'électronique, de microélectronique et de nanotechnologie et de l’Institut des nanosciences de Paris, a réussi à contrôler la création d’une structure d'onde acoustique particulière – un vortex (des ondes sonores tournant autour d’un axe central), ce qui a permis de déplacer une à une des cellules de cancer du sein sous un microscope. Autre prouesse à relever, le dispositif produisant ce vortex a été suffisamment miniaturisé pour tenir sur une puce de 3 mm de diamètre, qui peut être facilement intégrée à un microscope standard. Il devient alors possible de manipuler et de déplacer avec une précision extrême des cellules vivantes, sans les détériorer. Dans sa version actuelle, cette nouvelle pince acoustique produit déjà une force dix fois plus élevée qu'une pince optique, en utilisant une puissance dix fois moindre. Mais ces chercheurs pensent qu’il est possible d’améliorer les performances de cette "pince", ce qui ouvrirait la voie à des manipulations en 3D en biologie, impossibles à réaliser par d’autres techniques. À plus long terme, ces scientifiques visent rien moins que la mise au point d’un "modulateur spatial à ultrasons", calqué sur le modulateur optique, qui pourra déplacer en même temps, et toujours de manière individuelle, des dizaines de cellules. On imagine sans peine l’intérêt d’un tel dispositif pour la recherche biologique… Début 2020, une autre équipe de l’EPFZ (Ecole Polytechnique Fédérale de Zurich), a mis a point un robot muni d’une pince acoustique, capable d’émettre des ondes ultrasoniques pour déplacer de petits objets sans les toucher (Voir ETH Zurich). Composé de deux demi-sphères renfermant plusieurs petits haut-parleurs (chacune modelée avec une imprimante 3D), ce prototype se fonde également sur l’utilisation de la lévitation acoustique. Contrairement aux robots actuels, dotés de pinces, qui sont limités par la taille et la forme des pièces qu’ils doivent saisir, ce robot Jedi présente le grand l’avantage de pouvoir déplacer des objets de toutes formes, grâce à son logiciel lui permettant d’adapter les ondes qu’il émet aux dimensions de la pièce à déplacer. Selon son inventeur, Marcel Schuck, il pourrait être utilisé par exemple pour manipuler et déplacer de manière non-destructive toutes sortes de petites pièces dans l’industrie des semi-conducteurs, ou encore des tissus ou cellules biologiques. Ce remarquable dispositif a été développé dans le cadre du projet "Touch Robotics", dirigé par ce chercheur, et qui vise à dépasser les limites intrinsèques liées à la préhension physique et mécanique par des pinces robotisées (risques d’altération ou de contamination de l’objet, complexité liée au changement des pinces en fonction de l’objet à manipuler). Avec ce système de préhension acoustique robotisé, il n'est même plus nécessaire que le bras du robot lui-même soit d’une grande précision, car le positionnement exact va dépendre des ondes acoustiques, superposées et contrôlées par le logiciel, qui vont venir piéger l’objet, et permettre sa manipulation fine. Ce contrôle de plus en plus fin de la lévitation acoustique a ouvert récemment un immense champ d’applications scientifiques, médicales et industrielles, qui n’est pas prêt de se refermer. Des laboratoires de l’industrie pharmaceutique développent déjà la technique de lévitation acoustique afin de créer des médicaments dits "amorphes", c’est à dire faiblement dosés, plus facilement assimilables par l’organisme et aussi efficaces que les médicaments classiques, mais avec moins d’effets secondaires. Dans ce cas précis, l’absence de contact avec l’environnement devient un avantage décisif, qui permet de créer ces médicaments amorphes sans modifier leur structure moléculaire. Il y a quelques semaines une startup israélienne, Noveto, a créé l’événement lors du dernier Consumer Electronic Show de Las Vegas, en dévoilant ses écouteurs virtuels, qui n’ont plus besoins de supports physiques pour fonctionner et produire le message sonore. Cette innovation, baptisée Noveto N1, qui a fait sensation, fonctionne en envoyant un faisceau dirigé d’ondes ultrasonores directement autour du système auditif de l’utilisateur, qui est le seul à pouvoir entendre le message sonore ainsi véhiculé (Voir Youtube). Ce dispositif révolutionnaire est couplé à un logiciel d’IA qui gère des capteurs de reconnaissance faciale. Cet ensemble technologique peut suivre le mouvement de la tête pour adapter automatiquement la direction des faisceau x ultrasonores. Selon Noveto, l’appareil peut monter jusqu’à 85 décibels. Au-delà d’un mètre de distance autour de l’utilisateur, le volume sonore diminue de 90 %. Le système peut se connecter à d’autres appareils via une clé USB, le Wifi, ou le Bluetooth. En 2019, une autre équipe internationale, composée de chercheurs de l’Université du Sussex, à Brighton, et de Tokyo a réussi une véritable prouesse technique, en manipulant de manière extrêmement rapide (4 m/s) et précise une petite bille blanche d’un millimètre de diamètre afin de créer des animations 3D de quelques dizaines d’images par seconde, assez rapides pour tromper l’œil humain (Voir NIH). Enfin, en octobre dernier, une équipe internationale associant des chercheurs des Universités de Nanjing et Madrid, a présenté une nouvelle innovation majeure, le laser sonique topologique, ou Saser (Sound Amplification by Stimulated Emissions of Radiations). Il s’agit du premier laser sonore, de haute précision, doté d’un faisceau stable dans le temps et insensible aux obstacles qui pourraient surgir sur son chemin. Pour parvenir à cette prouesse, les scientifiques sont parvenus, en utilisant un treillis composés de petits cylindres imprimé en 3D et recouverts d’une gaine de nanotubes de carbone, à générer une onde acoustique cohérente. Mais il y a mieux : les chercheurs ont réussi pour la première fois à conférer à cette onde, composée de phonons (les équivalents acoustiques des photons en optique), une "protection top ologique" forte, qui la rend particulièrement stable et résistante. Le secret de ce "Saser", équivalent sonore du Laser, est d’associer de manière ingénieuse le concept de protection topologique et la physique des matériaux dits "non-hermitiques", c’est-à-dire capables d’associer une onde à un flux extérieur qui va la stabiliser. Ce Saser devrait avoir, à terme, une foule d’applications dans de multiples domaines, défense, médecine, pharmacie, industrie, loisirs…Il pourrait par exemple permettre de générer et de transmettre sur de longues distances, des faisceaux sonores ultra-focalisés qui ne seraient audibles que par leur destinataire, et seraient très difficiles à intercepter. Ce Saser devrait également permettre la démocratisation des "hologrammes haptiques", qui sont des interfaces virtuelles en 3D permettant de commander de manière simple et intuitive n’importe quelle machine, ou appareils, sans avoir besoin de les toucher physiquement, ce qui constituerait une grande avancée en chirurgie robotisée, par exemple, ou encore dans l’industrie, pour le contrôle des machines-outils, ou dans les transports, pour le pilotage intuitif des voitures, trains ou avions… On le voit, les extraordinaires progrès accomplis depuis quelques années dans ce domaine en pleine effervescence des ondes sonores, allant de la lévitation acoustique au Saser, ouvre la voie vers des innovations de rupture qui vont apparaître avant 10 ans dans notre vie quotidienne. Nous ne pouvons que nous réjouir que la France soit en pointe dans ces recherches qui s’effectuent aux confins de plusieurs disciplines, physique, chimie, sciences des matériaux, mathématiques, informatique…Alors que la maîtrise et l’utilisation sophistiquée des ondes sonores, et de leur incroyable potentiel, est en train de devenir un enjeu technologique, industriel et économique majeur, il faut souhaiter que notre pays accentue son effort de recherche, publique et privée, dans ce domaine stratégique qui sera, avant la fin de cette décennie, un puissant moteur d’innovation et de compé ;titivité. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Nanotechnologies et Robotique | |
| | | Comme son nom l’indique, une molécule-aimant est un aimant formé d’une seule molécule. Sous l’action d’un champ magnétique, son aimantation peut présenter deux états adressables. Il est possible de passer réversiblement d’un état à l’autre ce qui confère à cette molécule-aimant un effet mémoire. D’où l’intérêt des spécialistes du magnétisme moléculaire pour ces objets qui pourraient permettre dans le futur le stockage d’information binaire, voire quantique, à une échelle très réduite. Au sein d’un même matériau ou d'un dispositif de stockage, chaque molécule-aimant doit être capable de conserver son état magnétique sans subir l’influence de celle de ses voisines, condition essentielle si l’on veut contrôler l’information stockée sur chaque molécule. Il est donc nécessaire de maîtriser leur organisation de manière à ce que l’on puisse assigner individuellement un bit d’information à une molécule-aimant donnée. Aujourd’hui, on sait isoler les molécules-aimants les unes des autres en les déposant sur des surfaces. Mais, pour parvenir à une miniaturisation plus importante encore, il faut dépasser cet arrangement bidimensionnel pour atteindre une organisation tridimensionnelle, avec un contrôle parfait de l’arrangement des molécules dans les trois directions de l’esp ace. Grâce à la flexibilité de la chimie de coordination, des scientifiques du Centre de recherche Paul Pascal (CNRS / Université de Bordeaux) et de l'Université de Canterbury en Nouvelle-Zélande viennent de démontrer qu'il est possible d'organiser des molécules-aimants dans des constructions moléculaires d'une grande complexité, comme un caténane résultant de l'auto-assemblage de 8 molécules-aimants à base d’ions cobalt. Cette architecture complexe en caténane présente deux carrés imbriqués l’un dans l’autre dont chaque sommet est une molécule-aimant isolée de ses voisines. On peut donc penser que dans le futur, les chimistes de coordination pourront réellement répondre à n'importe quel type d'organisation nécessaire aux applications des molécules-aimants. Ces recherches ouvrent la voie vers le s tockage moléculaire de l’information. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| | | Des chercheurs de l’Université Purdue (Indiana), dirigés par Shriram Ramanathan, ont présenté une plate-forme artificielle qui vise à permettre aux futures machines à reconfigurer elle-même leurs processeurs, de façon à les doter d'une véritable capacité d'autoapprentissage. « Si nous voulons construire un ordinateur ou une machine qui s’inspire du cerveau, alors, en conséquence, nous devons avoir la capacité de programmer, reprogrammer et changer la puce en continu », souligne le Professeur Ramanathan. L’un des intérêts de cette technologie est qu’elle pourrait permettre de créer des IA plus "portables", puisqu’il serait possible de les embarquer directement dans un dispositif autonome, pouvant fonctionner même sans être connecté à un logiciel externe. Concrètement, l’innovation en question ressemble à une petite pièce rectangulaire composée de nickelate de pérovskite, une matière très sensible à l’hydrogène. C’est cet hydrogène qui constitue la clé de l’adaptabilité de la puce. En envoyant des impulsions électriques à différentes tensions, les scientifiques sont parvenus à faire évoluer la façon dont cet élément se concentre sur la puce, en seulement quelques nanosecondes. Les différentes configurations obtenues ont été identifiées par les scientifiques comme pouvant créer des schémas de conductivité correspondant à des éléments du cerveau. Ces dispositifs peuvent ainsi devenir « des résistances, des condensateurs de mémoire, des neurones artificiels et des synapses artificielles », peut-on lire dans l’article scientifique. Par exemple, quand la concentration d’hydrogène se fait davantage au centre de la puce, elle peut agir comme un neurone, c’est-à-dire une seule cellule nerveuse. Si, au contraire, la concentration est moindre au centre, elle va plutôt adopter les caractéristiques d’une synapse, c’est-à-dire une connexion entre deux neurones : « c’est ce que le cerveau utilise pour stocker de la mémoire dans des circuits neuronaux complexes », précise le Professeur Ramanathan. Les résultats semblent plutôt impressionnants, puisque des équipes ont par exemple démontré que le réseau neuronal artificiel est capable de s’agrandir ou de se rétrécir en fonction de l’effort d’apprentissage demandé, ou encore de "choisir" quel circuit est le plus approprié pour répondre à une tâche donnée. Le circuit a aussi démontré une plus grande efficacité que ceux plus "statiques" lorsqu’il a été testé sur de l’analyse d’électrocardiogramme. Autre point fort de l’innovation : sa relative facilité de fabrication. Les technologies nécessaires ne diffèrent pas de celles utilisées habituellement pour la fabrication de puces électroniques et la fabrication se fait à température ambiante. L’outil semble aussi robuste : « après avoir programmé l’appareil sur un million de cycles, la reconfiguration de toutes les fonctions est remarquablement reproductible », affirme à ce sujet Michael Park, doctorant à l’Université de Purdue. Article rédigé par Georges Simmonds pour RT Flash Purdue University | | | |
| Des chercheurs de la Stanford University aux États-Unis ont développé une nouvelle technologie de cellules solaires ultrafines. Cette technologie pourrait trouver des applications dans plusieurs domaines, dont l’aérospatiale, l’architecture, les véhicules électriques et l’électronique, où la légèreté, la haute puissance pour un poids réduit et la flexibilité sont nécessaires. Ces scientifiques ont utilisé des dichalcogénures de métaux de transition (TMDs, transition metal dichalcogenides). Ce matériau émergent présente d’excellentes propriétés électriques et optiques. « Ces propriétés font des TMDs un excellent candidat pour la prochaine génération d’appareils électroniques et de cellules solaires (photovoltaïques) », a déclaré Koosha Nassiri Nazif. « Les fabricants de puces comme Intel et la Taiwan Semiconductor Manufacturing Company envisagent déjà d’utiliser les TMDs dans leur technologie future pour respecter la loi de Moore et fabriquer des puces plus puissantes dans des formats plus petits. Ces puces seront utilisées dans les futurs appareils électroniques grand public ». Selon Koosha Nassiri Nazif, cette technologie permet de réduire l’utilisation et le coût des matériaux. Les cellules solaires en TMD sont légères et flexibles, deux qualités idéales pour les intégrer dans un toit de voiture, une aile d’avion, une smartwatch. « En d’autres termes, cela permettrait d’intégrer des cellules solaires dans tout, ce qui est impossible avec les cellules solaires en silicium, encombrantes et rigides, qui représentent actuellement 95 % du marché des cellules solaires », a déclaré Koosha Nassiri Nazif. « C’est la raison pour laquelle nous ne voyons pas ces applications pour les cellules solaires aujourd’hui. Les TMDs vont changer le paysage ». Selon Koosha Nassiri Nazif, les cellules solaires en TMD ultrafines et flexibles permettraient de récolter l’énergie solaire de manière transparente à l’intérieur et à l’extérieur, de charger en continu et d’alimenter les futurs appareils électroniques portables et les capteurs IoT : « Cela offrira aux consommateurs une plus grande autonomie et éliminera la nécessité de charger manuellement les batteries ». Pour Alwin Daus, coauteur de l’article, cette technologie pourra également être utilisée dans d’autres cas, comme une lentille intelligente de réalité augmentée/virtuelle autoalimentée par des cellules solaires en TMD ou des biocapteurs permettant de surveiller les signes vitaux du corps humain 24/7 : « Les capteurs IoT pourraient aussi potentiellement éliminer le besoin de changer les piles, ce qui est essentiel pour intégrer les capteurs IoT dans plusieurs milliards d’appareils ». « Les TMDs pourraient également fournir davantage de puissance à l’informatique en périphérie, ce qui est essentiel pour obtenir un temps de réponse immédiat dans les grands réseaux IoT tels que les villes intelligentes », a déclaré Koosha Nassiri Nazif. « Et ils peuvent également être intégrés aux drones autonomes qui s’alimenteraient ainsi eux-mêmes avec un panneau solaire léger sur leurs ailes ». Article rédigé par Georges Simmonds pour RT Flash Stanford | | | |
| Des chercheurs du Oak Ridge National Laboratory du ministère de l’énergie ont conçu un nouveau polymère pour lier et renforcer le sable de silice pour la fabrication additive par jet de liant, une méthode d’impression 3D utilisée par les industries pour le prototypage et la production de pièces. Le polymère imprimable permet de créer des structures de sable aux géométries complexes et à la résistance exceptionnelle, tout en étant soluble dans l’eau. L’étude montre un pont de sable imprimé en 3D qui, à 6,5 centimètres, peut supporter 300 fois son propre poids, un exploit comparable à celui de 12 Empire State Buildings assis sur le pont de Brooklyn. Le procédé d’impression par jet de liant est moins cher et plus rapide que les autres méthodes d’impression 3D utilisées par l’industrie. Il permet de créer des structures 3D à partir de divers matériaux en poudre, offrant ainsi des avantages en termes de coût et d’évolutivité. Le concept s’inspire de l’impression à jet d’encre, mais au lieu d’utiliser de l’encre, la tête de l’imprimante projette un polymère liquide pour lier un matériau en poudre, tel que du sable, construisant ainsi une structure 3D couche par couche. C’est le polymère de liaison qui confère au sable imprimé sa résistance. L’équipe a utilisé son expertise en matière de polymères pour concevoir un liant en polyéthylèneimine (PEI) qui a permis de doubler la résistance des pièces en sable par rapport aux liants classiques. Les pièces imprimées par jet de liant sont initialement poreuses lorsqu’elles sont retirées du lit d’impression. Elles peuvent être renforcées en infiltrant la conception avec un matériau supergluant supplémentaire appelé cyanoacrylate qui remplit les espaces. Cette deuxième étape a permis de multiplier par huit la résistance de la première étape, rendant le composite sable-polymère plus solide que tout autre et que tous les matériaux de construction connus, y compris la maçonnerie. Les pièces formées avec des liants conventionnels sont rendues plus denses grâce à des matériaux d’infiltration, comme la super colle, mais aucun n’a atteint une performance proche de celle du liant PEI. L’impressionnante résistance du liant PEI provient de la façon dont le polymère réagit pour se lier au cyanoacrylate pendant le durcissement. Une application potentielle du sable super résistant est l’amélioration de l’outillage pour la fabrication de composites. Le sable de silice est un matériau bon marché et facilement disponible qui suscite un intérêt croissant dans les secteurs de l’automobile et de l’aérospatiale pour la création de pièces composites. Les matériaux légers, tels que la fibre de carbone ou la fibre de verre, sont enroulés autour de noyaux de sable imprimés en 3D, ou “outils”, et durcis à la chaleur. Le sable de silice est intéressant pour l’outillage car il ne change pas de dimensions lorsqu’il est chauffé et parce qu’il offre un avantage unique en matière d’outillage lavable. « Notre composite de sable polymère à haute résistance augmente la complexité des pièces qui peuvent être fabriquées avec des méthodes de projection de liant, permettant des géométries plus complexes, et élargit les applications pour la fabrication, l’outillage et la construction », précise Dustin Gilmer, qui a dirigé ces recherches. Article rédigé par Georges Simmonds pour RT Flash ORNL | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Depuis des millions d’années, le climat terrestre est caractérisé par une alternance de périodes glaciaires, durant lesquelles une grande partie des continents est recouverte de glace, et de périodes interglaciaires pendant lesquelles la température est plus élevée. Nous sommes aujourd’hui dans une période interglaciaire : la dernière glaciation, celle du Würm, s’est achevée il y a environ 11 700 ans. Ces cycles glaciaires-interglaciaires sont provoqués principalement par la variation de paramètres astronomiques comme l’inclinaison de l’axe de rotation terrestre ou la forme plus ou moins circulaire de l’orbite terrestre. L’évolution de ces paramètres astronomiques fait varier la quantité et la répartition de l’énergie solaire à la surface de la planète et donc l’&e acute;tendue des glaces sur les continents. Mais, il y a environ 1 million d’années, la période des cycles glaciaire-interglaciaire est passée de 41 000 ans à 100 000 ans, et l’intensité des périodes glaciaires a augmenté : on parle de "transition mi-Pléistocène". Les causes et la vitesse de ce changement sont encore aujourd’hui débattues, car elles ne correspondent à aucune modification particulière de l’évolution des paramètres astronomiques. Maayan Yehudai, de l’Université Columbia, à New York, et ses collègues, apportent aujourd’hui des indices qui renforcent un des scénarios proposés, celui de "l’hypothèse régolithe". En 2006, Peter Clark, à l’Université d’État de l’Oregon, aux États-Unis, et ses collègues, ont proposé que d’importants épisodes d’érosion continentale (notamment entre 1,4 et 1 million d’années) ont dégradé la couche de roches sédimentaires meubles (les régolithes) autour de l’Atlantique nord, exposant à la surface le socle continental composé de roches magmatiques et métamorphiques. Avant ces épisodes, les sols continentaux "glissants" empêchaient l’installation de calottes glaciaires épaisses et étendues, et lors de la fonte de ces modestes calottes, l’apport d’eau douce perturbait peu les courants océaniques. À l’inverse, une fois le socle cristallin mis à nu et rendu plus rugueux par l’érosion, la friction entre la glace et la roche aurait a ugmenté, ce qui aurait permis la formation de calottes glaciaires épaisses et plus vastes. Maayan Yehudai et ses collègues ont voulu tester la validité de l’hypothèse régolithe en retraçant l’évolution, dans l’océan Atlantique, de la circulation thermohaline. Cet ensemble de grands courants océaniques superficiels et profonds répartit la chaleur à la surface du globe, et joue donc un rôle majeur dans le climat terrestre. En 2014, Leopoldo Pena, de l’Université de Barcelone, en Espagne, et Steven Goldstein, de l’Université Columbia, aux États-Unis, avaient montré qu’il y a entre 950 000 et 860 000 ans, donc aux alentours de la transition mi-Pléistocène, les courants océaniques atlantiques avaient été modifiés. Dans cette nouvelle étude, l’équipe de Maayan Yehudai a étudié les isotopes d’un élément chimique, le néodyme (Nd), dans des sédiments océaniques datant de 1,25 million d’années à 600 000 ans, c’est-à-dire avant, pendant et après la période de transition, à plusieurs latitudes le long de l’océan Atlantique. Le rapport isotopique 143Nd/144Nd est spécifique des roches continentales qui s’érodent et finissent dans les océans. En analysant la composition isotopique des sédiments, il est possible de savoir d’où ils viennent et donc d’en déduire les mouvements des masses océaniques. En étudiant des carottes sédimentaires, les chercheurs déduisent ainsi les modifications des grands courants océaniques au cours du temps. Par exemple, u ne augmentation de la valeur de ce rapport isotopique révèle un affaiblissement des courants profonds en provenance du nord de l’Atlantique et en direction du sud. Or Maayan Yehudai et ses collègues ont constaté une augmentation significative de la valeur du rapport isotopique il y a 950 000 ans, qui trahit donc un affaiblissement des courants profonds en provenance de l’Atlantique nord. Cette période coïncide d’ailleurs avec le premier cycle glaciaire de 100 000 ans. La transition mi-Pléistocène serait donc liée à une modification des courants océaniques profonds. En remontant plus tôt, les chercheurs ont déterminé une cause possible de cette modification. Entre 980 000 et 950 000 ans (en pleine période glaciaire), le rapport isotopique du néodyme présente une valeur exceptionnellement faible, qui ne peut s’expliquer par les seules variations des courants océaniques. Cette valeur correspondrait à un apport important de produits d’érosion causé par la fonte d’épaisses calottes glaciaires sur les continents entourant l’Atlantique nord, en accord avec l’hypothèse régolithe. L’apport massif d’eau douce aurait perturbé et ralenti la circulation thermohaline. Ainsi, la conjonction entre la formation de calottes glaciaires épaisses et étendues et le ralentissement de la circulation océanique profonde dans l’Atlantique nord aurait déclenché le premier cycle glaciaire de 100 000 ans il y a 950 000 ans. Cette périodicité aurait ensuite été stabilisée par l’augmentation de la friction entre les calottes glaciaires et leur socle cristallin. De plus, cette modification des courants océaniques et la fertilisation des océans causée par l’érosion auraient augmenté la capacité des océans à stocker le dioxyde de carbone, l’un des principaux gaz à effet de serre, accentuant encore l’intensité des épisodes glaciaires. Article rédigé par Georges Simmonds pour RT Flash Pour La Science | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Raideur articulaire au lever le matin, douleurs au genou ou à la hanche au moindre mouvement, difficultés à bouger les doigts… Caractérisée par une destruction progressive du cartilage d’une ou plusieurs articulations, l’arthrose peut être très invalidante au quotidien. Selon la Société française de rhumatologie, elle touche 8 à 15 % de la population, soit jusqu’à 10 millions de Français. Parce que sa prévalence croît avec l’âge, elle devrait devenir encore plus fréquente, en raison du vieillissement de la population. Or, à ce jour, le traitement de l’arthrose est "seulement" symptomatique : il consiste à soulager la douleur. Aucune prise en charge ne permet de prévenir, de guérir, ou de freiner son évolution. L’objectif de la recherche, à court terme, est donc de parvenir à diagnostiquer précocement la maladie, afin de pouvoir évaluer dans de bonnes conditions de futurs traitements contre l’arthrose débutante. À ce titre, développer de nouvelles techniques d’imagerie non invasives capables de révéler en haute définition tous les tissus touchés est un objectif essentiel. De fait, « l’arthrose affecte le cartilage, mais aussi tous les autres tissus composant les articulations, et notamment les os, la membrane synoviale – qui tapisse l’intérieur de la capsule délimitant l’articulation – et les ligaments », précise Jérôme Guicheux, directeur de recherche Inserm et directeur du laboratoire Médecine régénératrice et squelette1 à Nantes. À ce jour, poursuit le biologiste, « la technique d’imagerie de référence pour diagnostiquer l’arthrose et suivre son évolution reste la radiographie. Or celle-ci ne permet pas de voir les tissus cartilagineux et mous ». Et pour cause : la radiographie mesure l’absorption de rayons X par les structures traversées ; seuls les tissus denses, les os, absorbent suffisamment ces rayons pour apparaître en clair sur l’ ;image. Dans l’espoir de dépasser cette limite qui pèse sur l’utilisation de l’imagerie, à Grenoble, Emmanuel Brun et ses collègues du laboratoire "Rayonnement synchrotron pour la recherche biomédicale" (Strobe)2 développent, depuis cinq ans, une nouvelle technique prometteuse, dite "imagerie par contraste de phase aux rayons X" (ICP). « Comme la radiographie, l’ICP repose aussi sur la mesure de l’absorption de rayons X par les tissus traversés. Elle permet donc, elle aussi, de bien voir les os. Mais, et c’est une grande innovation, elle mesure également la déviation des rayons X par les tissus, que l’on appelle "réfraction". « Ainsi, les tissus mous et cartilagineux deviennent 2 000 fois plus transparents à ces rayons qu’ils ne les absorbent, et ils apparaissent sur les images obtenues », explique le chercheur. Lors d’une étude publiée en 2020, son équipe a demandé à six radiologues et rhumatologues du CHU de Grenoble d’évaluer différents clichés de mains et de poignets, obtenus soit avec l’ICP, soit via des techniques conventionnelles : scanner classique (une autre technologie d’imagerie fondée sur les rayons X, mais qui fournit des images en trois dimensions et non deux, comme la radiographie standard) ; imagerie par résonance magnétique (IRM, fondée sur l’utilisation de champs électromagnétiques émis via un gros aimant) ; et échographie (qui utilise des ondes d’ultrasons). Il est apparu que l’ICP permet non seulement de voir simultanément tous les tissus articulaires – denses et mous – mais qu’en plus, elle produit des images avec une définition et un contraste améliorés : les c ontours apparaissent plus nets et les structures internes plus claires. Lors de travaux plus récents, parus en juin 2021, l’équipe a évalué sa technique sur une articulation très petite : le genou de souris atteintes d’arthrose. Résultat : même à cette petite échelle, les images d’ICP ont révélé plus de détails que les techniques d’imagerie conventionnelles, comme un nombre plus élevé de micro-calcifications, ces dépôts de cristaux calciques qui s’accumulent au niveau des tissus mous. 329 ont été détectés avec l’ICP, contre 57 pour l’IRM, et 314 pour le scanner conventionnel. Hélas, il y a un hic : lors de ces études, Emmanuel Brun et ses collègues ont eu recours à une source de rayons X très spécifique : le synchrotron de Grenoble (ou ESRF), qui contrairement à la radiographie ou au scanner conventi onnel, permet une mesure de la déviation des rayons X. Mais ce type d’installation à un coût et une taille très importants. Il est donc strictement impossible de l’utiliser en routine, dans le cadre de la recherche thérapeutique ou en clinique. Heureusement, les chercheurs ont trouvé une astuce pour se passer d’une telle infrastructure. « Nous avons intégré, dans un dispositif émetteur de rayons X classique, une sorte de papier de verre qui permet à un algorithme informatique développé spécialement à cette fin de mesurer la déviation des rayons X… comme dans un synchrotron », explique Emmanuel Brun. Les chercheurs ont même validé la précision et l’efficacité de ce système sur… une mouche. Reste maintenant à récolter des fonds pour perfectionner le dispositif et le tester sur des articulations humaines. « Si tout se passe bien, notre technologie pourrait être disponible en clinique d’ici à cinq ans », affirme le chercheur. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Des chercheurs de l’Université d'État de Washington identifient dans des cellules de la bouche des biomarqueurs de la polyarthrite rhumatoïde qui pourraient permettre de diagnostiquer très tôt la maladie et de commencer le traitement bien avant les premiers symptômes. L’étude, publiée dans Scientific Reports, suggère le développement dans un avenir proche d’un test de dépistage par écouvillonnage "de joue". La polyarthrite n’est pas une maladie rare, elle touche entre 0,3 et 0,7 % de la population, avec une incidence en France d’environ 9 nouveaux cas par an pour 100.000 habitants. Cette maladie inflammatoire chronique évolutive entraîne de sévères effets fonctionnels et psychologiques. Pouvoir dépister les personnes les plus susceptibles de développer la maladie, et pouvoir les traiter de manière précoce, permettrait de réduire le fardeau de la maladie, pour les patients comme pour la société. L’équipe de Michael Skinner, chercheur à la Washington State University, identifie ici un ensemble d'épimutations spécifiques de la maladie, dans des cellules buccales de 2 cohortes de patientes d’origines ethniques différentes, atteintes de polyarthrite rhumatoïde. Dans chaque cohorte, environ la moitié des patientes souffraient de polyarthrite rhumatoïde, l'autre moitié formant un groupe témoin, ce qui a permis aux chercheurs de comparer l'épigénome. L’épigénome est constitué de facteurs chimiques qui peuvent modifier le génome et modifier son expression. L’analyse a permis d’identifier des modifications épigénétiques dans des zones de méthylation de l'ADN, chez les patientes atteintes de polyarthrite rhumatoïde ; présents dans les 2 cohortes, ces biomarqueurs identifiés ont été interprétés comme "un signal fort de la maladie". Selon cette étude, ces nouvelles données suggèrent qu’il serait possible de développer un test diagnostique relativement non invasif d'écouvillonnage "de joue", pour dépister la maladie. L'objectif à terme est d'identifier les personnes plus vulnérables 10 ans avant que la maladie ne se développe, afin de pouvoir proposer aux patients des traitements préventifs qui permettent de bloquer l'évolution de la maladie. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Une équipe de la National Yang Ming Chiao Tung University (Taiwan), a montré que l’échographie focalisée pouvait être une alternative, non invasive et prometteuse, contribuant à prévenir les crises chez certains patients réfractaires aux antiépileptiques. Les résultats suggèrent que les ultrasons focalisés, qui peuvent être utilisés pour cibler de manière non invasive les circuits cérébraux, peuvent être bénéfiques pour certains patients épileptiques qui subissent des crises qui ne répondent pas aux antiépileptiques. S’il s’agit d’une petite étude pilote, elle apporte a minima une preuve de concept, celle de pouvoir atteindre de manière non invasive des régions cérébrales, avec ces ultrasons ciblés, qui devront encore être optimisés avant une & eacute;ventuelle utilisation clinique dans cette indication. L’étude a été menée auprès de 6 patients atteints de crises épileptiques résistantes aux médicaments : 2 des participants ont bénéficié d’une forte réduction des crises dans les 3 mois ayant suivi l’application des ultrasons focalisés. Aucun effet négatif sur le cerveau n’a été observé, par imagerie après le traitement. Cette étude confirme que la neuromodulation constitue un traitement prometteur de l'épilepsie pharmacorésistante. « Par rapport aux modalités actuelles utilisées dans la neuromodulation pour l'épilepsie, les ultrasons focalisés peuvent accéder à des régions cérébrales plus profondes et se concentrer sur la source principale du réseau épileptique et cela dans le cadre d’une approche relativement moins invasive », souligne l'auteur principal, le Docteur Hsiang-Yu Yu, du Taipei Veterans General Hôpital de Taïwan. Article rédigé par Georges Simmonds pour RT Flash Epilepsia | | | |
| Des chercheurs de l’Université d’Osaka, au Japon, proposent un nouveau traitement prometteur contre la maladie d’Alzheimer, associant un antibiotique et un antioxydant. Pour les besoins de leurs travaux, les chercheurs ont modifié génétiquement des souris pour qu'elles puissent développer l’affection neurodégénérative. Selon ces recherches, la démence se produit lorsque des protéines appelées amyloïde-β, tau et α-synucléine s'accumulent dans le cerveau et forment des oligomères (une substance composée de molécules). Dans de précédentes recherches, les scientifiques avaient déjà démontré qu’un antibiotique appelé "rifampicine" éliminait les oligomères et améliorait la fonction cognitive des rongeurs. Problème : le médicament provoquait des effets secondaires, tels que des lésions hépatiques. « Pour venir à bout des effets secondaires de la rifampicine, nous avons pensé à l'associer aux effets hépatoprotecteurs du resvératrol, un antioxydant présent naturellement dans les raisins », a indiqué le professeur Takami Tomiyama, auteur principal de l’étude. Dans le cadre de leur nouvelle étude, les chercheurs ont administré aux souris par voie nasale une dose de rifampicine et de resvératrol, cinq jours par semaine pendant quatre semaines. L’étude a montré que le spray nasal associant la rifampicine et le resvératrol améliorait la fonction cognitive des souris et inhibait l'accumulation d'oligomères. « Les résultats indiquent que l'administration par voie nasale d'une combinaison de rifampicine et de resvératrol présente des avantages par rapport à la rifampicine en monothérapie en termes de sécurité et d'efficacité. Nos résultats fournissent un moyen de prévenir la démence neurodégénérative en ciblant les oligomères », ont conclu les scientifiques. Article rédigé par Georges Simmonds pour RT Flash Frontiers In Neuroscience | | | |
| Des chercheurs de l'Université de Lausanne (Suisse) ont découvert deux nouveaux marqueurs sanguins de la schizophrénie. Un marqueur sanguin est une molécule dont la présence dans le sang exprime la présence d'un état ou d'une maladie. Pour identifier ceux de la schizophrénie, les scientifiques se sont intéressés aux neurones à parvalbumine et aux mitochondries de ces neurones. Les mitochondries sont des organites présents dans les cellules. Ces dernières sont sources d’énergie et de respiration cellulaire. Elles sont ainsi importantes pour la bonne santé des neurones à parvalbumine. « Une molécule du système antioxydant, le glutathion, est déficiente chez les patients et patientes schizophrènes. Son manque mène à une altération des neurones à parvalbumine, un type de neurone directement impliqué dans toutes les fonctions cognitives du cerveau, donc de la pensée », a expliqué Kim Q. Do, professeure en neurosciences au Centre de neurosciences psychiatriques (CNP) en Suisse et l’un des auteurs de cette étude. Les chercheurs ont noté que les mitochondries dysfonctionnelles s’accumulaient dans le cerveau de certains patients atteints de schizophrénie car elles n'étaient plus éliminées ou recyclées. Cette accumulation des mitochondries dysfonctionnelles augmente le stress oxydatif, qui peut être défini comme une agression des cellules par des espèces réactives de l'oxygène (ERO). Habituellement, les ERO sont détruites par les molécules antioxydantes, mais leur production est altérée en cas de stress oxydatif. Elles peuvent donc facilement détruire nos cellules neuronales. À terme, le stress oxydatif, en partie, peut causer la mort des neurones. Lors de leurs expériences, les scientifiques ont observé que miR137 et COX6A2, deux molécules, étaient plus particulièrement sensibles au stress oxydatif. Chez les patients atteints de schizophrénie, la quantité de miR137 était particulièrement élevée, ce qui indique, d’après les chercheurs, que le système de nettoyage des mitochondries dysfonctionnelles ne s’activait pas suffisamment. Autrement dit, les mitochondries dysfonctionnelles s’accumulaient car les molécules miR137 étaient présentes en quantité importante. En revanche, le taux de COX6A2 était très bas chez les participants de l’étude, ce qui explique la mauvaise respiration cellulaire, l’un des rôles des mitochondries. Comme cette fonction des mitochondries était altérée chez ces patients schizophrènes, il s’agit d onc bien d’un marqueur. Les chercheurs ont estimé que miR137 et COX6A2 pouvaient donc être des marqueurs de la schizophrénie et les ont recherchés dans le sang de patients atteints de cette pathologie. Ainsi, deux catégories de patients ont été découvertes : ceux qui avaient des problèmes de mitochondries et ceux qui n’en avaient pas. « Les patients et patientes souffrant d’un défaut mitochondrial ont des symptômes cliniques plus sévères que les autres », a développé Inès Khadimallah, auteure de l'étude. Ces patients avaient une plus grande perte d’autonomie. Les scientifiques en ont conclu que miR137 et COX6A2 étaient deux marqueurs sanguins chez des patients schizophrènes ayant des anomalies mitochondriales. À terme, ces travaux pourraient permettre de mettre au point de nouveaux traitements. Les patients ayant des anomalies mi tochondriales pourraient bénéficier d’un traitement antioxydant, ce qui améliorerait l’état de leurs neurones à parvalbumine et les symptômes de leur maladie. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| L'opération de la cataracte est la plus courante dans le monde et est pratiquée sur environ 700 000 personnes en France chaque année. Peu de gens savent que la cataracte est une maladie oculaire très courante qui concerne plus de 20 % de la population après 65 ans et plus de 60 % des patients après 85 ans en France, selon l’Assurance maladie. La cataracte est une opacification du cristallin d'un ou des deux yeux. Elle est responsable d'une baisse de la vision qui est due le plus souvent au vieillissement. Les personnes touchées doivent donc se faire opérer en vue du remplacement du cristallin par un implant. Une intervention chirurgicale qui permet donc de recouvrer sa vision mais également de réduire les risques de démence chez les personnes âgées selon une récente étude basée sur l’étude de plus de 5 000 participants âgés de plus de 6 5 ans. En effet, les chercheurs ont découvert que les personnes âgées ayant subi une chirurgie de la cataracte avaient près de 30 % moins de risque de développer une démence, quelle qu'en soit la cause, par rapport à ceux qui n'en ont pas subie. Un risque réduit qui a persisté pendant au moins une décennie après la chirurgie. « C'est vraiment excitant car aucune autre intervention médicale n'a montré une association aussi forte avec le diminution du risque de démence chez les personnes âgées », s’est réjouie la chercheuse principale de l’étude, le Docteur Cecilia Lee, professeure agrégée en ophtalmologie à la faculté de médecine de l'Université de Washington. Pour parvenir à ces conclusions, les chercheurs de l'Université de Washington et du Kaiser Permanente Health Research In stitute à Seattle ont analysé des données d’une précédente étude appelée "The Adult Changes in Thought (ACT)" menée auprès de 3 000 participants âgés de plus de 65 ans atteints de cataracte. Les chercheurs ne sont pour l’instant pas en mesure d’expliquer les mécanismes par lesquels la chirurgie de la cataracte entraîne une diminution du risque de démence chez les personnes âgées. Ils émettent toutefois l'hypothèse que les personnes peuvent obtenir des informations sensorielles de meilleure qualité après une chirurgie de la cataracte, ce qui pourrait avoir un effet bénéfique sur la réduction du risque de démence. Ils pensent qu’avoir une meilleure vue pourrait en effet être bénéfique pour le cerveau. « Ces résultats sont cohérents avec l'idée que l'apport sensoriel au cerveau est important pour la santé du cerveau », a en effet déclaré le co-auteur de l’étude, le Docteur Eric B. Larson, chercheur principal au Kaiser Permanente Washington Health Research Institute. Le Docteur Cecilia Lee a avancé une autre hypothèse, estimant qu’après une opération de la cataracte, les yeux des personnes sont plus exposés à la lumière bleue. « Certaines cellules spéciales de la rétine sont associées à la cognition et régulent les cycles du sommeil, et ces cellules réagissent bien à la lumière bleue », a-t-elle déclaré. « Les cataractes bloquent spécifiquement la lumière bleue et la chirurgie de la cataracte pourrait réactiver ces cellules », selon elle. Les résultats de l'étude mettent en évidence de solides arguments en faveur de recherches supplémentaires sur la connexion œil-cerveau dans la démence. Des études antérieures du groupe de chercheurs ont déjà montré un lien étroit entre d'autres maladies rétiniennes, telles que la dégénérescence maculaire liée à l'âge (DMLA), et le développement de la maladie d'Alzheimer et de la démence. « Si notre recherche est validée dans de futures études, l'opération de la cataracte pourrait avoir une pertinence clinique chez les personnes âgées à risque de développer une démence », assurent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| La police fédérale australienne a annoncé qu'elle comptait prochainement utiliser les échantillons ADN collectés sur les scènes de crime pour réaliser un ensemble de prévisions sur les suspects. Cette technologie, appelée le phénotypage, permet de déterminer le sexe biologique du suspect, son ascendance et son apparence physique. La police australienne aurait même déjà utilisé une variante de cette technique pour identifier un suspect, mais aussi les restes d'une victime. La police australienne utilise une technologie appelée "séquençage parallèle massif". Cela permet aux machines de lire des milliards de lignes de séquençage ADN très rapidement. En y ajoutant des calculs prédictifs, cela évite de se limiter aux données ADN disponibles dans les bases de la police. Cela peut se révéler précieux dans le cas de personnes portées disparues, pour identifier des restes ou pour exclure certains suspects de sa liste. La police australienne entend l'utiliser pour déterminer la couleur des yeux d'un suspect et bientôt celle de ses cheveux. D'ici à 10 ans, elle devrait évoluer pour prédire l'âge, la masse corporelle, la taille, la distance entre les yeux, la forme des oreilles, la structure osseuse des joues… Oui, si l'on en croit les deux scientifiques, car les prévisions peuvent dépasser le simple domaine de l'apparence et s'attacher à la santé, physique et mentale des personnes. « Il sera très important de dessiner les limites de ce qui peut être prédit avec ces techniques », indiquent-ils, « et quand et comment les utiliser ». Pour le moment, aucune loi australienne n'encadre clairement le phénotypage ADN. Au-delà même des questions de vie privée, on peut aussi s'interroger sur les biais racistes que ce type de technologie entraîne. En Australie, certaines ethnicités sont davantage suspectées par la police, en particulier les peuples indigènes. Une étude récente montre que trois personnes sur quatre ont des préjugés racistes, conscients ou inconscients, sur cette population. Le phénotypage reste une forme de prédiction incertaine et sujette à des interprétations. Article rédigé par Georges Simmonds pour RT Flash AFP | | | |
| C’est une nouvelle avancée majeure contre le cancer que vient de réaliser une équipe de recherche française, de l’Institut de pharmacologie et de biologie structurale (IPBS : CNRS/Université Toulouse III - Paul Sabatier). Ces chercheurs, dirigés par Jean-Philippe Girard, ont réussi à montrer, au terme de huit années de recherches, que les vaisseaux sanguins HEV (High Endothelial Venule), découverts en 2011, constituent la porte d’entrée principale des lymphocytes dans la tumeur. Leur étude, saluée par la communauté scientifique internationale, est publiée dans la prestigieuse revue Cancer Cell, le plus grand journal au monde de recherche en cancérologie. Cette équipe est également parvenue à filmer pour la première fois au monde, sur des modèles de souris, les lymphocytes en train de quitter le sang et d’entrer dans la tumeur en passant par les vaisseaux HEV de tumeur. Une prouesse technologique réalisée grâce au travail d’Elisabeth Bellard, ingénieur de recherche CNRS à l’IPBS. Après avoir identifié quelle route ces globules blancs "tueurs" empruntaient, ces chercheurs ont voulu comprendre quel était leur rôle dans l’efficacité du traitement par immunothérapie. Ils ont donc mené une étude clinique auprès d’une centaine de patients atteints d’un mélanome et suivis par la professeure Caroline Robert, chef du service de dermatologie au centre de traitement contre le cancer Gustave-Roussy, à Villejuif. Ils ont découvert que la présence d'un grand nombre de vaisseaux HEV dans les tumeurs est associée à une meilleure réponse à l'immunothérapie anti-PD-1 plus anti-CTLA-4. « Nous avons observé que quand il y avait beaucoup de vaisseaux HEV dans les métastases, les patients répondaient mieux à l’immunothérapie et ils avaient une survie plus longue », souligne Caroline Ro bert. Cette découverte majeure est d’autant plus riche d’espoirs que l’équipe de Jean-Philippe Girard a également mis au point un traitement à base d’anticorps qui permet d’augmenter le nombre de vaisseaux HEV, et de démultiplier ainsi les portes d’entrées pour que les lymphocytes T aillent détruire les tumeurs. « Nous avons augmenté de 50 % le nombre de vaisseaux, mais cela a suffi à augmenter l’efficacité de l’immunothérapie et cela a fait régresser les tumeurs qui normalement ne régressaient pas », indique Jean-Philippe Girard, qui a testé ce traitement sur des cancers du sein et du côlon. Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | La start-up américaine TuSimple, spécialisée dans les systèmes de conduite autonome pour poids lourds, a complété avec succès son premier test de conduite sur route ouverte sans humain à bord. Un camion Navistar équipé de son "Autonomous Driving System" a parcouru environ 130 kilomètres entre une gare de fret située à Tucson et un centre de distribution à Phoenix, dans l'Arizona. Le trajet a pris 80 minutes. Cette annonce a eu lieu le 29 décembre et marque une étape importante pour l'entreprise, dont l'objectif est de commercialiser sa technologie dans des camions dédiés (coconçus avec des partenaires) d'ici 2024. Elle a déjà effectué 1800 trajets dans cette zone (pour 240 000 km parcourus), et en particulier sur l'Interstate 80, une autoroute qui traverse le continent américain d'une côte à l'autre. Le test a été effectué en soirée (après 21h) et par temps dégagé. Si des essais de conduite autonome ont déjà eu lieu en Arizona, TuSimple est en avance sur le marché du poids lourd. Ces véhicules n'ont pas les mêmes contraintes (poids, cargaison, inertie, vitesse d'accélération et de freinage...). La start-up entend poursuivre ses tests sans humain à bord en 2022, l'objectif étant de démontrer qu'il est possible d'opérer commercialement des camions autonomes sur ce tronçon spécifique avant d'étendre ses opérations ailleurs. D'un point de vue économique, l'opportunité que représentent les camions autonomes est conséquente. Les chauffeurs routiers se font rares (en particulier aux Etats-Unis) tandis que la demande ne baisse pas avec l'essor de l'e-commerce. TuSimple se targue d'avoir déjà près de 7000 camions commandés, dont une centaine récemment annoncée de la part du logisticien DHL. Le groupe fait partie des partenaires avec lesquels la start-up codéveloppe ces futurs véhicules. A noter que cette première génération nécessitera encore une intervention humaine lors du chargement et du déchargement des marchandises, ainsi que pour manœuvrer dans ces zones. Article rédigé par Georges Simmonds pour RT Flash Azcentral | | | |
| Le Groupement britannique de recherches communes dans l’industrie aéronautique et aérospatiale, l’Aerospace Technology Institute (ATI), a annoncé son projet FlyZero, un long-courrier propulsé par l’hydrogène. D’une envergure de 54 mètres et propulsé par deux réacteurs, l’avion stockerait son carburant à -250°C dans des réservoirs cryogéniques situés à l’arrière et sur les flancs de son fuselage. Il pourrait transporter jusqu’à 279 passagers à la même vitesse et avec le même degré de confort que les avions actuels. L’espoir est qu’il puisse relier Londres, au Royaume-Uni, à San Francisco, sur la côte ouest des Etats-Unis, sans escale, ou même Londres à Wellington en Nouvelle-Zélande avec une seule escale pour refaire le plein d’hydrogène. Les travaux de recherche initiaux sont financés par le gouvernement britannique à hauteur de 15 millions de livres (17,5 millions d’euros). Ses concepteurs à l’ATI espèrent parvenir à développer un prototype à l’horizon 2030. Outre le projet de long-courrier, ils planchent également sur des concepts de monocouloirs et d’avions régionaux à hydrogène décarboné. Le secrétaire au Commerce britannique, Kwasi Kwarteng, a pour sa part affirmé que ce projet pourrait "définir le futur de l’aérospatial et de l’aviation". « En travaillant avec l’industrie, nous prouvons que de vrais vols neutres en carbone sont possibles, avec l’hydrogène à l’avant-garde pour remplacer les carburants fossiles conventionnels », a-t-il souligné. L’avionneur européen Airbus a aussi lancé le développement d’avions à hydrogène pour 2035. En attendant, l’industrie aéronautique s’est concentrée sur le carburant durable d’aviation dit SAF (Sustainable Aviation Fuel), qui peut être mélangé au kérosène sur les avions actuels, et la propulsion électrique, qui est limitée aux petits engins comme les taxis aériens en raison du poids des batteries. Article rédigé par Georges Simmonds pour RT Flash H2 | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|