| | | | | | | Edition du 11 Octobre 2019 |
| |
|
| Edito Drones et missiles de croisière : le nouveau défi stratégique et militaire mondial
Avant propos : Comme chaque semaine, jusqu'à la fin de l'année, je vous dis où en est notre campagne de dons. Au moment où je finis la rédaction de cet édito (Jeudi midi) nous sommes à 8.909 euros, soit près de 1800 euros de plus en une semaine. Nous sommes encore assez loin du seuil minimum (15.000 €) mais j'ai confiance. Je remercie bien sincèrement les 129 personnes qui ont déjà fait un don, don souvent accompagné d'un mot très sympathique Éditorial : Le 14 septembre dernier, la production de pétrole saoudienne a été réduite de moitié après une attaque de drones, d’une ampleur et d’une sophistication sans précédent, qui a visé deux installations stratégiques de la compagnie pétrolière Aramco, sur le plus grand site mondial de transformation de brut, à Abkaïk. Les destructions provoquées par cette attaque inédite sont considérables, si bien que la compagnie saoudienne Aramco a indiqué qu’il faudrait « plusieurs mois » pour remettre en état les installations touchées. Quant aux pertes économiques pour le royaume saoudien, elles sont non moins gigantesques : selon le ministre de l'Energie, le prince Abdoulaziz ben Salman, 5,7 millions de barils par jour sont concernés par l'interruption de production pétrolière, soit près de la moitié de la production saoudienne, ou 5 % du commerce quotidien mondial du pétrole. Cette attaque a eu pour conséquence immédiate une hausse du prix du baril de Brent de 18 % entre le 13 et le 19 septembre, et certains experts estiment qu’elle pourrait réduire de 0,2 point la progression attendue (déjà faible) du Produit Mondial Brut en 2020. Ces attaques ont rapidement été revendiquées par le mouvement rebelle Houthi, mouvement chiite pro-iranien qui contrôle une large partie du Yémen, y compris sa capitale Saana. Un porte-parole de ce mouvement a déclaré à la chaîne de télévision Al Masirah qu’une dizaine de drones avaient été utilisés pour cette double opération menée dans les provinces saoudiennes d'Abkaïk et Khouraïs, au sud-ouest de Dhahran, à un millier de kilomètres de Sanaa, la capitale du Yémen. Bien qu’il n’y ait encore aucune certitude sur la nature exacte des armes utilisées pour réussir ce coup de maître stratégique, il pourrait s’agir, selon certains experts, d’un nouveau type de missiles de croisières guidés, appelé Qods 1, que les houthis affirment avoir développé et qu’ils ont utilisé pour la première fois, le 12 juin 2019, contre l'aéroport civil d'Abha, dans le sud de l'Arabie saoudite. Toutefois, compte tenu des hautes performances de ce missile, et notamment de sa longue portée et de sa précision, il fait peu de doute que cet engin très élaboré a bénéficié de la technologie iranienne, même si les houthis ont pu en assurer l’assemblage. Rappelons que, début septembre, l’Iran a présenté en grandes pompes un nouvel engin aérien, baptisé « Kian ». Il s’agit d’un drone d’excellent niveau, décliné en deux modèles, capable de mener des « missions de surveillance et reconnaissance, et des vols pour des missions précises. Ce drone peut voler à plus de 1 000 kilomètres de son point de départ et trouver sa cible avec précision. Selon les chaînes de télévision iraniennes, il peut également être chargé de plusieur s types de munitions et s’élever à une altitude de 5 000 m. L’Iran dispose donc à présent d’un excellent niveau scientifique et technique qui lui permet de développer des drones et missiles d’une grande qualité. L’ensemble des pays développés, à commencer bien entendu par la France, doivent tirer rapidement toutes les leçons géopolitiques, stratégiques et militaires de cette attaque hors norme. Le premier enseignement de cet acte de guerre, c’est qu’en dépit d’un budget militaire colossal (68 milliards de dollars par an), l’Arabie saoudite, troisième pays au monde pour les dépenses militaires derrière les Etats-Unis et la Chine, a été absolument incapable de détecter ces engins aériens et tenter d’y répondre. Cette impuissance totale est d’autant plus étonnante que ce pays dispose de plusieurs systèmes de défense aérienne très sophistiqués, notamment le système Shahine, fourni par Thales, mais également des missiles Hawk et Patriot américains. Ce paradoxe montre que les systè mes d’armes, aussi perfectionnés soient-ils, ne font pas tout et que leur efficacité reste liée à la mobilisation de compétences humaines suffisantes. Le second enseignement que l’on peut tirer de cette attaque dévastatrice est que celle-ci confirme magistralement la rupture stratégique majeure inaugurée par les attentats du 11 septembre 2001. Cette rupture ne vient pas du fait, comme on a pu le lire çà et là dans la presse, qu’il serait impossible de se prémunir de ce genre d’attaque ou de développer des systèmes de protection efficaces (toute l’histoire de la guerre depuis l’âge de bronze nous montre qu’aucune arme n’est durablement invincible et qu’une parade finit toujours par être trouvée, jusqu’à l’innovation suivante), mais vient du « gain asymétrique » que représente ce nouveau type d’armes aériennes. Concrètement, cela signifie qu’il est à présent possible, pour un État ou une organisation te rroriste, d’infliger, pour une mise de départ relativement modique (disons moins d’un million de dollars) des dégâts matériels et pertes économiques gigantesques, qui peuvent représenter au final jusqu’à un million de fois plus que la valeur des armes utilisées pour l’attaque. Pour autant, il n’existe pas de fatalité technologique et il est tout à fait possible de concevoir des systèmes de riposte efficaces à ce type d’attaques, en combinant judicieusement différentes approches technologiques et théoriques, mais à condition de modifier simultanément notre doctrine militaire et nos approches stratégiques. En France, l’Agence nationale de la recherche (ANR) a lancé dès 2014, sur cette problématique des systèmes anti-drones, un appel à projets, pour le compte du Secrétariat général de la défense et de la sécurité nationale (SGDSN). ADP, la Direction des services de la navigation aérienne (DSNA) et Thales se sont associés afin de développer Hologarde, un outil de détection des drones actuellement à l’essai sur l’aéroport de Paris-Charles de Gaulle. Hologarde a déjà fait preuve de sa remarquable efficacité sur l'aéroport du Bourget en juin 2017. Pendant le salon de l’aviation qui a lieu tous les 2 ans sur cet aéroport, Hologarde est parvenu à détecter rapidement 131 drones tests, à l’aide d’un nouveau type de radar holographique, qui permet la détection d'objets de petite taille (0,01 m²) dans un rayon de 5 km avec une visualisation en trois dimensions. Ce radar présente la particularité de pouvoir détecter de très petites cibles très lentes, et ce à de grandes distances (7 km), mais aussi de faire le tri entre la nature des cibles (drones, oiseaux, véhicules…). Hologarde utilise également des caméras à haute résolution et un nouveau goniomètre, qui détecte toutes les fréquences transmises par ou vers les drones, les compare à une bibliothèque de données et fournit des informations de classification. L’ensemble de ces outils est piloté par un logiciel très élaboré qui analyse les trajectoires, évalue la masse du drone, et, si nécessaire, avertit la chaîne de commandement d’une menace potentielle. Mais ce qui rend la lutte anti-drone si difficile, c’est que les systèmes de défense doivent être capables d’identifier très rapidement des appareils de taille et de vitesse extrêmes variées et de plus en plus souvent dotées d’une capacité de frappe autonome. Outre-Atlantique, l’Armée américaine travaille depuis plusieurs années, via son laboratoire dédié, L’ARFL, sur une nouvelle catégorie d’arme révolutionnaire, les armes à énergie dirigée. Ce nouveau type d’arme comporte deux grandes catégories : les lasers à haute énergie (HEL) et les systèmes à micro-ondes de haute puissance (HPM). Pour les systèmes HEL, un faisceau de lumière intense est focalisé pour créer un effet sur la cible. Pour les systèmes HPM, une rafale d'énergie extrêmement courte et extrêmement forte est transmise pour créer l'effet souhaité. Précises, rapides et facilement rechargeables, ces armes offrent en outre la possibilité de viser de multiples cibles, avec des besoins réduits en matière logistique. Contre la menace des drones, le SMDC (le Commandement Américain de Défense contre les Missiles) est en train de tester le Mobile Expeditionary High Energy Laser 2.0 (MEHEL 2.0), une arme anti-aérienne à faisceau laser conçue pour être intégrée à un blindé de type Stryker. Même si l’armée américaine reste très évasive sur cette arme, de puissance modeste, elle a fait état de premiers essais « satisfaisants ». L’armée américaine envisage de tester, à l’horizon 2022, une autre arme à faisceau laser plus puissante (sans doute 100 kW), toujours embarquée sur un véhicule mobile. Ce futur laser anti-aérien n’aura pas encore la puissance suffisante pour pouvoir détruire à coup sûr des missiles ou drones « durcis », les plus élaborés, mais les experts estiment qu’il devrait pouvoir détruire ou mettre hors d’état de fonctionnement de nombreux engins aériens légers et peu protégés. Il faudra attendre sans doute 2025 pour que l’armée américaine dispose d’armes à faisceau dirigé de plus de 300kW de puissance, capables, en association avec de nouveaux outils de détection faisant appel à l’IA, de détruire les drones et missiles les plus protégés. Plusieurs équipementiers dont les Américains Northrop et Raytheon travaillent aussi sur des lasers et autres armes à énergie dirigée pour protéger les blindés des attaques de drones. D’ici à 2020, l’US Army espère pouvoir équiper des blindés Stryker d’une arme à énergie dirigée d’une puissance de 50 kilowatts, couplée avec un canon de 30 mm. Mais pour pouvoir exploiter tout le potentiel de ces armes à flux d’énergie, encore faut-il disposer de systèmes de détection radar qui permettent de repérer à temps des engins volants de toute forme et de toute nature. Dans ce domaine, il existe à ce jour cinq grandes technologies de détection - qui peuvent être combinées - radar, radiofréquence, optique, infrarouge et acoustique. En matière de détection de drones militaires, les radars aéroportés s’avèrent d’une redoutable efficacité ; ils peuvent être installés sur des drones, comme le Block 40 RQ-4B Global Hawk américain, ou encore dans des dirigeables. Les États-Unis utilisent également le système TARS comme plate-forme radar pour assurer la couverture de surveillance basses altitudes de zones sensibles et détecter des engins hostiles en approche. Pour faire face à des attaques par essaim, l’US Air Force dispose du THOR (Tactical High-Power Microwave Operational Responder), un système capable d’envoyer de puissantes salves d’ondes en direction d’un ou plusieurs drones afin de les neutraliser. Enfin, pour intercepter et détruire des drones-suicides ou des missiles programmables de plus grosse taille (leur taille étant corrélée par leur rayon d’action et leur puissance destructrice), les forces américaines disposent de toute une panoplie de moyens nouveaux, comme le C-RAM (Counter Rocket, Artillery, and Mortar), l’Avenger, qui utilise des missiles Stinger, ou encore des canons de 20 mm à cadence de tir ultrarapide, comme le Centurion. L’armée française dispose pour sa part du redoutable missile Mistral SATCP (sol-air à très courte portée), capable de détecter et de détruire toutes sortes d’engins volants jusqu’à Mach 1,2, dans un rayon de 15 km. Par ailleurs, la Direction Générale de l'Armement (DGA) a réceptionné en juin dernier huit premiers systèmes de détection, d'identification et de neutralisation de drones dans le cadre du marché MILAD (Moyens Mobiles de Lutte Anti-Drones). Ce système, dont les performances restent confidentielles, va progressivement équiper nos forces armées et permet d'assurer la détection, l'identification et la neutralisation des drones et d'améliorer la protection de sites sensibles. L’Institut franco-allemand de recherches de Saint-Louis (Haut-Rhin) a également développé un système très performant de détection de drones, associant technologies de détection acoustiques et optiques. Cet outil peut repérer de petits engins volants, même dans des conditions météorologiques et un environnement urbain difficiles. Soulignons qu’il existe également, pour la détection rapide et efficace des petits drones malveillants, qui peuvent être utilisés pour observer des sites sensibles (centrales nucléaires, sites industriels, laboratoires) des solutions opérationnelles mises au point par des entreprises privées. La société allemande Aaronia basée à Strickscheid dans le land de Rhénanie-Palatinat a ainsi développé, après 4 ans de recherche, un remarquable système de détection de drones reposant sur une analyse en temps réel du spectre électromagnétique émis par les drones. Le système, qui peut fonctionner la nuit ou par mauvais temps, est capable de repérer plusieurs drones simultanément, qu’ils soient du même type ou différents. Autre avantage, ce système est aussi capable, toujours selon le constructeur allemand, de détecter des signaux HF dont la source est masquée par des arbres, des immeubles ou une foule. Enfin, dernier point fort, ce système est passif, ce qui signifie qu’il ne produit pas de signaux qui puissent perturber les télécommunications et ne fournit aucune information sur sa présence aux utilisateurs des drones. Comme le montre cette attaque aérienne sans précédent du 14 septembre dernier en Arabie Saoudite, notre monde vient de basculer dans une nouvelle ère géostratégique, avec la montée en puissance d’un nouveau type d’engins volants programmables, drones ou missiles, à long rayon d’action, capables d’infliger des pertes humaines et des dommages matériels considérables et suffisamment simple d’utilisation pour que leur détention ne relève plus du monopole des états. Face à cette nouvelle menace, qui est susceptible de déstabiliser les régions entières de la planète et qui est également extrêmement préoccupante pour nos démocraties, en élargissant considérablement les moyens d’action des organisations terroristes et criminelles, il est urgent que notre pays mobilise toutes ses ressources humaines, scientifiques et technologiques pour mettre au point rapidement, en combinant l’efficacité des armes à faisceau d’énergie, les moyens d’observation spatiale et la puissance de détection et de calcul de l’intelligence artificielle, des systèmes de défense qui puissent contrer ces attaques potentiellement dévastatrices et protéger à la fois nos concitoyens et nos installations matérielles les plus sensibles. Dans cette perspective, il serait hautement souhaitable que l’Europe se dote d’un ambitieux programme de recherche spécifiquement consacrée au développement d’un système antiaérien de détection précoce et de destruction par faisceau d’énergie de ce nouveau type d’engins destructeurs. Mais il faudra sans doute aller plus loin et développer de nouvelles technologies électroniques, physiques et informatiques qui permettent, par une analyse très sophistiquée des données recueillies, de remonter jusqu’aux utilisateurs de ces nouvelles armes meurtrières, afin de frapper ceux-ci impitoyablement et leur enlever ainsi leur sentiment d’indétectabilité et d’impunité. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | La plupart des normes de cryptage semblent aujourd'hui très sûres, puisqu'un ordinateur devrait effectuer des calculs pendant des millions d'années pour pouvoir en décoder la clé. Les ordinateurs quantiques, capables en théorie de calculer plus rapidement de manière exponentielle, pourraient toutefois à un moment donné ramener les normes de sécurité cryptographiques actuelles à un niveau inférieur. IBM estime que ce moment pourrait intervenir d'ici dix à trente ans environ : à première vue, il ne s'agit donc pas d'une menace qui devrait nous préoccuper dans l'immédiat. Par ailleurs, certaines données doivent dès à présent être pouvoir conservées en sécurité durant une période de vingt à trente années, par exemple pour l'archivage numérique de données sensibles. Voilà pourquoi des cryptographes travaillent déjà d'arrache-pied sur des algorithmes résistants aux attaques de futurs ordinateurs quantiques. Le National Institute of Standards and Technology (NIST) américain est actuellement occupé à développer une norme post-quantique de ce genre. A côté de Luov, un algorithme qui avait par ailleurs été développé à la KU Leuven, il y a également dans la course Kyber et Dilithium, deux algorithmes mis au point par des chercheurs d'IBM à Zürich. Voilà ce qu'on a appris début de cette année, lorsque NIST a sorti sa liste des algorithmes autorisées à passer au deuxième tour. IBM n'attend cependant pas la décision finale de NIST et va dès à présent appliquer ses deux algorithmes auto-développés dans des systèmes de stockage numérique. L'entreprise introduit donc le prototype d'un système de backup considéré comme le premier système au monde résistant aux attaques quantiques. Ce système est protégé par une combinaison de Kyber et Dilithium avec AES-256. Cette dernière forme de codage, qui est utilisée au niveau mondial depuis des années déjà, est du reste basée sur l'algorithme belge "Rijndael". Article rédigé par Georges Simmonds pour RT Flash IBM | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Pour la première fois au monde, un robot a remplacé la main de l’homme dans la pose d’un implant cochléaire, ce dispositif électronique médical qui permet de fournir un certain niveau d’audition pour les personnes atteintes de surdité profonde ou sévère. L’opération a été menée le 9 juillet au sein de l’hôpital parisien de la Pitié-Salpêtrière. Il s’agissait d’introduire la prothèse à l’intérieur de la cochlée, l’organe de l’audition, sorte de tunnel en forme d’escargot. Une opération délicate lorsqu’elle est réalisée à la main, mais facilitée par l’utilisation d’un bras robotisé, piloté grâce à une souris 3D, explique le docteur Yann Nguyen, concepteur et premier utilisateur de l'appareil. Ce robot permet de remplacer la main du chirurgien en tenant les instruments à sa place. On peut dépasser les limites de la main humaine, en supprimant les tremblements, en couplant le robot à des systèmes de navigation chirurgicale, en atteignant des espaces difficilement accessibles ou des vitesses extrêmement lentes. De fait, le robot permet de progresser de 0,3 millimètre par seconde, avec une précision maximale. L’opération dure une à deux minutes. Ce système, qui a déjà été le premier au monde à réaliser des chirurgies de l'otite chronique et de l'otospongiose en 2018, pourrait donc être désormais aussi utilisé pour ce type d'opération. Article rédigé par Georges Simmonds pour RT Flash France Inter | | | |
| Une étude réalisée par l'Université de Californie à Los Angeles (UCLA), en partenariat avec la start-up Osso VR, a essayé d'évaluer les bénéfices pédagogiques de la réalité virtuelle pour l'enseignement de la chirurgie orthopédique. Elle a été effectuée en 2018 sur un groupe d'étudiants de l'école de médecine David Geffen et a été présentée officiellement le 31 juillet 2019 lors du rassemblement annuel des chirurgiens orthopédiques membres de la Western Orthopaedic Association. Il en ressort que les étudiants formés en réalité virtuelle obtiennent des résultats plus de deux fois supérieurs à ceux des étudiants suivant le cursus classique. L'étude a été réalisée sur 20 étudiants en première et deuxième année de médecine. Il leur a été demandé d'opérer une fracture du tibia en posant un clou intramédullaire. Cela requiert de faire une incision, d'insérer un guide pour avoir le bon angle, de fraiser l'os avec une perceuse, de préparer le clou et de l'insérer, de le maintenir en place à l'aide de plusieurs vis, puis de recoudre la plaie. Ils ont reçu une explication de 5 minutes sur l'utilisation de la perceuse, puis ont été divisés en deux groupes de 10. Le premier groupe a reçu une documentation papier agrémentée de photos et d'instructions étape par étape, et le second a reçu des instructions similaires mais prodiguées en réalité virtuelle par un module de formation de la start-up californienne Osso VR. Les étudiants ont pu prendre autant de temps qu'ils le voulaient pour absorber les instructions, puis sont passés dans une salle annexe pour mettre la leçon en pratique sur une reconstitution partielle d'un squelette. Ils ont ensuite répété la même procédure deux semaines plus tard, sans avoir accès aux instructions. Les étudiants ont été notés sur deux axes : l'exécution correcte de chaque étape de l'opération, et leur dextérité pour le maniement des outils ainsi que le temps de réalisation. Pour pratiquement chaque aspect de ces deux barèmes, la formation en réalité virtuelle a donné de meilleurs résultats que la méthode classique. L'amélioration était particulièrement importante pour les étapes les plus délicates, comme la préparation du clou, ainsi que pour le maniement des outils. L'opération s'est aussi déroulée 20 % plus vite en moyenne. Par ailleurs, lors de la deuxième opération, les étudiants formés en VR ont tous amélioré leurs performances tandis que les autres ont eu tendance à décliner. L'évaluateur ne savait pas quels étudiants avaient été formés par quelle méthode. Article rédigé par Georges Simmonds pour RT Flash Road Tovr | | ^ Haut | |
|
| | | Des chercheurs de l'Université d'Evanston, en Illinois, ont conçu un film aux couches métalliques nanométriques. Objectif de ce matériau peu coûteux : générer un courant électrique grâce au mouvement de gouttes d'eau salée à sa surface. Produire de l’électricité grâce au simple mouvement d’une goutte d’eau de mer sur un film métallique, si le principe de la génération d’un courant électrique grâce aux ions contenus dans une solution saline était bien connu, sa maîtrise, à des coûts abordables, reste encore à acquérir. Des chercheurs du département de chimie de l’Université d’Evanston (Illinois) ont fait un pas dans cette direction en mettant au point un film constitué de nano-couches de métal peu onéreux. Ces travaux ont été publiés début juillet dans la revue Proceedings of the National Academy of Sciences. Jusqu’à présent, les méthodes les plus efficaces pour générer un courant électrique à partir du mouvement cinétique d’une goutte utilisaient un matériau constitué de nanotubes de carbone, de graphène et de semi-conducteurs diélectriques. Si cette technologie est jugée prometteuse, avec notamment une efficacité de l’ordre de 30 %, les chercheurs ont exploré une nouvelle approche afin de réduire significativement les coûts de fabrication du dispositif tout en conservant ses performances. La diminution des coûts permettrait d’augmenter la surface du matériau et d'accroître ainsi l’électricité générée par le processus. Pour cela, ils ont utilisé des éléments métalliques courants comme le fer, le nickel, le vanadium, l’aluminium ou encore le chrome. D’une pureté standard, ces métaux sont déposés en nanocouches sur un substrat flexible en polymère, grâce à un procédé en phase gazeuse couramment utilisé dans l’industrie. Les ions sodium contenus dans une goutte de d’eau salée, en contact avec le film, induisent une sorte de charge miroir dans l’épaisseur de 10 à 30 nanomètre du dépôt métallique. Une couche d’oxydation superficielle isole les ions positifs en surface des électrons libérés dans les métaux. Le déplacement de la goutte le long du film a pour effet d’entraîner les électrons dans le film, générant ainsi un courant électrique. Le nanofilm, peu onéreux et facile à mettre en œuvre, pourrait permettre de faire passer cette technologie à une échelle plus importante, notamment pour la création d’hydroliennes de nouvelle génération. Selon les estimations des chercheurs, une pile de 100 feuilles plastiques de 10 x 10 mètres métallisées sur un côté pourrait produire entre 2 et 5 kilowatts d’électricité, soit environ de quoi alimenter en théorie « un foyer américain standard ». Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | | |
| Des chercheurs ont développé une cellule solaire sous forme de film de kesterite, à base de cuivre, zinc, germanium et sélénium. Pour dépasser la limite théorique du rendement énergétique des panneaux solaires, ils proposent d’appliquer ce film en surface de la couche de silicium. Ces résultats sont issus des conclusions du projet européen SWInG, coordonné par l’Interuniversitaire Micro-Electronica Centrum (IMEC), un institut de recherche interuniversitaire flamand en microélectronique et nanotechnologies. Les matériaux constituant les cellules solaires permettent de convertir en énergie une partie du domaine spectral du rayonnement solaire, mais aucun n’est efficace sur l’ensemble du spectre. Par conséquent, pour accroître l’efficacité des cellules solaires, il est possible de superposer deux types de cellules, fonctionnant en complémentarité, car optimisées pour des domaines différents. Bien que l’efficacité des cellules solaires en tandem ait déjà été prouvée, les matériaux actuellement disponibles sur le marché présentent tous un inconvénient. D’après le professeur Bart Vermang de l’IMEC, ils sont soit trop chers, soit instables, trop rares ou pas assez performants. Les pérovskites sont souvent considérées comme des matériaux d’avenir dans le domaine du photovoltaïque. Néanmoins, ils ont des inconvénients majeurs comme leur mauvaise résistance à l’eau ou au rayonnement UV. Pire encore, ils sont potentiellement toxiques, car la plupart des formulations contiennent du plomb. Pour contourner ce problème, les chercheurs de l’IMEC se sont donc intéressés à une alternative aux pérovskites : les matériaux de type kësterite. Ils ont ainsi réussi à développer des absorbeurs à base de Cu2ZnGe(S,Se)4 ou Cu2ZnGeSe4, plus stables que les pérovskites, non toxiques et surtout très performants. Les résultats, publiés dans la revue Sustainable Energy & Fuels, sont plutôt prometteurs. Le professeur Vermang annonce un rendement énergétique record à l’échelle mondiale de 8,4 % pour ce type de cellules. Cela signifie que si le matériau était utilisé en tandem, le rendement des panneaux solaires en silicium pourrait dépasser la limite théorique de 30 %. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| On estime que plus de 10 % des émissions de dioxyde de carbone seraient dus à la réfrigération et aux climatiseurs d'ici 2030. Face à cette situation, l’entreprise américaine SkyCool Systems tente de répondre par la fabrication d’un système de refroidissement consommant moins d’énergie. En effet, la température étant plus fraîche sur Terre la nuit, presque tout émet de la chaleur (arbres, sols, maisons et même êtres vivants), avant d’être envoyé, sous forme de rayons infrarouges, dans l’atmosphère jusque dans l’espace pour un aller sans retour. Ce phénomène s’appelle la réfrigération passive par rayonnement. Le concept est loin d’être nouveau puisqu’il est déjà utilisé depuis des centaines d’années dans certaines régions du globe. Les Indiens et Iraniens par exemple, l’utilisaient pour fabriquer de la glace à l’aide de grands bassins en céramique remplis d’eau et laissés découverts par temps clair. Durant leurs travaux à l’Université de Stanford, les trois fondateurs de l’entreprise ont créé un matériau visant à faciliter le processus de refroidissement radiatif, dont la surface absorbe, émet et réfléchit la chaleur de manière équilibrée. Le panneau métallique créé par SkyCool, composé d’une mince couche d’argent, recouverte d’une couche de dioxyde de silicium et d’oxyde d'hafnium, peut faire chuter la température de cinq à dix degrés Celsius en reflétant efficacement le soleil. Des tuyaux situés derrière le panneau permettent de refroidir le fluide à l’intérieur et de l’envoyer aux systèmes de réfrigération. Un des principaux défis du refroidissement radiatif moderne consiste à faire en sorte que le film qui recouvre le panneau puisse refléter la chaleur du soleil dans le ciel, car en effet, les émissions thermiques voyagent dans n’importe quelle direction. Récemment, des chercheurs de l’Université de Buffalo ont trouvé un moyen pour transmettre les émissions dans une direction étroite et ascendante. Un prototype a déjà été installé sur un immeuble de bureaux à Las Vegas, avec une puissance de refroidissement de 40,1 watts par mètre carré. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Aux Etats-Unis, des scientifiques ont créé un jumeau numérique des cœurs d’une dizaine de patients afin de cibler les battements irréguliers. Les données récoltées permettent d’établir une cartographie des irrégularités cardiaques et de les soigner avec davantage de précision. L'Université Johns-Hopkins de Baltimore a publié une étude dont les conclusions indiquent que la simulation numérique pourrait aider à mieux traiter les troubles cardio-vasculaires. Ce travail a été réalisé chez une dizaine de patients présentant une anomalie cardiaque. Plus précisément, l’équipe de Natalia A. Trayanova, professeure de génie biomédical, a étudié des cœurs présentant des battements irréguliers, affection désignée par le terme de "fibrillation auriculaire". Aujourd’hui, la technique la plus fréquente pour soigner cette maladie consiste en une ablation par cathéter. Un ou plusieurs cathéters sont insérés dans les vaisseaux sanguins afin d’étudier les irrégularités des battements, puis de détruire les tissus défectueux via des radiofréquences. Cette méthode provoque "souvent plusieurs échecs chez les patients atteints de fibrillation auriculaire", rappelle l’étude. L'équipe scientifique a travaillé sur un cœur virtuel capable de reproduire les signaux électriques envoyés par les oreillettes, qui sont à l'origine des battements irréguliers du cœur d'un patient donné, et d’identifier leur origine. Particularité de ces irrégularités : elles se déplacent de tissus en tissus. Les simulations par ordinateur permettent de reproduire les anomalies des battements et de prédire les "déplacements" des anomalies via une carte 3D numérique du cœur. Les anomalies sont alors virtuellement détruites une par une jusqu’à suppression complète des irrégularités. Ces données prédictives personnalisées permettent ensuite, lors de la véritable opération du patient, de cibler directement les tissus affectés selon le scénario établi par l’ordinateur. Le cathéter est dirigé sur les tissus émettant des signaux électriques irréguliers, mais également les tissus susceptibles d'en émettre, comme l'avait prédit la simulation. Le dispositif permet "d’éviter les longues cartographies électriques et peut améliorer la précision et l'efficacité de l'ablation de la fibrillation auriculaire chez les patients, tout en éliminant le besoin de répéter les procédures", résume l’étude. Aucune récidive n’a été détectée lors de la période d’observation qui a suivi sur une durée de plus 300 jours. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des chercheurs de l’EPFL et de l’Utrecht Medical Center (NL) ont mis au point une méthode optique ultra-rapide qui permet de sculpter des formes complexes dans des hydrogels dotés de cellules souches, puis de les vasculariser. Cette technique novatrice ouvre de larges possibilités dans le domaine de l’ingénierie tissulaire, pour la fabrication d’organes et de tissus artificiels. L’ingénierie tissulaire consiste à fabriquer des tissus et organes artificiels, dans le but de créer et tester de nouveaux médicaments, réparer des tissus endommagés et même implanter des organes entiers dans le corps humain. Jusqu’ici, les méthodes de fabrication ont montré de nombreuses limites en termes de géométrie et de viabilité des cellules. A l’EPFL, des chercheurs du Laboratoire de dispositifs photoniques appliqués (LAPD) en collaboration avec l’Université d’Utrecht, ont mis au point une méthode optique pour sculpter des formes complexes dans un hydrogel biocompatible doté de cellules souches. Le tout en quelques secondes. L’objet sculpté peut ensuite être vascularisé en ajoutant des cellules endothéliales. Cette technique à haute résolution fait l’objet d’une publication dans Advanced Materials. Elle offre aux spécialistes de l’ingénierie cellulaire une plate-forme novatrice, pour la fabrication de la prochaine génération d’organes bioimprimés fonctionnels personnalisés. La technique de bio-impression des chercheurs - volumetric bioprinting (VBP) - consiste à envoyer un laser sur un tube d’hydrogel en rotation, rempli de cellules souches. Selon la forme souhaitée, l’énergie de la lumière s’accumule à des endroits spécifiques, permettant de solidifier la matière à des endroits précis. En quelques secondes, une forme 3D à la géométrie complexe apparaît en suspension dans le gel. Les cellules souches contenues dans l’hydrogel supportent très bien ce processus. Il est ensuite possible de vasculariser la structure, lorsqu’on les met en contact avec des cellules endothéliales. Les chercheurs ont démontré qu’ils pouvaient construire des objets de plusieurs centimètres, soit une taille cliniquement utile. Une valve semblable à une valve cardiaque, un ménisque et un bout de fémur à la topographie complexe ont déjà été fabriqués. De même que des structures imbriquées les unes dans les autres. La méthode des chercheurs représente un changement de paradigme. « Comme les caractéristiques des tissus humains dépendent largement de leur structure extracellulaire très sophistiquée, la possibilité de reproduire cette complexité est prometteuse pour de véritables applications cliniques », souligne Paul Delrot, co-auteur de cette étude. Cette nouvelle technique permettrait donc de produire des tissus ou organes artificiels identiques en série à une vitesse sans précédent. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des chercheurs de la Washington University School of Medicine, à St Louis, ont, en effet, découvert que mesurer le ratio plasmatique de protéines bêta-amyloïde Aβ 42 et Aβ40 révèle avec une précision de 94 % la présence de lésions β-amyloïdes dans le cerveau. Cette étude ouvre la voie à une meilleure sélection de patients pour les futures études d’évaluation de molécules neuroprotectrices, ce qui est un grand pas pour la recherche. « Aujourd'hui, nous choisissons les participants d'essais cliniques à l'aide de scanners cérébraux, ce qui est à la fois chronophage et coûteux. Enrôler des participants prend des années » souligne le Professeur Randall J.Bateman, qui a dirigé ces travaux. « Mais avec un test sanguin, nous pourrions potentiellement « screener » des milliers de personnes en un mois. Cela signifie que nous pourrions enrôler des participants dans des études cliniques de façon bien plus efficace, ce qui nous aiderait à trouver plus rapidement des traitements. Cela pourrait avoir un impact énorme sur le coût de la maladie ainsi que sur les souffrances humaines qui l'accompagnent » a-t-il poursuivi. En utilisant l'immunoprécipitation et la chromatographie liquide/spectrométrie de masse, les chercheurs ont mesuré à la fois le rapport Aβ42/Aβ40 plasmatique et la concentration de la protéine tau phosphorylée dans le liquide céphalorachidien à partir d'échantillons issus de 158 personnes âgées, dont la majorité était normale d’un point de vue cognitif (94 % d'entre eux avait un Clinical Dementia Rate (CDR) égal à 0). Ces échantillons ont été collectés dans les 18 mois suivant un PET scan qui recherchait la présence de lésions β-amyloïdes. lls ont comparé leurs mesures aux standards de référence, l'analyse du ratio p-tau181/A β42 du liquide céphalorachidien ou le PET scan. Les chercheurs ont mis en évidence que le taux plasmatique Aβ42/Aβ40 était corrélé finement avec le PET scan, et avec le rapport jusqu'à présent utilisé comme référence, p-tau181/A β42. La combinaison du taux plasmatique Aβ42/Aβ40, de l'âge et du statut vis-à-vis de l’allèle APOE Æ4, présente une corrélation « très forte » avec le PET scan amyloïde, « ce qui suggère que le taux plasmatique Aβ42/Aβ40 pourrait être utilisé comme outil de détection des personnes à risque de démence type Alzheimer », écrivent les auteurs. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| Un laboratoire italien a mis au point une simple puce sur laquelle on cultive du cartilage, ce qui permet désormais de reproduire tous les effets de l'arthrose afin de tester de nouvelles approches thérapeutiques. L'expérimentation de ce dispositif révolutionnaire a montré que l'hyperstimulation mécanique du cartilage que permet cette puce induit une pathologie liée à l'ostéoarthrose sans que l'on ait besoin de recourir à l'administration de molécules inflammatoires. L'ostéoarthrose est la plus fréquente des pathologies musculo-squelettiques. À partir de soixante ans, 10 % des hommes et 20 % des femmes en souffriront. Ce nombre devrait malheureusement augmenter en raison du vieillissement de la population. Cependant, malgré cette tendance, les patients se trouvent confrontés à une absence totale de produits pharmaceutiques capables de soulager les symptômes mais également d’arrêter ou de renverser les processus dégénératifs. En fait, les traitements palliatifs ou la chirurgie sont actuellement les seules options valables. Et la mise au point de médicaments efficaces est entravée par l'absence de modèles expérimentaux capables de reproduire correctement la maladie. Jusqu'à présent, l'approche la plus courante pour reproduire l'arthrose in vitro reposait sur l'administration de fortes doses de molécules à des explants de cartilage. Mais l'arthrose ainsi obtenue ne représente que partiellement les symptômes finaux, au lieu de démontrer le processus pathologique en temps réel. La nouvelle puce, en revanche, utilise des contraintes mécaniques, représentant l’un des facteurs les plus étroitement liés au développement de l’arthrose, et est donc plus réaliste et plus efficace dans ses procédures de développement et de dépistage pharmacologique. Les expérimentations du nouveau dispositif ont montré que l'on pouvait, par une compression appropriée du cartilage, créer des symptômes typiques de l'arthrose : inflammation, hypertrophie et processus dégénératif. La "puce" du laboratoire italien représente donc un environnement idéal pour tester l'efficacité et les mécanismes des traitements pharmacologiques, raccourcissant les délais et les coûts de l'expérimentation tout en réduisant le besoin de tests sur animaux. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| L'Autorité de santé américaine (Food and Drug Administration) prévoit de tester dès cet automne une nouvelle manière d’opérer les patients atteints de problèmes cardiaques. Grâce à une intelligence artificielle capable de créer un modèle virtuel du cœur d’un patient, les chirurgiens cardiaques seront beaucoup plus efficaces au moment de l’opération. L’intelligence artificielle promet de faire des prouesses dans le domaine de la santé. Les exemples sont multiples : récemment, DeepMind dévoilait une IA capable de détecter une insuffisance rénale aiguë 48h avant son déclenchement. Cette même entreprise annonçait en janvier dernier une intelligence artificielle pouvant détecter des maladies rares à partir d’une simple analyse du visage d’un patient. Cette fois-ci, c’est une équipe de chercheurs de l’Université Johns Hopkins à Baltimore qui a imaginé une intelligence artificielle qui pourrait s’avérer particulièrement utile pour les chirurgiens cardiaques. Elle s’appelle Optimal Target Identification via Modelling of Arrhythmogenesis, ou OPTIMA pour les intimes. L’IA devrait permettre de créer un modèle virtuel du cœur d’un patient avant même que le médecin n’opère. Cette approche promet de réduire considérablement le nombre de chirurgies que les médecins devront effectuer pour traiter les personnes dont le rythme cardiaque est considéré comme irrégulier. Une fois le modèle créé, l’intelligence artificielle stimule chaque cellule avec une impulsion électrique virtuelle pour voir d’où provient l’irrégularité du rythme cardiaque. C’est à ce moment-là que les choses deviennent encore plus intéressantes. Après avoir obtenu le modèle, l’équipe procède à une simulation de chirurgie. Ce processus permet d’opérer virtuellement le cœur du patient pour élaborer le meilleur plan de traitement possible et cibler les tissus cardiaques concernés. Les tests seront effectués par la FDA sur 160 patients aux États-Unis, dès l’automne prochain. Article rédigé par Georges Simmonds pour RT Flash Siècle Digital | | | |
| Une équipe de chercheurs de la John A. Paulson School of Engineering and Applied Sciences (SEAS) de Harvard, vient de mettre au point une nouvelle lentille électronique plus efficace que l’œil humain. Cette technologie est capable de faire une mise au point en temps réel grâce à un muscle artificiel et peut même faire un ajustement astigmatique. Déjà en juillet dernier, des scientifiques dévoilaient des lentilles robotiques souples qui réagissent aux mouvements de vos yeux. Par exemple, si vous clignez des yeux deux fois, les lentilles zoomeront. L’idée avec ce projet est, à l’avenir, de créer une prothèse oculaire ou une caméra pouvant être contrôlée uniquement par les yeux. Qui aurait pensé qu’un jour, nous pourrions augmenter notre capacité de vision grâce aux nouvelles technologies ? Les auteurs de science-fiction certainement… Pourtant, c’est aujourd’hui une réalité. Cette nouvelle technologie est susceptible de révolutionner le marché de la photographie, celui de l’optique et probablement aussi celui de la réalité augmentée. Dans le détail : cette lentille plate utilise de minuscules nanostructures pour focaliser la lumière. De cette façon, elle est capable de représenter tout le spectre de la lumière visible en un seul point. Les lentilles traditionnelles ont besoin de plusieurs éléments pour réaliser ce même exploit, ce qui explique pourquoi elles sont si encombrantes. Plate mais légèrement plus grande, cette nouvelle lentille est bien plus performante car elle rend plus facile l’utilisation des technologies découvertes, permettant un nombre incalculable d’applications modernes. Comme pour toute nouvelle technologie, il faudra probablement des années avant que ces lentilles nouvelle génération ne deviennent des gadgets disponibles chez tous les opticiens. Article rédigé par Georges Simmonds pour RT Flash Siècle Digital | | | |
| Le principe de CRISPR/Cas est de pouvoir supprimer, modifier ou remplacer un gène au sein d’une cellule vivante. Sauf que, jusqu’à aujourd’hui, ce processus ne se faisait qu’un seul gène à la fois. Des scientifiques de l’Institut fédéral suisse de technologies ont développé une technique plus efficace. Durant leur phase de test, ils ont réussi à en modifier 25 en une seule et même étape. « Notre méthode nous permet, pour la première fois, d’opérer une modification systématique de réseaux entiers de gènes », se réjouit Randall Platt, qui a dirigé l’équipe à l’origine de la recherche. Cette technique ouvre la voie à des reprogrammations génétiques à bien plus grande échelle. Pour mettre au point l’amélioration, les chercheurs suisses ont légèrement changé la méthode originelle et standard. Pour procéder à une ingénierie CRISPR, on utilise un brin d’ARN - une molécule présente dans tous les organismes et proche de l’ADN. Ce brin contient en quelques sortes une « adresse » vers les gènes cibles. La molécule d’ARN sert alors de guide à l’enzyme Cas9, chargée quant à elle de découper le gène. Pour la nouvelle méthode, les chercheurs ont créé une plasmide. Cette molécule circulaire est capable de contenir non pas une, mais plusieurs séquences ARN… et donc plusieurs adresses pour plusieurs gènes. Cette technique abandonne l’enzyme Cas9, remplacée par Cas12a. On savait déjà qu’elle pouvait s’avérer plus précise et efficace, mais Randall Platt et son équipe ont découvert qu’elle est également capable de traiter des séquences ARN plus courtes. En clair : puisque la plasmide peut contenir davantage de séquences ARN, il est bien utile d’utiliser une enzyme capable de traiter des séquences courtes, car on peut intégrer dans la plasmide un très grand nombre de séquences et donc d’adresses. Cette avancée dans l’ingénierie génétique pourra, selon les auteurs, faire progresser la recherche fondamentale sur le comportement des cellules et sur les troubles génétiques complexes. Ils estiment aussi que ce nouveau CRISPR s’avérera utile pour développer les thérapies cellulaires, en remplaçant les gènes déficients et en boostant les bons gènes de manière simultanée. Article rédigé par Georges Simmonds pour RT Flash Numerama | | | |
| La théorie dominante est que les métastases apparaissent longtemps après le cancer primaire. Or, il semble que cela puisse en fait se produire bien avant que le cancer soit diagnostiqué. Des travaux récents menés par Christina Curtis (Stanford University School of Medicine, Etats-Unis) et son équipe viennent de montrer que, dans le cas du cancer colorectal, ces métastases semblent apparaître avant la tumeur primaire. « Cette découverte est assez surprenante », constate Christina Curtis, professeure de médecine et de génétique à Stanford. « Dans la majorité des cas de cancer colorectal métastatique analysés dans cette étude, les cellules cancéreuses s'étaient déjà propagées et avaient commencé à croître bien avant que la tumeur primaire ne soit cliniquement détectable. Cela indique que la compétence métastatique a été atteinte très tôt après la naissance du cancer. Cela va à l'encontre de l'hypothèse prédominante selon laquelle la métastase se produit tardivement ». L'équipe californienne a montré que la colonisation métastatique est un événement très précoce qui peut survenir des années avant la détection de la tumeur primaire. « Chez 80 % des patients souffrant d'un cancer colorectal métastatique, nous avons constaté que la colonisation de sites métastatiques se produit extrêmement précocement, avant même que la tumeur primaire ne soit cliniquement détectable » a expliqué Christina Curtis. Dans cette présente étude, la chercheuse et ses collègues ont voulu comprendre pourquoi et comment certaines tumeurs sont à l'origine de métastases létales. Ils ont analysé des biopsies issues de 23 patients, dont le cancer colorectal avait métastasé dans le foie ou le cerveau, par séquençage de l'exome [ensemble des exons, parties codantes de l’ARNm] de différentes cellules de la tumeur primaire et de métastases. Ils ont découvert que la divergence génomique entre les sites primaire et métastatique était faible. Ils ont ensuite eu recours à un modèle informatique pour simuler la croissance spatiale de tumeurs « virtuelles » composées jusqu'à 10 9 cellules (ce qui équivaut à une tumeur de 10 cm3 maximum). Ils ont comparé les tumeurs virtuelles et les données issues des patients pour déterminer la taille de la tumeur primaire quand l'essaimage des métastases avait débuté. Pour la majorité des patients étudiés, ils ont découvert que la dissémination métastatique s'était produite avant que la tumeur primaire ne soit cliniquement détectable (104-108 cellules, soit 0,0001-1cm3) et souvent seulement 105 cellules. « Ces résultats suggèrent qu'il y a une longue période entre la "naissance" d'un clone malin et le diagnostic de la tumeur primaire » a-t-elle indiqué. « Peut-être de l'ordre de trois ans ». Aussi y aurait-il une fenêtre d'opportunité au cours de laquelle la tumeur naissante pourrait être interceptée. Cette remarquable étude montre que les métastases observées sur une image de tomographie (CT scan) reflètent un processus qui s'est déroulé des années auparavant. Ces travaux montrent également qu'il est possible d'élaborer des stratégies thérapeutiques pour empêcher la survenue des métastases. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|