| | | | | | | Edition du 23 Septembre 2022 |
| |
|
| Edito Les hommes préhistoriques n’ont pas fini de nous étonner par leur ingéniosité et leur culture…
Cette semaine, nous repartons pour un voyage dans le temps, celui du lointain passé de notre espèce, encore bien méconnu et que viennentt éclairer d’une lumière nouvelle de récentes et passionnantes études qui sont en train de bouleverser le regard que nous avons sur nos ancêtres et sur la préhistoire. Il y a un an, une découverte majeure a eu lieu dans un site archéologique majeur de la côte Atlantique du Maroc, la Grotte des Contrebandiers : une équipe de scientifiques, dont l'anthropologue Emily Hallett, de l'Institut Max-Planck de science de l'histoire humaine, en Allemagne, a examiné quelque 12 000 fragments d'os trouvés sur place (Voir Cell). Ces travaux ont révélé une soixantaine d'os d'animaux, façonnés en outils par des humains, et ont montré que ces outils ont servi à fabriquer des vêtements, il y a 120 000 ans. On ignore encore à quoi servaient exactement tous ces outils, mais certains, fabriqués à partir de côtes de bovidés, ont très probablement été utilisés pour confectionner plusieurs types de vêtements, qui répondaient sans doute à des fonctions à la fois utilitaires, sociales et symboliques. Les chercheurs ont réussi à formellement identifier plusieurs espèces de carnivores dont les os comportaient des traces d'écorchure. L’hypothèse de ces anthropologues est que les os de ces animaux ont été utilisés pour travailler la fourrure. Ces scientifiques ont pu également identifier de s restes de bovidés, qui ont, quant à eux, été utilisés pour travailler le cuir. Cette découverte majeure pose plus de questions qu’elle n’apporte de réponses, car il est impossible de savoir à quoi ressemblaient exactement ces premiers vêtements humains, et quelles étaient leurs fonctions sociales et symboliques. On peut cependant supposer que ces vêtements, outre le prestige social qu’ils conféraient aux individus qui les portaient, ont pu apporter à ces hommes des temps lointains une protection précieuse contre les rigueurs du climat, les intempéries et même certains prédateurs potentiels, animaux ou humains. Ils ont aussi probablement facilité les déplacements de nos ancêtres dans de nouvelles régions peu hospitalières et encore inexplorées du globe. Il semble bien que dans ces temps reculés, les hommes ne se contentaient pas de porter des vêtements déjà élaborés mais aimaient également, dans certaines circonstances, porter des parures et des bijoux. En 2015, des anthropologues ont découvert huit serres d'aigles, sur un site préhistorique en Croatie, qui ont été modelées par des hommes, mais pas des Sapiens… Ces étonnants bijoux, fabriqués il y a 130 000 ans, ont été fabriqués par des Néandertaliens, bien avant l'apparition en Europe de l'homme moderne. En mai 2021, une autre équipe de paléontologues, composée de l'INSAP de Rabat, de l'Université d'Arizona (Tucson, Etats-Unis) et du Laboratoire méditerranéen de préhistoire Europe Afrique, a trouvé plusieurs colliers et bracelets formés de petits coquillages percés et colorés à l’ocre rouge dans la grotte de Bizmoune, au Maroc. Mais ce qui a sidéré ces chercheurs, c’est que ces parures ont au moins 150 000 ans, ce qui en fait désormais les bijoux les plus anciens de l’humanité. Rappelons que c’est également au Maroc qu’ont été retrouvés en 2017 par l’équipe de Jean-Jacques Hublin, à Jebel Irhoud, les restes des plus vieux représentants de notre espèce homo sapiens, cinq individus datant d'environ 315 000 ans, ce qui repousse de plus de 100 000 dans le pa ssé l’apparition des premiers Sapiens… Les premières expressions artistiques élaborées, on le sait à présent grâce à de récentes découvertes, sont également bien plus anciennes que l’ont très longtemps pensé les spécialistes. En 2008, des archéologues ont découvert des fragments de flûtes taillées à partir de vautours et d’os de mammouth dans une grotte du sud de l’Allemagne, sur le site de Hohle Felsdatant. Selon ces scientifiques, ces instruments remonteraient à 43 000 ans, ce qui renvoie de 7000 ans en arrière l’apparition des premiers instruments de musique. Notons que l’archéologue Ivan Turk a trouvé en 1995, dans le parc archéologique de Divje Babe, en Slovénie, un fémur d’ours des cavernes, datant de 43 000 ans et présentant quatre perforations qui correspondraient, selon le musicien Bob Fink, a ux notes d’une gamme de l’échelle diatonique (Do, Ré, Mi, Fa …). Un autre coup de tonnerre a secoué l’anthropologie en 2014, lorsque le plus vieux dessin du monde, âgé de 500 000 ans, a été découvert par l’équipe de Francesco d’Errico, de l’Université de Bordeaux en France, et José Joordens, de la Faculté d’archéologie de l’Université de Leyde aux Pays-Bas, sur les rives de la rivière Solo, dans l’île de Java, après sept ans de recherche. Cette incroyable découverte vient faire reculer de 400 000 ans la datation des premiers motifs générés par la main d’un homme (Voir Nature) et surtout, elle montre que, bien avant l’apparition de Sapiens, des hommes avaient déjà atteint le stade décisif de l’abstraction. Dans le domaine des peintures rupestres, on sait également, depuis l’étude retentissante de Benjamin Sadier (CNRS), qui a utilisé de nouvelles méthodes de datation (Voir PNAS), que les magnifiques peintures de la Grotte Chauvet sont bien plus anciennes qu’on ne le pensait initialement et ont au moins 30 000 ans, ce qui bouleverse complètement notre vision du paléolithique supérieur et montre que l’art pariétal est né bien avant Lascaux (dont les gravures sont à présent datées de 21 000 ans) et s’est répandu très rapidement, atteignant déjà un incroyable niveau de perfection dans cette splendide grotte ardéchoise. Et pendant que nos ancêtres peignaient la Grotte Chauvet, il semble qu’ils étaient également capables de réaliser des opérations chirurgicales complexes. Une étude très sérieuse, publiée récemment dans la revue Nature, décrit en effet la plus ancienne preuve d'une amputation chirurgicale, découverte sur un squelette, dans une grotte indonésienne de Bornéo, et réalisée… il y a 30 000 ans. On mesure mieux l’importance de cette découverte quand on sait que la plus vieille intervention chirurgicale connue remontait jusqu’à présent à seulement 7.000 ans. « Cette découverte réécrit complètement notre compréhension du savoir-faire médical de nos ancêtres », souligne le paléontologue Tim Maloney, de l'Université de Griffith en Australie, qui a dirigé l'étude (Voir Nature). Pour parvenir à ces conclusions, les chercheurs s’appuient sur les ossements d’un squelette humain très bien conservé, trouvé en 2020 dans la grotte calcaire de Liang Tebo, déjà réputée pour ses peintures rupestres. Ces scientifiques ont constaté qu’il manquait à ce squelette la cheville et le pied gauches. Ils ont également observé la présence d’une découpe nette et oblique sur l’extrémité de cette jambe. La régularité et la précision de cette amputation exclut, selon les chercheurs, l’hypothèse d’une chute ou d’une attaque d'animal. Mais le plus étonnant, c’est que ce patient, décédé vers l'âge de vingt ans, a manifestement survécu six à sept ans après l'intervention, si l’on en croit les signes de réparation osseuse, observables au microscope. Selon cette étude, un acte aussi complexe suppose nécessairement une connaissance approfondie de l'anatomie humaine, tant sur le plan osseux que musculaire et vasculaire. En outre, pour que ce jeune patient puisse survivre tant d’années, dans le rude environnement de l’époque, ses proches ont dû régulièrement nettoyer, désinfecter et panser la plaie, pour prévenir toute hémorragie ou infection post-opératoire pouvant entraîner la mort. Ces travaux remettent complètement en question le niveau de connaissance et de pratique médicale dans ce lointain passé et posent une multitude d’interrogations, qui ne sont pas sans rappeler celles suscitées par la découverte de l’incroyable machine d’Anticythère, conçue par les ingénieurs Grecs, au 1er siècle avant notre ère, et qui avait plus de douze siècles d’avance sur les technologies mécaniques occidentales. Les chercheurs se demandent notamment comment ces hommes ont pu atteindre une telle connaissance du corps humain, bien avant l’apparition de l’agriculture, de l’écriture et des premières civilisations. On ne sait pas non plus si de telles interventions étaient exceptionnelles, ou au contraire relativement fréquentes. Autre question passionnante, se pourrait-il que ces humains aient également dévelop pé de manière empirique une pharmacopée diversifiée et puissante, intégrant des composés antiseptiques et analgésiques, issus de la nature très riche de Bornéo ? Evoquons également une découverte extraordinaire, révélée il y a quelques jours à peine par une équipe de chercheurs de l'Université d'Oxford. Ces scientifiques, dirigés par le Docteur Michael Fradley, ont identifié, en exploitant une banque d'images satellites du désert de Nafud, en Arabie Saoudite, une série de structures monumentales, réalisées il y au moins 8000 ans, qui se sont avérées être des pièges de chasse longs de plusieurs kilomètres. Appelées cerfs-volants, ces structures sont formées par des murets de pierre formant une enceinte frontale, complétée par de nombreux murs de guidage, pouvant atteindre des kilomètres de long. Selon ces archéologues, ces infrastructures monumentales étaient utilisées pour piéger le gibier, abondant à cette époque dans cette ré gion, dans une nasse où il pouvait être facilement tué (Voir Sage Journals). Certes, ces cerfs-volants étaient déjà bien connus en Jordanie et en Syrie, mais cette fois, les chercheurs ont identifié 400 km de structures dans le nord de l'Arabie saoudite et du sud de l'Irak. Certains de ces murs s'étendent en lignes droites sur plus de 4 kilomètres, et suivent un relief accidenté. L’étude souligne que leur construction et leur entretien au cours des siècles ont dû mobiliser des moyens considérables et témoignent à la fois d’une ingéniosité technique remarquable pour l’époque et d’une organisation sociale complexe. Toujours il y a quelques semaines, des chercheurs de l'Université de Bristol, en pratiquant des analyses chimiques de plusieurs poteries anciennes retrouvées dans des petites îles artificielles d’Ecosse (Les “crannogs”), ont pu reconstituer de manière précise le type d’alimentation qui avait cours il y a plus de 6000 ans, dans cette partie de la Grande-Bretagne (Voir Independent). Ces recherches montrent que ces peuples préhistoriques, contrairement à ce qu’on imaginait, consommaient régulièrement de la viande, mais aussi des céréales, ainsi que des produits laitiers, non seulement de manière séparée, mais aussi associée. Ces archéologues ont pu déterminer que nos ancêtres concoctaient une espèce de ragout, complet et équilibré, dans lequel on trouvait les céréales, cuites en premier dans des casseroles de petite taille, les produits laitiers, et enfin, la viande, qui avait été cuite à part, dans des récipients de plus grande taille. Contrairement aux idées reçues, cette cuisine avait donc déjà atteint un remarquable niveau d’élaboration et s’appuyait à la fois sur des moyens variés de stockage et de conservation et sur une bonne connaissance des modes et temps de cuisson des aliments. Je termine ce rapide tour d’horizon des découvertes récente les plus marquantes en matière d’Archéologie, d’anthropologie et de paléontologie, par une passionnante étude de l'Institut Max Planck de Dresde, publiée il y a quelques jours. Ces recherches montrent que, si les Sapiens ont développé un avantage cognitif et adaptatif sur les autres hominiens, dont les Neandertal, ce pourrait être parce que nous sommes les seuls à posséder une protéine transketolase-like 1 (TKTL1) modifiée (sans doute sous l'effet d'un changement de notre environnement), ce qui nous a permis de produire beaucoup plus de neurones neocorticaux et d’effectuer un saut cognitif décisif qui nous a permis de supplanter définitivement d’autres espèces humaines « cousines », comme les Dénisoviens et les Néandertaliens, qui ont coexis té des centaines d’années avec Homo Sapiens et avaient elles aussi développé de surprenantes et insoupçonnées capacités cognitives, artistiques et symboliques, avant d’être définitivement distancées par Sapiens. On voit donc à quel point le processus darwinien d'évolution adaptative, souvent caricaturé, est en réalité complexe et intègre une boucle de causalité circulaire qui inclut les dimensions biologiques sociales, culturelles et environnementales, sans qu'on puisse établir de hiérarchie fixe et réductrice entre celles-ci (Voir Science). On voit qu’aussi loin que nous remontions dans le passé, et même bien avant l’apparition de Sapiens, il y a au moins 300 000 ans, nous trouvons des traces toujours plus nombreuses, tangibles et troublantes, de culture, de technique, d’art et de préoccupations symboliques et spirituelles chez nos lointains ancêtres. Il n’est pas exagéré de dire, surtout depuis que l’on sait que les premiers outils ont 3,3 millions d’années et ont sans doute été réalisés par des Australopithèques, avant l’apparition des tous premiers hommes, que notre humanité plonge ses racines dans la nuit des temps et s’inscrit dans un très long et mystérieux cheminement dont l'origine semble sans cesse reculer à mesure que nous pensons nous en approcher… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Ordinateurs plus rapides, communication sans faille, capteurs au-delà de la limite quantique standard : les technologies quantiques ont le potentiel de révolutionner nos vies, tout comme l’a fait l’invention de l’ordinateur ou d’Internet. Des expertes et experts du monde entier tentent d’appliquer les résultats de la recherche fondamentale aux technologies quantiques. À cette fin, ils ont parfois besoin de particules individuelles comme les photons – particules élémentaires de la lumière – présentant des propriétés particulières. Cependant, l’obtention de particules individuelles est compliquée et requiert des méthodes complexes. Diverses applications utilisent déjà des électrons libres pour générer de la lumière, comme c’est le cas dans les tubes à rayons X. Dans une récente étude, des scientifiques du Laboratoire de photonique et de mesures quantiques de l’EPFL, de l’Institut Max Planck de sciences multidisciplinaires (MPI-NAT) et de l’Université de Göttingen, présentent une nouvelle méthode pour créer des photons de cavité en utilisant des électrons libres, sous forme de paire. Pour cela, ils ont eu recours à des circuits intégrés photoniques à base de puces dans un microscope électronique. Puce optique avec stockage de la lumière en forme d’anneau, appelé microrésonateur en anneau, et couplage à fibre optique. La puce ne mesure que trois millimètres de large, et le résonateur en anneau à son extrémité présente un rayon de 0,114 millimètre. Dans l’expérience, le faisceau d’un microscope électronique passe sur une puce photonique intégrée, composée d’un micro résonateur en anneau et de ports de sortie en fibre optique. Cette nouvelle approche, qui fait appel à des structures photoniques fabriquées à l’EPFL pour des expériences au microscope électronique à transmission (TEM) réalisées au MPI-NAT, a été établie dans une récente étude. Lorsqu’un électron interagit avec le champ du vide du résonateur en anneau, un photon peut être généré. Au cours de ce processus, régi par les lois de la conservation de l’énergie et de la quantité de mouvement, l’électron perd le quantum d’énergie d’un seul photon. Par le biais de cette interaction, le système é volue vers un état de paire. Grâce à une méthode de mesure récemment mise au point, les scientifiques ont pu détecter avec précision et simultanément l’énergie des électrons et les photons générés, révélant ainsi les états sous-jacents de la paire électron-photon. Outre l’observation de ce processus pour la première fois au niveau de la particule unique, ces résultats mettent en œuvre un nouveau concept de création de photons ou d’électrons uniques. Plus précisément, la mesure de l’état de paire permet d’obtenir des sources de particules annoncées, où la détection d’une particule signale la création de l’autre particule. Cela est nécessaire pour de nombreuses applications de la technologie quantique et vient s’ajouter à sa palette d’outils. Dans la première expérience de démonstration de principe, les chercheuses et chercheurs utilisent les paires électrons-photons corrélées générées pour l’imagerie en mode photonique, ce qui permet d’améliorer le contraste de trois ordres de grandeur. Yujia Yang, postdoctorant &agrav e; l’EPFL et co-auteur principal de l’étude, ajoute : « Nous estimons que notre travail aura de grandes répercussions sur le développement futur de la microscopie électronique en exploitant la puissance de la technologie quantique ». Un défi particulier pour la technologie quantique de demain est de savoir comment interfacer différents systèmes physiques. « Pour la première fois, nous introduisons des électrons libres dans la boîte à outils de la science de l’information quantique. De manière plus générale, le couplage des électrons libres et de la lumière au moyen de la photonique intégrée pourrait ouvrir la voie à une nouvelle catégorie de technologies quantiques hybrides », affirme Tobias Kippenberg, professeur à l’EPFL et directeur du Laboratoire de photonique et de mesures quantiques. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | L’équipe de recherche RoMoCo du département AS2M de l’Institut de recherche FEMTO-ST vient de développer un robot unique en son genre. MiGriBot est un robot miniature capable de réaliser des opérations de prise et dépose d’objets submillimétriques avec des vitesses et des précisions inégalées. Il est capable de saisir et de manipuler des micro-objets à peine visibles à l’œil nu (de 40 micromètres à plusieurs centaines de micromètres, µm). MiGriBot peut réaliser 720 opérations de prise et dépose de micro-objets par minute, avec une précision inférieure au micromètre. Ces performances font de lui le robot le plus rapide au monde, toutes échelles confondues ! En effet, les robots industriels de prise et dépose les plus rapides ne dépassent pas les 250 cycles par minute. Le robot développé en 2018 par l’Université de Harvard est d’une vitesse équivalente à MiGriBot, mais ne possède que trois degrés de mobilité et n’intègre pas la fonction de préhension. L’Université de Tokyo a conçu en 2020 un robot miniature de prise et dépose mais dont la vitesse ne dépasse pas les 72 opérations par minute sur une course de 60 µm. Le robot MiGriBot développé par l’équipe RoMoCo de FEMTO-ST est ainsi 10 fois plus rapide sur un déplacement 10 fois plus important (600 µm). La vitesse et la précision sont deux enjeux majeurs dans les systèmes automatisés de production et de l’industrie du futur (ou Industrie 4.0). Ce robot servira à assembler des systèmes micro-électro-mécaniques et optiques (MEMS/MOEMS) utilisés dans l’industrie de l’électronique où les besoins en cadence de travail sont de plus en plus élevés. Grâce à sa vitesse et à sa compacité, plus de 2000 robots pourront être placés dans 1 m2 pour réaliser plus d’un million d’opérations par seconde ! Augmenter les cadences permet d’améliorer la productivité et la compétitivité des industriels, ce qui favorisera la relocalisation de la production en Europe, en Amérique du Nord et dans les pays à haut coût de main d’œuvre. Des applications dans l’industrie horlogère, l’instrumentation médicale, l’aérospatial, ainsi que dans d’autres domaines sont aussi possibles. Ces travaux ont été menés dans le cadre du projet ANR MiniSoRo (ANR-19-CE10-0004) et ont été partiellement financés par Grand Besançon Métropole. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| | | Sous nos latitudes, la croissance harmonieuse de tomates, concombres, poivrons ou autres légumes friands de lumière et de chaleur passe par un savant équilibre entre rendement, économie et écologie. Les serres, dont les maraîchers ne peuvent se passer, sont gourmandes en énergie. « Actuellement, les coûts annuels de chauffage d’une serre standard de 5 hectares se montent à plus d’1,5 million de francs et elle émet la même quantité de CO2 que près de 2000 personnes », souligne Nicolas Weber, CEO de Voltiris. Cette start-up de l’EPFL propose une technologie qui pourrait contribuer à atteindre l’objectif que s’est fixé l’Union des maraîchers suisses : zéro énergie fossile pour la production des légumes d’ici 2040 pour les quelque mille hectares de serres que compte le pays. Les plantes n’utilisent qu’une partie des longueurs d’ondes de la lumière du soleil. Les panneaux de Voltiris emploient le reste pour produire de l’énergie en les focalisant sur des cellules photovoltaïques. Cette structure légère, optimisée par un système de suivi du soleil, peut se targuer d’un rendement journalier similaire aux panneaux solaires traditionnels. Les premiers légumes produits sous ce dispositif sont sortis de terre sans encombre cet été dans les deux installations pilotes, situées en Valais et dans les Grisons. Essentielle à la photosynthèse, mais aussi au phototropisme (croissance en direction de la lumière) et au photopériodisme (réponse d’un organisme aux changements saisonniers de la durée du jour), la lumière du Soleil est évidemment essentielle au bon développement des cultures. Mais les plantes sont sélectives et n’utilisent qu’une partie du spectre lumineux avec une préférence pour le bleu et le rouge. Les structures de Voltiris laissent passer ces longueurs d’onde, tandis que le reste (vert et proche infrarouge) est réfléchi et focalisé sur un module photovoltaïque. De l'électricité renouvelable est ainsi produite sans impact sur le rendement agricole, puisque 100 % de la lumière nécessaire aux cultures est transmise. Les miroirs dichroïques -qui présentent une coloration différente selon les conditions d’observation- fixés sous la charpente, dotés d’un aspect presque décoratif, s’apparentent aux traitements anti-reflet sur les verres de lunettes. Mais un des éléments qui rend le système unique et aussi performant est son système optique optimisé et breveté qui concentre de manière efficace la lumière filtrée du soleil. Le second brevet de la start-up porte sur son dispositif de suivi du Soleil, placé sous le toit, et qui permet d’allonger le temps de production de l’énergie de 40 %. Grâce à ces deux innovations, la start-up réussit le tour de force d’obtenir un rendement journalier similaire à des panneaux solaires traditionnels avec seulement 50 % des rayons (vert et proche infrarouge), le reste étant utilis& eacute; par les cultures. « À terme, nous prévoyons de traiter le verre réfléchissant différemment en fonction des spécificités de certaines cultures afin d’optimiser le rendement », précise le CEO. L’installation, légère, se loge dans l’espace vide situé entre la toiture de la serre et le haut des plantes. Les tests sur les installations pilotes sont encourageant puisque ces panneaux moirés démontrent qu'il serait possible de réduire les émissions de CO2 d'une serre d'environ 50 %, tout en couvrant entre 60 et 100 % des besoins en énergie selon le système de chauffage déjà en place. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Plutôt que d'émettre du CO2, le ciment de l'entreprise iséroise Vicat va désormais en piéger et l'empêcher de retourner dans l'atmosphère grâce au "carat". Ce nouveau liant innovant va permettre de réduire de presque 90 % l'empreinte carbone par mètre cube de béton, assure le cimentier. Il sera produit sur le site de Montalieu-Vercieu en Nord-Isère, qui fera l'objet d'investissements pour assurer cette production. Pour obtenir ce liant qui piège le carbone, Vicat a dû innover en matière de composition car les ciments classiques contiennent un produit très émetteur : le clinker. Il faut cuire à plus de 1.400 degrés des pierres pour l'obtenir. « À la fois l'énergie qu'on utilise pour le produire et un phénomène naturel de libération qui se trouve dans le calcaire sont les deux gros facteurs carbone associés à cette production » explique Laurent Legay, directeur des marchés et de l'offre chez Vicat. Le cimentier tente de réduire le carbone émis lors de la production de clinker mais aussi de remplacer cette matière première dans ses ciments avec des matériaux biosourcés comme le chanvre ou le bois. Ce second point est décisif dans la mise au point de ce nouveau liant. Le "carat" contient en effet du biochar, une matière issue de la pyrolyse des arbres, une montée à forte température. « C'est un concentré de biomasse qui est passé par une pyrolyse » explique Emil Soler-My, chargé du développement du Biochar pour le groupe Soler, partenaire de Vicat dans l'élaboration de ce liant. « Les plantes absorbent le CO2 dans la forêt, tous les bois qu'il faut retirer de la forêt, on les récupère, on les pyrolyse et on les transforme en carbone. On vient concentrer le CO2 prélevé par les plantes dans le béton ». En fait, ce processus casse le cycle du CO2 qui se retrouve piégé et ne retourne pas dans l'atmosphère. Vicat a déjà utilisé ce nouveau liant avec succès sur un chantier test. Plusieurs autres projets sont en discussion pour obtenir une certification puis un avis technique d'ici fin 2023 car cette innovation n'entre dans aucune norme pour le moment. Une fois la cer tification et l'avis obtenus, Vicat pourra commercialiser plus largement son "carat". Article rédigé par Georges Simmonds pour RT Flash France Bleu | | | |
| Ce système tout-en-un nommé HEVO-Solar permet de convertir de l'énergie solaire en hydrogène vert grâce à un micro-électrolyseur fixé à l'arrière d'un module photovoltaïque à concentration (CPV). Particulièrement innovante, la technologie photovoltaïque à concentration utilise des lentilles ou des miroirs pour concentrer la lumière du soleil à un niveau nettement plus élevé qu'un panneau solaire standard. La subvention de 10 millions d'euros que ses créateurs viennent d'obtenir provient du fonds de relance et de résilience du gouvernement portugais. Elle servira à financer le programme irlando-portugais baptisé Fusion Fuel. D'un montant de 25 millions d'euros, celui-ci vise le déploiement de 300 unités HEVO-Solar et d'une infrastructure adaptée afin de créer une station d'approvisionnement en hydrogène de 6,6 MW au sein de la ville portuaire de Sines au Portugal. Nommé Hevo-Industria, le projet devrait permettre de générer 764 tonnes d'hydrogène vert chaque année. Ce carburant sera utilisé par diverses industries et pour la mobilité portuaire locale. La décision finale d'investissement est prévue pour 2023. Article rédigé par Georges Simmonds pour RT Flash H2 | | | |
| Partout dans le monde, des scientifiques préparent l’électronique du futur et tentent de maîtriser la manipulation à l'échelle nanométrique ; un spin unique, en tant qu'objet porteur d'information quantique, présente un enjeu technologique majeur. Un système composé de molécules magnétiques déposées sur une surface offre un banc d'essai unique pour traiter ce sujet, mais il est difficile, voire impossible, d'explorer expérimentalement les trop nombreuses pistes ouvertes, étant donné le nombre énorme de combinaisons molécule/surface possibles. C'est pourquoi la modélisation joue un rôle essentiel dans ce domaine. Dans le cadre du projet H2020 FET-Open COSMICS, une collaboration entre l'Université Technique du Danemark (DTU), le CEMES CNRS de Toulouse et le CEA SPEC, montre par des méthodes de calcul de structure électronique et de transport que la porphyrine de fer, déposée sur un substrat de graphène dopé par du bore, possède des propriétés remarquables, pour en faire un dispositif de spintronique moléculaire que l'on peut piloter par la simple application d'une tension de grille. Ce dispositif mériterait ainsi d'être expérimentalement étudié. La molécule de porphyrine de fer tetraphenyl (FeTPP) est très particulière et joue notamment un rôle primordial dans le transport de l'oxygène de l'hémoglobine. Ses propriétés exceptionnelles sont intimement liées à l'état magnétique de l'atome de fer central et à sa sensibilité à l'environnement (notamment l'hybridation de l'atome de fer). Il a par exemple été récemment montré, par une étude par microscopie électronique tunnel, que la molécule adopte différents remplissages électroniques, selon le substrat (or ou graphène) sur lequel elle est déposée. Par ailleurs, des travaux récents ont aussi montré qu'une molécule un peu similaire (phthalocyanine de fer – FePc) changeait d'état de spin quand elle était déposée sur un substrat de graph&egr ave;ne dopé avec de l'azote. Cette équipe internationale a entrepris de modéliser, par des approches basées sur la théorie de la fonctionnelle de la densité (DFT), une molécule de FeTPP déposée sur un substrat de graphène dopé à l'azote ou au bore. Pour une molécule adsorbée sur un site azote, un léger décalage des niveaux de la molécule est seulement observé. Un changement drastique est par contre obtenu lorsque la molécule est placée au-dessus d'un atome de bore, dû à l'hybridation entre les orbitales dz du Fer et pz du bore : la molécule passe d'un spin S=1 à S=3/2 et le fer passe d'un degré d'oxydation Fe2+ à Fe3+. Ces résultats mettent en évidence un mécanisme "d'écriture" d'un spin à l'échelle atomique. Mais on peut encore aller un cran plus loin en calculant le transport électronique bidimensionnel dans le plan du graphène. En effet nous avons mis en évidence une polarisation de spin importante (>10 % pour un taux de couverture réaliste du graphène par FeTPP) du transport électronique au niveau de Fermi en l'absence de tension de grille. De telles polarisations de spin sont parfaitement détectables avec des méthodes expérimentales telles que la mesure du bruit de grenaille (“shot noise” en anglais). Ces résultats complémentaires montrent qu'il est donc non seulement possible d'écrire mais aussi de lire le spin. Par ailleurs, il est également possible de sonder l'état de la molécule par l'intermédiaire d'une pointe STM. Le système modélisé permet donc de proposer un nouveau concept d'écriture et lecture d'états de spin à l'échelle de la molécule unique, à l'aide d'un procédé nécessitant une simple polarisation électrique (tension de grille) beaucoup moins énergivore que l'application d'un champ magnétique ou le passage d'un courant électrique intense. Ce travail pourrait ouvrir la voie au développement de nouveaux dispositifs spintroniques à basse consommation. Article rédigé par Georges Simmonds pour RT Flash COSMICS | | | |
| La réduction drastique des émissions humaines de CO2 d’ici à 2050 est principalement axée sur le remplacement des combustibles fossiles par l'ensemble des énergies renouvelables, mais le captage du carbone est également appelé à jouer un rôle important. Structures cristallines, les cadres métallo-organiques (MOF) se sont révélés très prometteurs dans ce domaine, en raison de leurs formes complexes offrant une surface phénoménale pour piéger les molécules de dioxyde de carbone. Les chercheurs de l’UC Berkeley ont créé le premier MOF de capture du carbone en 2015, et ont depuis largement amélioré son efficacité. Mais pour qu’une telle technologie de capture du carbone puisse être déployée à grande échelle, elle doit être à la fois simple et financièrement très abordable. Sa dernière version implique le mélange de mélamine (matériau très courant que l’on retrouve notamment dans les plastiques thermodurcissables et les stratifiés), de formaldéhyde et d’acide cyanurique. Afin d’obtenir des réseaux nanoporeux, les chercheurs ont utilisé une technique de polymérisation par condensation de 3 à 4 jours, suivie d’un bain de sonication et d’un processus de nettoyage. Le matériau a démontré une capacité d’adsorption impressionnante de 1,82 millimole de CO2 par gramme à des niveaux de pression atmosphérique. Très stable, il capture sélectivement le carbone en quelques minutes à environ 40°C et le libère lorsqu’il est chauffé à 80°C seulement, afin que ce dernier puisse être stocké ailleurs et les réseaux poreux réutilisés. « Tous les aspects pratiques pour la capture du CO2 ont été satisfaits à l’échelle du laboratoire », explique Jeffrey Reimer, co-auteur de l’étude. « Il est juste incroyablement bon marché et facile à fabriquer ». « Ces travaux ouvrent la voie à l’utilisation généralisée de tels dispositifs pour capturer durablement le dioxyde de carbone », ajoute Haiyan Mao, auteur principal de la nouvelle étude. « Ils pourraient notamment être utilisés pour l’éliminer des gaz d’échappement des véhicules, des usines et d’autres sources ». Article rédigé par Georges Simmonds pour RT Flash Science | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Les bébés prématurés qui ont reçu les plus grandes quantités de lait maternel, aussi bien pendant qu'après leur hospitalisation à l'unité de soins intensifs néonatals, s'en tirent mieux à l'école quelques années plus tard, ont constaté des chercheurs américains et australiens. La consommation de lait maternel a notamment été associée à de meilleurs résultats de lecture et de mathématiques, et les parents des enfants qui avaient consommé le plus de lait maternel rapportaient moins de symptômes de TDAH. La durée de la consommation de lait maternel (dans certains cas jusqu'à l'âge de 18 mois) a quant à elle été associée à de meilleurs scores de lecture, d'épellation et de mathématiques. On sait que les enfants prématurés sont plus à risque de retard du développement ou de difficultés qui persistent même à l'âge scolaire, a rappelé la pédiatre Thuy Mai Luu, la directrice médicale du Programme de suivi néonatal au CHU Sainte-Justine. « C'est certain que si on peut voir un effet bénéfique du lait maternel sur le développement de l'enfant, que c'est une mesure de protection qui peut vraiment favoriser le développement du cerveau de l'enfant, alors je pense que c'est encore plus important ». Ce n'est pas d'hier que les médecins (et les parents) savent que l'allaitement est de très loin ce qu'il y a de mieux pour les bébés, qu'ils soient prématurés ou non, et qu'il y a beaucoup plus d'avantages que de désavantages à le faire, a ajouté la Dre Luu. Le lait maternel, poursuit-elle, contient des composantes, comme des gras, qui favorisent le développement du cerveau. On sait aussi que le lait maternel influence la composition de la flore intestinale. De plus en plus, on démontre un lien entre la diversité de notre flore intestinale et le développement du cerveau, et ça joue probablement par des mécanismes d'inflammation. On sait que, dans le fond, l'allaitement maternel favorise un microbiote qui est beaucoup plus optimal, a dit la Dre Luu. L'allaitement comporte aussi un volet relationnel qui est très important pour le développement de l'enfant, poursuit-elle. Le fait de tirer son lait ou d'allaiter l'enfant au sein crée une interaction positive entre la mère et l'enfant. Puis on sait que des interactions positives entre la mère et l'enfant, c'est un point de départ très important pour stimuler le développement de l'enfant et donc avoir un meilleur développement ou un développement plus optimal, a souligné la Dre Luu. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| En Antarctique, notamment dans l'archipel des îles Crozet, dans l'océan Indien, le manchot mâle qui couve son œuf pendant plusieurs semaines est capable de nourrir ses petits à leur naissance (quand la femelle n'est pas rentrée de la pêche) alors que lui n’a pas bougé et qu'il n’est pas parti à la recherche de nourriture fraîche. En fait, le mâle offre à sa progéniture qui vient de naître de la nourriture qu’il a stockée dans son estomac durant trois semaines. Un constat qui a longtemps intrigué les scientifiques. Comment se fait-il que des aliments, à base de poisson notamment, puissent rester stockés aussi longtemps sans prolifération bactérienne ? L'équipe emmenée par Yvon Le Maho, écophysiologiste au Centre national de la recherche scientifique (CNRS), a creusé la question et ils ont fini par comprendre pourquoi : le manchot mâle sait conserver la nourriture intacte à 37°C sans que les bactéries s'y attaquent. Ce secret, ils l'ont découvert en analysant le contenu de l’estomac des manchots en les faisant tout simplement régurgiter et en rusant pour que cette opération ne les incite pas à abandonner leur œuf. Ces chercheurs ont découvert avec l'aide de Philippe Bulet, directeur de recherche en biochimie, le rôle clé joué par une molécule antimicrobienne de la famille des défensines. Cette molécule, qui est une protéine, ne tue pas les bactéries mais elle les endort. La bonne nouvelle, c'est que son action est très efficace contre des bactéries résistan tes, comme le staphylocoque doré (qui peut poser des problèmes à l'hôpital) et aussi contre un champignon l'Aspergillus fumigatus, responsable de l'aspergillose, une infection provoquant de la fièvre et de la toux, qui peut parfois toucher certains malades en réanimation. Cette découverte peut permettre de développer une nouvelle génération d'antibiotiques. Cela prendra encore quelques années pour développer une nouvelle génération d'antibiotiques mais les recherches vont se poursuivre, car après avoir bataillé 15 ans, cette équipe du CNRS vient tout récemment d’obtenir des financements pour travailler sur cette défensine du manchot royal. Son travail est d’autant plus prometteur que l’on sait déjà que cette molécule peut être reproduite en laboratoire par bio-ingénierie et qu'au-delà de son action sur des bactéries résistantes, comme le staphylocoque doré, il y a aussi des perspectives d’utilisation chez l’homme, notamment dans le domaine de la médecine oculaire. Article rédigé par Georges Simmonds pour RT Flash France Info | | | |
| C‘est une avancée médicale majeure : l’Agence européenne du médicament (EMA) vient d’autoriser la mise sur le marché du nirsevimab, d’ici un an, médicament destiné à prévenir la bronchiolite chez les nouveau-nés. La bronchiolite est un enjeu de santé public considérable. Chaque année, 500 000 bébés sont infectés en France par le virus respiratoire syncytial (VRS) responsable de la bronchiolite. L’épidémie de l’an dernier a été sans précédent, et les hôpitaux débordés. Au niveau mondial, on déplore 60 000 décès de nourrissons par an. Développé conjointement par le britannique AstraZeneca et le français Sanofi, qui le commercialisera sous le nom Beyfortus, le nirsevimab est un anticorps conçu pour prot&ea cute;ger les nourrissons pendant toute la durée de la saison de circulation du virus respiratoire syncytial (VRS), virus à l’origine de la bronchiolite. Le CHMP a rendu un avis favorable et recommandé l’approbation de Beyfortus pour la prévention des infections des voies respiratoires inférieures causées par le VRS chez le nouveau-né et le nourrisson, pendant la première saison de circulation du virus à laquelle ils sont confrontés. S’il est ensuite approuvé par la Commission européenne, Beyfortus deviendra le premier et le seul agent d’immunisation passive à dose unique indiqué pour tous les nourrissons, notamment ceux en bonne santé, nés à terme ou prématurément, ou ceux qui présentent certains problèmes de santé, précise Sanofi dans son communiqué. La bronchiolite est une maladie respiratoire courante et très contagieuse, surtout chez les nourrissons de 2 à 8 mois, chez qui elle provoque une toux et une respiration difficile. Chaque année en France, 30 % des nourrissons de moins de deux ans en sont atteints. La plupart du temps, la maladie est bénigne. Mais elle peut nécessiter un passage aux urgences, voire une hospitalisation. « Il s’agit de la première cause d’hospitalisation chez les enfants de moins d’un an », souligne Jean-François Toussaint, responsable de la R&D dans les vaccins pour Sanofi. Beyfortus se distingue des vaccins utilisant des technologies traditionnelles car il s’agit d’un anticorps monoclonal, c’est-à-dire un anticorps développé en laboratoire, qui permet de conférer au nourrisson une immunité dite passive, avec une seule dose. Le nourrisson n’ayant pas encore pu bâtir sa réponse immunitaire, « on lui donne des anticorps qui vont le protéger », explique Jean-François Toussaint. Il n’existe à ce jour qu’un seul vaccin contre la bronchiolite, commercialisé par AstraZeneca sous le nom de Synagis. Mais ce médicament a une autorisation de mise sur le marché uniquement chez les enfants à risques ou prématurés, et nécessite plusieurs doses. La bronchiolite touche aussi sérieusement chaque année les personnes âgées. Ce nouveau traitement préventif ne leur est pas d estiné mais devrait néanmoins déboucher sur de nouveaux vaccins contre la bronchiolite, spécifiques aux personnes âgées. Article rédigé par Georges Simmonds pour RT Flash EMA | | | |
| Suffit-il de connaître les briques élémentaires d’un tissu tumoral, comme les cellules et les capillaires sanguins, pour tout savoir sur une tumeur ? « Non, ce n’est qu’une première étape dans notre compréhension de ce phénomène », estime Christophe Grosset, directeur de recherche Inserm au laboratoire bordelais Biothérapie des maladies génétiques, inflammatoires et du cancer. Il faut imaginer un jeu de construction : connaître les pièces ne suffit pas à bâtir un château réussi. Il faut comprendre les lois qui régissent leur assemblage et leurs interactions dans l’espace. » Le chercheur a ainsi proposé de modéliser l’organisation spatiale de la tumeur hépatique la plus fréquente chez l’enfant, l’hépatoblastome. «&nb sp;Notre hypothèse », poursuit-il, « est que cette organisation a des effets fonctionnels – par exemple sur l’activité des cellules immunitaires du tissu tumoral, la formation de métastases, ou l’efficacité des traitements ». Pour réaliser son projet de recherche, il s’est tourné vers la société francilienne XenTech, qui dispose d’échantillons biologiques de tissus tumoraux dérivés de patients atteints d’hépatoblastome. Mais comment étudier leur structure interne ? La réponse est venue fin 2018, lorsque Étienne Gontier, du Bordeaux Imaging Center, lui présente une nouvelle technologie, le Serial Block-Face Imaging en MEB. Elle combine un ultramicrotome, sorte de couteau de haute précision destiné à couper de fines lamelles de tissu, et un microscope électronique à balayage (MEB), qui réalise des images de chacune d’elles. Seules cinq plates-formes en France possèdent ce dispositif, acquis par le centre d’imagerie de Bordeaux grâce à un contrat de plan État-région. L’ingénieur de recherche se souvient : « Le centre l’avait déjà utilisé en cardiologie et souhaitait le tester dans un autre domaine. Un premier essai a montré que les techniques d’imagerie électronique 3D étaient exploitables pour caractériser des tissus cancéreux ». Pour extraire de précieuses informations de la tumeur, l’échantillon étudié est fixé dans une résine puis coupé tous les 50 nanomètres en lamelles ultrafines, mises en images par le microscope électronique. Un pavé de tissu tumoral, à l’échelle du micromètre, est ensuite reconstitué par l’empilement de 250 images de coupes. « Aucun dispositif d’imagerie n’a de résolution équivalente sur un tel volume », précise Étienne Gontier. Ces images en haute résolution font apparaître, par différents niveaux de gris selon leur densité, les composants de la tumeur : vésicules lipidiques, zones hémorragiques, membrane cytoplasmique, noyau cellulaire, mitochondries… Notre œil nous rend aptes à les « segmenter », c’est-à-dire à en tracer les contours, mais « cela correspond à un travail fastidieux », insiste Christophe Grosset. « Sur une seule image, nous avons segmenté environ 180 zones, manuellement. Nous ne pouvions pas réaliser cette tâche pour les 250 images nécessaires à la reconstitution de l’architecture de la tumeur ! » C’est là que l’intelligence artificielle (IA) et les mathématiques appliquées entrent en scène. Les chercheurs ont entraîné des réseaux de neurones profonds sur les premières images annotées "à la main"… puis l’IA s’est chargée d’analyser les autres. « L’efficacité redoutable des algorithmes d’IA rend leur utilisation incontournable dans nos travaux », confirme Baudouin Denis de Senneville, de l’Institut de mathématiques de Bordeaux. En trois cycles de corrections manuelles, la fiabilité du dispositif a atteint les 99,9 %. Si bien que les chercheurs travaillent désormais sur des volumes plus grands et de meilleure résolution, empilant des milliers d’images avec des algorithmes de segmentation automatiques pour un nombre accru d’éléments biologiques. « Désormais », explique le mathématicien, « ce type d’algorithmes possède de très hautes performances. Le point critique n’est plus le raffinement de la technologie, mais les données que l’on collecte et sur lesquelles sera entraînée l’IA : elles doivent être cohérentes, précises, et constituer un volume suffisant ». Ces succès appellent donc à la modération et à la prudence. « L’IA permet », p oursuit-il, « de traiter des bases de données gigantesques et d’en extraire des informations descriptives. Mais ce n’est qu’un outil familier, comme une clé à molette ! Elle ne se suffit pas à elle-même. Nous ne nous contentons pas de nous réjouir des résultats obtenus sans tenter de comprendre les possibles biais et insuffisances de nos bases de données. L’IA est utile et efficace lorsqu’elle contribue à vérifier des hypothèses scientifiques de manière rigoureuse : c’est le sens clinique du projet qui fait sa valeur ». Une fois l’image 3D obtenue, place à l’interprétation, qu’apporte à la connaissance biologique la prise en compte de l’architecture du tissu tumoral ? Mathématiques à l’appui, les chercheurs ont analysé la position des cellules tumorales, puis leur orientation géométrique, signalée par un rayon lumineux. Or, les rayons émanant des cellules se focalisaient tous sur un fin conduit intercellulaire – le canalicule biliaire –, petit canal qui a perdu ses fonctions dans le tissu tumoral. Contrairement au canal biliaire qui collecte et excrète les déchets du foie, cette structure n’était, ici, reliée à aucun système collecteur : cela signifie que les cellules tumorales déversent leurs éléments toxiques directement dans le tissu. Les chercheurs ont également mis en évidence, grâce à l’imagerie 3D, que les cellules tumorales s’organisent autour d’un capillaire sanguin. Celles qui en sont les plus proches sont aussi les plus grosses… Des études sur levures avaient déjà montré que l’alimentation en oxygène influence la taille des cellules ; ici, ce lien est confirmé au sein du tissu tumoral, pour la première fois. Enfin, l’équipe a établi de nouvelles corrélations, par exemple entre le volume occupé par les mitochondries dans le cytoplasme, et le volume de la cellule. Dans l’espoir de faire de nouvelles découvertes, Christophe Grosset tente désormais d’obtenir un financement pour étudier le lien entre l’architecture du tissu tumoral hépatique et la réponse à certaines thérapies. On le voit, ce nouveau territoire, baptisé "onconanotomie" par le chercheur, est vaste et rempli de promesses. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| L'échange de sang total -ou exsanguino-transfusion- constituerait-il une option viable de traitement de la maladie d'Alzheimer ? C’est ce que laisse entrevoir de récentes recherches de l'Université du Texas (Houston) qui a expérimenté sur la souris une nouvelle thérapie par "échange sanguin", qui promet de réduire efficacement la formation de plaques amyloïdes dans le cerveau. L’étude, préclinique, menée chez la souris modèle d’Alzheimer, modifiée avec des protéines précurseurs amyloïdes, a consisté à évaluer les effets d’un remplacement de sang par du sang total de souris en bonne santé. L’auteur principal, le Docteur Claudio Soto, professeur au Département de neurologie, résume les conclusions : « nous apportons la preuve de concept et les promesses de technologies couramment utilisées en pratique médicale, telles que la plasmaphérèse ou la "dialyse" sanguine, permettant de purifier le sang, dans ce cas de patients atteints de la maladie d'Alzheimer, pour réduire l'accumulation de substances toxiques dans le cerveau ». C’est un avantage considérable de cette nouvelle alternative qui ne nécessite pas, en particulier, le passage d’agents thérapeutiques à travers la barrière hémato-encéphalique. De précédentes études ont déjà bien montré que le mauvais repliement, l'agrégation et l'accumulation de protéines bêta-amyloïdes dans le cerveau jouent un rôle central dans la maladie d'Alzheimer, mais, avec ces travaux, il semble possible de prévenir ces processus par la manipulation de composants sanguins circulants : « Les vaisseaux sanguins dans le cerveau sont classiquement considérés comme la barrière la plus imperméable du corps, cependant cette barrière est aussi une interface très spécialisée entre le cerveau et la circulation systémique », écrivent les chercheurs. Après plusieurs transfusions sanguines, le développement de plaques amyloïdes cérébrales chez la souris modèle transgénique de la maladie d'Alzheimer s’avère réduit de 40 % à 80 % ; cette réduction des plaques amyloïdes s’accompagne d’une diminution des taux de croissance de la plaque au fil du temps et permet une amélioration des performances de mémoire spatiale chez l’animal. Le mécanisme exact par lequel cet échange sanguin réduit la pathologie amyloïde et améliore la mémoire reste mal compris, cependant les scientifiques émettent plusieurs hypothèses : la diminution des protéines bêta-amyloïdes dans la circulation sanguine pourrait favoriser la redistribution du peptide du cerveau vers la circulation périphérie ; l'échange de sang pourrait empêcher l'afflux de bêta-amyloïde. Si ces mécanismes d'action restent à préciser, le "changement de sang" est envisagé, pour la première fois, comme une piste prometteuse pour le traitement de la maladie d'Alzheimer. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Le cancer du col utérin se développe presque exclusivement à partir d'une lésion due à une infection persistante à un papillomavirus de haut risque (HPV-HR), les HPV-HR 16, 18 et 45 étant les plus fréquemment impliqués. L'ADN de l'HPV-HR s'intègre dans le génome de la cellule hôte. Les cellules tumorales libèrent dans la circulation des fragments de leur ADN, ainsi que des fragments de l'ADN de l'HPV (ADN tumoral circulant). La technique de PCR digitale en gouttelettes (droplet digital PCR : ddPCR) permet de détecter et de quantifier l'ADN de l'HPV libéré par les cellules tumorales dans la circulation (HPV-ADNtc). Une étude suédoise a analysé l'intérêt de la détection et de la quantification de l'HPV-ADNtc dans le plasma en utilisant la technique ddPCR, à différents stades du cancer du col utérin, avant le traitement, au cours du traitement, et à la suite de celui-ci. Dans un groupe de dix-huit femmes atteintes d'un cancer du col à un stade avancé (I B3-IV B) et dont la biopsie était positive à HPV 16,18 ou 45, dix-sept femmes (94,4 %) avaient un HPV-ADNtc positif avant le traitement. Les femmes qui avaient une tumeur d'un diamètre > 5 cm avaient un taux de d'HPV-ADNtc significativement plus élevé que celles qui avaient des tumeurs < 5 cm. Les taux d'HPV-ADNtc étaient très variables en cours de traitement. Douze des dix-sept femmes qui avaient un HPV-ADNtc positif avant traitement avaient un HPV-ADNtc négatif après traitement. Pour les femmes qui avaient un HPV-ADNtc toujours positif après traitement, il était constaté une diminution significative des taux de survie sans progression et de survie globale, par rapport à ceux des femmes dont l'HPV-ADNtc s'était négativé. Dans un groupe de quinze femmes atteintes d'un cancer du col à un stade précoce (I B2-II B1), avec une biopsie positive à HPV 16, 18 ou 45, seulement quatre femmes (26,7 %) avaient un HPV-ADNtc positif avant traitement, et trois d'entre elles ont été reclassifiées à un stade plus avancé. Parmi les onze femmes qui avaient un HPV-ADNtc négatif, six avaient eu une conisation à visée diagnostique. Trois d'entre-elles ont été reclassifiées à un stade plus avancé. Les quatre femmes qui avaient un HPV-ADNtc positif avant traitement avaient un HPV-ADNtc négatif un mois après traitement. Dans un groupe de vingt et une femmes atteintes d'une lésion non invasive du col (LSIL, HSIL, AIS) aucune n'avait un HPV-ADNtc positif. Les études à venir devraient confirmer l'intérêt de L'HPV-ADNtc dans le suivi et le pronostic des lésions cancéreuses du col utérin. Article rédigé par Georges Simmonds pour RT Flash NIH | | | |
| La recherche du lien à court terme entre la mortalité (toutes causes confondues) et la température a fait l’objet de précédentes publications scientifiques : un excès de mortalité est documenté, à la fois pendant les périodes les plus froides, mais aussi pendant les périodes les plus chaudes, ce qui correspond à une relation en U. Pour la première fois, des chercheurs et chercheuses de l’Inserm au sein de l’Institut pour l’avancée des biosciences à Grenoble ont pu étudier ce phénomène sur une période de près de 50 ans et classer les causes de décès selon leur sensibilité à la chaleur. Ils se sont appuyés sur le registre des causes médicales de décès de l’Inserm (CépiDc), qui dispose d’un recul permettant de remonter jusqu’à 1968. Au total, 24,4 millions de décès ont été enregistrés sur 49 ans, dont plus de 502 000 par suicide. Les scientifiques ont croisé le nombre de décès survenant chaque jour dans chaque région avec les températures quotidiennes tout au long de la période d’observation. L’approche ne concerne que les liens à court terme entre température et mortalité, et s’affranchit des tendances à long terme dans la mortalité ainsi que des variations géographiques dans la mortalité. « Nous n’observons ici qu’une des toutes dernières étapes d’une longue et complexe chaîne causale multifactorielle menant au décès », explique Rémy Slama, responsable de l’étude et directeur de recherche à l’Inserm. Quand on considérait tous les décès simultanément, le taux de mortalité était minimal quand la température était proche de 20°C, et croissait à la fois quand la température augmentait au-delà de 20°C ou diminuait en dessous de 20°C. Parmi les 22 causes de décès considérées, presque toutes suivaient cette relation en U déjà décrite dans le passé. La mortalité par suicide constituait une exception notable, avec une augmentation régulière avec la température, depuis les températures les plus basses jusqu’aux plus élevées. Parmi les 22 causes de décès considérées, le suicide se classait au septième rang en matière de sensibilité à la chaleur. En ce qui concerne plus spécifiquement le lien entre chaleur et suicide, l’association la plus forte a été trouvée avec la température le jour du décès (plutôt que celle des jours précédents), c’est-à-dire qu’il s’agit d’une association à très court terme. Enfin, parmi les 10 causes de décès les plus fortement liées à la chaleur, au total, quatre impliquaient le système nerveux (troubles mentaux et comportementaux, maladies du système nerveux, maladies cérébrovasculaires et suicide). Ceci suggère une grande sensibilité du système nerveux aux températures élevées. Le relativement long recul offert par les données du registre des causes de décès a aussi permis d’aborder la question de l’adaptation aux températures extrêmes. En découpant la période d’étude en trois, les scientifiques ont pu étudier si l’effet des températures variait entre ces périodes. Les effets de la température pour la mortalité toutes causes confondues et de la mortalité par suicide se sont atténués entre les périodes 1968-1984 et 1985-2000 : pour une même température, le risque de décès était moins élevé durant la période 1985-2000 que durant la période 1968-1984. Ceci était observé à la fois pour l’effet des températures chaudes au-dessus de 20°C, mais aussi pour les températures froides autour de 0°C. Aucune nouvel le atténuation n’a toutefois été constatée au cours de la période 2001-2016 par rapport à la période précédente (1985-2000). Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Un drone a effectué des vols tests à Anvers, dans l'est de la Belgique, pour transporter des tissus humains d'un hôpital à un autre à des fins d'analyse, une expérience inédite en Europe qui pourrait faire gagner du temps précieux en cours d'opération. Il s'agissait d'un test entre le Réseau hospitalier anversois ZNA et les GZA Ziekenhuizen, qui doivent fusionner en 2024 pour former un ensemble de treize sites. Les hôpitaux se préparent ainsi à la nouvelle législation sur le transport aérien, qui entrera en vigueur l'an prochain pour réglementer davantage l'usage des drones. Le transport par drone est plus rapide, fiable, écologique et meilleur marché que le transport par route, ont fait valoir les hôpitaux. La primeur européenne consiste en ce que, pour la première fois, une autorisation a été délivrée pour voler par-dessus la ville et hors du champ de vision du pilote. Elle aidera à élaborer la procédure et partager l'expérience avec les instances européennes qui préparent les prochains textes légaux. « Aujourd'hui nous testons le transport de tissus, mais il y a bien d'autres possibilités pour divers types d'échantillons, le sang ou les médicaments », a expliqué Willeke Dijkhoffz, l'administratrice déléguée des GZA Ziekenhuizen. « Et puis les drones enlèvent un peu de trafic routier, ce qui contribue au bien-être dans la ville ». « Plus encore que dans d'autres secteurs, réaliser la livraison à temps est d'une importance vitale pour un hôpital », ajoute Els van Doesberg, présidente de ZNA. « En cas de trafic fluide, une voiture transportant met 21 minutes pour parcourir les 13 km qui séparent le site Jan Palfijn de ZNA du laboratoire central de Middelheim, mais cela peut être bien plus en cas d'embouteillages sur le ring d'Anvers. Avec le drone, c'est 10 minutes, et c'est stable ». Certains échantillons prélevés lors d'une opération sont congelés et doivent être analysés rapidement. Un autre intérêt est de pouvoir soumettre plus facilement les échantillons aux meilleurs spécialistes répartis sur différents sites. Seuls les fortes rafales de vent et le gel peuvent clouer le drone au sol, mais il est opérationnel 95 % du temps. Article rédigé par Georges Simmonds pour RT Flash Data News | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|