| | | | | | | Edition du 10 Juillet 2020 |
| |
|
| Edito L'Éolien Marin de nouvelle génération va bouleverser les techniques de production d'énergies renouvelables
Cette semaine, je reviens sur un sujet important que j'aborde régulièrement dans RT Flash, celui de la place des énergies renouvelables, et notamment de l’éolien marin, dans la transition énergétique vers un monde sans émissions de CO2 liées aux activités humaines, un objectif, nous le savons à présent, qu’il nous faut atteindre le plus rapidement possible, si nous voulons, non pas arrêter le changement climatique de grande ampleur en cours, mais en limiter les conséquences les plus désastreuses pour nos sociétés, en essayant de rester sous la barre d’une augmentation moyenne de deux degrés de la température mondiale. Si je reviens sur ce sujet, c’est parce qu'en seulement quelques mois, plusieurs ruptures technologiques décisives ont eu lieu dans ce domaine. Les trois premières, nous allons le voir, concernent les performances des éoliennes elles-mêmes ; les suivantes, nous le verrons, concernent de nouvelles techniques de stockage et de production d’énergie utilisant l’hydrogène, notamment la récente technologie PCEC (protonic ceramic electrochemical cell) qui va bientôt permettre de convertir, avec une bien plus grande efficacité, l’électricité en hydrogène, et l’avènement de nouveaux types d’électrodes en micro-fibres, capables de produire en grande quantité, pour un coût énergétique réduit, de l’hydrogène par électrolyse de l’eau. Enfin, la dernière innovation, sans doute la plus importante, en termes de construction d’un nouveau modèle énergétique intégrant la production, le stockage et la distribution d’énergie propre, est le concept de « vehicle-to-grid, autrement dit, de voitures propres (à hydrogène ou électrique) conçues pour fonctionner comme des unités autonomes de production et de stockage d’énergie, connectées de manière intelligente au réseau de distribution. Avec un peu plus de 100 TWh générés dans le monde (l’équivalent d’un peu moins de 20 % de la production française annuelle d’électricité), fin 2020 (dont les deux-tiers dans l’Union européenne), l’éolien marin ne comptera encore que pour 0,5 % de la production électrique mondiale, qui sera de l’ordre de 25 000 TWh à la fin de l'année en cours. Mais, selon l’AIE, et de nombreux autres organismes et laboratoires de recherche, le potentiel énergétique de l’éolien marin est absolument gigantesque : il pourrait, en théorie, produire plus de 420 000 TWh par an au niveau mondial, soit onze fois la demande mondiale d’électricité de la planète prévue à l’horizon 2040. Il y a un an, l’AIE estimait, en tenant compte des différentes contraintes gé ;ographiques, climatiques et économiques et techniques, que l’éolien offshore pourrait produire au niveau mondial près de 1 280 TWh en 2040, soit environ 3 % de la production mondiale globale d'électricité par an envisagée à cet horizon. Mais l’ensemble des innovations techniques très récentes, que je vais rapidement évoquer, risquent fort de bouleverser ces prévisions car, si on considère la formidable synergie que représente l’interconnexion de ces avancées, et si l’on anticipe la baisse considérables des coûts de production de l’électricité marine, résultant des économies d’échelle liées à l’arrivée de machines gigantesques, d’une efficacité énergétique qu’on pensait inatteignable il y a encore 5 ans, ce n’est plus 3 % de l’électricité mondiale qui pourrait être produite par l’éolien marin dans 20 ans, mais 25 ou 30 %, ce qui veut dire que les énergie renouvelables (éolien, solaire et hydraulique principalement), qui représentent environ 26 % de la production &ea cute;lectrique mondiale (hors nucléaire), pourraient couvrir plus des deux-tiers de cette production en 2040 (toujours hors nucléaire), de quoi réduire de 20 % les émissions de CO2 dues à la production d’électricité (environ 7 gigatonnes par an, soit 13 % des émissions humaines totales de GES en 2019) en dépit d’une hausse attendue de 45 % de la production électrique planétaire d’ici 2040… Venons-en à présent à ces innovations dont nous n’avons pas encore pris pleinement la mesure, et qui vont radicalement transformer le paysage énergétique mondial et accélérer, il faut l’espérer, la nécessaire décarbonisation de nos économies. La première de ces ruptures technologiques est l’annonce, il y a quelques semaines, d’une nouvelle génération d’éoliennes marines par Siemens Gamesa, qui domine ce marché. Ce constructeur proposait jusqu’à présent une machine de 8 MW, dont les pales ont une longueur de 81,5 mètres et le rotor un diamètre de 167 mètres, et qui devrait équiper les premiers parcs offshore français. L’autre géant des mers était l’Haliade X, de General Electric, une machine de 12 MW, munie de pales de 107 mètres de long et d’un rotor ayant un diamètre de 220 mètres, présentée il y deux ans. Mais la machine présentée par Siemens Gamesa est véritablement colossale et fait entrer l’éolien marin dans une nouvelle dimension : une puissance nominale de 14 MW (pouvant être débridée à 15 MW), des pales de 108 mètres, un rotor de 222 mètres, et un poids de nacelle de 500 tonnes, qui reste relativement léger (grâce à la maîtrise de la technique de l’entraînement direct), compte tenu de ses dimensions hors normes. Une seule de ces machines pourra fournir, en moyenne, 90 millions de kWh par an, assez d’électricité pour couvrir la consommation d’environ 18.000 ménages européens. En théorie, 900 de ces éoliennes marines géantes pourraient produire, en moyenne annuelle, autant d'électricité que l'ensemble de nos barrages, qui assurent environ de 10 % de la production nationale totale d'&eacut e;lectricité. Autre innovation majeure, l’arrivée d’une nouvelle génération d’éoliennes offshore flottantes géantes, comme celles de 8,4 mégawatt (MW), qui ont été installées il y a quelques mois au large des côtes portugaises, dans le parc marin MHI Vestas, à 20 kilomètres au large de la côte de Viana do Castello. Il s’agit de la première des trois unités semi-submersibles, conçues par Principle Power pour accueillir les éoliennes du parc MHI Vestas qui fournira au total 25 MW d’énergie éolienne flottante. En France, fin 2019, l’un des quatre projets de ferme d’éoliennes flottantes, EFGL (Éoliennes flottantes du Golfe du Lion (EFGL), porté par Engie Green, a décidé de passer de 4 à 3 éoliennes seulement, en se dotant d’éoliennes flottantes de nouvelle génération, d’une puissance-record de 10 MW. Ce parc marin, qui sera construit au large de Leucate et devrait entrer en service en 2022, pourra donc, au final, disposer d’une puissance de 30 MW au total, soit l'équivalent de la consommation électrique de plus de 50 000 personnes. Cette nouvelle génération de machines flottantes de grande puissance présente l’avantage décisif, en termes d’impact environnemental et esthétique, de pouvoir être implantée beaucoup plus loin des côtes, puisqu’elles peuvent être ancrées sur des fonds allant jusqu’à 300 mètres de profondeur. Elles bénéficient de ce fait de vents plus forts et plus constants, ce qui augmente leur facteur de charge d’un tiers (à puissance comparable) par rapport aux éoliennes marines conventionnelles. Une autre avancée technique en cours de développement va bouleverser le paysage énergétique, le couplage de l’éolien et de la production propre d’hydrogène. Il faut en effet rappeler que, quels que soient les progrès qui interviennent dans l’efficacité énergétique des éoliennes, l’énergie du vent reste, par nature, localement intermittente, même si de puissants modèles informatiques permettent à présent de prévoir, avec une bonne précision, le rendement énergétique moyen d’un site éolien. Il est donc capital de coupler les éoliennes à de nouveaux outils de stockage de l’énergie plus performants et plus fiables. C’est dans cette perspective que l’entreprise britannique ITM Power et l’énergéticien danois Ørsted travaillent depuis deux ans à intégrer un électrolyseur dans une éolienne pour produire de l’hydrogène directement sur site, à partir d’eau de mer, cet hydrogène devant ensuite être acheminé par pipe-line vers les côtes. De son côté, Lhyfe, producteur d'hydrogène vert, mettra en service en mai 2021 une unité d'électrolyse alimentée en eau dessalée et branchée sur un parc de huit éoliennes à Bouin en Vendée ; cette entreprise espère ensuite proposer de véritables plates-formes de production d’hydrogène en mer. A Grenoble, la jeune société Sylfen, avec son Smart Energy Hub, parie pour sa part, sur une solution hybride, destinée à l 217;habitat, qui associe batteries et électrolyseur convertible en pile à combustible, pour obtenir un système qui, à l’aide du vecteur hydrogène, peut à la fois produire et stocker de l’énergie issue de sources renouvelables. Reste que l’intégration massive dans les réseaux de distribution de sources de production d’électricité intermittentes, et fortement fluctuantes, va nécessiter plusieurs révolutions technologiques qui font appel à la fois à la physique, la chimie, l’électronique et les outils numériques. Parmi celles-ci, il faut évoquer la récente technologie PCEC (cellule électrochimique céramique protonique) qui promet une conversion bien plus efficace et durable de d’électricité en hydrogène. Il y a quelques semaines, une équipe de recherche conduite par le Docteur Dong Ding, du Laboratoire National de l’Idaho (INL) a présenté une nouvelle électrode à oxygène, de type TCO (triple conducting oxide), une céramique à base de pérovskite. Ces chercheurs ont pu montrer que ce nouveau type d’électrode PCEC permettait d’envisager la réalisation de systèmes électrochimiques capables de fonctionner entre 400°C et 600°C avec des performances améliorées (Voir Nature). Mais surtout, ces nouvelles cellules à triple conduction, permettant à la fois la circulation de protons, d’électrons et d’ions oxygène, seront réversibles, ce qui signifie qu’elles pourront transformer l’électricité excédentaire provenant des sources renouvelables, en hydrogène, pour stocker cette énergie sous forme chimique, mais qu’elle pourront également, avec un excellent rendement (de l’ordre de 75 %), et une grande longévité (seulement 2 % de diminution pour 1000 heures de fonctionnement) retransformer cet hydrogène en électricité, pour répondre, par exemple, à une brusque augmentation de la consommation sur le réseau, ou à une chute rapide de la production provenant de l’éolien. Comme le souligne le Docteur Ding, « Cette nouvelle électrode triple conduction repr&eac ute;sente une avancée majeure dans le domaine de l’électrolyse haute température, car elle ouvre la voie à des systèmes PCEC qui pourront reconvertir en électricité l’hydrogène généré par électrolyse, de manière réversible et efficace, sans apport extérieur d’hydrogène ». Une autre équipe américaine, de l’université privée Duke (Durham-Caroline du Nord), dirigée par le Professeur Ben Wiley, a récemment annoncé qu’elle avait mis au point une électrode en microfibre de nickel qui battait tous les records de performances, en matière de production d’hydrogène par électrolyse. Ces chercheurs ont en effet montré que cette nouvelle électrode pouvait, pendant quatre jours durant, produire de l’hydrogène à une densité de courant de 25 000 milliampères par centimètre carré, soit une efficacité énergétique 50 fois plus élevée que celle des électrolyseurs alcalins classiques actuellement utilisés pour l’électrolyse de l’eau… Cette percée technologique pourrait faire sauter un verrou majeur, car actuellement, la méthode la moins onéreuse pour produire des quantités industrielles d’hydrogène n’est pas l’électrolyse, contrairement à ce que pense le grand public, mais le vaporeformage, une technique qui consiste à séparer le gaz naturel (méthane) avec de la vapeur très chaude (1000°), et qui est à la fois très énergivore et très émettrice de CO2 (environ 10 tonnes de C02 pour chaque tonne d’hydrogène produite) (Voir Duke Today). Ces deux avancées ouvrent donc la voie vers la conversion massive, propre, réversible et à faible coût, de l’électricité en hydrogène, et vice-versa, ce q ui devrait constituer un puissant facteur d’accélération du développement de l’éolien marin, qui produit de manière fluctuante d’énormes quantités d’électricité. En attendant que ces innovations technologiques en matière de conversion et de stockage puissent être directement intégrées dans les parcs éoliens marins, de manière à démultiplier leur efficacité énergétique, les recherches s’intensifient également du côté des batteries, en utilisant le concept prometteur de « vehicle connecté au réseau » (Vehicle to Grid). On sait notamment, depuis quelques semaines, que Tesla, qui mise beaucoup sur ce concept, a intégré un chargeur bidirectionnel dans la Tesla Model 3 et dans son nouveau SUV Model Y. Tesla a en outre choisi un système triphasé qui peut fonctionner dans le monde entier : une simple mise à jour logicielle suffit à activer la charge bidirectionnelle, selon la firme d’Elon Musk. En France, EDF a lancé en mai 2019 sa filiale Dreev, dédiée aux collectivités et entreprises. Il s’agit d’une borne bi-directionnelle de recharge de véhicule électrique (VE) de 11 kW, capable de fournir, lorsque les véhicules sont à l’arrêt, de l’énergie au réseau, en cas de brusques augmentations de la consommation électrique globale. EDF, par le biais de sa filiale Izivia, a pour ambition de déployer d’ici 2022, dans quatre pays : la France, le Royaume-Uni, la Belgique et l’Italie, 75 000 bornes de recharge, dont plusieurs centaines de bornes réversibles, de typeV2G. L’ensemble de ces nouveaux moyens et outils de stockage et de gestion intelligente de l’énergie vont donc accélérer le déploiement de cet éolien marin de très grande capacité, qui assure déjà en Ecosse une production électrique deux fois supérieure à celle de la consommation domestique de ce pays, alors que la Grande Bretagne vient, pour sa part, d’annoncer qu’elle allait passer la part de l’éolien marin dans sa production d’électricité de 20 % à 35 % en 2030. En France, après des années d’atermoiements, l’éolien marin décolle enfin. EDF vient en effet d’annoncer, il y a quelques jours, la mise en chantier prochaine de la première ferme française d’éoliennes marines au large de Fécamp en Normandie. Ce projet gigantesque de 500 MW, qui devrait être suivi par la réalisation d’ici 2024 de cinq autres parcs éolien marins, permettra d’alimenter environ 770 000 foyers en électricité. Dans dix ans, l’éolien marin pourrait produire au moins 30 Twh par an en France, soit plus de 6 % de notre consommation annuelle d’électricité, ou encore l’équivalent de quatre gros réacteurs nucléaires. Quant au coût de production du MW éolien, il est estimé à 150 Euros pour ce premier parc de Fécamp, un niveau sensiblement plus élev&eacut e; que celui de l’éolien terrestre mais assez proche de celui du nucléaire : 120 euros le MW, selon la Cour des Comptes, si l’on intègre la mise aux nouvelles normes de sécurité de nos centrales nucléaires, avec le « grand carénage ». Mais, au-delà de la prouesse technologique que représente la mise au point de ces dernières géantes des mers, et des systèmes de stockage et de transport d’énergie de plus performants qui s’y connectent, l’éolien marin du futur représente un potentiel de développement industriel tout à fait considérable, ainsi qu’un gisement très important d’emplois pérennes et qualifiés. Deux opportunités de croissance durable que notre pays doit absolument saisir, sous peine d’être distancé dans la compétition mondiale qui s’exacerbe sur le marché des technologies vertes. Pour s’en convaincre, il faut rappeler qu’il y a quelques jours Siemens Gamesa a retenu le groupement mené par GTM Normandie-Centre (VINCI Construction France) pour construire dans le port du Havre sa nouvelle usine de fabrication d'éoliennes marines géantes qui doit équiper les parcs en mer de Fécamp (71 éoliennes) et Saint-Brieuc (62). Il s’agit du plus grand projet industriel de l'histoire des énergies renouvelables en France et cette usine sera la première au monde à produire, sur un même site, tous les composants d'une éolienne offshore. Le groupement, qui, outre VINCI Construction et Eurovia Haute-Normandie, est composé à plus d'un tiers d'entreprises locales, utilisera des matériaux produits en Normandie et devrait permettre de créer 1 400 emplois locaux directs et indirects. Or, si l’éolien marin est appelé à produire plus du quart de l’électricité mondiale d’ici 2040, comme le pense un nombre croissant d’experts et d’études prospectives, il faudra construire, au cours de ces 20 prochaines années, pas moins de 160 000 éoliennes marines géantes - 8 000 par an -, du type de la nouvelle machine de 14 MW qui vient d’être présentée par Siemens-Gamessa. A ces machines s’ajouteront, bien sûr, les systèmes très sophistiqués de conversion et de stockage réversible d’énergie par hydrogène qui devront assurer la distribution intelligente de cette électricité verte dans les réseaux. La France qui a la chance de posséder un immense domaine maritime de 11 millions de km, doit mobiliser toutes ses compétences humaines, et son savoir-faire technologique, pour devenir un acteur majeur, et pourquoi-pas s’affirmer comme le leader mondial dans cette révolution technique et industriel qui va changer nos économies et nos sociétés. Un premier pas vient d’être fait avec la relance des projets éoliens marins annoncé par le gouvernement d’ici 2024, mais il faut aller beaucoup plus loin et plus fort, pour que, dans dix ans, nous ayons rattrapé nos voisins anglais et allemands et soyons devenus pionniers dans cette nouvelle aventure humaine et technologique, qui nous permettra à la fois d’apporter une contribution décisive à la lutte contre le changement climatique, de renforcer notre indépendance énergétique, de réduire considé rablement les effets dévastateurs de la pollution de l’air sur notre santé et de relancer notre développement économique sur des bases durables et porteuses d’une meilleure qualité de vie pour tous. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Nanotechnologies et Robotique | |
| | | Des chercheurs du MIT ont développé une “pince molle“, baptisée Origami Robot Gripper, qui pourrait conférer aux robots la sensation du toucher et d’une meilleure conscience de l’espace. Les équipes qui travaillent sur la robotique au laboratoire CSAIL, la division spécialisée dans l’intelligence artificielle au Massachusetts Institute of Technology, ont imaginé des capteurs qui ressemblent à un ballon gonflable. Ils parlent d’une “pince molle”. Ils ont fait en sorte de permettre à ce robot de mieux sentir ce qu’il saisit et de contrôler la force qu’il doit utiliser dans chaque situation. Deux innovations sont à l’ordre du jour : ces fameux ballons gonflables qui servent de capteurs aux robots et une pince conçue pour saisir des objets cent fois plus lourds que son propre poids. Cette pince a été améliorée avec des capteurs qui lui permettent de déterminer le poids d’un objet et donc de mettre un certain degré de pression au moment de le saisir et de le soulever. Dans les deux cas, un algorithme utilise les informations envoyées par les capteurs pour indiquer au robot le degré de force à utiliser. Les chercheurs ont testé leurs innovations sur des bouteilles en plastique, des boîtes de conserve, des pommes, une brosse à dents ou encore un paquet de biscuits. Selon Josie Hughes, auteur principal des recherches : « Nous espérons que cette innovation pourra devenir une nouvelle méthode de détection douce et s’appliquer à un large panel d’applications différentes dans des contextes de fabrication, comme l’emballage de produits par exemple ». Au fil des années, les robots s’améliorent et se rapprochent des capacités humaines. Au début de l’année 2020, le roboticien T.J. Wallin dévoilait ses recherches sur la transpiration des robots. Il est convaincu que les robots doivent également acquérir cette capacité pour éviter la surchauffe lorsqu’ils travailleront pendant de longues heures d’affilées. De petits réservoirs creux et pressurisés sont placés à l’intérieur des doigts d’une main robotique. Le principe est très simple : lorsque le plastique atteint une certaine température, les pores s’ouvrent et l’eau est poussée à la surface, de la même manière que chez l’homme. Il y a quelques semaines, le MIT dévoilait de nouveaux capteurs qui pourraient servir de peau pour les robots. Preuve que les chercheurs du CSAIL cherchent depuis un petit moment un moyen d’offrir la sensation du toucher aux robots. Cette fois-ci, ils cherchaient à recouvrir les robots d’une sorte de tronc souple et équipé de capteurs fabriqués à partir d’un matériau utilisé pour le “blindage contre les interférences électromagnétiques”. Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| Des chercheurs de l’Université de Harvard viennent de mettre au point un microrobot inspiré d'un cafard. Baptisé HAMR-Jr (HAMR junior), il mesure la moitié de la taille de son prédécesseur, le Harvard Ambulatory Microrobot (HAMR). D'une longueur de 2,25 centimètres, cette petite machine pèse seulement 0,32 gramme. Elle dispose de 8 degrés de liberté actionnés indépendamment, une particularité inédite pour un appareil de cette taille. Le microrobot a été construit selon le même procédé inspiré de l'origami que son prédécesseur. Le châssis est découpé dans une feuille en deux dimensions, puis replié pour obtenir la forme 3D. Les chercheurs ont montré que ce même procédé peut être utilisé à différentes échelles pour créer des machines de tailles différentes, tout en ne nécessitant que des ajustements mineurs. « La plupart des robots à cette échelle sont plutôt simples et ne démontrent qu'une mobilité basique » a indiqué Kaushik Jayaram, l'un des auteurs de l'article. « Nous avons démontré qu'il n'est pas nécessaire de compromettre la dextérité ou le contrôle pour la taille ». Malgré ses faibles dimensions, cette machine est capable de se mouvoir en avant et en arrière, de tourner et même d'utiliser différents types de foulées. HAMR-Jr peut atteindre une vitesse de 13,9 fois sa longueur par seconde, ce qui en fait un des microrobots les plus petits et les plus rapides. La partie la plus complexe de cette miniaturisation a été de prendre en compte les différences au niveau de certains facteurs, comme la longueur de foulée et la rigidité des articulations. Les chercheurs ont créé un modèle théorique qui prédit avec succès la vitesse de course, la force des pieds et d'autres métriques. Les résultats obtenus avec HAMR-Jr devraient permettre de créer plus facilement des robots de toutes les tailles à l'avenir. Article rédigé par Georges Simmonds pour RT Flash Engineer | | ^ Haut | |
|
| | | Réunissant des chercheurs français et belges, le programme de recherche Bioharv étudie les propriétés piézoélectriques de l'acide polylactique (PLA). Ce polymère se révèle capable de produire de l'énergie à faible coût afin d'alimenter des objets connectés de faible puissance. Avec une croissance de 20 % par an, le domaine de l’Internet des objets, encore appelé IoT pour Internet of Things, se développe fortement dans le monde. En 2020, ce marché devrait représenter environ 5 000 milliards de dollars. À l’intérieur de ces objets, les capteurs communicants nécessitent d’être alimentés en électricité pour fonctionner. Un programme de recherche transfrontalier, associant des chercheurs français et belges, nommé projet Bioharv, vise à optimiser leur autonomie en énergie et réduire leur dépendance aux batteries à base de lithium. Piloté par l’IMT Lille Douai, il consiste à étudier et optimiser les propriétés piézoélectriques d’un matériau polymère : l’acide polylactique (PLA pour polylactic acid). La piézoélectricité est cette propriété bien connue qu’ont certains matériaux à générer du courant électrique à partir d’une contrainte mécanique telle qu’une torsion, une vibration ou une compression. « À ma connaissance, mis à part une équipe au Japon, il n’existe pas d’autres travaux de recherche sur la piézoélectricité du PLA », confie Cédric Samuel, enseignant-chercheur à l’IMT Lille Douai et coordinateur du projet Bioharv. Historiquement, les micro-générateurs d’énergies par effet piézoélectrique ont été développés à partir de matériaux céramiques du type PZT (Titano-Zirconate de Plomb). Dans les années 80, les chercheurs s’intéressent à des polymères fluorés pour leurs avantages en matière de flexibilité mécanique et de facilité d’utilisation. L’un d’entre eux, le PVDF (PolyVinyliDene Fluoride), a particulièrement été utilisé car il offre le meilleur rendement électromécanique. Par contre, son procédé de fabrication s’avère relativement complexe, ce qui en fait un matériau assez coûteux. « Le PLA présente l’avantage d’offrir une piézoélectricité spontanée et permet donc de concevoir des systèmes de micro-générations d’énergies à bas coût », explique le chercheur. Les méthodes pour qu’il acquiert une piézoélectricité sont assez particulières et relativement simples à maîtriser, ce qui en fait un matériau un peu à part dans le paysage des polymères piézoélectriques ». Biodégradable, le PLA est, dans un premier temps, fabriqué grâce à la transformation de l’acide lactique produite à partir de la fermentation de sucres alimentaires issus de la production de maïs, de betterave, de tapioca ou encore de canne à sucre. Afin qu’il acquière ses propriétés piézoélectriques, il est ensuite nécessaire de modifier son état pour atteindre une forme semi-cristalline. Pour cela, il est chauffé au-dessus de la température de transition vitreuse, autour de 60 à 80 degrés, puis étiré afin d’obtenir une matière orientée. À haute fréquence (20 Hz), le PLA se révèle capable de générer une puissance de l’ordre de 0,5 µW/cm². Une performance bien moindre que celle observée avec le PVDF (40 µW/cm²) mais tout de même suffisante pour alimenter certains objets connectés nécessitant peu d’énergie. Surtout, il est beaucoup moins cher et son coût pourrait même se révéler dix fois moins élevé que le PVDF. Les chercheurs tentent d’augmenter les propriétés piézoélectriques du PLA tout en maîtrisant son coût de fabrication. Comme tout matériau piézoélectrique, l’énergie produite est d’autant plus importante que la fréquence de vibration est élevée. Ici, l’électricité générée pourrait même varier au carré de la fréquence de la déformation, selon des modèles théoriques encore en cours de validation expérimentale. Lancé à l’automne 2016, le projet Bioharv doit se terminer en février 2021. Les chercheurs veulent le poursuivre au-delà afin de démontrer une preuve de concept. À partir du PLA, ils souhaitent développer un capteur de température communicant et auto-alimenté ; le marché potentiel de ce genre d’outil est en effet important car de nombreux objets connectés en sont équipés. « Nous aimerions par exemple concevoir des capteurs afin de suivre en temps réel la température d’une route », explique Cédric Samuel. « Ces mesures offrent un intérêt pour suivre le niveau de dégradation de l’asphalte sur des pistes d’aéroport, des ponts ou autre ouvrage critique. Les capteurs de température seraient auto-alimentés par les vibrations du bitume suite au passage des avions ou des véhicules. Autre exemple : nous aimerions développer un capteur pour mesurer la température de moteurs industriels afin de surveiller leur état. Il serait autonome en énergie grâce aux vibrations du moteur ». Article rédigé par Georges Simmonds pour RT Flash Bioharv | | | |
| Pour que l’hydrogène soit la solution au problème du stockage, il faudrait que l’électrolyse avec séparation d’eau soit beaucoup plus abordable et efficace, a déclaré Ben Wiley, professeur de chimie à l’Université de Duke. Lui et son équipe ont quelques idées sur la façon d’y parvenir. Les chercheurs ont récemment testé trois nouveaux matériaux qui pourraient être utilisés comme une électrode poreuse à flux continu permettant d’améliorer l’efficacité de l’électrolyse. Leur but était d’augmenter la surface de l’électrode pour les réactions, tout en évitant de piéger les bulles de gaz qui sont produites. « La vitesse maximale à laquelle l’hydrogène est produite est limitée par les bulles qui bloquent l’électrode – empêchant littéralement l’eau de monter à la surface et de se diviser », a déclaré M. Wiley. Dans un article paru le 25 mai dans Advanced Energy Materials, ils ont comparé trois configurations différentes d’une électrode poreuse à travers laquelle l’eau alcaline peut s ’écouler au fur et à mesure que la réaction se produit. Ils ont fabriqué trois types d’électrodes à flux continu, chacune étant un carré de 4 millimètres de matériau spongieux, d’une épaisseur d’un millimètre seulement. L’une était faite d’une mousse de nickel, une autre était un “feutre” fait de microfibres de nickel, et la troisième était un feutre fait de nanofils de nickel-cuivre. En faisant passer un courant pulsé par les électrodes pendant cinq minutes en marche et cinq minutes en arrêt, ils ont découvert que le feutre fait de nanofils de nickel-cuivre produisait initialement de l’hydrogène plus efficacement car il avait une plus grande surface que les deux autres matériaux. Mais en 30 secondes, son efficacité a chuté parce que le matériau était bouché par des bulles. L’électrode en mousse de nickel était la plus efficace pour laisser les bulles s’échapper, mais elle avait une surface nettement inférieure à celle des deux autres électrodes, ce qui la rendait moins productive. Le point idéal s’est avéré être un feutre de microfibre de nickel qui a produit plus d’hydrogène que le feutre de nanofil, malgré une surface de réaction inférieure de 25 %. Au cours d’un test de 100 heures, le feutre en microfibres a produit de l’hydrogène à une densité de courant de 25 000 milliampères par centimètre carré. À ce rythme, il serait 50 fois plus efficace que les électrolyseurs alcalins classiques actuellement utilisés pour l’électrolyse de l’eau, ont calculé les chercheurs. Le moyen le moins cher de produire des quantités industrielles d’hydrogène à l’heure actuelle n’est pas de séparer l’eau, mais de séparer le gaz naturel (méthane) avec de la vapeur très chaude – une approche à forte intensité énergétique qui crée de 9 à 12 tonnes de C02 pour chaque tonne d’hydrogène produite, sans compter l’énergie nécessaire pour créer de la vapeur à 1000 degrés Celsius. M. Wiley a déclaré que les producteurs commerciaux d’électrolyseurs à eau pourraient améliorer la structure de leurs électrodes en se basant sur ce que son équipe a appris. S’ils pouvaient augmenter considérablement le taux de production d’hydrogène, le coût de l’hydrogène produit à partir de la séparation de l’eau pourrait diminuer, peut-être même suffisamment pour en faire une solution de stockage abordable pour les énergies renouvelables. Article rédigé par Georges Simmonds pour RT Flash Duke Today | | | |
| Voilà déjà plusieurs années que le sujet revient à la charge au sein des médias généralistes et spécialisés : les routes capables de recharger une voiture électrique en cours d’utilisation. Le groupe Qualcomm a déjà effectué une série de tests en France en 2017, lorsque Siemens a également participé à des projets similaires en Suède et en Allemagne, parmi les pays européens les plus avancés sur le sujet. Mais alors que cette « révolution technologique » semble avancer à petits pas, une start-up israélienne répondant au nom d’Electreon multiplie ses interventions en Israël et en Suède, chapeautées par son patron, Oren Ezer, qui voit ici une opportunité de soutenir les futurs véhicules autonomes qui avaleront des centaines de kilomètres. « Lorsque vous imaginez un monde où vous sortez dehors et commandez un robotaxi d’Uber ou d’une autre entreprise, ces sociétés vont-elles attendre cinq heures pour recharger leurs véhicules ? », s’interroge l’intéressé. Ici, l’idée est donc d’utiliser tout le potentiel d’un véhicule autonome et électrique, qui récupérerait alors de l’énergie grâce aux routes électrifiées. Un gain de temps pour les opérateurs, en somme. Si l’industrie automobile n’en est pas encore à ce stade, Electreon effectue actuellement des tests grandeur nature à Tel-Aviv et à Gotland, une île suédoise située en mer Baltique : 600 mètres d’installation sous un tronçon de deux kilomètres sont actuellement installés dans la première, pour des essais prévus mi-août, lorsqu’une route de quatre kilomètres reliant l’aéroport et la ville bénéficiera à un bus électrique, à Gotland. D’après l’entreprise, 150 millions de dollars lui suffiraient pour électrifier toutes les routes principales de Tel-Aviv. En Suède, le projet devrait lui coûter la somme de 12 millions de dollars, principalement financés par le gouvernement nordique. En cas d’essai concluant, la Suède pourrait construire jusqu’à mille kilomètres d’autoroutes électrifiées. Ce système revêt plusieurs avantages : en rechargeant automatiquement les véhicules électriques sur voies rapides, les constructeurs pourraient revoir à la baisse la capacité de leur batterie. Et donc les prix des automobiles, note Electrek. Bien qu’aujourd’hui, la tendance semble davantage être aux batteries plus importantes, accompagnées d’un réseau d’infrastructures de plus en plus denses et rapides. Article rédigé par Georges Simmonds pour RT Flash Electrek | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | L'énergie solaire incidente sur la planète Terre est convertie en chaleur latente – reliée à l'humidité, ou plus précisément, aux changements de phase à température constante – et en chaleur sensible (avec variation de température). Cette répartition influence fortement l'état de l'atmosphère dont la circulation est un rouage essentiel du climat. En particulier, la redistribution de la chaleur et de l'humidité par la végétation n'était pas connue à l'échelle globale jusqu'à présent. Pour en savoir plus, les chercheurs ont utilisé des données satellitaires relatives à la végétation : l'indice foliaire LAI (Leaf Area Index). En éliminant les contributions autres que celle de la végétation, ils sont parvenus à déterminer les flux de chaleur latente et de chaleur sensible pour une variation unitaire de LAI sur la période 1982-2016. Sans surprise, la végétation a un effet « humidificateur » avec un flux de chaleur latente de +3,66 ± 0,45, ainsi qu'un effet « rafraîchissant » avec un flux de chaleur sensible de -3,26 ± 0,41 W.m-2. Une analyse des données disponibles, couplée à des modèles climatiques (Land Surface Model, LSM), montre que la sensibilité des flux de chaleurs latente et sensible à l'indice foliaire augmente d'environ 20 % sur la période d'observation, surtout dans les régions où les ressources en eau sont limitées, probablement en raison d'une évapotranspiration plus élevée. Le verdissement de la planète, imputable en partie à l'effet fertilisant du CO2 d'origine anthropique, a entraîné une diminution du rapport Bowen (chaleur sensible/chaleur latente) de -0,010 ± 0,002 par décennie, qui est attribuable à l'augmentation de la surface d'évapotranspiration des végétaux. L'effet de la végétation sur les flux d'énergie varie cependant fortement suivant la nature des plantes et les conditions climatiques. Il reste mal décrit dans les modèles climatiques qui sous-estiment les réponses des végétaux à la baisse des ressources en eau. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| En utilisant une nouvelle technique de datation, les scientifiques américains ont pu remonter le temps pour mesurer les concentrations de CO2 atmosphérique des derniers 23 millions d'années. Résultats, l'anthropocène bat tous les records. La technique mise au point par les chercheurs se base sur l'analyse du carbone 13 dans les plantes terrestres appelées « C3 », en référence à la voie de la photosynthèse utilisée par ces dernières. Ils ont ainsi pu remonter 23 millions d'années en arrière et, selon leur estimation, les taux de CO2 atmosphérique se sont échelonnés de 230 ppm à 350 ppm. Ces résultats sont tout de même à prendre avec recul puisqu'ils n'ont été obtenus qu'avec 68 % de confiance. Les périodes où les concentrations de dioxyde de carbone étaient les plus élevées durant la première moitié du Miocène et au Pliocène où les taux atteignaient environ 400 ppm. Mais aucune époque géologique ne bat les records de CO2 enregistrés en 2019 qui sont de 412 ppm. Article rédigé par Georges Simmonds pour RT Flash Science Daily | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Le glioblastome est la principale forme de cancer du cerveau et reste très difficile à soigner. Les lymphocytes T jouent un rôle capital dans la réponse immunitaire. Présents dans le sang, ils sont capables de cibler et de détruire les cellules infectées par un virus ou une tumeur. Ces cellules malades présentent en effet des antigènes mutés, distincts de ceux produits par « le soi ». Un autre type de cellule immunitaire (la cellule présentatrice de l'antigène, ou CPA) « met en garde » le lymphocyte T contre ces intrus via une structure appelée complexe majeur d'histocompatibilité (CMH). Une fois les présentations faites, le lymphocyte est alors capable de reconnaître les antigènes indésirables et d'anéantir les cellules qui les portent. Néanmoins, le cancer peut interférer dans ce processus de différentes manières, notamment en réduisant la disponibilité des CMH. L'une des stratégies des chercheurs consiste donc à explorer des voies alternatives pour doter les lymphocytes des récepteurs nécessaires à l'identification des cellules ennemies. C'est le rôle du récepteur antigénique chimérique (CAR pour Chimeric antigen receptor), une molécule développée en laboratoire à partir des lymphocytes du patient. Ces derniers sont prélevés, puis génétiquement modifiés afin de leur faire exprimer un récepteur CAR spécifique à l'antigène produit par les cellules cancéreuses. Le traitement, développé par l'équipe du laboratoire Singh de l'Université McMaster, en collaboration avec le Jason Moffat Lab de l'Université de Toronto, cible spécifiquement la protéine CD133, présente sur les cellules du glioblastome. Testé chez les souris, il a offert des résultats prometteurs avec une réduction de la charge tumorale et une amélioration de l'espérance de vie. Ces résultats ont mené à la création d'une nouvelle start-up baptisée Empirica Therapeutics avec pour objectif de mener les premiers tests cliniques pour ce traitement et plusieurs autres en 2022. « Nous espérons que notre approche consistant à cibler les cellules du glioblastome à l'aide de la thérapie CAR-T procurera aux patients une meilleure qualité de vie et des chances de survie plus importantes », commente Jason Moffat, responsable scientifique à Empirica Therapeutics. Sheila Singh, cofondatrice de la start-up, ajoute que le traitement offre de nouvelles pistes d'exploration dans l'identification et la destruction de populations de cellules particulièrement agressives du glioblastome, une nouvelle étape dans la lutte contre cette redoutable maladie. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| Deux nouvelles études suggèrent que l’augmentation des niveaux d’une protéine cérébrale particulière, appelée neurofilament à chaîne légère (NfL) et détectable dans le sang et le liquide céphalo-rachidien, pourrait constituer le premier signe avéré de maladies neurodégénératives telles que la maladie d’Alzheimer, la maladie de Huntington, la maladie de Parkinson, la sclérose en plaques ou la maladie de Charcot. Les chercheurs estiment que la neurodégénérescence associée à ce type de maladies débute des années, voire des décennies avant que les symptômes cliniques n’apparaissent. Suite à l’échec de nombreux essais de médicaments censés les traiter, les chercheurs commencent à croire qu’une fois les symptômes apparus, une grande partie des dommages neurologiques pourrait être irréversible. Il est donc essentiel de trouver des moyens de détecter ces maladies le plus tôt possible. Héréditaire et actuellement incurable, la maladie de Huntington se manifeste par des troubles moteurs cognitifs et psychiatriques s’aggravant avec le temps. Les premiers symptômes apparaissent généralement entre 30 et 50 ans et le décès des sujets survient en moyenne vingt ans après leur apparition. Cette première étude incluait une cohorte de 64 jeunes patients porteurs de la mutation du gène de Huntington. Après avoir pratiqué différents essais et comparé leurs résultats à ceux d’un groupe témoin, les scientifiques ont estimé que les variations des niveaux de NfL dans le liquide céphalo-rachidien (LCR) permettaient de détecter cette neurodégénérescence jusqu’à 24 ans avant l’apparition des premiers signes cliniques de la maladie. « D’autres études ont montré que de subtils troubles cognitifs, moteurs et neuropsychiatriques peuvent apparaître 10 à 15 ans avant le début de la maladie », explique Rachael Scahill, co- auteure de l’étude. « Nous pensons qu’il serait idéal de commencer le traitement encore plus tôt , juste avant que les changements ne commencent dans le cerveau, mais il pourrait y avoir un compromis complexe entre les avantages du ralentissement de la maladie à ce stade et les effets négatifs d’un traitement à long terme ». Selon les chercheurs, ce biomarqueur pourrait s’avérer particulièrement utile pour recruter des porteurs de la mutation asymptomatiques en vue d’essais pour de futurs traitements, et évaluer l’efficacité de ces derniers. Si les niveaux de NfL dans le liquide céphalo-rachidien constituaient le biomarqueur de diagnostic précoce le plus efficace de la maladie de Huntington, il s’avère que pour la maladie d’Alzheimer, un simple test sanguin permettrait de détecter d’éventuelles variations. Dans cette seconde étude, les chercheurs ont cherché à savoir à partir de quel âge l’augmentation de niveaux de NfL dans le plasma sanguin pourrait permettre de distinguer les personnes présentant un fort risque de développer la maladie d’Alzheimer. Pour ce faire, ils ont examiné plus de 1 000 sujets âgés de 8 à 75 ans, présentant une mutation génétique familiale particulière favorisant la survenue de la maladie. Et il s’est avéré que des niveaux croissants de NfL pouvaient être détectés 22 ans avant l’apparition des troubles cognitifs légers associés à cette forme de la maladie, apparaissant en moyenne vers 44 ans. « Nos découvertes s’ajoutent aux preuves croissantes que l’analyse des niveaux de NfL dans le sang peut être utile pour détecter la neurod&eac ute;générescence, en commençant par des élévations très précoces et subtiles bien avant l’apparition des symptômes cliniques », souligne Yakeel Quiroz, auteur principal de l’étude. Bien que les auteurs de ces deux études soulignent que des recherches supplémentaires seront nécessaires avant que ce type de test puisse être largement utilisé à des fins de diagnostic, ces premiers résultats constituent un véritable espoir pour le dépistage et la lutte contre les maladies neurodégénératives. Article rédigé par Georges Simmonds pour RT Flash Daily Geek Show | | | |
| Selon une étude chinoise, les patients souffrant d’hypertension admis à l’hôpital pour Covid-19 ont deux fois plus de risque de mourir que ceux ne souffrant pas de cette pathologie. « Il est important pour les patients souffrant d’hypertension de réaliser qu’ils ont un risque accru de décès du Covid-19 », déclare l’un des auteurs principaux de l’étude, Pr Fei Li, cardiologue à l’hôpital Xijing de Xian (centre de la Chine). Les patients hypertendus qui ont cessé de prendre leur traitement présentent un risque encore plus grand de décéder du nouveau coronavirus SARS-CoV-2 après admission à l’hôpital, par rapport à ceux qui prennent leurs médicaments, selon ce travail. Pour cette étude observationnelle, des chercheurs chinois et irlandais ont examiné rétroactivement les données des personnes admises entre le 5 février et le 15 mars à l’hôpital Huoshenshan de Wuhan (centre). Près de 30 % des personnes admises, soit 850 patients, souffraient d’hypertension. 4 % de ces patients sont morts contre 1,1 % pour ceux qui ne souffraient pas d’hypertension. Après ajustement pour tenir compte des différences d’âge, de sexe et d’état de santé, les chercheurs ont calculé que le risque de décéder de Covid pour un hypertendu admis à l’hôpital était deux fois supérieur aux autres. Une autre analyse intégrant les données de cet hôpital avec celles de trois autres études a montré que les malades qui prenaient une catégorie de médicaments contre la tension, les inhibiteurs du Système Rénine-Angiotensine (SRAA), avaient un risque plus faible de décès par rapport à ceux traités avec d’autres médicaments. Article rédigé par Georges Simmonds pour RT Flash Sud Ouest | | | |
| L’étude clinique d’EasyCov, menée à Montpellier, a porté sur 123 personnes jusqu’à aujourd’hui et se poursuivra jusqu’à atteindre 180 sujets testés en double aveugle, avec la méthode RT-PCR et avec EasyCov. Selon les premiers résultats dits intermédiaires, ce test de détection du SARS-Cov-2 mis au point au laboratoire Sys2diag (CNRS/Alcen) comporte peu de faux-positifs (spécificité de 95,7 %), et produit un peu moins de 30 % de faux-négatifs (sensibilité de 72,7 %). Plus simple et plus rapide qu’un test RT-PCR réalisé à partir d’un prélèvement nasopharyngé, EasyCov pourrait compléter les dispositifs de dépistage. La technique RT-LAMP sur laquelle est basé EasyCov permet d’amplifier l’ARN viral puis de révéler ou non sa présence dans un échantillon salivaire chauffé pendant une heure seulement. La lecture du résultat se fait ensuite simplement à partir d’un réactif coloré. L’étude clinique en double aveugle a pour le moment impliqué 93 soignants et soignantes asymptomatiques, parmi lesquels EasyCov a détecté un cas pré-symptomatique, et 30 patients infectés dont 10 récemment et 20 en visite de contrôle. Les sujets étaient testés au CHU de Montpellier avec la méthode RT-PCR et leur salive testée avec EasyCov au laboratoire Sys2diag. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Les chercheurs de l’EPFL ont mis au point FloChIP, une nouvelle puce microfluidique basée sur la technique de l’immunoprécipitation de la chromatine (ChIP). FloChIP a le potentiel pour devenir un outil employé à grande échelle afin d’étudier la biologie de la chromatine et la régulation des gènes. Dans la cellule, les protéines interagissent souvent directement avec l’ADN pour réguler et influencer l’expression des gènes. Pour que ce soit possible, les protéines doivent pénétrer dans le noyau de la cellule où l’ADN est enroulé étroitement et compacté sous forme de chromatine, à l’origine des chromosomes bien connus. Lorsque la protéine atteint son emplacement cible, la chromatine se déroule et dévoile la section de l’ADN avec laquelle la protéine va interagir. Cette interaction est naturellement d’un grand intérêt pour les biologistes, car elle est au cœur de multiples fonctions cellulaires majeures ou même de dysfonctionnements entraînant des maladies. Pour étudier les interactions entre protéines et chromatine, les biologistes ont recours à une technique appelée «immunoprécipitation de la chromatine» (ChIP). L’idée principale de la ChIP consiste à utiliser un anticorps qui cible la protéine de liaison de la chromatine puis qui «l’attire vers le bas» ou la précipite avec la section d’ADN capturée. L’ADN lié à la protéine est alors identifié par séquençage, c’est pourquoi cette technique est souvent appelée «ChIP-séq». Depuis son invention en 2007, la ChIP-séq est devenue la méthode la plus populaire d’étude des protéines associées à la chromatine, comme les histones et les facteurs de transcription. Toutefois, elle nécessite une longue séquence d’étapes manuelles qui limitent à la fois son rendement et sa sensibilité. Actuellement, l’équipe de chercheurs menée par Bart Deplancke à l’Institut de bioingénierie de l’EPFL, a mis au point une nouvelle approche de la ChIP qui promet de l’automatiser et de diminuer son coût et sa complexité. Cette méthode innovante, appelée «FloChIP», a recours à la microfluidique, un domaine de bioingénierie que l’EPFL contribue à développer et accroître. La microfluidique implique essentiellement la manipulation précise de liquides par le biais de puces contenant de multiples canaux conçus avec précision. Comme cette technique imite la dynamique interne d’une cellule, elle se prête particulièrement bien à l’utilisation dans divers processus de bioingénierie. FloChIP met en œuvre la microfluidique pour rationaliser fortement le flux de la ChIP. Dans un article de la revue PNAS, les chercheurs de l’EPFL ont démontré la grande modularité de FloChIP et sa capacité à réaliser de multiples essais de ChIP-séq simultanément et de manière reproductible et automatisée. Dans cet article, les chercheurs le montrent à la fois pour les marques d’histones et les facteurs de transcription. « Grâce à sa rentabilité, son rendement et sa facilité d’application générale, nous pensons que FloChIP va devenir d’elle-même un complément valide aux outils actuels d’étude de la biologie de la chromatine et des interactions entre protéines et ADN », déclare Riccardo Dainese, auteur principal de l’étude. « Avec cette nouvelle technologie, l’automatisation réelle des essais difficiles comme la ChIP est à notre portée », ajoute Bart Deplancke. « Nous espérons que cette technique boostera l’utilisation des protéines liées à la chromatine en tant qu’indicateurs diagnostiques à fort potentiel informatif, pour toutes sortes de maladies, y compris le cancer ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des chercheurs canadiens ont réalisé une première dans l'étude de la télomérase, une enzyme en cause dans le vieillissement et le cancer. Ces scientifiques de l'Université de Montréal ont utilisé des techniques de microscopie avancées pour traquer des molécules uniques de télomérase dans des cellules vivantes. Une faille dans la réplication des chromosomes fait en sorte qu'ils raccourcissent à chaque division cellulaire. Si rien n'est fait pour corriger cette erreur, la réplication s'arrête et les cellules entrent dans un état appelé sénescence, caractéristique du vieillissement. Normalement, la télomérase ajoute de l'ADN aux extrémités des chromosomes pour éviter ce problème, mais avec l'âge notre corps en produit moins. Les cellules cancéreuses, en revanche, deviennent immortelles en réactivant la télomérase, permettant aux cellules de se diviser indéfiniment. Cette réactivation est parmi les premières étapes qui mènent les cellules vers le cancer, mais le processus reste mal connu. Si les chercheurs en savaient plus à ce sujet, ils pourraient offrir l'espoir d'une forme de thérapie pour le combattre. Une équipe de l'Université de Montréal dirigée par Pascal Chartrand, professeur au Département de biochimie et médecine moléculaire, en collaboration avec la biologiste cellulaire Agnel Sfeir, du Skirball Institute de New York, a réussi à étiqueter la télomérase avec plusieurs molécules fluorescentes ultrabrillantes ‒ ce qui n'a jamais été fait auparavant. « Grâce à cette percée technologique, nous avons observé que la télomérase sonde en continu les télomères, mais s'active aux extrémités des chromosomes en suivant un mode de liaison en deux étapes », a déclaré le biochimiste de l'UdeM Hadrien Laprade, qui, avec sa collègue Emmanuelle Querido, a mené les recherches expérimentales. Dans leur étude, les scientifiques montrent également comment la mutation d'un facteur de régulation télomérique se traduit par un accès incontrôlé de la télomérase à l’extrémité des télomères, un phénomène qui favorise la tumorigenèse. « Cette nouvelle technologie fournit désormais suffisamment de détails à l’échelon moléculaire sur le fonctionnement, dans la cellule, d'un acteur clé du cancer, une étape dans la mise au point de nouvelles stratégies thérapeutiques pour contrecarrer son activité », a déclaré Pascal Chartrand. Cela pourrait prendre des années avant d'y arriver, mais c'est un premier pas important ». Article rédigé par Georges Simmonds pour RT Flash UdeM | | | |
| Une équipe de l’Université de Calgary vient de « trouver le moyen » de remplacer la protéine manquante dans le cerveau et qui induit l'hyperactivité chez les patients atteints du syndrome de l’X Fragile. Cette découverte, présentée comme « révolutionnaire » et documentée dans la revue Nature Communications, pourrait conduire à un nouveau traitement du syndrome, la principale cause génétique des troubles du spectre autistique (TSA). Il s’agit d’une étude pré-clinique, impliquant des modèles de souris, mais prometteuse également chez l’Homme. L’auteur principal, le Docteur Raymond W. Turner rappelle que le syndrome du X Fragile provoque des déficiences intellectuelles et un comportement hyperactif, et plus fréquemment chez les hommes que chez les femmes. Les enfants et les adultes atteints manquent d’une protéine vitale pour le développement du cerveau, appelée FMRP. Entre autres fonctions, la FMRP est impliquée dans le développement des synapses entre les neurones du cerveau et dans le fonctionnement des canaux ioniques. L’équipe s’est penchée sur le fonctionnement des canaux ioniques dans le cerveau, des protéines spéciales qui conduisent les courants à travers les cellules, permettant la communication entre les cellules du cerveau. Ce fonctionnement est en effet compromis en cas d’X Fragile. L’équipe a eu l’idée de réintroduire la protéine manquante par injection, dans le cerveau des souris modèles, et constate qu’en 30 minutes, la protéine s'est diffusée dans tout le cerveau et a repris sa fonction normale au niveau unicellulaire. Ainsi, l'injection de FMRP permet de restaurer les niveaux de protéines dans le cervelet et le cerveau jusqu'à un jour après l'injection. Dans de précédentes tentatives -infructueuses- d'injection de FMRP chez des souris, pour tenter d’atténuer les symptômes de l’X Fragile, les scientifiques avaient utilisé la molécule entière. Mais ici, l’équipe utilise un fragment de protéine FMRP pour traverser la barrière hémato-encéphalique. Le fragment comprend néanmoins tous les composants fonctionnels importants et actifs dans le contrôle des canaux ioniques ou les niveaux d'autres protéines. Les recherches vont se poursuivre avec l’étude de l'utilisation d'autres fragments de la molécule FMRP pour tenter d’atténuer encore les troubles cognitifs associés au syndrome : « Contrairement à de nombreuses thérapies médicamenteuses où vous espérez pouvoir administrer votre médicament à un groupe spécifique de cellules, la FMRP est exprimée dans à peu près toutes les cellules du cerveau, c’est donc une application large (et non ciblée) qui dans ce cas est recherchée », souligne le Docteur Turner. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| La start-up Nanox lève 20 millions de dollars pour démocratiser l'imagerie médicale grâce à un nouvel appareil à rayons X moins encombrant le 4 juin 2020. Le tour de table a été mené par l'opérateur sud-coréen SK Telecom qui compte déployer 2500 de ces appareils en Corée du Sud et au Vietnam l'année prochaine, sous réserve d'obtenir les autorisations réglementaires. La majeure partie de ces systèmes seront fabriqués par la nouvelle filiale coréenne de Nanox. Selon l'Organisation mondiale de la santé, environ deux tiers de la population mondiale n'ont pas accès à l'imagerie médicale car les appareils coûtent très cher. Or le recours à cette technologie est indispensable pour dépister précocement certaines maladies, comme les cancers par exemple, car elle permet de visualiser l'intérieur du corps humain. Pour répondre à cette problématique, Nanox a développé un nouvel appareil à rayons X baptisé "Nanox.Arc". Son intérêt est double. Premièrement, il prend beaucoup moins de place qu'un scanner classique et peut donc être installé plus facilement. Il pèse 70 kilogrammes contre environ 2000 kg pour un scanner classique. De plus, son coût n'est que de 10 000 dollars contre plusieurs millions de dollars pour les scanners à rayons X traditionnels. L'appareil est par ailleurs couplé à au logiciel basé sur le cloud "Nanox.Cloud", qui offre plusieurs services tels que la mise en correspondance avec des radiologues, l'annotation des diagnostics, l'utilisation d'algorithme de détection… La technologie de Nanox.Arc est le fruit de 15 ans de développement. Les scanners classiques génèrent une image en trois dimensions à partir d’une série d’images en deux dimensions prises autour d’un seul axe de rotation. Pour réduire les coûts et simplifier le système, la jeune pousse a créé un boîtier composé de systèmes micro-électromécaniques (MEMS) en silicium. Contrairement à un scanner classique qui tourne autour du patient, cet appareil reste fixe et ne fait que balayer le patient. Au-delà du déploiement prévu avec SK Telecom, Nanox prévoit de rendre son appareil disponible dans le monde entier en 2021. Il a déjà passé des accords avec l'hôpital universitaire Hadassah à Jérusalem, avec l'entreprise Gateway Group en Nouvelle-Zélande, en Australie et en Norvège, et avec la société de téléradiologie américaine USARAD. Nanox a été fondée en 2016 par Hitoshi Masuya dans le cadre d'un investissement conjoint avec Sony. Après le retrait du géant japonais, le CEO de la jeune pousse s'est associé à Ran Poliakine et ils ont scindé les activités de Nanox entre le Japon et Israël. Article rédigé par Georges Simmonds pour RT Flash Venturebeat | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|