| | | | | | | Edition du 03 Janvier 2020 |
| |
|
| Edito Qui l'aurait cru, il y a peu encore : le recyclage propre des emballages est enfin à notre portée ?
Avec mes voeux les meilleurs pour 2020 : En ces premiers jours de 2020, je vous présente mes voeux les meilleurs et les plus sincères. C'est grâce à votre confiance que RT Flash a encore les moyens de paraître tout au long de cette année nouvelle. J'espère que les 3 membres (Monique, Mark et moi-même) de notre toute petite équipe sauront toujours recueillir votre attention et vous permettront, semaine après semaine, de découvrir toutes les innovations qui changent de plus en plus rapidement notre Monde. Sachez surtout rester en bonne santé car à l'encontre des idées les plus répandues, il y a encore peu, ce n'est pas le Destin qui décide de l'essentiel de notre santé mais bien nous, par nos projets, notre respect de règles fondamentales d'alimentation et d'activité physique, loin de tout stress, qui, jour après jour, construisons notre Avenir. Mais OUI, l'année 2020 sera une belle année. Ce sera celle de mes 80 ans... Bien Cordialement René TREGOUET EDITORIAL : Je reviens cette semaine sur une question qui agite à nouveau l’actualité technologique, mais également politique, celle du recyclage et de la valorisation des emballages, à commencer évidemment par les plastiques. L’Humanité a déjà produit 8,5 milliards de tonnes de plastiques depuis 1950 et, chaque année, chaque humain produit à présent l’équivalent de son propre poids en matières plastiques, soit plus 360 millions de tonnes en 2018. La quasi-totalité de ce plastique – plus de 90 % - n’est pas recyclé, 12 % de ce plastique est incinéré et les reste, environ 80 %, finit dans des décharges ou surtout dans la nature, soit parce qu’il est impossible à recycler, soit qu’il n’y a aucun débouché économiquement viable. Dans la méthode actuelle, dite de recyclage mécanique, le plastique sert de matériau pour fabriquer de nouveaux produits. Par le biais de la collecte sélective, on récolte les différents plastiques, qu’il faut ensuite trier selon le type de résine, puis par opacité ou par couleur, avant de les faire fondre pour leur donner une nouvelle forme. Résultat, la plupart des plastiques sont recyclés en produits de moindre valeur, comme les bouteilles transparentes qui sont transformées en fibres synthétiques pour l’industrie du textile ou des tapis. Et, en général, cette deuxième vie des plastiques n’est elle-même pas recyclable. Jusqu’en 2018, les pays développés expédiaient sans états d’âme la majorité de leurs déchets plastiques en Asie. Mais depuis deux ans, les principaux pays asiatiques, Chine, mais également Indonésie, Philippines, Vietnam et récemment Malaisie, ont durci de manière draconienne leurs conditions d’accueil de ces déchets plastiques, ce qui oblige l’Europe et l’Amérique du Nord à prendre enfin à bras le corps ce défi du recyclage des matières plastiques. Mais le recyclage de ces énormes quantités de plastiques est un véritable casse-tête économique et technologique car les principales méthodes mécaniques, thermiques ou chimiques développées pour l’instant à grande échelle sont gourmandes en énergie, émettrices de gaz à effet de serre et ne permettent pas d’envisager un recyclage complet et durable de ces plastiques. Heureusement, certaines ruptures scientifiques et techniques récentes vont peut-être changer la donne. Des chercheurs américains du laboratoire national Lawrence Berkeley (Voir Nature) ont par exemple mis au point un matériau qui pourrait se recycler à l'infini tout en conservant ses qualités. Baptisé polydiketoenamine (PDK), concrètement, il suffit de le plonger dans l'acide pendant 12 heures pour briser les liaisons et séparer les monomères (des composés constitués de molécules simples). Comme de véritables Lego, il est ensuite possible de réassembler les composants dans différentes formes, couleurs et textures... Un processus qui pourrait être ensuite répété à l'infini, selon les chercheurs. Le PDK est obtenu par polymérisation de la diketoenamine, une molécule constituée d’une unité composée de trois cétones, liée à une amine aromatique ou aliphatique. Grand avantage de ce procédé : cette polymérisation est facilement réversible en plongeant le PDK dans une solution hautement acide pendant douze heures. En outre, cette technique permet de casser, puis de réassembler les molécules en conservant toutes les propriétés mécaniques, thermiques et chimiques du matériau obtenu, un progrès décisif pour passer au stade industriel. Selon Peter Christensen, le principal auteur de l’étude, « La facilité avec laquelle les PDK peuvent être fabriqués, utilisés, recyclés et réutilisés - sans perdre de valeur - fournissent de nouvelles orientations pour la conception de polymères durables ayant un impact minimal sur l’environnement ». Ces chercheurs veulent à présent développer des plastiques PDK présentant différentes propriétés thermiques et mécaniques pour les marchés du textile, de l’impression 3D ou encore des matériaux expansés. Ces scientifiques espèrent que leur nouveau plastique pourra remplacer ceux, non recyclables, qui sont utilisés aujourd'hui. Au Québec, Loop Industries a pour sa part développé une méthode qui combine l’utilisation d’un solvant et d’un catalyseur pour découper la structure chimique du PET, Polytéréphtalate d'éthylène, principal type de plastique utilisé dans le monde pour la fabrication de bouteilles, flacons, pots, films et feuilles pour purifier les deux monomères, qui peuvent ensuite être assemblés à nouveau pour fabriquer du PET. Le procédé permet de recycler des plastiques moins bien triés ou encore ceux qui contiennent des colorants. La dépolymérisation brise la chaîne entre les deux monomères et permet d’extraire les contaminants, les additifs et les colorants. Les géants comme Coke, Danone et Pepsi, qui utilisent des millions de tonnes de plastique par année, ont signé des ententes d’achat avec Loop Industries. Et même si la première usine n’en produira que 40 000 tonnes par année, Loop y voit un premier pas prometteur et, surtout, une formidable occasion de croissance. Non loin de Montréal, l'entreprise Pyrowave utilise un autre outil pour ramener le plastique sous forme de monomères : un micro-ondes géant ! L’entreprise l’utilise pour faire chauffer très rapidement un mélange de polystyrène très difficile à recycler. En s’appuyant sur le principe d’économie circulaire, cette entreprise crée en effet, à partir de déchets de polystyrène, une matière recyclée et recyclable à l’infini destinée à réintégrer la fabrication de polystyrène, voire d’autres plastiques. La technologie utilisée, dite de dépolymérisation catalytique par micro-ondes, consiste à chauffer rapidement et à haute température le polystyrène préalablement densifié, déchiqueté et dissout. Cette méthode permet de bri ser les chaînes de polymères qui constituent le polystyrène et d’obtenir un liquide composé de monomères de styrène : une fois purifié, celui-ci possède les mêmes caractéristiques que la résine vierge. Selon Pyrowave, ce procédé permet d’obtenir un rendement d’environ 95 % de monomères sous forme liquide. Autre avantage : l’utilisation de cette résine recyclée dans la fabrication de polystyrène nécessite quinze fois moins d’énergie et émet trois fois moins de GES, comparée à l’utilisation de matière fossile vierge. En France, le recyclage du plastique reste également un défi à ce jour non résolu : on estime que seuls 26 % des plastiques sont recyclés en France. Sur 4,6 millions de tonnes de déchets plastiques, 3,7 millions partent encore dans les décharges sauvages et les océans. La France se situe bien en dessous de la moyenne de l'Union européenne, qui s'élève à 40,8 % de plastiques recyclés. La « loi relative à la transition énergétique pour une croissance verte » (LTECV) de 2015 réclame pourtant une diminution de 50 % du volume des déchets mis en décharge en 2025. Cet objectif passe notamment par une obligation de recyclage de 100 % des plastiques PET à la même échéance. Pour y parvenir, il faut donc impérativement trouver de nouvelles méthodes de recyclage et de valorisation du déchet plastique. Le projet de loi sur l’économie circulaire qui vient d'être examiné par l'Assemblée nationale, prévoit le recours au système de consigne pour les bouteilles plastiques. Le principe : faire payer au consommateur un surcoût de l’ordre de quelques centimes lorsqu’il achète un produit emballé, par exemple une boisson dans une bouteille en plastique. Ces quelques centimes lui sont rendus s’il dépose dans un point de tri l’emballage du produit consommé, soit en l’occurrence, la bouteille en plastique vide. Dans les pays voisins où ce système est en place, notamment en Allemagne, les points de tri se trouvent la plupart du temps dans les grandes surfaces. Ce sont donc les entreprises de la grande distribution qui se chargent de la gestion des déchets. En France, la gestion des déchets est l’affaire des collectivités territoriales — communes et intercommunalités, qui ont réalisé des investissements très importants dans ce domaine au cours de ces dernières années. Concrètement, la collecte et le traitement (comprendre le réemploi, le recyclage, l’incinération ou la mise en décharge) des déchets d’emballage sont assurés par les collectivités locales. Elles sont financées par un éco-organisme, Citéo, qui est chargé de collecter auprès des producteurs leurs « éco-contributions » , une taxe obligatoire sur chaque produit d’emballage mis sur le marché. Ce mécanisme de financement est appelé « responsabilité élargie des producteurs » (REP). Mais le système de consigne proposé initialement par le gouvernement a créé une légitime inquiétude auprès des collectivités locales et des recycleurs. Ces acteurs du recyclage font valoir, non sans arguments solides, qu’une transition brusque vers un système de consigne intégrale risque de déstabiliser le modèle économique laborieusement mis en place entre les collectivités et les industriels. En outre, sur le plan environnemental, il n’est pas certain que les émissions de gaz à effet de serre dues au transport des déchets jusqu’aux points de collecte rendent le bilan carbone de la consigne intéressant. Les collectivités locales proposent donc de mettre en place un système de collecte étendu aux emballages ménagers consommés hors foyer, dans les lieux publics (gares, parcs, centres commerciaux…), ce qui permettrait d’augmenter la performance de la filière. Le Gouvernement, pour sa part, a proposé il y a quelques semaines, dans le cadre du débat parlementaire sur le projet de loi concernant l'économie circulaire, un système de « consigne mixte », combinant recyclage des bouteilles en plastique et réemploi des bouteilles en verre. Il a également eu la sagesse d’accepter une période d’expérimentation jusqu’en 2023 de ce nouveau système dans les territoires volontaires, avant d’envisager son éventuelle généralisation. Il faut également souligner que le principe de la consigne peut s’appliquer à l’ensemble des emballages et pas uniquement aux bouteilles plastiques. Dans les pays qui y ont recours, les opérateurs de gestion des déchets récoltent, trient et convoient des emballages en plastique, en verre, en aluminium, etc. A terme l’idée est de pouvoir récolter en un même lieu, non seulement les bouteilles en plastique, pour favoriser leur recyclage, mais également les emballages en verre ou en aluminium. Grâce à ce système, la Norvège a par exemple atteint, en 2018, un taux de recyclage supérieur à 90 % pour toutes les bouteilles en plastique, soit 1,2 milliard d’unités et 80 % de plastique recyclé entrent désormais dans la fabrication des bouteilles norvégiennes. En France, une PME, Carbios, s’est distinguée en mettant au point un procédé biochimique unique an monde permettant de « casser » de manière propre et rapide les chaînes moléculaires qui forment le PET, principal plastique produit par l’industrie. Installée en Auvergne, près de Clermont-Ferrand, Carbios s'est donnée comme objectif il y a huit ans de développer une enzyme permettant de déconstruire les polymères composant le plastique, afin de rendre celui-ci biodégradable. Dès l'origine, la société s'est fixée pour ambition de réutiliser les monomères issus de cette décomposition pour produire de nouveaux objets 100 % bio recyclés. Soutenue par différents fonds d'investissement, par l’Ademe et la BPI, l'entreprise s'est associée en 2012 au monde académique (CNRS, Inra,…) pour trouver, parmi des milliers de candidats, l'enzyme capable de digérer le plastique afin qu'il se décompose rapidement. En février dernier, Carbios a créé l'événement en présentant sa première bouteille PET 100 % bio recyclée. « Grâce à ce processus de déconstruction de polymères, nous pouvons reproduire à partir d'une bouteille recyclée une nouvelle bouteille de même qualité. Ce recyclage se fait avec quasiment aucune perte de matière première », déclare Jean-Claude Lumaret, directeur général de Carbios. Le PET est un polymère composé seulement de deux éléments, de l'acide téréphtalique et du monoéthylène glycol. Les enzymes identifiées et améliorées par Carbios agissent comme de véritables ciseaux moléculaires : elles coupent les liaisons et séparent en moins d’une journée ces deux composants. Ce procédé biologique a ceci d’unique qu’il fonctionne à seulement 60 degrés, sans additifs chimiques, et permet pour la première fois de re-synthétiser du PET identique à la matière d’origine, sans altérations des propriétés mécaniques, ce qui ouvre enfin la voie, à l’horizon 2025, à un recyclage à l'infini à l’échelle industrielle du plastique, sous réserve toutefois, de disposer d’un système de collecte en amont plus complet et plus efficace qu’aujourd’hui, ce qui est tout l’enjeu de l’actuel projet de loi sur l’économie circulaire et du débat autour de la généralisation du système de consigne. Mais un nombre croissant de scientifiques, d’industriels et d’élus, sont à présent conscients du fait que quels que soient les progrès en matière de recyclage des plastiques, ils ne suffiront pas à régler ce gigantesque problème de société, si nous ne parvenons simultanément pas à réduire à la source nos besoins en matières plastiques, et plus largement nos consommations d'emballages de toute nature. Dans cette perspective, Carrefour et l'américain TerraCycle ont annoncé récemment le lancement d'une plate-forme de commerce électronique visant à réduire les emballages à usage unique, alors que la lutte contre le gaspillage et l'utilisation du plastique constitue un défi pour les distributeurs et les industriels de l'agroalimentaire. C'est en région parisienne que le distributeur français et le spécialiste américain du recyclage des déchets ont ouvert Loop, le premier site livrant à domicile, sans supplément de prix, plus de 300 produits, parmi lesquels des eaux minérales, huiles, soupes, confitures et miels, mais également des crèmes glacées ou des shampoings ou savons liquides dans des contenants durables et consignés. Plus de 25 fabricants, grands industriels comme Danone, Unilever ou Procter & Gamble, ou petites entreprises comme la Biscuiterie de Provence, se sont associés à ce projet-pilote, observé de près par l’ensemble du secteur de la distribution. Les produits, consignés, sont livrés à domicile et la consigne est remboursée lorsque ces conteneurs sont restitués par le client après avoir été récupérés gratuitement à son domicile. En aval, Loop se charge du nettoyage et de la stérilisation afin que l’ensemble de ces conteneurs puissent être réutilisés. Carrefour, pour sa part, s’occupe de la plate-forme logistique. Carrefour s'est fixé pour objectif de vendre 100 % de ses marques propres dans des matériaux recyclables, réutilisables ou compostables d'ici à 2025. Mais l’aspect le plus novateur de ce nouveau mode de distribution est que TerraCycle s'engage également à récupérer et recycler aussi les produits pour lesquels il n'existe pas de solution de réutilisation, comme les couches, les lames de rasoirs ou les brosses à dents, qui pourront être renvoyés dans des boîtes spécifiques. Pour Tom Skazy, fondateur et patron de Terracycle, « Les produits et emballages non recyclables ou réutilisables appartiennent au passé et d’ici cinq ans, plus un consommateur n’en voudra ». Un autre géant de l’agro-alimentaire, Danone, s'est engagé à produire d'ici à 2025 des bouteilles d'Evian en plastique recyclé à 100 %. Quant à la firme l'Oréal, un des leaders mondiaux des cosmétiques, elle a signé, comme Nestlé ou Pepsi cola, un accord de partenariat avec Carbios pour pouvoir exploiter sa technologie unique au monde de recyclage biologique du plastique. On voit donc que, bien plus rapidement qu’on aurait pu l’imaginer il y a encore quelques années, une nouvelle économie circulaire globale est en train de se mettre en place, grâce à l’action conjuguée des responsables politiques, mais également des industriels et des scientifiques, sans oublier le rôle décisif des consommateurs, de plus en soucieux de réduire leur impact sur l'environnement et de contribuer à la lutte contre le réchauffement climatique. Ce n’est d’ailleurs pas par hasard si le 11 décembre dernier, la nouvelle Présidente de la Commission européenne, Ursula von der Leyen, a annoncé, dans le cadre de son « Green Deal », d’une part, que l’ensemble des emballages devront être intégralement recyclables dans l’Union européenne, d’ici 2030 et, d’autre part, que l’e nsemble des produits durables vendus dans l’UE devront être conçus, à la même échéance, de manière à pouvoir être réparés. On le voit bien, un tournant décisif est en train d'être pris par notre société, et je fais le pari que les enfants qui naissent aujourd’hui auront sans doute de la peine à croire, lorsqu’ils auront dix ans, qu’en 2019, leurs parents achetaient encore des produits qui n’étaient pas conçu pour être totalement recyclables ou réutilisables… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | C'est une invasion de puces et de capteurs d’un nouveau genre à laquelle on assiste. En 2014, IBM ouvrait le bal avec TrueNorth, comprenant 1 million de neurones et 256 millions de synapses. Depuis, tout s’est accéléré. En 2018, Intel est entré dans la danse avec Loihi : 128 000 neurones et 128 millions de synapses. Suivi par l’australien Brainchip, frappant fort avec Akida : 1,2 million de neurones et 10 milliards de synapses. En juillet dernier, l’Université chinoise Tsinghua a fait la une de « Nature » avec Tianjic : 40 000 neurones et 10 millions de synapses. En septembre, la start-up parisienne GrAI Matter Labs a dévoilé sa puce NeuronFlow, et Prophesee, autre start-up parisienne, a lancé son capteur neuromorphique Metavision. « L’intérêt pour le neuromorphique a explosé, résume Damien Querlioz, chercheur CNRS en nanoélectronique bioinspirée au Centre de nanosciences et de nanotechnologies (C2N) de Saclay. Je travaille sur le sujet depuis onze ans. Au début, c’était considéré comme exotique et bizarre. Maintenant, c’est devenu classique. L’évolution est impressionnante ». Chercheur chez Intel Labs, Garrick Orchard confirme cet attrait pour le neuromorphique de la part du géant américain des semi-conducteurs. « Nous en sommes au stade de la recherche et ne développons pas encore de produit, mais les équipes s’étoffent et cela va continuer ». Et pour cause. « Cette technologie a le potentiel de bouleverser le marché dans la prochaine décennie en accompagnant l’évolution de l’intelligence artificielle (IA) », affirme Pierre Cambou, analyste chez Yole Développement. Telle est la conclusion du rapport dédié au calcul et aux capteurs neuromorphiques publié en octobre par ce cabinet de conseil en marketing technologique et stratégique dans les semi-conducteurs. Quel est ce neuromorphique qui s’annonce disruptif ? « La définition n’est pas claire et précise », admet Damien Querlioz. « Et elle a changé depuis que Carver Mead, chercheur en informatique au California institute of technology, en a posé les bases à la fin des années 1980 », ajoute Garrick Orchard. Aujourd’hui, les interprétations et les approches diffèrent. Mais toutes s’inspirent du cerveau et de son architecture de traitement de l’information à base de neurones et de synapses. Toutes sont également en rupture par rapport aux concepts qui dominent la microélectronique depuis des décennies. Fini l’architecture de von Neumann qui structure les ordinateurs traditionnels : la mémoire et le calcul se rapprochent. Fini l’horloge qui synchronise les échanges de données : les circuits deviennent asynchrones. Fini le traitement séquentiel de l’information, place au calcul massivement parallèle. La multiplication des bits pour être plus précis ? Une moindre précision suffit et accélère les traitements. Le numérique croit régner en maître absolu ? L’analogique refait surface. Il s’agit d’une révolution protéiforme qui s’explique par la combinaison de deux facteurs majeurs. D’une part, les principes clés qui ont permis les avancées époustouflantes de la microélectronique atteignent leurs limites. La progression de la puissance de calcul à énergie constante est terminée, la loi de Moore est morte. D’autre part, les données explosent. Les traiter avec le hardware traditionnel conduirait à un gouffre énergétique. D’autant que l’IA s’impose pour les exploiter, deep learning en tête, dont les calculs sont extrêmement énergivores sur les architectures informatiques actuelles. Trouver des hardwares alternatifs devient un nouvel enjeu. Une anecdote revient sans cesse dans la bouche des ingénieurs et chercheurs du neuromorphique. AlphaGo, l’IA de Deepmind, a certes écrasé Lee Sedol au jeu de go en mars 2016. Mais en ramenant l’efficacité énergétique dans la compétition, la victoire de la machine est moins éclatante. Le cerveau du champion coréen ne consomme que 20 W, alors que les algorithmes exigent un superordinateur dévorant plusieurs kilowatts. C’est cette sobriété énergétique du vivant que tente de reproduire le neuromorphique. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | ^ Haut | |
|
| | | L'eau est la base de toute vie sur terre. Sa structure est simple - deux atomes d'hydrogène liés à un atome d'oxygène - mais son comportement est unique parmi les liquides, et les scientifiques ne comprennent pas encore parfaitement l'origine de ses propriétés particulières. Ainsi, lorsque des polymères chargés sont dissous dans l'eau, la solution aqueuse devient plus visqueuse que prévu. Cette viscosité élevée est utilisée par la nature dans le corps humain. Les propriétés lubrifiantes et amortissantes du liquide synovial - une solution d'eau et de biopolymères chargés - nous permettent de plier, d'étirer et de comprimer nos articulations tout au long de notre vie sans dommages. Des chercheurs du Laboratoire de Biophotonique fondamentale (LBP) de la Faculté des sciences et techniques de l’Ingénieur de l'EPFL (Ecole Polytechnique Fédérale de Lausanne), ont apporté un éclairage nouveau sur la viscosité des solutions aqueuses. Ils ont montré que, contrairement à l'idée traditionnelle selon laquelle les interactions répulsives entre polymères sont seules responsables de l'augmentation de la viscosité, un effet quantique nucléaire entre molécules d'eau a également un rôle à jouer. « Jusqu'à présent, notre compréhension d'une solution polymère chargé-eau était basée sur des théories qui considéraient l'eau elle-même comme un arrière-plan », explique Sylvie Roke, responsable du LBP. « Notre étude montre que les interactions eau-eau jouent un rôle important. Il pourrait en être de même pour d'autres processus physiques et chimiques qui influencent la biologie ». L'eau tire ses propriétés uniques des liaisons hydrogène - liaisons de courte durée entre l’atome d'oxygène d'une molécule d'eau et l’un des atomes d'hydrogène d'une autre - qui se brisent et se reforment des centaines à des milliers de milliards de fois par seconde. Ces liaisons donnent à l'eau liquide une structure tridimensionnelle de courte durée. On sait depuis longtemps que l'eau devient plus visqueuse lorsque des polymères chargés y sont dissous. La viscosité est influencée par la taille du polymère et par sa charge. La raison pour laquelle les polymères chargés augmentent la viscosité plus que les polymères neutres a été attribuée au fait que les charges similaires sur les polymères se repoussaient mutuellement. Dans cette étude, les chercheurs de l'EPFL ont toutefois constaté que les charges électriques interagissent également avec les molécules d'eau et modifient les interactions eau-eau, ce qui entrave encore davantage l'écoulement de la solution. Les chercheurs ont mesuré la viscosité en enregistrant le temps qu'il a fallu à différentes solutions pour s'écouler dans un tube étroit. Ils ont également utilisé une technologie laser spéciale, développée au laboratoire, pour sonder les interactions eau-eau dans les mêmes solutions au niveau moléculaire. Ils ont découvert que les polymères rendaient le réseau de liaisons hydrogène plus ordonné, ce qui, à son tour, était corrélé à une augmentation de la viscosité. Les chercheurs ont ensuite répété les expériences avec de l'eau lourde (D2O), dont les molécules sont presque identiques à celles de l'eau légère (H2O), mais dont le réseau de liaison hydrogène est légèrement différent. Ils ont constaté des différences étonnamment importantes dans les interactions eau-eau et dans la viscosité. Comme les polymères se repoussent de la même manière dans l'eau légère et dans l'eau lourde, ils ont conclu que ces différences devaient provenir de petites différences dans la façon dont les deux molécules interagissent, ce qui signifie qu'un effet quantique nucléaire est en jeu. La découverte des chercheurs, qui indique que l'adhésivité des solutions de polymères chargés provient en partie des effets quantiques nucléaires dans l'eau, a des implications fondamentales. « L'eau est partout », explique Roke. « Elle représente environ 60 % du corps humain. Ces connaissances sur les propriétés de l'eau et son interaction avec d'autres molécules, y compris les biomolécules, s'avéreront utiles pour le développement de nouvelles technologies - non seulement dans le domaine de la santé et en biosciences, mais aussi pour les sciences des matériaux et de l'environnement ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Un projet de recherche européen appelé InDeWag vise à inventer les bâtiments économes en énergie de demain. Au niveau de ses fenêtres, entre les vitres, les scientifiques ont placé un flux continu de 70 litres d'eau distillée mélangés à 30 litres d'éthylène glycol utilisé comme antigel. Chaque panneau vitré fonctionne comme un collecteur solaire individuel : il absorbe les rayons du soleil et les transforme en énergie thermique pour chauffer l'intérieur du bâtiment. Miglena Nikolaeva-Dimitrova, physicienne à l'Académie bulgare des sciences, participe au projet : "Il y a un avantage à utiliser des liquides plutôt que de l'air à l'intérieur du vitrage : l'eau étant plus dense, elle absorbe le rayonnement infrarouge qui a une longueur d'onde plus importante," fait-elle remarquer. L'équipe mesure la température et l'humidité en continu à l'intérieur des fenêtres pour évaluer si de l'énergie peut être produite et utilisée sur la durée et quelles que soient les conditions météo. "Nous mesurons la température à l'intérieur du vitrage, nous la relevons tous les vingt centimètres sur toute la hauteur de la fenêtre : de cette manière, nous savons comment la chaleur se répartit à l'intérieur," indique Krasimir Zhivachki, assistant technique au sein de la même Académie. "Nous calculons également la différence entre l'énergie qui est consommée pour chauffer l'eau à l'intérieur des vitres et l'énergie que le système est capable de générer à l'intérieur du bâtiment," poursuit-il. Ce système de vitrage intelligent développé à Madrid n'a pas qu'une fonction d'isolation transparente : il vise à garantir une certaine performance énergétique en étant capable d'exploiter au maximum la chaleur du soleil pendant l'hiver et d'éviter de générer une chaleur excessive en été. "Quand la température extérieure est trop basse, on peut interrompre la circulation de l'eau, le soleil chauffe l'eau qui est entre les vitres et la fenêtre devient plus chaude," explique Juan Antonio Hernández Ramos, professeur d'analyse numérique et de sciences informatiques à l'Université Polytechnique de Madrid. "Quand la température extérieure est élevée ou quand la température dans le bâtiment est convenable, alors on peut faire circuler l'eau pour envoyer l'énergie vers d'autres parties du bâtiment," précise-t-il. "Les vitres transparentes réagissent de manière active : elles fonctionnent comme une peau qui permet à l'ensemble du bâtiment d'autoréguler sa température," insiste-t-il. Article rédigé par Georges Simmonds pour RT Flash Euronews | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Des chercheurs de l’Université du Wisconsin développent une variété de maïs capable de puiser son azote dans l’air plutôt que dans le sol. Ce nouveau maïs issu de croisements naturels pourrait un jour réduire le recours aux engrais chimiques et créer une révolution agricole et environnementale, rapporte La semaine verte. Impossible de confondre ce maïs tropical avec les lignées commerciales qui poussent à ses côtés. Ce maïs, qui provient des régions montagneuses de la Sierra Mixe dans le sud du Mexique, fait cinq mètres de haut. Le chercheur attire notre attention sur un trait anatomique encore plus mystérieux. Des racines aériennes surdimensionnées sont étagées sur la tige du maïs. Un gel mystérieux et translucide dégoutte au bout de chacune d’elles. "Ce maïs pousse sur des sols pauvres. Ce gel est la clé de sa survie. Il est rempli de sucres afin d’attirer des bactéries qui fixent l’azote", explique le chercheur. Le maïs conventionnel puise 99,9 % de son azote dans le sol. Avec ses énormes racines aériennes, le maïs de la Sierra Mixe tire 50 % de son azote de l’air ambiant grâce à une association avec les bactéries fixatrices d’azote. L’azote est essentiel aux plantes, et l’air qu’on respire en contient 78 %. Mais les plantes sont incapables d’utiliser cette forme d’azote. Seules les légumineuses comme le haricot, le trèfle ou le soja, par exemple, ont cette capacité. Pour y parvenir, elles doivent cependant s’associer à des bactéries ultraspécialisées, capables de digérer l’azote atmosphérique et de le leur transmettre sous une forme qui leur est facilement assimilable. Ce type de bactéries est l’objet de vieux fantasmes. Depuis des décennies, des générations de chercheurs ont tenté de les transférer des légumineuses aux céréales. Mais tous se sont cassé les dents. La découverte du chercheur de l’Université du Wisconsin ouvre la voie à une réduction importante de l’azote de synthèse dans la culture du maïs. Le maïs est la plante la plus cultivée dans le monde. C’est aussi une plante connue pour être la plus gourmande en engrais. Or la synthèse chimique de l’azote coûte cher et pollue. Il faut une tonne de gaz naturel pour produire une tonne d’engrais azoté. Cette industrie accapare à elle seule 1 % de toute l’énergie produite sur terre. Et c’est sans compter que les surplus d’engrais ruissellent vers les cours d’eau ou rejoignent des nappes phréatiques. Rien qu'aux États-Unis, on répand dans les champs plus de 5,6 millions de tonnes d’engrais azotés par année. Cette percée scientifique aurait été impossible sans une découverte botanique tout aussi importante survenue dans les montagnes de la Sierra Mixe du Mexique. Il y a 10 ans, deux chercheurs de l’Université Davis en Californie tombent sur un drôle de maïs : il fait cinq mètres de haut et pousse sur un sol pauvre. Comment ce maïs peut-il atteindre une telle taille sur ce type de sol ? Les chercheurs de l’Université Davis soupçonnent alors les racines aériennes de ce maïs de jouer un rôle dans la captation atmosphérique de l’azote. Ils se tournent vers Jean-Michel Ané pour résoudre ce mystère. "Je leur ai dit que c’était impossible, se rappelle le chercheur. Ça fait cent ans que les chercheurs tentent de découvrir une telle association entre les bactéries fixatrices d’azote et les céréales." Il faudra finalement cinq années au chercheur pour démontrer que le gel de ce maïs est bel et bien le siège de la fixation biologique de l’azote atmosphérique. Mais pour que le maïs mexicain gagne les champs, il reste beaucoup de travail à faire. Ce maïs n’est pas adapté à nos systèmes agricoles. Il met cinq mois de plus qu’un maïs conventionnel pour produire ses épis. Il est aussi beaucoup trop haut pour la machinerie. Le chercheur veut plutôt amener le maïs commercial à produire ses propres racines aériennes. Avec l’aide de généticiens et d’améliorateurs du maïs, l’Université Madison travaille à mettre au point une nouvelle lignée par croisement naturel. La généticienne Claudia Calderon rappelle que la création de nouvelles variétés reste une opération courante dans l’industrie du maïs. Elle précise que, par le passé, les améliorateurs ont souvent introduit des traits ancestraux de maïs dans des lignées commerciales pour lutter contre certaines maladies. Dans le cas du maïs mexicain, nous savons que les racines aériennes sont un trait génétique qui est transmissible. C’est un bon point de départ. Le reste, c’est une question de temps et d’observation afin de faire les bonnes sélections. Jean-Michel Ané a bon espoir de parvenir à créer cette nouvelle lignée de maïs d’ici une dizaine d’années. Même s’il ne devait puiser que 10 % ou 20 % de son azote dans l’air, le nouveau maïs de l’Université Madison contribuerait tout de même à améliorer le lourd bilan environnemental de cette culture dans les pays industrialisés. Le chercheur pense aussi que ce maïs pourrait venir en aide à bien des pays en développement. Beaucoup de petits paysans sont encore contraints de cultiver cette plante gourmande en engrais sur des sols pauvres. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| A l'heure actuelle, les technologies permettant de capter et stocker le CO2, comme les « aspirateurs » de Climeworks, restent assez gourmandes en énergie et onéreuses, ce qui freine leur développement à grande échelle. Mais cette situation va peut-être changer, grâce à une innovation mise au point par le MIT. Il s'agit d'un nouvel appareil dont le fonctionnement évoque celui d'une batterie. Leur projet s'avérerait être plus efficace et moins coûteux que les technologies actuelles. Cet appareil est doté de deux électrodes recouvertes de « polyanthraquinone », un composé attirant le dioxyde de carbone passant à proximité. La batterie récupère ainsi le CO2 durant sa charge, et le relâche progressivement durant sa décharge. Au cours de ce cycle, le dioxyde de carbone peut alors être récupéré et stocké. La technique a l'avantage d'être utilisable face à toutes les concentrations de dioxyde de carbone. En règle générale, les techniques de captation ne sont efficaces que pour de forts taux de CO2, et doivent donc être utilisées directement aux sorties des fumées d'usine ou de centrale, par exemple. Ce nouvel appareil, en revanche, peut être utilisé pour une captation à faible taux, voire pour une captation directement dans l'atmosphère. L'auteur de l'étude, Sahag Voskian, le confirme : « L'affinité binaire [du polyanthraquinone ] permet de capter le dioxyde de carbone à partir de toute concentration, y compris à 400 parties par million, et de le libérer dans n'importe quel flux porteur, y compris à 100 % de CO2 ». La « batterie » conçue par le MIT aurait également l'avantage de consommer moins d'énergie. Les méthodes actuelles utilisent des solutions aqueuses d'amines. Celles-ci doivent être chauffées pour capter le CO2, ce qui consomme beaucoup d'énergie. Les « aspirateurs » de Climeworks, cités précédemment, ont ce même inconvénient : ils utilisent des filtres devant être chauffés avant d'être réutilisés. La batterie du MIT, elle, n'aurait besoin d'électricité que pour effectuer un cycle charge-décharge, d'où son efficacité énergétique. D'après Sahag Voskian, le nouvel appareil utiliserait ainsi environ un gigajoule d'énergie par tonne de dioxyde de carbone captée, ce qui représente environ 10 fois moins que d'autres méthodes existantes. La fabrication des électrodes coûterait également quelques dizaines de milliers de dollars par mètre carré, autorisant des productions à grande échelle. Article rédigé par Georges Simmonds pour RT Flash EES | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Alors que le séquençage du génome entier se déploie actuellement en diagnostic dans différents pays et que la France vient de lancer le Plan France Médecine Génomique 2025 (PFMG2025), son utilisation en urgence en période néonatale reste encore peu répandue. Pourtant, la rapidité de réalisation de l’examen génétique est un facteur crucial lorsqu’un diagnostic est requis en urgence, situation fréquente en ce qui concerne les maladies rares à révélation pédiatrique précoce ou à progression rapide. Les équipes de CHU de Dijon-Bourgogne, de l’Inserm et du CEA, ont mené une étude pilote de faisabilité du séquençage haut débit de génome en urgence avant d’envisager un tel processus à l’avenir dans le cadre du PFMG2025. Dans le cadre de cette étude pilote, Fastgenomics, une trentaine d’enfants hospitalisés en réanimation néonatale dans huit CHU de la filière AnDDI-rares a bénéficié, au cours des neuf derniers mois, d’une analyse génomique en urgence. Le séquençage haut débit du génome des enfants et de leurs parents et une analyse bioinformatique primaire ont été effectués sur la plate-forme de production de séquences du Centre national de recherche en génomique humaine (CEA-CNRGH), en collaboration avec le Très Grand Centre de Calcul (TGCC) du CEA et le centre de calcul de l’Université de Bourgogne (CCuB). L’interprétation des données génomiques a été réalisée par la Fédération Hospitalo-Universitaire (FHU) TRANSLAD, en collaboration étroite avec l’équi pe de recherche Inserm U1231 GAD. La mobilisation des équipes a permis de rendre les résultats d’analyse dans un délai de 49 jours, allant au plus vite à 38 jours. Ce délai est particulièrement court pour un diagnostic génétique. En effet, malgré des évolutions importantes, le délai moyen d’obtention d’un diagnostic génétique en France reste actuellement encore long : de 1,5 an en moyenne, et jusqu’à 5 ans pour 25 % des patients. L’analyse rapide des génomes de ces nouveau-nés a permis de poser un diagnostic pour deux tiers d’entre eux, un tiers ayant pu bénéficier d’une prise en charge plus rapide et mieux adaptée. Ces analyses rapides du génome ont été rendues possibles grâce aux avancées majeures dans le séquençage haut débit de l’ensemble des gènes. Les technologies de nouvelle génération de séquençage haut débit de l’ADN, qui permettent l’étude de l’ensemble du génome d’un individu, sont apparues ces dernières années comme un outil de choix pour l’étude des maladies rares. Ces technologies de pointe sont déployées au CNRGH et ont déjà permis d’impliquer de nombreux gènes dans de nombreuses maladies. L’équipe de la FHU TRANSLAD du CHU Dijon Bourgogne a été l’une des premières en France à démontrer l’intérêt du séquençage de l’exome (représentant 1 % de la taille totale du génome) dans le diagnostic de pathologies sévères à révélation pédiatrique précoce, des anomalies du développement et de la déficience intellectuelle. Les maladies rares (touchant moins d’une personne sur 2 000) constituent un enjeu majeur de santé publique car elles représentent environ 8 000 maladies et touchent plus de 3 millions de personnes en France. Majoritairement de révélation pédiatrique, elles sont responsables de 10 % des décès avant l’âge de 5 ans. Jusqu’à 80 % de ces maladies seraient d’origine génétique. L’établissement d’un diagnostic apporte de nombreux bénéfices aux patients et à leurs familles : clarifier la cause, proposer un pronostic plus précis, accéder à un traitement ou à des protocoles d’essais thérapeutiques, établir les risques de récurrence, éviter la redondance de nombreux autres tests diagnostiques, prévenir des futures complications connues, faciliter l’obtention d’aides spécifiques aux familles, et parfois de se mettre en lien avec d’autres familles affectées par la même pathologie. L’obtention d’un diagnostic est un défi de taille pour des pathologies à révélation pédiatrique précoce et à évolution rapide, dont les causes génétiques sont très hétérogènes, telles que les épilepsies, les maladies du métabolisme, les cardiopathies, les pathologies musculo-squelettiques ou autres syndromes polymalformatifs. Le Plan National Maladies Rares 3 (PNMR3) prévoit de réduire l’errance diagnostique à une année, car elle est responsable d’ « une aggravation possible de l’état des malades, un retard sur les possibilités de conseil génétique et un gaspillage de ressources médicales (multiplicité des consultations diagnostiques) ». Dans le contexte de maladies graves néonatales, l’obtention d’un diagnostic rapide est d’autant plus importante. En effet, le diagnostic, posé précisément, permettrait de modifier la prise en charge de l’enfant, qu’il s’agisse d’une adaptation thérapeutique (par exemple dans le cas de maladies métaboliques ou d’épilepsies), de l’adressage à un spécialiste de la pathologie, d’une adaptation diététique, de la réalisation d’examens complémentaires, et/ou de la réévaluation d’indication chirurgicale, voire de la prise en compte de ce résultat dans une discussion de poursuite des soins. Article rédigé par Georges Simmonds pour RT Flash INSERM | | | |
| Une femme atteinte d’une forme génétique rare de la maladie d’Alzheimer a développé une perte de mémoire trente ans après l’âge supposé d’apparition des symptômes de la maladie. La présence dans son génome de deux copies du gène APOE3 Christchurch serait à l’origine de ce retard spectaculaire. Ce cas unique en son genre vient d’être rapporté par une équipe de chercheurs de l’Université d’Antioquia en Colombie et de l’Hôpital Général du Massachusetts aux Etats Unis. Une de leur patiente est atteinte d’une forme génétique de maladie d’Alzheimer due à la présence d’une mutation du gène de la préséniline 1 (PSEN 1). Normalement, lorsque que l’on est porteur de cette mutation, on est sûr de développer une maladie d’Alzheimer précoce, débutant aux alentours de l’âge de 40 ans. Cependant, cette patiente n’a commencé à montrer des signes de perte de mémoire qu’après son 70ème anniversaire, soit environ trente ans après l’âge théorique de début de la maladie. Intrigués par cette situation, les chercheurs ont réalisé différents types d’imagerie du cerveau pour évaluer la présence de plaques béta amyloïdes et de dégénérescence neurofibrillaire. La patiente avait une quantité importante de plaques amyloïdes, ce qui est logique avec la mutation PSEN1, mais la dégénérescence était très peu marquée. C’est comme ci quelque chose avait limité la progression de la perte des neurones. Les chercheurs se sont alors penchés sur les différents gènes connus pour être associés avec les mécanismes de survenue de la maladie d’Alzheimer, les gènes des apolipoprotéines E (ApoE). Ils se sont alors aperçus que les deux copies du gène de l’ApoE3 possédaient chacune la même mutation rare appelée « Christchurch ». Cette « double mutation » confère à l’ApoE3 une moins bonne capacité de fixation des protéoglycanes héparane-sulfate (HSPG) connues pour provoquer les lésions de la maladie d’Alzheimer comme l’agrégation de la protéine béta amyloïde. Cette moins bonne fixation aurait donc permis de ralentir le processus de développement de la maladie de la patiente sur plusieurs dizaines d’années. Grâce à cette découverte, l’objectif serait de reproduire les effets de cette mutation génétique et envisager de faire reculer l’apparition des symptômes chez d’autres personnes avec ou sans forme génétique de la maladie d’Alzheimer. Pour l’instant, les chercheurs ont réussi à créer en laboratoire un anticorps capable de se fixer sur la zone de l’ApoE3 correspondante et ainsi empêcher une fixation optimale des HSPG. L’étape suivante est de tester cet anticorps chez des souris avant de pouvoir éventuellement passer à l’Homme. Cette avancée ouvre donc de nouvelles perspectives pour continuer de chercher dans la voie des ApoE et à l’avenir trouver un traitement efficace pour lutter contre la maladie d’Alzheimer. Article rédigé par Georges Simmonds pour RT Flash Technology Networks | | | |
| Une équipe de recherche associant des chercheurs américains de la San Diego State University (SDSU) et allemands de l'Institut allemand de technologie de Karlsruhe, a développé une nouvelle génération d’électrodes, moins invasive et à moindre risque d’effets indésirables. Alors qu’un grand nombre de patients restent réfractaires à ce type de traitement, ces travaux décrivent un dispositif plus sécure, avec un avantage considérable, il est compatible avec l’IRM. Au-delà de l’image d’une intervention chirurgicale invasive qui va consister à insérer une électrode dans le cerveau, de nombreux patients craignent les effets indésirables associés à l’IRM : l’électrode en métal peut réagir aux champs magnétiques et vibrer, générer de la chaleur ou même endommager le cerveau. Mais ces ingénieurs de la SDSU, en collaboration avec des chercheurs du Karlsruhe Institut für Technologie (Allemagne) ont apporté une amélioration considérable à ces électrodes de stimulation profonde. La stimulation cérébrale profonde consiste en effet à implanter des électrodes dans le cerveau, qui génèrent des impulsions électriques permettant, par exemple, d’améliorer le contrôle moteur chez les personnes souffrant de troubles du mouvement réfractaires aux médicaments, comme les patients atteints de la maladie de Parkinson, par exemple. La stimulation cérébrale profonde a d’autres indications possibles, dans le traitement des lésions cérébrales traumatiques, la toxicomanie, la démence, la dépression et d'autres conditions encore. Jusqu'à présent, les électrodes étaient en oxyde de platine ou d'iridium. Cependant ces électrodes à base de métal peuvent produire de la chaleur, interférer avec les images IRM en créant des points lumineux bloquant la visibilité des zones étudiées, devenir magnétisées, bouger ou vibrer lorsque les patients subissent des examens. Cette version « carbone » est conçue pour durer plus longtemps dans le cerveau, sans risque de détérioration ou corrosion, et permet d’émettre et de recevoir des signaux plus puissants. Alors que l'électrode en métal se dégrade après 100 millions de cycles d'impulsions électriques, le matériau carboné vitreux permet d’assurer plus de 3,5 milliards de cycles. Si le carbone s'avère un matériau plus sûr, si ces premiers tests confirment que, contrairement à l'électrode en métal, l'électrode en carbone vitreux n'est pas magnétisée par l'IRM et ne va donc pas endommager le cerveau du patient, qu’elle est capable de lire à la fois les signaux chimiques et électriques du cerveau, l’électrode en carbone présente un autre avantage de taille : elle peut durer toute une vie. Un confort donc inestimable pour ces patients qui subissent une intervention très invasive. « Le matériau à couche mince de carbone est intrinsèquement homogène donc présente très peu de surfaces défectueuses. Il peut donc durer toute la vie », précise l'étude. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Le cerveau est un organe difficile à atteindre car il est isolé par une barrière qui le protège des agressions issues du système sanguin : la barrière hémato-encéphalique ou BHE. Corollaire de cette protection renforcée : les pharmacologues butent sur cette BHE pour faire entrer dans le cerveau les médicaments qu’ils développent pour traiter les pathologies cérébrales. Cette barrière est un système très complexe de par sa composition, son organisation et son fonctionnement : elle n’a pas la même « perméabilité » pour toutes les molécules. Et celle-ci peut être modifiée dans certaines pathologies. L’important enjeu pharmacologique que représente le franchissement de la BHE a conduit au développement de nombreux modèles expérimentaux précliniques ayant pour objectif d’étudier et de prédire les paramètres cinétiques de passage de candidats médicaments destinés au système nerveux central. Les modèles précliniques actuels ne font qu’imiter plus ou moins parfaitement la véritable complexité de la BHE humaine. Ils doivent être améliorés. De même, leur pertinence physiologique doit être mieux contrôlée e t validée. Une équipe du CEA-Joliot travaille depuis plusieurs années à reconstituer expérimentalement la BHE avec l’objectif d’avoir un modèle robuste et efficace qui aurait exactement les mêmes caractéristiques que la BHE humaine. Leur modèle associe des cellules endothéliales cérébrales (cellules de la paroi des vaisseaux sanguins), cultivées sur une membrane semi-perméable, et des cellules gliales (cellules qui environnent les neurones). Mais ces cellules cérébrales humaines sont difficiles à obtenir du fait de la qualité des pièces opératoires (issues de la neurochirurgie) et la difficulté de les maintenir en culture. Lors d’une étude récente, les chercheurs, en collaboration avec le CEA-Jacob, sont parvenus à reconstituer in vitro une BHE grâce à la reprogrammation de cellules somatiques (des cellules humaines de peau) en cellules souches pluripotentes induites (iPSCs) et à la mise en place d’un protocole unique de différenciation en cellules endothéliales cérébrales humaines. Ce protocole de reprogrammation permet de disposer d’une quantité potentiellement illimitée de cellules cérébrales humaines pour la reconstitution expérimentale du modèle de BHE. Les chercheurs ont ensuite caractérisé ces modèles de barrières, leurs propriétés physiologiques et notamment leur capacité à être effectivement des barrières physiques sélectives. Ils ont ainsi mesuré la capacité de passage de plusieurs molécules et médicaments au travers de la BHE. Les scientifiques ont pu comparer directement ces paramètres pharmacocinétiques de transport obtenus in vitro à ceux obtenus chez l’Homme, par imagerie TEP, pour les mêmes molécules radiomarquées. Cette étude comparative montre une bonne corrélation entre les données obtenues in vitro et celles obtenues in vivo. Cette double approche devrait permettre à terme la reconstitution et l’étude des signatures moléculaires de barrière hémato-encéphalique dans le contexte de pathologies cérébrales afin de prédire le passage de candidats médicaments mais aussi la découverte des stratégies de leur délivrance dans le cerveau. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| L'équipe de gastroentérologie de l'hôpital Henri-Mondor AP-HP et de l'Université Paris-Est Créteil, dirigée par le Professeur Iradj Sobhani, et l'équipe de l'Inserm et de l'Institut Pasteur U1202 « Unité de pathogénie microbienne moléculaire », dirigées par le Professeur Philippe Sansonetti, qui occupe également la chaire Microbiologie et maladies infectieuses du Collège de France, ont montré qu'un déséquilibre du microbiote intestinal, appelé « dysbiose », favorisait la survenue d'un cancer du côlon. Les équipes françaises, sont réunies sous le label Oncomix depuis avril 2016 ; ces équipes en collaboration avec l'équipe d'immunologie des cancers de Mayo Clinic dirigé par le Pr Khazaie aux Etats-Unis ont en effet montré que la transplantation de flore fécale de patients atteints d'un cancer colique chez la souris causait des lésions et des modifications épigénétiques caractéristiques du développement d'une tumeur maligne. L'étude pilote, financée par l'Institut national du cancer et promue par l'AP-HP dans le cadre d'un programme hospitalier de recherche clinique en cancérologie (PHRC-K), a ainsi permis de concevoir un test sanguin non invasif qui identifie ce phénomène épigénétique associé à la dysbiose et de le valider chez 1000 personnes. Le cancer colorectal sporadique (CCR) se développe sans que les facteurs de risques puissent être déterminés. Il résulte d'interactions complexes entre le sujet et son environnement. L'augmentation croissante de son incidence suggère une évolution défavorable de l'environnement, dont les composantes peuvent induire des altérations d'ADN (génique et épigénique) des cellules de l'hôte pour les cancers colorectaux sporadiques. L'équipe du service de gastroentérologie de l'hôpital Henri-Mondor AP-HP et de l'Université Paris-Est Créteil, et une équipe de l'Inserm et de l'Institut Pasteur U1202 « Unité de pathogénie microbienne moléculaire » et de la chaire de microbiologie et maladies infectieuses du Collège de France, ont démontré chez la souris, puis validé chez l'homme, que le mécanisme épigénétique favorisé par certaines bactéries du microbiote contribuait à la survenue ou la promotion des cancers colorectaux sporadiques. Les 136 souris inclues dans l'étude recevaient par transplantation soit des selles fraiches de neuf patients atteints de cancers colorectaux sporadiques, soit des selles fraiches de neuf patients sans anomalie colique pris en charge à l'hôpital Henri-Mondor AP-HP. Leurs colons ont été examinés 7 et 14 semaines après la transplantation de microbiote fécal (TMF) humain. Les équipes se sont notamment intéressées au nombre et à l'évolution des lésions précancéreuses-cryptes aberrantes (CA), au profil microbien et aux altérations d'ADN colique. Ils ont aussi pris en compte la prise alimentaire, le poids et les indicateurs biologiques sanguins des animaux. Des associations entre la signature d'ADN (génique et épigénique) tissulaire et la dysbiose fécale (qui correspond à un déséquilibre dans la composition bactérienne intestinale) ont été identifiées par des tests statistiques. Les souris, qui avaient reçu des selles fraiches de patients atteints de cancers colorectaux sporadiques, ont développé des lésions précancéreuses, dites « cryptes aberrantes » (CA) sans modification génétique significative colique mais elles présentaient un plus grand nombre de gènes hyperméthylés. Ces derniers ont été significativement liés à la survenue de CA au sein de la muqueuse colique. Après vérification des associations entre dysbiose fécale, et anomalies d'ADN (méthylation) chez les patients atteints d'un cancer colorectal sporadique et ayant participé au transfert fécal, une étude pilote a été menée chez l'homme afin de mettre au point un test sanguin simple et reproductible permettant de diagnostiquer les tumeurs colorectales au stade précoce chez des patients asymptomatiques. Sa validation prospective a été réalisée chez 1000 patients asymptomatiques qui devaient bénéficier d'une coloscopie. Pour identifier les bactéries impliquées, l'ensemble de leur génome bactérien a été séquencé. Le niveau d'hyperméthylation de trois gènes a été défini comme un index cumulé de méthylation (CMI). Les patients ont été classés en fonction de leur CMI (positif ou négatif). Une analyse a identifié le CMI positif comme un facteur prédictif de la survenue d'un cancer colorectal sporadique. Ces travaux montrent ainsi que le microbiote des sujets présentant un cancer colorectal sporadique induit des lésions précancéreuses coliques chez l'animal par l'hyperméthylation d'un nombre restreint de gènes. Le taux cumulé d'hyperméthylation (CMI) et/ou les bactéries pro méthylatrices pourraient ainsi devenir des marqueurs diagnostiques de ce type de cancer. Ces premiers résultats devront être évalués et confirmés dans le cadre d'un essai clinique. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | | |
| Plus un cancer est détecté tôt, plus les chances de survie sont élevées. Malheureusement, dans de nombreux cas, les premiers symptômes apparaissent lorsque la maladie est déjà bien avancée, entraînant des traitements extrêmement lourds pour les patients. C’est pourquoi des chercheurs dans le monde entier s’appuient sur les avancées technologiques afin de déceler le cancer le plus prématurément possible. Au Japon, Toshiba a annoncé avoir mis au point un outil justement capable d’une telle prouesse. Il lui suffit d’une seule goutte de sang pour établir un diagnostic en quelques heures avec 99 % de précision. « Comparé aux méthodes des autres entreprises, nous avons un avantage par rapport au degré de précision et le temps requis pour la détection du cancer, ainsi que pour le coût », a ainsi déclaré Koji Hashimoto, chercheur en chef du laboratoire Frontier de Toshiba. En effet, l’analyse de sang effectuée par l’appareil est estimée à 20 000 Yens, soit 166 euros. Pour parvenir à ce résultat impressionnant, l’outil calcule la concentration de micro-ARN dans le sang du patient. Ces petites molécules sont présentes dans toutes nos cellules, mais en bien plus grande quantité dans les cellules cancéreuses. « Quand ces cellules meurent, elles sont alors relarguées dans le sang. Quel que soit l’endroit où se trouve le cancer, les micro-ARN en révèlent la présence et le dosent », a expliqué le professeur Pierre Coulie, immunologiste et oncologue à l’Institut de Duve en Belgique, à RTBF. D’après Toshiba, le kit est efficace pour détecter pas moins de 13 cancers différents, beaucoup d’entre eux figurant parmi les plus fréquents : cancer, foie, gastrique, œsophagien, pancréas, vessie, prostate, sein, intestin, ovaire, vésicule biliaire, sarcome et gliome. Cet appareil démontre une fois de plus les avancées prodigieuses que nous permettent les nouvelles technologies dans la lutte contre le cancer. Plus tôt dans l’année, le MIT annonçait avoir mis au point une IA capable de prédire le cancer 5 ans à l’avance. Idem pour IBM, qui a pour sa part développé un algorithme qui détecte le cancer du sein un an avant son apparition. Les tests cliniques devraient débuter dès l’année prochaine, et les chercheurs espèrent que leur outil sera utilisé lors de bilans de santé d’ici quelques années. Avec ce dispositif, Toshiba prouve son engagement dans le domaine médical, que la firme avait d’ailleurs annoncé comme l’une de ses priorités dans sa stratégie commerciale annoncée en avril 2019. Article rédigé par Georges Simmonds pour RT Flash The Japan Times | | | |
| Des chercheurs de l’Institut Weizmann des sciences de Rehovot en Israël, ont fait une découverte passionnante. Grâce à un changement biochimique, ils ont pu remanier les composantes génétiques d’un microbe pour le rendre autotrophe : capable d’absorber du CO2 pour se nourrir de manière autonome. Pour réussir cette prouesse, les chercheurs ont remanié deux parties essentielles du métabolisme du microbe : la manière dont il reçoit l’énergie et la définition de la source qu’il utilise pour croître. Concrètement, une bactérie qui avait auparavant besoin de sucres simples pour grandir est désormais capable de vivre uniquement en absorbant du dioxyde de carbone (CO2), comme les plantes. La bactérie n’a donc plus besoin de “manger”. Les spécialistes du domaine estiment que ces travaux pourraient mener à la création d’un microbe artificiel qui serait en mesure d’absorber le CO2 de l’air et de le transformer en médicaments ou en d’autres composés d’une grande valeur pour la science. Pour Dave Savage, biochimiste à l’Université de Californie à Berkeley, qui n’a pas participé aux travaux : « les conséquences sont très importantes. De telles avancées pourraient en fin de compte nous faire changer la façon dont nous enseignons la biochimie ». Le monde est divisé en 2 grandes familles pour les biologistes : les “autotrophes” (les plantes qui utilisent la photosynthèse pour convertir le CO2 en sucres et autres composés organiques dont elles ont besoin pour construire leurs cellules) et les “hétérotrophes” (des êtres vivants qui ont besoin de se nourrir d’autres organismes pour croître). Depuis plusieurs années, les spécialistes de la biologie synthétique tentent de créer un microbe autotrophe, qui serait capable de produire des produits chimiques et des carburants précieux à partir du CO2. Nous y sommes ! Après avoir consacré des années à un projet similaire, Pam Silver, biologiste des systèmes à la Harvard Medical School à Boston, a déclaré ceci : « je m’incline devant eux pour le succès de ce projet ». D’un point de vue technique, les chercheurs n’ont pas pu donner à la bactérie la capacité d’effectuer le processus de photosynthèse car il est beaucoup trop complexe. En réalité, ils ont inséré le gène d’une enzyme qui a permis au microbe de manger du formiate. Les microbes se sont montrés capables de transformer le formiate en une molécule riche en énergie que les cellules peuvent utiliser pour se nourrir. Les chercheurs estiment que le formiate produit à partir de l’énergie éolienne et solaire pourrait aider les bactéries modifiées à produire de l’éthanol et d’autres carburants de ce type, ou même certains produits pharmaceutiques. Article rédigé par Georges Simmonds pour RT Flash Siècle Digital | | | |
| Des plantes aquatiques se sont aventurées sur la terre ferme pour la première fois il y a 450 millions d’années, ce qui a permis le développement de la vie telle que nous la connaissons aujourd’hui. Pour faire face à ces nouvelles contraintes, l’ancêtre des plantes terrestres a forcément dû innover pour cela, en se dotant par exemple d’une couche de protection contre les radiations solaires et la sécheresse. Il a dû également s’associer avec des champignons pour mieux capter les nutriments de ce sol hostile pour lui. Depuis plusieurs années, les scientifiques considèrent un groupe d’algues, les Zygnematophyceae, comme le plus proche cousin des plantes terrestres. Leur étude comparée permet de mieux cerner ce que l’ancêtre des plantes terrestres a dû « inventer » pour s’adapter à son nouveau milieu : tout ce que les plantes terrestres possèdent aujourd’hui, mais pas les Zygnematophyceae, fait probablement partie de ces innovations. Pour mieux connaître ce groupe d’algues, ses deux premiers génomes viennent d’être séquencés et analysés par une collaboration internationale comprenant deux chercheurs du Laboratoire de recherche en sciences végétales (CNRS/Université Toulouse III-Paul Sabatier). Les analyses conduites dans ce laboratoire ont permis de démontrer que de nombreux gènes impliqués dans l’association avec des champignons sont absents des Zygnematophyceae et sont donc apparus spécifiquement chez l’ancêtre des plantes terrestres actuelles. Plus surprenant encore, l’analyse globale du génome a identifié des gènes qui proviendraient de bactéries. Ce transfert « horizontal » de gènes, connus pour leurs rôles majeurs dans le développement des plantes et leurs capacités de réponse au stress, illustre parfaitement comment de nombreux processus d’évolution des génomes permettent l’apparition d’innovations majeures pour la diversification de la vie sur Terre. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | A l’occasion des InnovDays qui mettent en lumière les dernières innovations technologiques développées par plus de 29 500 ingénieurs au sein du groupe, Thales a dévoilé Pureflyt, un système de cockpit connecté améliorant les performances de l’appareil et censé répondre au doublement du trafic aérien prévu d’ici à 2030. Ce système de gestion de vol sera disponible pour une entrée en service en 2024. La prouesse technique de Pureflyt, présenté le 25 novembre à Toulouse, réside dans sa capacité à connecter à la fois les données à bord de l’avion et celles de son environnement extérieur, telles que les informations météorologiques. PureFlyt est conçu spécialement pour une gestion efficace des aéronefs dans un écosystème aéronautique connecté et des espaces aériens toujours plus encombrés. D’après les prévisions, la flotte mondiale d’avions commerciaux va en effet doubler d’ici 2030. Le recours aux drones va également croître rapidement. D’ores et déjà, des millions d’avions volent chaque jour. Pour développer PureFlyt, Thales s’est appuyé sur sa connaissance approfondie de l’avionique, de la connectivité, de la gestion du trafic aérien et sur ses 40 ans d’expertise en systèmes de gestion de vol. Ce système de gestion du vol du futur entièrement connecté est conçu pour offrir aux avionneurs et aux compagnies aériennes une combinaison optimale de sécurité, d’efficacité opérationnelle et d’efficience énergétique. Avec PureFlyt, les équipages pourront prendre de meilleures décisions grâce à un nombre plus important de sources d’information. Les performances et la réactivité de l’avion durant les phases complexes du vol s’en trouveront améliorées. Ce système permettra aussi de calculer en temps réel de nouvelles trajectoires ou de réagir rapidement aux changements de programme. Donner aux pilotes la bonne information au bon moment renforce la fiabilité de la trajectoire calculée, d’où une meilleure efficacité et une moindre charge de travail pour le pilote pendant toutes les phases du vol. Parmi les innovations décisives de PureFlyt : sa capacité à s’appuyer sur les données de l’aéronef mais aussi sur celles du monde extérieur, notamment météorologiques. Thales combine l’intégrité du système de gestion du vol à l’agilité et à la puissance de l’organiseur électronique du poste de pilotage, avec toutes ses fonctionnalités. La trajectoire de l’appareil peut ainsi être contrôlée, adaptée et affinée en permanence, pour un vol optimisé, une plus faible consommation de carburant et plus de confort pour les passagers. Le recours massif à l’intelligence artificielle lors des innombrables essais a permis de simuler 2 milliards de cas de tests – et d’accumuler une expérience, correspondant à 100 millions d’heures de vol. PureFlyt a aussi été conçu pour être évolutif et adaptable à la mise en œuvre de concepts comme la gestion de trajectoire Initial 4D (I4D) à l’étude actuellement dans le cadre de SESAR (Single European Sky ATM Research) dans l’UE et de NextGen aux Etats-Unis. En augmentant la précision des vols dans les quatre dimensions (la quatrième dimension étant le temps), PureFlyt assurera une distance optimale entre aéronefs, en particulier au décollage et en approche qui sont les phases les plus exigeantes. « Dans les airs, la révolution digitale commence tout juste. L’électronique de bord connaît un changement de paradigme dans le contexte d’un espace aérien connecté et PureFlyt est le seul système de gestion de vol qui fasse réellement de l’avion un nœud de connectivité. En traitant et en partageant des volumes considérables de données, PureFlyt rendra les avions plus sûrs, plus écologiques, plus faciles à piloter, plus rentables pour les compagnies aériennes et plus confortables pour les passages », commente Jean-Paul Ebanga, Vice-Président de Thales Flight Avionics. Article rédigé par Georges Simmonds pour RT Flash VIPP | | | |
| Le débat « moteur électrique contre moteur thermique » semble désormais plutôt derrière nous. Le tout-pétrole est condamné à terme, le moteur électrique serait donc la solution la plus crédible au regard de la question environnementale, à condition que l'électricité produite soit renouvelable - et même si la question des matières premières pour la production de batteries (et de leur recyclage) demeure entière. Cependant, il s'agit d'objectiver la comparaison entre les options hydrogène ou batterie pour ne pas se laisser enfermer dans les dogmatismes. Deux technologies électriques certes, mais très différentes sur le plan industriel. L'électricité est un produit « ultrafrais » : il est difficile et coûteux de la stocker et de la distribuer. Pour l'instant, à l'échelle française, Elisabeth Borne, Ministre de la Transition écologique, rappelle que le choix opéré est celui de la batterie avec un plan de déploiement de 100.000 bornes de rechargement électrique d'ici 2022 sur notre territoire national. Pour comparaison, à ce jour, on compte moins de 100 stations hydrogène… Tous les usages vertueux ont besoin d'un prix attractif pour se développer. Fabio Ferrari, le patron de la société Symbio (coentreprise entre Michelin et Faurecia dédiée au déploiement du moteur à Hydrogène) rappelle que la comparaison du prix doit s'opérer sur trois axes. Le prix du véhicule lui-même, tout d'abord : la technologie de la pile à hydrogène devrait coûter moins cher, à volume de production équivalent, assure-t-il. Le prix d'exploitation ensuite, lié au coût de l'énergie : sur ce point, Fabio Ferrari estime qu'il y aura toujours un avantage de 20 % en faveur de la batterie. Le prix de maintenance, enfin : il n'y a pas de différence significative entre les deux technologies. Mais sur la durée, la batterie s'use, ce qui est moins le cas de la pile à Hydrogène. Cependant, le véritable prix n'est pas seulement la somme des coûts, il demeure aussi dissimulé dans les usages. Aujourd'hui, pour recharger une batterie Ion-lithium, il faut compter plusieurs heures pour une autonomie comprise entre 250 et 500 km. Le bénéfice utilisateur penche donc largement en faveur du réservoir à hydrogène que l'on peut remplir sous haute pression en seulement quelques secondes, pour une autonomie du même ordre de grandeur. Cela devrait donc être un avantage décisif. Notamment dans le cas d'un professionnel qui ne peut se permettre d'attendre le temps de la recharge (livreurs, chauffeurs). Le grand problème qui pèse sur l'avenir de la solution hydrogène est pourtant le déploiement du circuit de distribution de ces stations de recharges : infrastructure lourde et coûteuse qui interdit une distribution grand public à moyen terme. Elisabeth Borne comme l'expert technique Fabio Ferrari s'entendent sur un point : l'usage intensif du véhicule tel qu'il est constaté dans les flottes professionnelles, camion, livreurs, taxi, semble être la voie naturelle de développement de l'hydrogène. Ces flottes captives ont des besoins de recharges rapides et la possibilité de déployer leur propre station de recharge. Article rédigé par Georges Simmonds pour RT Flash Les Echos | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|