| | Edito Rebâtissons Notre-Dame de Paris en l’inscrivant dans son siècle !
L’impensable, l’inimaginable s’est donc produit le 15 avril dernier, avec cet épouvantable incendie, d’une violence inouïe qui a bien failli détruire totalement ce joyau architectural et historique que constitue la cathédrale Notre-Dame de Paris, symbole universel de spiritualité et de fraternité qui, en bien des occasions inscrites à jamais dans notre histoire et nos mémoires, de l’accueil de la relique de la Sainte Couronne par Saint Louis en 1239, jusqu’au Magnificat de la victoire, le 26 août 1944, en présence du Général de Gaulle, en passant par le sacre de Napoléon en 1804, a su faire battre depuis plus de huit siècles le cœur de la France. Le mardi 16 avril au matin, c’est toute une nation sidérée et étreinte de tristesse qui a dû se résoudre à voir ce que jamais elle n’aurait pensé voir : Notre-Dame de Paris dévastée par la pire catastrophe de son très long parcours à travers les siècles. Mais très vite, passé le temps des larmes et de l’accablement, c’est tout un peuple qui, dépassant ses différences d’opinions, de conditions et d’origines, a su s’unir dans un extraordinaire mouvement de ferveur national, pour manifester sa volonté inébranlable : celle de reconstruire à tout prix, et quelles qu’en soient les difficultés, cette magnifique cathédrale qui ne peut pas mourir. A peine cet incendie était-il éteint qu’un élan national et mondial de générosité, comme on en a rarement vu dans l’histoire, permettait de recueillir des promesses de dons qui dépassent à présent le milliard d’euros. Cette somme peut paraître exorbitante, mais elle sera sans doute nécessaire pour couvrir globalement le coût absolument gigantesque que vont représenter la reconstruction et la consolidation dans les règles de l’art de cet édifice immense et d’une grande complexité, déjà soumis au poids des siècles avant de subir les outrages du feu. Il faut bien comprendre qu’à présent, il ne s’agit plus de restaurer Notre Dame de Paris, mais bien de la reconstruire et, disent certains, de la réinventer. En effet, au-delà des énormes dégâts directs occasionnés par cet incendie sur la charpente et le toit de cette cathédrale, c’est probablement l’ensemble de la structure de cet édifice, fragilisée par l’incendie, qu’il va falloir consolider et sans doute en partie rebâtir. Rappelons que la cathédrale a été percée à trois endroits : par l'effondrement de la flèche, de la croisée du transept et de la voûte du transept nord. De l’avis de tous les experts, il existe des risques importants d'effondrement de la voûte, notamment au niveau du pignon du transept nord et sur une partie du beffroi sud, et les travaux de mise en sécurité, de c onfinement et d’inspection de ces prochaines semaines seront à cet égard décisifs. Avant d’aborder la question délicate et complexe des choix en matière de reconstruction de cette superbe cathédrale, il faut rendre hommage à l’intervention absolument exemplaire des Pompiers de Paris qui ont non seulement pris tous les risques pour éteindre au plus vite cet incendie, en essayant de minimiser, autant qu’il était possible, les conséquences de leur intervention, mais ont également, pour une dizaine d’entre eux, risqué délibérément leur vie pour sauver des reliques et œuvres d’art d’une valeur inestimable, allant bien au-delà du devoir que leur impose leur mission. Il est également important de rappeler un point qui n’a peut-être pas assez été souligné : lors de leur intervention à Notre-Dame de Paris, les pompiers ont pu compter sur l'aide de Colossus, un robot téléguidé développé par la société française Shark Robotics. Cette étonnante machine, pilotable à distance jusqu’à un km à l’aide d’une tablette numérique, équipe les Pompiers de Paris depuis deux ans ; elle pèse 420 kilos et peut emmener une demi-tonne de charge utile en exploitant sa puissance embarquée de 8000 watts qui lui confère plus de quatre heures d’autonomie. Ce colosse d’1m80 de long et d'1m50 de large peut également monter des escaliers et franchir toutes sortes d’obstacles, grâce à ses chenilles. Télécommandé à distance par un pompier, ce robot s’est avéré être un auxiliaire particulièrement efficace pour lutter contre cet incendie ravageur, en réduisant les risques pour les pompiers. Capable d’emporter 200 mètres de tuyaux, il peut cracher 3.000 litres d’eau par minute et faire ainsi le travail d’une bonne vingtaine de pompiers. Polyvalent et modulable, il est également capable de transporter du matériel, d’évacuer des blessés, et de donner de précieuses informations aux pompiers grâce à sa caméra thermique et sa batterie de capteurs chimiques et électroniques. De l’avis général, l’utilisation de ce robot a vraiment été décisive lors de la lutte contre ce terrible incendie et il n’est pas exagéré de dire qu’il a sans doute permis de sauver plusieurs vies et de limiter considérablement les dégâts de ce sinistre en intervenant avec force mais précision dans des endroits de la cathédrale inaccessibles pour les pompiers, en raison des trop grands risques encourus. D’ici trois ans, cette première génération de « robot-pompier » devrait être remplacée par de nouveaux engins encore plus performants, actuellement en développement au niveau européen, dans le cadre du projet de recherche SmokeBot. Actuellement, un prototype est testé dans des conditions de visibilité quasi nulle. « Le développement le plus innovant de notre projet est certainement cette caméra radar », souligne Erik Schaffernicht, scientifique spécialisé en intelligence artificielle à l'Université Örebro, partenaire du projet. « Il s'agit d'un ensemble d'antennes et de récepteurs qui émettent et reçoivent des faisceaux radar et peuvent reconstruire une image en 3D de l'environnement à partir de ces faisceaux », ajoute-t-il. Ce futur robot pourra non seulement évoluer dans l’opacité complète mais également détecter la présence de substances dangereuses et toxiques grâce à ses nouveaux capteurs ultra-sensibles. Cette machine s'appuiera sur la collecte de diverses informations qui, une fois fusionnées, permettront de reconstruire une représentation de l'environnement malgré l'absence de visibilité. Le terrible incendie qui a partiellement détruit la cathédrale Notre-Dame de Paris les 14 et 15 avril derniers à également révélé, au-delà de l’immense et légitime émotion nationale et planétaire qu’a suscitée cette catastrophe, la vulnérabilité de notre immense et inestimable patrimoine monumental face à des tels événements, mais également face à l’inévitable dégradation provoquée par le temps. Si nous observons l’évolution totale des crédits de paiement effectivement consacrés à l’entretien et la restauration du patrimoine monumental depuis 2011, nous devons constater que ceux-ci n’ont cessé de diminuer en euros constants, pour atteindre aujourd’hui 333 millions d’euros par an. Ce montant, comme le reconnaissent tous les spécialistes, ne permet plus de restaurer, ni même d’entretenir correctement et de sécuriser l’ensemble de nos monuments, y compris certains parmi les plus prestigieux. A cet égard, il faut rappeler que, depuis un demi-siècle, plusieurs édifices historiques remarquables ont été totalement ou partiellement détruits par des incendies, faute de mises aux normes des systèmes électriques et de présence de systèmes d’alarme et de protection modernes. Ce fut notamment le cas de la Cathédrale de Nantes, en 1972, du Parlement de Bretagne de Rennes, en 1994, du Château de Lunéville en 2003, de l’Hôtel de Lambert en 2013, ou encore de la Basilique St-Donatien de Nantes, en 2015. A ces catastrophes s’ajoutent plusieurs débuts d’incendies, qui ont pu heureusement être maitrisés à temps, mais auraient très bien pu détruire complètement les bâtiments concernés. C’est le cas de l’Hôtel Matignon, en 2001 et de la Bibliothèque Richelieu, en 2013, qui ont é ;chappé de peu aux ravages du feu. Face à cette situation très préoccupante, il est donc urgent que l’Etat, les collectivités locales et les propriétaires privés concernés puissent trouver ensemble de nouvelles ressources et de nouveaux modes de financement qui permettent de maintenir l’entretien, la restauration et la sécurisation de nos monuments à un niveau qui empêche leur dégradation – et parfois leur destruction – irréversibles. Il convient également, pour améliorer le rapport coût-efficacité des crédits publics consacrés à notre patrimoine monumental, de recourir massivement aux nouveaux outils numériques et robotiques, comme la numérisation en 3D, les micro-capteurs communicants, ou encore les microdrones et les robots de surveillance autonomes. La combinaison et l’utilisation de ces nouveaux moyens pourraient en effet permettre de franchir un palier décisif en matière de maintenance et de surveillance de notre vaste mais fragile patrimoine historique. Il me semble par ailleurs capital d’accélérer l’indispensable travail de numérisation 3D en haute définition de l’ensemble des édifices classés à l’inventaire des monuments historiques. Cette numérisation, dont le prix moyen s’effondre, permet à présent de reconstruire une représentation virtuelle d’un édifice avec une précision de l’ordre du millimètre, ce qui en fait un outil irremplaçable de gestion prévisionnelle, d’entretien, de sécurisation et de valorisation de l’ensemble de nos monuments. Réaliser dans les meilleurs délais une numérisation haute définition en 3D des 14 000 édifices classés à l’inventaire des monuments historiques doit donc devenir une priorité pour l’Etat et les collectivités. Venons-en à présent à la question débattue de la reconstruction de cet édifice hautement symbolique. Pour que cette reconstruction puisse avoir lieu, quel que soit le choix des techniques et matériaux qui sera fait, il faudra s’appuyer, tous les spécialistes en conviennent, sur les différentes modélisations numériques en 3D dont nous disposons pour cette cathédrale. Heureusement, Notre Dame de Paris a fait l’objet, en 2011 et 2012, sous la houlette du regretté Andrew Tallon, professeur américain d’art médiéval, d’une numérisation de haute précision par la technique du « nuage de points », à l’aide un scanner laser de Leica Geosystems qui a mesuré très précisément l’intérieur et l’extérieur de la cathédrale. C’est au final plus d’un mi lliard de points, représentant un téraoctet d’informations qui ont été relevés, permettant de reconstruire en images de synthèse la cathédrale dans ses moindres détails, y compris ses infimes défauts, avec une précision de l’ordre de cinq millimètres. Mais si pour Notre-Dame de Paris nous pouvons nous appuyer, pour guider la reconstruction, sur un modèle virtuel de très haute qualité, nous voyons déjà poindre un débat qui va sans doute s’amplifier dans les semaines et les mois à venir : quelle cathédrale au juste faut-il reconstruire et avec quels matériaux et quelles techniques ? Même si nous avons tendance à l’oublier, nous devons nous rappeler de deux faits essentiels : en premier lieu, les ouvriers, compagnons, maîtres d’œuvre et bâtisseurs qui ont conçu et construit dans toute l’Europe ces splendides cathédrales à partir du XIe siècle, étaient tout sauf des conservateurs accrochés à une tradition immuable. Pendant quatre siècles, ils n’ont cessé, parfois au prix de résultats catastrophiques, comme l’effondrement du cœur de la cathédrale de Beauvais, d’expérimenter, d’inventer et d’innover pour reculer toujours plus loin les limites de l’architecture gothique et réaliser des bâtiments toujours plus audacieux et élégants. En second lieu, Notre-Dame de Paris, si elle peut paraître figée à l’échelle d’une vie humaine, n’a cessé de connaître des évolutions et transformations architecturales depuis sa construction, jusqu’au profond remaniement dirigé par Viollet-le-Duc au milieu du XIXe siècle. Si l’on prend en compte cette réalité historique et artistique, songer à utiliser de manière ingénieuse et judicieuse les matériaux et les techniques les plus modernes de construction dont nous disposons actuellement ne serait donc en aucun cas une trahison à l’égard de ces illustres bâtisseurs du passé. Il faut d’ailleurs rappeler que, pour deux des principales reconstructions de cathédrales, à savoir celle de Reims (de 1918 à 1937), et celle de Nantes (de 1972 à 2013), les ingénieurs ont choisi des solutions recourant à des bétons techniques de haute performance pour reconstruire les immenses charpentes de ces édifices religieux. Ce choix n’a pas seulement été dicté par des impératifs de maîtrise de coûts mais également par des contraintes liées aux délais de restauration et des avantages comparatifs en matière de résistance au feu et de longévité. S’agissant de la reconstruction de Notre-Dame de Paris, les enjeux architecturaux, financiers, artistiques et symboliques sont tels qu’il ne faut, je crois, écarter a priori aucun scénario et prendre le temps, en s’appuyant sur les meilleurs spécialistes mondiaux, d’examiner et de comparer l’ensemble des solutions techniques, y compris bien entendu l’hypothèse d’une charpente en bois, permettant de reconstruire cette cathédrale unique en en préservant l’esprit et la dimension spirituelle. La décision annoncée par le Premier Ministre d’organiser un grand concours international d’architecture pour désigner l’architecte qui sera chargé de concevoir la nouvelle flèche devant remplacer celle voulue par Viollet-le-Duc, qui s’est effondrée le 14 avril dernier, me semble judicieuse car elle vise à inscrire cette cathédrale immortelle dans son siècle. Quant à la question de savoir combien de temps sera nécessaire au total pour consolider, reconstruire et moderniser complètement Notre-Dame de Paris, je crois que personne n’est aujourd’hui en mesure de répondre, tant les différents chantiers qui s’annoncent sont complexes et techniques. On peut tout à fait comprendre que le Président de la République ait souhaité, au lendemain de cette catastrophe, rassurer nos concitoyens et faire preuve d’un volontarisme politique sans faille en promettant que cette reconstruction pourrait se faire d’ici cinq ans. Mais, quels que soient les moyens humains financiers et techniques qui pourront être mobilisés pour ce chantier hors normes, je crois que nous devons avoir l’humilité de reconnaître que ce projet sera celui d’une génération et qu’il faudra sans doute plusieurs décennies pour qu’émerge enfin une nouvelle cathédrale Notre-Dame de Paris, non seulement rebâtie mais véritablement recréée et prête à affronter avec sérénité les siècles qui viennent. Rappelons-nous que le temps des cathédrales n’est pas celui des hommes et que ces grands vaisseaux de pierres ont été conçus pour naviguer dans l’éternité. Lorsqu’en 2063, notre pays célébrera les 900 ans qui nous séparent de la pose de la première pierre de cette cathédrale à nulle autre pareille par l’évêque de Paris Maurice de Sully, faisons-en sorte que le monde soit émerveillé en contemplant la renaissance et, osons le mot, la résurrection de cet édifice qui appartient, au-delà de sa dimension sacrée, à l’Humanité tout entière et incarne ce qu’il y a de plus haut, de plus vrai et de plus grand chez l’Homme. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Anthropologie et Sciences de l'Homme | |
| | | La parole humaine utilise une palette incroyablement riche, avec près de 900 sons différents. Certaines langues n’utilisent qu’une dizaine de ces sons, d’autres plus d’une centaine. En 1985, le linguiste Charles Hockett avait remarqué que les langues utilisant les consonnes labiodentales (produites avec la lèvre inférieure contre les dents supérieures), telles [f] et [v], sont souvent parlées dans des sociétés ayant accès à des aliments mous. Une équipe de chercheurs basés en Suisse, à Singapour, aux Pays-Bas et en France, plutôt sceptique, a souhaité examiner cette hypothèse avec les outils du 21e siècle. En utilisant des bases de données sur l’utilisation des labiodentales et le type de production alimentaire, ils ont d’abord pu vérifier que cette corrélation existe bel et bien, et qu’elle est statistiquement significative. Chez des populations qui vivaient encore récemment comme des chasseurs-cueilleurs, par exemple, au Groenland, en Afrique du Sud et en Australie, les sons [v] et [f] sont quasi-inexistants (à l’exception d’imports assez récents d’autres langues comme le danois, l’afrikaans ou l’anglais). Ils ont ensuite développé un modèle biomécanique afin de calculer la force musculaire nécessaire pour produire ces consonnes, chez des Homo sapiens du Paléolithique ou d’aujourd’hui. Jusqu’au début du Néolithique et la naissance de l’agriculture, le régime alimentaire de nos ancêtres chasseurs-cueilleurs nécessitait une forte mastication qui provoquait une érosion dentaire et une modification de la denture de sorte que leurs incisives se touchaient parfaitement bord-à-bord. Avec le développement de l’agriculture et de technologies comme la meule, les humains modernes ont conservé à l’âge adulte une occlusion dentaire de type juvénile, où les incisives supérieures sont décalées vers l’extérieur de la bouche, la mâchoire inférieure étant légèrement en retrait. Dans ces conditions, les consonnes labiodentales sont prononcées plus facilement, nécessitant une moindre force musculaire. Enfin, en reconstruisant l’histoire et la diffusion de ces sons dans la généalogie des langues indo-européennes, les chercheurs suggèrent qu’en Europe, l’utilisation de labiodentales n’a augmenté de manière spectaculaire qu’au cours des deux ou trois derniers millénaires, en lien avec l’essor des technologies de préparation des aliments. Cette étude révèle donc que le langage peut être façonné par des changements biologiques induits culturellement. Elle ouvre la voie à d’autres recherches qui permettront aux linguistes de reconstituer les sons des langues parlées il y a des milliers d'années. Si César a probablement prononcé « veni, vidi, vici » plutôt que « oueni, ouidi, ouici », la prononciation d'autres langues plus anciennes et moins documentées est bien plus incertaine ! Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Dans les cellules vivantes, les gènes sont activés en mode «on» ou «off» grâce à des protéines appelées facteur de transcription. La façon dont ces protéines activent certains gènes et en désactivent d’autres est un phénomène crucial, qui joue un rôle central dans tous les domaines liés au vivant. Ce processus est cependant très complexe, et la communauté scientifique planche sur le sujet depuis des années. Traditionnellement, l’étude de ces phénomènes se fait en introduisant des séquences d’ADN spécifiques à l’intérieur des cellules, puis en observant la réaction de ces dernières. Mais ce processus reste très compliqué et peut varier d’une expérience à l’autre. A l’EPFL, des chercheurs du Laboratory of Biological Network Characterization (LBNC), dirigés par Sebastian Maerkl, ont trouvé une méthode novatrice, systématique et reproductible, pour étudier et même prédire l’expression des gènes. Ils insèrent des systèmes sans cellules dans des puces microfluidiques à haut débit. Leur méthode leur a permis de construire des portes logiques biologiques, qui ont le potentiel de modifier les fonctions cellulaires. La méthode est la suivante : « Dans un premier temps, il s’agit d’extraire le matériel qui se trouve à l’intérieur des cellules », explique Nadanai Laohakunakorn, l’un des auteurs de l’étude. Ce matériel est constitué d’enzymes et d’éléments chimiques, que les cellules utilisent habituellement pour leurs procédés biologiques normaux. « Ce qui est intéressant ici, c’est qu’en ajoutant à ce système du carburant et des informations, c’est-à-dire des phosphates à haute énergie, et de l’ADN, nous pouvons redémarrer l’expression des gènes en dehors de la cellule », ajoute-t-il. « Et comme notre système imite ce qui se produit dans les cellules, nous pouvons étudier de nombreux phénomènes biologiques, sans avoir à mod ifier des cellules vivantes à chaque fois. » Pour une étude quantitative de l’expression des gènes, les chercheurs ont placé de nombreux systèmes sans cellule dans une puce microfluidique, soit un dispositif qui permet de manipuler des quantités microscopiques de liquide. « Ce système nous as permis de tester de nombreux scénarios. Nous avons établi une bibliothèque quantitative de facteurs de transcriptions artificiels, qui nous permet de prédire l’influence qu’a une protéine donnée sur un gène », illustre Zoe Swank, autre coauteure de l’étude. « Nous pourrions construire des systèmes relativement complexes grâce à cette méthode. » Les avantages sont nombreux. D’abord, les systèmes sans cellule sont bien moins complexes que les cellules, mais ils imitent tout de même leur fonctionnement. Ainsi, les mécanismes peuvent être modélisés plus facilement au niveau mathématique. Cela offre aussi le potentiel de mieux comprendre les phénomènes complexes, en les décomposant en des procédés plus simples. Ensuite, les systèmes sans-cellule sont robustes et ils demeurent stables après congélation, et même lyophilisation. On peut les produire à large échelle, puis les déployer pour des applications allant des diagnostics à moindre coût, à la production de médicaments biologiques (vaccins, etc.) pour de la médecine personnalisée. Enfin, comme ces systèmes ne sont pas "vivants", on peut les utiliser pour produire des produits impossibles &agra ve; produire avec des cellules vivantes, sans risque de bio-contamination dehors du laboratoire. A titre d’exemple, les chercheurs ont assemblé un certain nombre de gènes à partir de leur bibliothèque et sont parvenus à construire une porte logique biologique. Le système s’apparente aux portes logiques que l’on retrouve en électronique. En électronique, ces portes reçoivent des signaux, effectuent un calcul et en sortent un output binaire, soit 1 ou de 0. Ici, dans le domaine biologique, les systèmes sans cellules reçoivent des facteurs de transcriptions, puis démontrent une activation ou non de certains gènes. « De nombreuses portes logiques existent naturellement à l’intérieur des cellules vivantes. Elles régulent les fonctions biologiques normales », indique Nadanai Laohakunakorn. "En construisant des portes artificielles, cela offre la possibilité d’introduire de nouvelles fonctions dans les cellules, dans des buts thérapeutiques, par exemple. Le système sans-cellule constitue un premier pas dans cette direction. Dans les recherches futures, il s’agira d’optimiser les design de nos facteurs de transcription, avant de les déployer directement dans des applications sans cellules, ou alors directement dans des cellules vivantes". Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| La vision décline avec l’âge, mais comment expliquer ce déclin ? Plusieurs facteurs sont en général évoqués et confirmés par l’expérience. D’une part, une altération des qualités optiques de l’œil, avec par exemple l’opacification du cristallin (cataracte) ou une moindre ouverture de la pupille, diminue la quantité de lumière arrivant sur la rétine. D’autre part, l'efficacité du processus neural qui transforme cette lumière en perception, c’est-à-dire en image formée dans le cerveau, diminue au cours du vieillissement. "Nous nous sommes intéressés à l’étape intermédiaire : la capacité d’absorption des photons par les cellules photoréceptrices de la rétine, des cellules nommées cônes. Ce niveau a rarement été exploré", explique Rémy Allard. En d'autres termes, les chercheurs ont voulu savoir quelle est la proportion de photons arrivant physiquement sur ces cellules qui est convertie en signal nerveux. Pour cela, l’équipe a demandé à deux groupes de vingt sujets, les uns jeunes (26,5 ans en moyenne), les autres âgés (75,9 ans en moyenne) mais possédant toujours une bonne acuité visuelle, de passer des tests de perception des contrastes lumineux. Il s’agissait de discerner une forme simple, en l’occurrence une série de barres horizontales ou verticales, sur un fond uni ou brouillé par des taches parasites. Les épreuves étaient conçues de manière à pouvoir séparer l’impact respectif des quatre étapes du traitement de la lumière : d’abord l’efficacité optique de l’œil, puis l’absorption des photons par les cônes, ensuite le "bruit" – ou signal parasite – émis par les neurones du nerf optique, et enfin le traitement par le cerveau. Sans surprise, les sujets âgés se sont montrés moins sensibles aux contrastes que les jeunes, dans toutes les conditions d’éclairement et quelles que soient les caractéristiques du motif à reconnaître (nombre et espacement des barres). Les chercheurs retrouvent aussi des différences connues, comme par exemple un bruit neural un peu plus important chez les volontaires âgés. "Ce n’est pas une nouveauté : on sait que les neurones o nt une activité spontanée supérieure avec l’âge", rappelle Rémy Allard. Les performances optiques de l’œil n’ont en revanche pas eu d’incidence significative, ce qui n’est guère étonnant puisque les sujets étaient sélectionnés pour leur bonne acuité visuelle. La surprise vient de l’étape intermédiaire : c’est au niveau de la rétine que se situe le problème principal ! Les cônes des sujets âgés absorbent en effet quatre fois moins de photons que ceux des plus jeunes, à éclairement égal et sans que les qualités optiques de l’œil soient en cause. Comment expliquer cette moindre efficacité ? "La question de la perte de cônes avec l’âge reste débattue, mais nulle part il n’est décrit une perte suffisamment importante pour expliquer une telle baisse de l’absorption des photons. Nous pensons donc qu’ils deviennent moins efficaces avec l’âge", soutient Rémy Allard. Différents facteurs peuvent entrer en lice pour expliquer cette perte d’efficacité. L’équipe parisienne avance toutefois une hypothèse : "Les cônes pourraient être moins bien alignés du fait de la perte des bâtonnets, ces cellules plus grosses qui les soutiennent". Les chercheurs testent actuellement cette hypothèse, en collaboration avec Michel Paques du Centre hospitalier national ophtalmologique des Quinze-Vingts. "Nous avons trouvé quelque chose d’intéressant. Il faudra toutefois trouver la cause de cette perte d’absorption avant de penser à des voies thérapeutiques" prévient Rémy Allard. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Selon une étude internationale associant 18 états et publiée dans le "Lancet", il serait envisageable d'éradiquer la tuberculose d'ici à 25 ans avec une stratégie bien ciblée et des financements suffisants. Cette étude montre qu'en Inde, où ont lieu environ les trois quarts des décès par tuberculose, 290 millions de dollars supplémentaires par an pour subventionner les tests de dépistage et aider les patients à terminer leur traitement permettraient de réduire de 28 % le nombre de morts. Ce montant est bien inférieur aux 32 milliards de dollars que coûte chaque année à ce pays la mortalité par tuberculose. Le rapport estime en outre qu’il faudrait multiplier par quatre les investissements dans la recherche, qui n'étaient que de 726 millions de dollars en 2016, soit dix fois moins que l'argent consacré à la recherche contre le sida. Les auteurs estiment en outre essentiel de rendre plus largement disponibles les traitements préventifs dans les pays où la prévalence de la tuberculose est importante. Les auteurs rappellent que « 35 % des patients atteints de tuberculose » parmi les plus pauvres « ne sont ni diagnostiqués, ni traités, et ne se sont pas signalés auprès des programmes régionaux de lutte contre la tuberculose ». Autre point de blocage : les stratégies d’identification des personnes à risque (séropositif pour le VIH, migrants, détenus…) ne sont appliquées que de « façon fragmentée ». Le 20 mars dernier, l’Organisation mondiale de la santé a publié de nouvelles recommandations visant à traiter les cas de tuberculose multirésistante. L’OMS recommande désormais la prescription de traitements oraux, moins générateurs d’effets secondaires que les antibiothérapies injectables inscrites dans les précédentes recommandations. L’OMS recommande aussi un suivi actif de l’efficacité des traitements. Ces recommandations ont été publiées en amont de la Journée mondiale de la tuberculose, le 24 mars. Depuis 2000, 54 millions de vies ont été sauvées, alors que la mortalité liée à la tuberculose a diminué d’un tiers. On dénombre toujours 10 millions de nouveaux cas chaque année. La tuberculose se soigne normalement en six mois avec quatre antibiotiques. Mais de plus en plus de souches y sont résistantes et nécessitent jusqu'à deux ans de traitement – avec tous les effets secondaires, parfois graves, liés à ces médicaments. En 2017, 1,6 million de personnes sont décédées à la suite d’une tuberculose, dont 300 000 personnes coïnfectées par le VIH. Article rédigé par Georges Simmonds pour RT Flash The Lancet | | | |
| Des chercheurs de l’Inra, du Cirad et du CNRS ont montré que les différents segments constitutifs du génome d’un virus dit multipartite peuvent exister dans des cellules distinctes de l’organisme cible et travailler ensemble pour provoquer une infection. Ce résultat inédit va à l’encontre du paradigme fondateur en virologie, qui considère que le génome entier d’un virus pénètre et se réplique à l’intérieur d’une même cellule, puis passe à une autre cellule où il se réplique à nouveau, et ainsi de suite pour développer l’infection. Ce mode de vie pluricellulaire viral, montré pour la première fois, pourrait exister pour d’autres systèmes viraux. Les virus multipartites sont des systèmes mal connus, alors qu’ils constituent près de 40 % des genres et familles virales chez les plantes. Les chercheurs de l’Inra, du Cirad et du Cnrs ont étudié le « Faba Bean Necrotic Stunt virus » (FBNSV), un virus multipartite de plante provoquant de graves maladies sur les légumineuses. Son génome est constitué de 8 segments différents, chacun encapsulé dans une particule virale distincte. Les chercheurs ont étudié le mécanisme d’infection par ce virus en détectant la présence des différents segments viraux dans les cellules de la plante, en utilisant la microscopie en fluorescence. Ils ont ainsi montré que les différents segments du virus peuvent exister da ns des cellules distinctes mais travaillent ensemble pour causer l’infection. Les scientifiques ont toujours considéré que les segments du génome viral devaient systématiquement se retrouver dans la même cellule, ces résultats originaux prouvent le contraire. Les premiers résultats suggèrent que le virus peut fonctionner alors que ses différents segments apparaissent dans des cellules distinctes. Pour préciser ces observations, les chercheurs ont quantifié la fluorescence des segments marqués. Ils ont ainsi pu mesurer la quantité de chacun des segments dans les différentes cellules et montrer qu’ils s’y accumulent de façon totalement indépendante, quel que soit le stade de l’infection. Pour mettre en évidence que la fonction d’un gène viral peut être effective dans une cellule où le gène en question est absent, les chercheurs ont étudié en particulier la fonction de réplication portée par le segment R. Dans les cellules où un autre segment (le segment S) est répliqué, donc dans les cellules où la fonction de réplication est présente, le segment R ainsi que la protéine de réplication (M-Rep) pour laquelle il code ont été recherchés. Les scientifiques ont démontré que, bien que le segment R soit détectable dans une minorité de ces cellules (environ 40 %), la protéine M-Rep y est retrouvée dans 85 % des cas. Ceci suggère que la protéine M-Rep est présente dans des cellules où le segment R est absent et que la protéine M-Rep ou son ARN messager sont capables de se déplacer de cellules à cellules, après leur production. Les chercheurs prouvent ainsi que les gènes viraux sont dispersés dans des cellules différentes mais « communiquent » et se complémentent au niveau intercellulaire pour assurer la fonctionnalité du système viral. Ce mode de vie très particulier, démontré pour la première fois en virologie, ouvre de grandes perspectives de recherches dans ce domaine. Il est probable que les systèmes viraux multicomposants soient plus répandus. Désormais, pour nombre d’entre eux, un mode de vie pluricellulaire pourra maintenant être testé. Article rédigé par Georges Simmonds pour RT Flash INRA | | | |
| Le chlorantraniliprole a fait l’objet d’une autorisation dans l’union Européenne en 2014, en tant que premier représentant d’une nouvelle classe d’insecticides : les diamides. Les effets de cette substance active sur l’abeille domestique ont été étudiés par les chercheurs du laboratoire Abeilles et Environnement de l’Inra. Les résultats de ces travaux montrent des déficits locomoteurs durables chez ce pollinisateur même après une exposition unique à une dose sublétale de chlorantraniliprole. Cette classe d’insecticides suscite également des questionnements en santé humaine, chez les sujets atteints de certaines maladies neuromusculaires d’origine génétique. En l’absence de méthodes officielles suffisamment pertinentes pour effectuer une caractérisation poussée des effets sublétaux du chlorantraniliprole, l’Autorité européenne de sécurité des aliments (EFSA) a préconisé de veiller à ses impacts éventuels sur les abeilles. Les chercheurs de l’unité Abeilles et Environnement de l’Inra viennent de démontrer l’existence d’effets persistants de cet insecticide sur l’abeille domestique après une exposition unique à une dose qui ne cause pas la mort. En laboratoire, des déficits locomoteurs surviennent rapidement après exposition au chlorantraniliprole et malgré une apparente rémission, une rechute est observée une semaine plus tard. Les chercheurs montrent que le chlorantraniliprole agit sur les canaux de libération du calcium (aussi appelés RyR, pour ‘Récepteurs à la Ryanodine’) chez l’abeille, tout comme chez les espèces d’insectes contre lesquelles il est utilisé. Son mode d’action est complexe, puisqu’il conduit également au blocage des canaux calciques activés par le voltage (CaV) du cerveau et des muscles. Les RyR orchestrent la mobilisation du calcium dans les neurones, les cellules musculaires et cardiaques, où ils permettent la contraction musculaire et la plasticité neuronale. Ils sont omniprésents dans l’organisme, par exemple dans les yeux, les antennes ou les cellules sanguines. Les chercheurs montrent que la toxicité de cet insecticide dépend de la voie d’exposition : l’abdomen et les antennes constituant des zones du corps bien plus sensibles que le thorax. Un couplage des approches cellulaires in vitro et des approches comportementales est à même de mieux anticiper les effets sublétaux non détectés chez les abeilles par les méthodes classiques de la toxicologie actuelle. L’OCDE et l’EFSA envisagent d’ailleurs de se doter rapidement de tests utilisant ces approches. Compte-tenu des interdictions récentes des néonicotinoïdes en Europe, les diamides pourraient mécaniquement faire l’objet d’une augmentation de préconisation au champ, notamment dans les cultures de légumes et d’arbres fruitiers. Les récents travaux portant sur les abeilles suggèrent qu’une phytopharmacovigilance accrue à proximité des cultures pourrait être nécessaire. En s’appuyant sur les réseaux d’apiculteurs, il serait possible d’identifier précocement les effets délétères éventuels sur les colonies. L’attention portée à cette classe d’insecticides n’est cependant pas limitée à la santé des pollinisateurs. Les recherches menées par l’Inra et l’Institut Hongrois de Physiologie à Debrecen soulèvent en effet la question de l’innocuité de ces molécules chez les sujets humains atteints de maladies neuromusculaires d’origine génétique. Article rédigé par Georges Simmonds pour RT Flash INRA | | | |
| Les astrocytes pourront-ils un jour venir au secours des neurones atteints de dégénérescence ? C’est ce qu’espère cette équipe de l’Université de Barcelone qui envisage, dans le Journal of Neuroscience, une toute nouvelle stratégie thérapeutique pour traiter la maladie d'Alzheimer : les astrocytes. Capables de produire du BDNF, un facteur neurotrophique, et disposant des mécanismes moléculaires nécessaires pour le libérer dans les zones du cerveau malades, ils pourraient venir à la rescousse des neurones menacés par la maladie. La maladie d'Alzheimer est la forme de démence la plus répandue. La neurodégénérescence chez les patients atteints provoque des déficits de la mémoire et d'autres fonctions cognitives, avec différents symptômes, dont des sautes d'humeur et des changements de personnalité. L'une des thérapies les plus prometteuses contre la maladie d'Alzheimer est l'utilisation de facteurs neurotrophiques, une famille de protéines favorisant la survie des neurones, tels que le facteur neurotrophique dérivé du cerveau (BDNF : Brain-Derived Neurotrophic Factor). Cependant, l’administration de BDNF est un défi en soi car il s’agit de pouvoir contrôler sa libération, le cibler spécifiquement sur le tissu malade, en libérer la bonne quantité, des doses trop élevées pouvant être neurotoxiques. Dans ces recherches, les chercheurs de Barcelone se sont concentrés sur le BDNF généré par les astrocytes, un type de cellules gliales en forme d'étoile, présent dans le cerveau et la moelle épinière. Les astrocytes sont affectés par l'un des processus de neuro-inflammation de la maladie d'Alzheimer, l'astrogliose, dans lequel la protéine acide fibrillaire gliale (Glial fibrillary acidic protein : GFAP) et son gène codant sont les plus altérés. Dans ce contexte, les chercheurs ont conçu une expérience dans laquelle des souris génétiquement modifiées modèle d'Alzheimer, produisent la protéine BDNF en fonction du taux de GFAP. Chez ces souris, lorsque la neuro-inflammation et la pathologie se développent, les astrocytes génèrent du BDNF dans les zones les plus touchées du cerveau malade. Chez ce modèle animal, ce sont donc les réactions endogènes du cerveau qui régulent l'administration de BDNF en fonction de la sévérité de la maladie et bien sûr les zones les plus touchées…L’expérience montre que cette méthode permet bien de rétablir la production et la libération de la neurotrophine dans le tissu neuronal malade au tout début de la pathologie. Ensuite, le BDNF généré par les astrocytes régule la formation de neurones dans des échantillons de cultures neuronales in vitro et entraîne des effets « pro-cognitifs » dans des modèles de souris transgéniques. Les chercheurs détournent donc le processus de neuro-inflammation et induisent les astrocytes à produire du facteur neurotrophique préservant la survie des neurones. Une stratégie qui pourrait s’appliquer à bien d'autres maladies neurodégénératives : « Notre objectif est, d'une part, de rendre cette approche thérapeutique clinique pour une utilisation chez l'homme, et d'autre part, de présenter des approches similaires pour les maladies neurodégénératives caractérisées par la neuro-inflammation ». Article rédigé par Georges Simmonds pour RT Flash JNeurosci | | | |
| S’il est bien connu que l’obésité, le diabète et l’inflammation chronique sont des facteurs de risque majeurs de cancer, on ne comprend pas bien comment le cancer évolue chez les personnes atteintes de ces conditions et comment, au contraire, une alimentation saine et des exercices réguliers peuvent contribuer à prévenir le cancer. Cette recherche du National Cancer Institute, publiée dans la revue Evolution, Medicine and Public Health, défend une théorie fascinante : en fournissant une surabondance d'énergie aux cellules, ces maladies accélèrent leur croissance en excès et les rendent cancéreuses. La recherche sur le développement du cancer se concentre sur les mutations qui surviennent dans les cellules non reproductives (non transmises des parents à leur progéniture). Des études récentes ont suggéré que ces mutations sont étonnamment communes dans les cellules normales, pas seulement dans les cancers. Dans ce cas, les mutations cancérigènes ne suffisent pas, à elles seules, à expliquer l'origine du cancer, explique l'auteur principal, John Pepper, biologiste à la Division de la prévention du cancer et des maladies externes du National Cancer Institute. Selon ce scientifique, les tissus sains ont un système de régulation qui tient la prolifération cellulaire sous contrôle. Mais une surcharge énergétique, courante dans le diabète, l'obésité et l'inflammation, pourrait « submerger » ces glissières de sécurité. L’équipe, en se basant sur des travaux antérieurs ayant déjà mis à l’index cette surabondance d'énergie, a développé un modèle informatique de l'évolution cellulaire, pour pouvoir simuler ce qui se passe lorsqu'un tissu est submergé d'énergie. Les scientifiques constatent alors qu'une telle surcharge induit effectivement un boom de la production cellulaire. L'étude suggère ainsi une nouvelle explication du développement du cancer, en particulier chez les personnes obèses et atteintes de comorbidités de l’obésité. Cette théorie permet aussi d’expliquer pourquoi suivre un régime alimentaire sain et faire de l’exercice régulièrement peut réduire ce risque. Article rédigé par Georges Simmonds pour RT Flash Oxford Academy | | | |
| Les résultats de la vaste étude SPRINT-MIND pour Systolic Blood Pressure Intervention Trial (SPRINT) Memory and Cognition in Decreased Hypertension (MIND) confirment que lutter contre l’hypertension artérielle permet non seulement de réduire le risque de maladies cardio-vasculaires, mais aussi le risque de troubles neurocognitifs légers, et peut-être celui de démence. Cet essai clinique a inclus plus de 9 000 participants adultes, âgés de 50 ans et plus et souffrant d’hypertension, mais sans diabète ni antécédent d’AVC, dans 102 sites aux États-Unis et à Porto-Rico. La moyenne d’âge des participants était de 67,9 ans et le panel comptait 35,6 % de femmes. Les patients ont été randomisés, soit vers une prise en charge avec un objectif de tension artérielle inférieur à 120 mmHg, soit inférieur à 140 mmHg. Ils ont été traités ainsi pendant une durée moyenne de 3,34 ans. Au terme de ce délai, l’essai a été interrompu pour le bénéfice cardiovasculaire supérieur observé dans le groupe « intensif ». Les patients ont toutefois été suivis pendant une durée médiane de 5,11 ans. Durant cette période totale, 149 patients ont déclaré une démence dans le groupe au traitement intensif contre 176 dans le groupe standard (7,2 vs 8,6 cas pour 1 000 personnes-années ; HR = 0.83 ; IC 95% de 0,67 à 1,04). Le risque d’apparition de démence n’est donc pas significativement différent dans les deux groupes, alors que le risque de trouble cognitif mineur a, lui, été diminué significativement : 287 participants ont présenté un tel déficit dans le groupe « intensif » contre 353 participants dans le groupe standard. La réduction des deux risques combinés est également significative : 20,2 vs 24,1 cas pour 1 000 personnes-années. Les auteurs attribuent ces résultats mitigés notamment à l’interruption précoce de d’étude, ce que confirme le Professeur Hanon : "la littérature scientifique montre que l’hypertension artérielle multiplie par deux ou trois le risque de troubles neurocognitifs majeurs à 10 - 20 ans. Il est par conséquent difficile de mener des essais thérapeutiques sur de telles durées. On voit bien dans l’étude SPRINT-MIND que les courbes commencent à s’écarter sur la fin de la période de suivi, un suivi plus long aurait probablement démontré un bénéfice significatif aussi sur les démences". Les chercheurs se félicitent néanmoins que cette première étude mette en évidence les bénéfices d’une réduction importante de la pression artérielle systolique sur le risque de déficit cognitif léger, facteur de risque connu de démence. Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| Des bioingénieurs de l'Université Cornell (New York) ont identifié le responsable de la diminution du flux sanguin dans le cerveau des patients atteints de la maladie d'Alzheimer, ce qui ouvre une nouvelle voie thérapeutique prometteuse : rétablir un flux sanguin normal dans le cerveau. Ces travaux apportent l’espoir qu’une circulation sanguine améliorée dans le cerveau pourrait restaurer immédiatement au moins partiellement les performances cognitives du patient. Chacun aura la tête qui tourne en se levant trop brusquement après être resté allongé. Cette sensation est causée par une réduction soudaine du flux sanguin vers le cerveau, qui correspond à une réduction d'environ 30 %. Les personnes atteintes de la maladie d’Alzheimer vivent en permanence avec ce flux sanguin réduit au cerveau, explique l’auteur principal, le Docteur Chris Schaffer, professeur agrégé de génie biomédical à la Cornell University. Et l'existence d'une telle réduction du débit sanguin cérébral chez les patients atteints de la maladie d'Alzheimer est connue depuis des décennies. « Les patients s'adaptent probablement à la diminution du flux sanguin, de sorte qu'ils ne se sentent pas étourdis tout le temps, mais il est clairement établi que cela a un impact sur leur fonction cognitive ». Ce sont des globules blancs collés à l'intérieur des capillaires, les plus petits vaisseaux sanguins du cerveau, qui provoquent cette diminution dramatique du flux sanguin. Et si un faible pourcentage de capillaires est touché par ce blocage, cela suffit à entraîner une diminution du débit sanguin dans plusieurs vaisseaux en aval, et à amplifier l'impact sur le débit sanguin cérébral global. Ces travaux, qui constituent l'aboutissement de 10 années de recherche, suggèrent aussi que les déficits de débit sanguin cérébral sont l’un des premiers symptômes décelables de la démence. En identifiant le mécanisme cellulaire qui provoque cette réduction du flux sanguin cérébral sur des modèles de maladie d'Alzheimer, à savoir les neutrophiles qui collent dans les capillaires, l’équipe apporte aussi l’espoir qu’une circulation sanguine améliorée dans le cerveau pourrait restaurer immédiatement au moins partiellement les performances cognitives du patient. « Maintenant que nous connaissons le mécanisme cellulaire, il s’agit d’identifier le médicament ou l'approche thérapeutique pour le traiter ». L’équipe a identifié environ 20 médicaments, dont beaucoup ont déjà été approuvés par l’Agence américaine FDA pour une utilisation humaine, et qui pourraient donc être précieux dans le traitement de la démence. Ces candidats sont actuellement testés chez la souris modèle d’Alzheimer. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Selon une nouvelle étude menée par des scientifiques de la clinique de Mayo (Etats-Unis), publiée dans la revue médicale Gastroenterology le 8 janvier 2019, un gène permettrait de diagnostiquer de façon précoce le développement d’un cancer du pancréas chez les patients atteints de diabète de type 2. Ce gène, UCP-1 est une protéine qui provoque un brunissement de la graisse, bien connu dans le diagnostic d'autres cancers. Les auteurs de l’étude ont pu conclure que "les changements métaboliques chez les patients avaient commencé 36 mois avant le diagnostic du cancer, parallèlement à une augmentation de la glycémie". De plus, les résultats ont permis également d’identifier trois phases de changements métaboliques avant le diagnostic de cancer du pancréas. Chaque phase étant caractérisée par l'apparition d'un nouveau changement. Durant cinq années, les chercheurs ont analysé les données de patients atteints d’un cancer du pancréas avant son diagnostic. L’étude s’est portée sur l'évolution de la glycémie à jeun, du poids et des lipides sanguins. Ces examens ont alors permis d’étudier les changements métaboliques des patients qui permettent de comprendre les symptômes pré-diagnostic du cancer. Au bout de 18 mois avant le diagnostic, les scientifiques ont pu s’apercevoir que les patients subissaient une perte de poids et une diminution des lipides sanguins, notamment des triglycérides, du cholestérol. D’après les auteurs de l’étude, ces symptômes seraient liés à "l’apparition de graisse sous-cutanée de couleur brune au lieu d’être de couleur blanche, un phénomène observé dans d’autres cancers". "La graisse blanche peut virer au brun en activant certains gènes, notamment UCP-1. Nous avons émis l’hypothèse que le cancer du pancréas provoque un brunissement de la graisse sous-cutanée et avons confirmé notre hypothèse dans des études animales, expérimentales et humaines", expliquent les chercheurs. Le cancer du pancréas est une maladie qui touche autant d'hommes que de femmes ; la grande majorité des personnes diagnostiquées a plus de 50 ans. L’Institut national du cancer estime à environ 9 000 le nombre de nouveaux cas de cancer du pancréas en France. Il existe trois facteurs de risque majeurs identifiés à ce jour de développer un cancer du pancréas : la consommation de tabac, le surpoids et l’hérédité. Article rédigé par Georges Simmonds pour RT Flash Gastroenterology | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Dans les zones de failles qui dominent la déformation de la croute terrestre, les fluides sont omniprésents. Ceux-ci jouent en fait un rôle très important dans la propagation des tremblements de terre. Une récente étude dirigée par Chiara Cornelio (Laboratoire expérimental de mécanique des roches (LEMR) de l’EPFL, démontre que le degré de viscosité de ces fluides à une influence directe sur l’intensité d’un séisme. Suite à de nombreux tests et simulations menés en laboratoire, la jeune chercheuse a établi un modèle physique permettant, sur la base du taux de viscosité, de calculer avec une grande précision d’autres paramètres, tels que la quantité d’énergie nécessaire pour la propagation du tremblement de terre, et donc son intensité. Cette étude a été menée dans le cadre de recherches en géothermie. Comme toutes les activités humaines menées dans le sous-sol, les projets de ce type peuvent être à l’origine de séismes. On les appelle alors induits, par opposition aux séismes naturels. "Les activités de prospection souterraine, qu’il s’agisse de géothermie, d’injection d’eau résiduelle ou d’extraction de ressources naturelles sont pratiquées par stimulation hydraulique, c’est-à-dire l’injection de fluides sous pression dans les fractures rocheuses", raconte Chiara Cornelio. "Ce que révèle ce type d’étude, c’est que pour éviter ou modérer les séismes induits, il est crucial de mieux connaître la nature des fluides et leurs effets. Et d’inviter les industries à tenir davantage compte de ces propriétés, et non seulement des volumes et pressions du fluide injecté dans la roche". Trente-six expériences ont été réalisées sur des roches composées soit de granit soit de marbre et testant quatre degrés de viscosité, dans une variété de conditions d’efforts et vitesses de propagation du séisme. Les résultats ont clairement montré que la viscosité du fluide est en relation directe avec l’amplitude du séisme. "Pour utiliser des images parlantes, c’est un peu comme le savon qui fait mieux glisser les mains l’une contre l’autre lorsqu’on les lave ou l’huile mise sur des pièces mécaniques pour les débloquer", décrit Marie Violay, professeure et directrice du LEMR. "En plus de l’action directe des fluides visqueux sur la propagation du séisme, il faut imaginer qu’en se frottant, les deux plaques d’une faille produisent de la chaleur. Celle-ci fait fondre la roche et crée ainsi un film lubrifiant qui permet aux failles de glisser davantage. Notre étude permet aussi de mieux comprendre ce processus dans le cadre des tremblements de terre naturels". Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| | | Elle tourne ! Le Ministère de l’économie et de l’industrie des îles Canaries a indiqué le 17 mars 2019 que l’éolienne du projet Elican est entrée en service. Installé en juin 2018 sur la Plate-forme océanique des îles Canaries (Plocan) au large de l’île de Gran Canaria, le prototype est non seulement la première éolienne offshore pour l’Espagne, mais surtout la première éolienne télescopique. L’enjeu de ce mode d’installation innovant est de « se passer de gros navires d’installation rares et chers qui sont devenus un frein pour le secteur en termes de capacité et de disponibilité », indique l’entreprise Esteyco, coordinatrice du projet, qui espère une réduction des coûts de 35 % par rapport aux solutions existantes. Baptisée Elisa, l’éolienne est constituée d’une turbine de 5 MW fixée en haut d’un mât télescopique en trois parties, lui-même ancré sur une fondation en béton. Le tout est construit à terre, mis à l’eau au port et remorqué au large. Une fois en position, la fondation est remplie d’eau pour se poser sur le fond marin. Les trois parties du mât sont levées grâce à un système de câbles et de vérins. Financé aux deux tiers par un programme Horizon 2020 de la Commission européenne et coordonné par l’entreprise espagnole de génie civil Esteyco, le projet est mené par un consortium d’entreprises. Siemens Gameca Renewable Energy a fourni la turbine. Le britannique ALE Heavylift était en charge des opérations en mer et du levage du mât. L’allemand DEWI a fourni et installé les équipements de mesure et analysera les données de test et d’opération. Et Plocan met sa plate-forme à disposition. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | | |
| Des ingénieurs de l’Université du Michigan ont fabriqué le premier dispositif Bluetooth autonome qui parvient à communiquer en Bluetooth Low Energy (BLE). Ce dispositif consomme seulement 0,6 milliwatt pour une transmission. De plus, le dispositif est capable de diffuser pendant près de 11 ans, grâce à une batterie de 5,8 millimètres. Un tel émetteur BLE, malgré sa petite taille, peut communiquer avec des périphériques habituels, comme un smartphone, par le biais de ses capteurs. Il a été présenté pour la première fois à la dernière conférence de l’IEEE. Lors de cet événement, David Wentzloff, un professeur de l’Université du Michigan, a répondu aux deux problématiques concernant cet émetteur : la consommation d’énergie et la taille de l’antenne. Ce scientifique précise qu'un circuit émetteur traditionnel nécessite : un oscillateur RF pour générer la fréquence, un amplificateur de puissance, et une antenne pour émettre le signal. Mais cette équipe du Michigan a réussi à combiner l’oscillateur et l’antenne afin de rendre inutile l’amplificateur. Ils ont nommé cette innovation : un oscillateur de puissance. L’émetteur a été testé en diffusant le pack promotionnel. Cela indiquait aux récepteurs présents dans la salle que l’émetteur était en marche. Cette recherche fait partie du projet M3 de l’Université du Michigan. Wentzloff explique : « Nous avons plusieurs radios que nous utilisons dans le projet M3, BLE pourrait être une autre option dans cette plateforme modulaire. » Grâce à ce type d’innovation, nous pouvons imaginer une potentielle interaction avec le mobilier urbain et ainsi faciliter la mobilité des utilisateurs. Article rédigé par Georges Simmonds pour RT Flash IEEE | | | |
| L'entreprise Stanley Black & Decker a lancé sa nouvelle gamme de produits technologiques à coûts réduits, "Stanley Earth". Le premier produit de la gamme proposé à la vente est une pompe à eau fonctionnant à l'énergie solaire destinée aux agriculteurs et baptisée "Nadi" - ce qui signifie "rivière" en hindi. Cette pompe est équipée de capteurs qui effectuent des mesures et recueillent des données sur l'état des sols et les conditions météorologiques. Le but est d'aider les agriculteurs à déterminer quel moment sera le plus propice à l'arrosage afin d'éviter de gaspiller de l'eau. "Une pompe à eau à énergie solaire était un bon point de départ, car les pompes utilisées en Inde posent un énorme défi environnemental" affirme Ramana Gogula, vice-président de l’innovation en technologies propres de Stanley Black & Decker en Inde. Il est vrai que les pompes à eau utilisées par les agriculteurs correspondent à 20 % de l'électricité consommée en Inde - qui provient essentiellement de l'exploitation du charbon. De plus, les agriculteurs n'ont parfois accès à l'électricité et à l'eau que par intermittence : ils ont donc tendance à excessivement arroser leurs champs, voire à les inonder lorsqu'ils y ont accès. Or, le fonctionnement particulier de cette pompe pourrait encourager les économies d'eau car, lorsque l'on ne s'en sert pas, l'énergie électrique solaire restante est envoyée dans le réseau. "Les agriculteurs peuvent réellement utiliser l’énergie solaire comme revenu supplémentaire, car le gouvernement rémunère l’énergie qu’ils injectent dans le réseau" explique Ramana Gogula. La firme raconte sur son site officiel que le produit a tout d'abord été testé avec un fermier qui ne cultivait que des fruits et des légumes. Après avoir installé cette technologie dans sa ferme, il a pu lancer de nouvelles cultures - comme celle du riz - et est même arrivé à produire plusieurs récoltes par an. L'entreprise a annoncé qu’un "mécanisme de financement alternatif" allait être mis en place pour la rendre plus accessibles aux foyers en situation de précarité. Elle projette également d’étendre sa commercialisation à d’autres régions du monde : "nous nous sommes initialement concentrés sur l’Inde, mais nous avons pour projet de proposer Nadi à des fermiers en Afrique, en Amérique du Sud et dans des pays du Sud-est de l’Asie" précise Ramana Gogula. Article rédigé par Georges Simmonds pour RT Flash ID | | | |
| Une équipe de chercheurs de l’Ohio State University a découvert un moyen de simplifier la manière dont les appareils électroniques utilisent les électrons — en exploitant un matériau pouvant jouer un “double rôle” dans les composants électroniques où de nombreux matériaux étaient nécessaires jusqu’à présent. « Nous avons littéralement découvert un matériau à ‘double personnalité’ », a déclaré Joseph Heremans, co-auteur de l’étude, professeur d’ingénierie mécanique et aérospatiale et chercheur en nanotechnologie à l’Ohio State University. « C’est un concept qui n’existait pas auparavant ». Une refonte de la manière dont les ingénieurs créent tout type d’appareil électronique, voilà ce que leurs découvertes pourraient signifier selon eux. Cela inclut la totalité des composants, des cellules solaires aux diodes électroluminescentes de votre téléviseur, e n passant par les transistors de votre ordinateur portable et les capteurs de lumière de l’appareil photo de votre smartphone. Les résultats de l’étude ont été publiés le 18 mars dans la revue Nature Materials. Ces composants sont les éléments constitutifs de l’électronique d’aujourd’hui. Chaque électron a une charge négative et peut rayonner ou absorber de l’énergie en fonction de la manière dont il est manipulé. Les trous d’électrons (ou simplement trous) — essentiellement l’absence d’électron — ont une charge positive. Les appareils électroniques fonctionnent en faisant se déplacer des électrons et des trous. Ou plus simplement, en conduisant l’électricité. Mais historiquement, chaque partie d’un dispositif électronique ne pouvait agir qu’en tant que détenteur d’électrons ou de détenteur de “trous”, et non les deux en même temps. Cela signifiait que les composants électroniques avait besoin de plusieurs couches — et de plusieurs matériaux — pour fonctionner. Mais les chercheurs de l’Ohio State ont découvert un nouveau matériau, le NaSn2As2 — un cristal pouvant à la fois être porteur d’électrons et porteur de trous, éliminant ainsi potentiellement le besoin de couches multiples. « C’est ce dogme de la science, à savoir que vous pouvez avoir soit des électrons soit des trous, mais pas les deux. Mais nos conclusions contredisent cela », a déclaré Wolfgang Windl, professeur de science des matériaux et d’ingénierie à l’Ohio State, et co-auteur de l’étude. « Et ce n’est pas qu’un électron devient un trou et vice-versa, car il s’agit du même assemblage de particules. Ici, si vous regardez le matériau dans un sens, cela ressemble à un électron, mais si vous regardez dans l’autre, cela ressemblera à un trou. C’est plutôt ainsi qu’il faut comprendre cette nouveauté » ajoute-t-il. Cette découverte pourrait donc simplifier nos composants électroniques, en permettant peut-être de créer des systèmes plus efficaces, fonctionnant plus rapidement et se détériorant moins souvent. « Nous avons maintenant cette nouvelle famille de cristaux en couches dans laquelle les porteurs se comportent comme des électrons lorsqu’ils voyagent dans chaque couche, et comme des trous lors de leur déplacement entre les couches. Vous pouvez imaginer qu’il existe des dispositifs électroniques uniques que vous pourriez créer », a déclaré Joshua Goldberger, professeur agrégé de chimie et de biochimie à l’Ohio State. Les chercheurs ont nommé ce phénomène de double capacité “goniopolarité”. Ils croient que le matériau fonctionne de cette manière en raison de sa structure électronique unique, et disent qu’ il est probable que d’autres matériaux stratifiés pourraient présenter cette propriété. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Après avoir fait sensation avec son robot Atlas, Boston Dynamics vient de présenter son nouveau robot, Handle, qui montre ses compétences en matière de chargement et de déchargement. Le robot est capable de travailler en autonomie dans un entrepôt pour acheminer des marchandises d’un point A vers un point B. Une petite révolution se prépare pour les sociétés de marchandises. Depuis quelques années, les robots n’arrêtent plus d’évoluer et de s’améliorer, notamment grâce à l’intelligence artificielle. À ce propos, l’un des fondateurs d’Alexa annonçait il y a quelques jours qu’il prévoyait de lui fabriquer un corps robotique pour qu’elle puisse mieux appréhender le monde réel. Le robot Handle, imaginé par Boston Dynamics, a bien évolué depuis ses débuts. Au départ, il n'était qu'un robot qui savait simplement sauter et réaliser quelques déplacements. Il a toujours été agile, avouons-le. Aujourd’hui, Handle a grandi. Il est beaucoup plus puissant. Handle travaille désormais de manière autonome. Il est capable de déplacer des cartons à l’intérieur d’un d’entrepôt et de les acheminer vers un point de sortie. Boston Dynamics précise que son robot est capable de manipuler des marchandises jusqu’à 15 kilogrammes. Reste à voir si Handle sera capable de sortir du laboratoire et de s’adapter à la réalité beaucoup plus complexe et désordonnée d'un entrepôt… Article rédigé par Georges Simmonds pour RT Flash Siècle Digital | | | |
| A priori, poissons et abeilles n’auraient ni l’occasion de se rencontrer, ni grand-chose à se raconter. Des chercheurs de l’EPFL et de quatre autres institutions Européennes membres du projet ASSISIbf ont pourtant réussi à faire interagir les deux espèces, à distance et au moyen de la robotique. L’un à Lausanne et l’autre en Autriche, les deux groupes d’animaux ont échangé des signaux et progressivement coordonné leurs décisions. « Nous avons créé un pont inédit entre ces deux communautés, qui ont pu ainsi échanger un peu de leurs dynamiques », raconte Frank Bonnet, chercheur du groupe MOBOTS. Cette entité, qui fait désormais partie du Laboratoire de biorobotique (BIOROB), est spécialisée dans la conception de robots capables de s’immiscer dans des groupes d’animaux et d’influencer certains de leurs comportements. Des expériences ont notamment été menées avec des cafards, des poussins et, plus récemment, avec un groupe de poissons. Un petit robot "espion" introduit en son sein avait réussi à le convaincre de nager dans un sens ou dans l’autre d’un aquarium circulaire. Une expérience que les chercheurs ont reprise, pour aller un pas plus loin. Cette fois, ils ont mis ce même robot et son groupe de poissons en contact avec des abeilles, installées dans un laboratoire de Graz, en Autriche. Là-bas, la communauté évolue sur un plateau muni de plusieurs bornes robotiques fixes, autour desquelles les insectes ont naturellement le réflexe de s’agglutiner. Dans les deux situations, des signaux bien spécifiques à chaque espèce sont envoyés aux animaux. Pour le petit robot poisson, ils sont de nature morphologique – formes, couleurs, zébrures reproduites sur le leurre – mais aussi comportementale, comme des accélérations, des vibrations, ou des mouvements de la queue. Pour les abeilles, les signaux envoyés par les bornes sont essentiellement des vibrations, des variations de température et des souffles d’air. Dans chaque groupe, les individus réagissent à ces signaux, les poissons optant pour un sens de nage et les abeilles pour une borne. Cette dynamique de groupe exprimée par les animaux est enregistrée par le robot, qui les envoie à son tour à celui de l’autre communauté, qui les traduit ensuite en signaux spécifiques à l’espèce dans lequel il est immergé. « Les deux robots agissent à la fois comme des négociateurs et des traducteurs dans un sommet international », explique Francesco Mondada, professeur au BIOROB. « C’est ainsi que, par allers et retours successifs, une décision commune se façonne progressivement ». Une fois l’expérience lancée, les deux groupes ont commencé à "discuter", par robots interposés et à près de 700 kilomètres de distance. Plutôt chaotiques au départ, les échanges ont progressivement abouti à une certaine coordination et, finalement, au bout de 25 minutes, une harmonie s’est installée : les poissons tournent dans le sens inverse des aiguilles d’une montre et les abeilles se sont toutes regroupées autour de l’une des deux bornes qui leur étaient proposées. « Dans le processus, les deux espèces échangent même un peu de leurs caractéristiques, les abeilles se montrant un peu plus remuantes et moins promptes à s’agglutiner que de normal, et les poissons tendant à se grouper plus qu’ils ne le feraient naturellement », ajoute Frank Bonnet. Pour les roboticiens, cette expérience est intéressante pour étudier comment des signaux biologiques peuvent être captés puis traduits de la meilleure manière par une machine. Pour les biologistes, la méthode permet de mieux comprendre les comportements animaux et, plus largement, le fonctionnement des interactions au sein des écosystèmes. A bien plus long terme, ces développements pourraient permettre de faire de la surveillance de l’environnement en exploitant les propriétés sensorielles remarquables des animaux. Ils pourraient aussi permettre d’éloigner les oiseaux des aéroports et des dangers liés aux décollages, ou encore diriger les insectes pollinisateurs vers des cultures biologiques plutôt que celles utilisant des pesticides. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Information et Communication | |
| | | Des chercheurs de Microsoft et de l’Université de Washington ont conçu un appareil capable de convertir les informations numériques en ADN. Lors de la première phase de test, le prototype ayant couté 10 000 dollars a réussi à convertir le mot « Hello » en séquence ADN. Microsoft est la première entreprise à avoir mis au point un système tel que celui-ci et elle est également la première à avoir ouvert le premier data center pour le cloud en Afrique. Les recherches ont été très onéreuses et longues. Pour ce faire, les chercheurs ont utilisé un séquenceur d’ADN ainsi qu’un logiciel de décodage pour traduire l’ADN en bits. Il faut savoir que le mot « Hello » (01001000 01000101 01001100 01001100 01001111 en binaire) pesant 5 octets, a pris 21 heures avant de donner 1mg d’ADN, à la fin de son processus. Néanmoins, à force de travailler sur le projet, les chercheurs ont découvert un moyen de raccourcir le temps de conversion de moitié, soit entre 10 et 12 heures. C’est une solution qui leur a également permis de pouvoir baisser les coûts de plusieurs milliers de dollars, ce qui n’est pas négligeable. Microsoft espère que cette découverte permettra de faire avancer cette technologie, qui pourrait bien être l’avenir du stockage pour les grandes quantités de données. Avec le nombre de sites web et applications qui existent aujourd’hui, il devient de plus en plus cher de stocker de la donnée. Les data center prennent également beaucoup de place et ne cessent d’augmenter, c’est pourquoi cette nouvelle solution ne pourrait qu’être bénéfique. Le MIT Technology Review, a déclaré que, dans un proche avenir, toutes les données qui sont stockées dans les data center de la taille d’un entrepôt pourront être implémentées dans une clé USB standard. D’ailleurs, grâce à cela, elles pourront être hébergées plus longtemps. Microsoft affirme que certains ADN ont résisté pendant des dizaines de milliers d’années dans les ossements humains ou animaux, c’est donc la preuve irréfutable que les données pourront perdurer. La firme de Redmond envisage de mettre en place un système de stockage opérationnel basé sur l’ADN, qui sera placé à l’intérieur des data centers Microsoft Azure. Microsoft précise qu'il est également possible de réaliser ce processus dans le sens inverse, et c’est justement la prouesse qu’a réussi à faire une équipe de chercheurs de l’Université d’Harvard en utilisant la technologie du CRISPR (Clustered Regularly Interspaced Short Palindromic Repeats). Article rédigé par Georges Simmonds pour RT Flash Microsoft | | | |
| La jeune pousse LightOn a développé un procédéoptique qui peut effectuer instantanément certaines opérations mathématiques complexes, essentielle dans les réseaux de neurones. « Lorsque la lumière traverse un milieu translucide, elle subit une multitude de diffusions, qui réalisent instantanément un calcul algébrique puissant que l'on appelle une projection aléatoire », explique Laurent Daudet, le directeur technique de LightOn. Le dispositif mis au point par la jeune pousse utilise cette propriété, en projetant une image numérique sur une lame en matière plastique translucide. Un capteur récupère ensuite, sur l'autre face, l'image qui est le résultat du calcul. Il se trouve que les dernières couches de certains réseaux de neurones utilisés pour faire de l'apprentissage profond effectuent ce genre d'opération mathématique. Elles brassent les données issues des couches précédentes qui ont identifié, dans le flot de données initial, des détails caractéristiques, afin de détecter des combinaisons pertinentes. Le dispositif conçu par LightOn propose donc une alternative à l'informatique classique, afin de réaliser une partie significative des calculs nécessaires pour qu'un réseau de neurones puisse apprendre. Les applications visées par ce calcul analogique sont nombreuses : classification et interprétation d'images et de vidéos, prédiction de séries temporelles (en finance, notamment), algorithmes de recommandation, voiture autonome... « À terme, nos outils devraient faire merveille en génétique », estime Laurent Daudet. « Sur un problème classique de classification d'images, nous avons obtenu des résultats dix fois plus rapidement qu'avec l'équipement informatique habituel, avec une consommation d'énergie huit fois moindre », précise-t-il. Deux prototypes ont été réalisés, en 2017 et 2018. La production en présérie doit débuter en 2020. Article rédigé par Georges Simmonds pour RT Flash La Recherche | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|