| | Edito Cybercriminalité : nous devons prendre la mesure du défi !
La cyberattaque qui a déferlé sur le Net le 12 mai dernier restera certainement dans les annales à cause de la rapidité de sa propagation et des dégâts très concrets qu’elle a provoqués, tant au niveau des institutions publiques que des entreprises. Cette attaque a utilisé un « rançongiciel » (ransomware) c’est-à-dire un malware, baptisé WannaCry, qui chiffre les fichiers d'un ordinateur. Il rend ceux-ci inaccessibles et exige une rançon pour les déchiffrer. S'agissant de cette attaque, la rançon exigée était de 300 dollars, payable en Bitcoin (monnaie numérique). En cas de non-paiement, la rançon était doublée sous trois jours et si la rançon n'était toujours pas payée au bout d'une semaine, les fichiers étaient purement et simplement effacés, avec toutes les cons équences qu'on imagine pour les institutions, services public et entreprises concernées. Près de 200 000 ordinateurs ont été touchés dans 150 pays, principalement en Europe et en Asie. Cette attaque, sans précédent, a entraîné un véritable chaos dans le service national de santé britannique qui s’est retrouvé sans accès à ses données et a été contraint d’annuler de nombreux rendez-vous. En France, de grandes entreprises comme Renault ont subi de plein fouet cette attaque et ont dû fermer des sites de production, ce qui a entraîné des pertes d'exploitation considérables et la mise au chômage technique de 5000 employés. La spécificité de cette attaque réside dans le fait qu'elle a exploité une vulnérabilité de Windows en utilisant des outils de la NSA, l'agence de renseignement électronique des Etats-Unis. Au lieu d'avoir recours à des emails frauduleux, cette attaque a ciblé, pour contaminer ses victimes, le protocole SMB (Server Message Block), utilisé jusqu'à Windows 8. Dans les attaques "classiques", la victime installe à son insu un "rançongiciel" en ouvrant une pièce jointe corrompue, comme un document Word ou PDF. Mais WannaCry est plus vicieux, car même si l’utilisateur prend la précaution de ne pas ouvrir des pièces jointes corrompues, il peut néanmoins ,une fois installé sur un premier ordinateur, contaminer en chaîne d'autres machines connectées, via un réseau local. De manière étonnante, la vulnérabilité du protocole SMB utilisé par WannaCry pour se propager a initialement été découverte par la NSA, l’Agence de Sécurité américaine. Fait encore plus surprenant, la NSA n’a pas révélé cette faille, baptisée "EternalBlue", à Microsoft, préférant l’utiliser pour son propre compte. Mais, dans des circonstances pour le moins troubles et qui devront être élucidées, la NSA s’est fait pirater et EternalBlue s’est alors retrouvé en avril dernier dans les mains d’un groupe de pirate, les Shadowbrokers. Entretemps, Microsoft avait comblé cette faille mais cette parade arrivait trop tard car de nombreux logiciels malveillants intégrant EternalBlue étaient déjà en circulation sur le Net, infectant des centaines de milliers de machines to urnant sous d’anciennes versions de Windows non mises à jour, soit par négligence, soit parce que Microsoft avait tout simplement cessé de proposer ces mises à jour pour inciter ses clients à acheter des versions plus récentes de Windows…. On ne le répétera jamais assez, si de telles attaques sont si dévastatrices, c'est d'abord parce que la plupart des utilisateurs, qu'il s'agisse de particuliers ou d'entreprises, considèrent la question de la sécurité informatique comme mineure et voient dans la mise à jour de leur système une perte de temps. Face à cette réalité, Microsoft a décidé d'employer les grands moyens et, depuis Windows 10, la firme ne laisse plus le choix aux utilisateurs de repousser sans cesse une mise à jour. Dans le monde de l'entreprise, la situation n'est pas meilleure car celles-ci sont souvent liées par des contrats qui les empêchent de changer de système ou de logiciels pour des équipements spécialisés, comme des outils d'imagerie médicale par exemple. Cette cyberattaque du 12 mai dernier aurait pu avoir des conséquences bien plus dévastatrices si un jeune Britannique n’avait pas, presque par hasard, ralenti sérieusement la propagation de ce virus en achetant « par réflexe » un simple nom de domaine. En outre, trois spécialistes français, Adrien Guinet, Matthieu Suiches et Benjamin Delpy - directeur de Projets Sécurité à la Banque de France, ont réussi à développer deux programmes, WannaKey et WannaKiwi, permettant aux victimes de déverrouiller l’accès à leurs données, sans payer la rançon. Disponible librement, ce logiciel peut être téléchargé et installé facilement et fonctionnerait dans 60 % des cas pour les machines tournant sous Windows XP. En revanche, sous Windows 7, le taux de réussite ne serait que de 10 %. Au final, même si des chiffres contradictoires circulent, il semblerait que peu d'utilisateurs touchés aient payé la rançon exigée, ce qui est une bonne nouvelle car céder immédiatement aux exigences des pirates ne peut que les encourager à réitérer ce type d'attaque. Il n'en demeure pas moins vrai que cette cyberattaque a causé des dégâts humains et économiques, directs et "collatéraux", très importants, bien que difficilement évaluables. Rappelons que, selon une enquête internationale du cabinet PWC, la cybercriminalité aurait coûté 3,36 milliards d'€ aux entreprises en 2015 et toucherait les deux tiers des entreprises. Ce coût, qui était estimé à 1,7 milliard d’euros en 2011 aurait donc doublé en seulement quatre ans…Au niveau mondial, ce coût serait de 327 milliards d’euros (environ 0,6 point du Produit Brut Mondial), selon le Center for Strategic and International Studies (CSIS). Face à un tel fléau, le directeur des affaires juridiques de Microsoft appelle donc tous les gouvernements à se réveiller après cette attaque et à "adhérer dans le cyberespace aux mêmes règles qui sont appliquées pour les armes dans le monde réel". Réunis à Bari, en Italie, le 13 mai dernier, les ministres des Finances de l’Union européenne ont publié un communiqué commun dans lequel on peut notamment lire "Nous reconnaissons que les cyber incidents représentent une menace croissante pour nos économies et qu'une politique de réponses appropriées pour l'ensemble de l'économie est nécessaire". Mais ces bonnes intentions et ces déclarations de principe ne suffisent plus et il faut à présent, si nous voulons éviter une catastrophe numérique planétaire de grande ampleur dont les dommages pour l’économie mondiale seraient autrement plus graves que celle de « WannaCry », prendre ce problème à bras le corps. La première mesure qui doit être prise concerne la mise en œuvre plus vigoureuse et plus complète de la Convention de Budapest sur la cybercriminalité, signée en 2001. Cette Convention qui rassemble 67 états (dont 55 ont ratifié le texte) s’est donnée comme objectif de poursuivre une politique pénale commune destinée à protéger la société contre le cybercrime, notamment par l'adoption d'une législation appropriée et la stimulation de la coopération internationale. Cette convention prévoit également des procédures spécifiques de lutte contre le piratage informatique concernant la perquisition de réseaux informatiques et l'interception de données numériques. La France et l'Union européenne doivent intensifier leurs efforts politiques et diplomatiques pour qu'elle soit signée et ratifi&eac ute;e par le plus grand nombre de pays possibles. La deuxième mesure concerne la responsabilité des entreprises qui doivent absolument cesser de sous-estimer cette menace et engager des moyens de prévention et de lutte à la hauteur des dommages qu’elles risquent. Cette lutte contre la cybercriminalité exige, il est vrai, des moyens importants qui ne sont pas toujours à la portée des petites et moyennes entreprises. C’est d’ailleurs pourquoi, bien que neuf Pme sur dix soient conscientes des risques de piratage et de fraude informatique, plus de la moitié ne prennent aucune mesure de protection contre la cybercriminalité. Autre indicateur révélateur : on estime que seule une entreprise sur six dispose d’un Centre Opérationnel de Sécurité (SOC) leur permettant de détecter les cyber-attaques et a souscrit une assurance couvrant les cyber-risques, ce type d’assurance étant géné ;ralement jugée trop complexe. Pourtant, dans la plupart des cas, il suffit de prendre quelques précautions de bon sens pour prévenir la grande majorité des cyberattaques, comme vient de le rappeler la CGPME (Confédération générale des petites et moyennes entreprises) et l’Anssi (Agence nationale de la sécurité des systèmes d'informations), qui ont publié en ligne un petit guide contenant 12 règles anti-piratage (www.ssi.gouv.fr). Mais, face à l’extension de cette forme de criminalité, les entreprises doivent également accepter le principe d’une mutualisation de leur sécurité informatique, ce qui passe par l’externalisation qui seule permet d’accéder aux meilleures capacités et compétences face aux nouvelles cyber-menaces. On pourrait également imaginer que l’Etat, par le biais de ses différents services centraux et décentralisés, puisse proposer gratuitement aux entreprises, sans que celles-ci aient besoin d’en faire la demande, des « kits de protection » informatique et que des déductions fiscales spécifiques soient prévues pour les entreprises qui dépassent un certain niveau de dépenses (par rapport à leur chiffre d’affaires) pour renforcer leur sécurité informatique. La troisième mesure qui me semble indispensable pour éviter que la cybercriminalité ne devienne incontrôlable est la création d’une agence européenne de lutte contre la criminalité numérique, dont le financement serait assuré conjointement par les états-membres, les grandes entreprises du secteur informatique et électronique et une taxe sur les échanges de certaines données informatisées. Cette agence, qui travaillerait en étroite collaboration avec les meilleurs laboratoires de recherche publics de privés d’informatique et de mathématiques, aurait pour mission le mise aux points d’outils et de solutions innovantes, recourant notamment à l'intelligence artificielle, pour permettre une détection précoce des différents types de cyberattaque et la mise en œuvre immédiate de parades et contre-mesures efficaces en cas d'attaque. Enfin, la dernière mesure qui s’impose concerne la refonte et l’adaptation de notre cadre juridique et pénal, tant sur le plan national et européen. Il faut bien comprendre que le calcul des pirates informatiques est assez simple : comparée à la criminalité « classique », concernant les biens et les personnes, la cybercriminalité est bien moins risquée et rapporte beaucoup plus. Face à cette équation, il faut changer de raisonnement et instaurer une échelle des peines qui soit aussi dissuasive et répressive que celle en vigueur pour les crimes physiques et les atteintes aux personnes et aux biens. Si un cybercriminel en puissance sait qu’il risque, non pas un an de prison avec sursis, mais 5 ou 10 ans de prison ferme et la saisie immédiate de tous ses biens, y compris ceux acquis à travers des "prête-noms" (comme cela est à pr& eacute;sent le cas en France pour les chefs d'organisations criminelles ou les trafiquants de drogue), on peut parier qu’il y réfléchira à deux fois avant de passer à l’acte… La cybercriminalité est devenue un fléau économique et financier pour nos sociétés mais elle pourrait demain, si nous ne réagissons pas avec assez de vigueur, provoquer des milliers de morts, si une organisation criminelle parvenait à prendre le contrôle informatique d’installations sensibles, comme certaines usines chimiques, des centrales nucléaires ou encore des systèmes de transports. Ne rêvons pas : quels que soient nos efforts et notre détermination, nous n'éliminerons jamais complétement le piratage informatique qui a trouvé, avec le fulgurant développement d'Internet un extraordinaire vecteur de développement. Mais face à cette menace majeure, qui ne relève plus du tout de la science-fiction, notre Pays doit mobiliser l’ensemble de ses forces vives et de ses responsables politiques, économiques, scientifiques pour mettre un c oup d’arrêt à cette criminalité numérique et apprendre à mieux prévenir à la source ces cyberattaques de plus en plus sophistiquées, de manière à en limiter les effets dévastateurs et à empêcher qu'un jour ne survienne une catastrophe numérique majeure au niveau planétaire. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Nanotechnologies et Robotique | |
| | | Une molécule constituée d'ADN, ayant la forme d'un lance-pierre, a été modélisée et synthétisée à l'échelle nanométrique par des chercheurs de l'Université de Montréal et leurs collègues de l'Université de Rome. Leur objectif est de propulser des médicaments à des endroits très précis du corps où se trouvent des biomarqueurs propres à une maladie. Ce « lance-pierre moléculaire » est 20 000 fois plus petit qu’un cheveu humain et ne mesure que quelques nanomètres de long. Il se compose d’un brin d’ADN synthétique capable de transporter un médicament et de le relâcher au bon moment dans l’organisme à la manière de l’élastique d’un lance-pierre. Les extrémités de cet « élastique » d’ADN sont constituées de groupes de liaison capables de se fixer à un anticorps, soit une protéine en forme de Y utilisée par le système immunitaire pour détecter et neutraliser des agents pathogènes comme des bactéries et des virus. Lorsque les groupements de liaison du lance-pierre reconnaissent un anticorps spécifique et se fixent à ses branches, « l’élastique » d’ADN s’étire et le médicament qu’il transporte est relâché. Le chercheur explique qu’il est possible de configurer le lance-pierre pour qu’il libère un médicament donné en présence d’anticorps propres à une maladie, et ce, simplement en modifiant la structure de ces sites. Le Professeur Alexis Vallée-Bélisle, du Département de chimie de l’Université de Montréal, vante la grande adaptabilité du lance-pierre. "À ce jour, nous avons seulement fait la démonstration du principe de fonctionnement du lance-pierre en le mettant en présence de trois anticorps, dont un anticorps du VIH, et en utilisant des acides nucléiques comme modèles de médicaments". Les chercheurs sont toutefois convaincus qu’il sera facile de configurer « l’élastique » du lance-pierre pour qu’il propulse un grand nombre de molécules thérapeutiques. La prochaine étape du projet consiste à tester le « lance-pierre » avec une maladie et un médicament particuliers afin de le tester sur des cellules in vitro. Ensuite suivront les essais sur des rongeurs et, si tout va bien, sur des humains. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| Des chercheurs italiens ont mis au point un traitement combinant des nanoparticules et des ondes de choc pour faciliter l’arrivée de la chimiothérapie au cœur de la tumeur, et donc augmenter son efficacité et réduire ses effets secondaires. Ils ont testé ce traitement sur un modèle humain de tumeur de la thyroïde anaplasique implanté chez la souris. Le cancer de la thyroïde anaplasique est particulièrement agressif et difficile à traiter. L’espérance de survie à un an est inférieure à 20 % et la seule chimiothérapie possédant une AMM est la doxorubicine. Celle-ci présente de graves effets secondaires (surtout cardiotoxiques) et n’apporte de bénéfices que dans moins de 22 % des cas. Or, les nanoparticules peuvent transporter efficacement, par le sang, un médicament jusqu’à la tumeur, ce qui réduit les effets secondaires toxiques et améliore l’efficacité du traitement. Mais le flux sanguin ne pénètre pas de façon optimale dans certaines tumeurs solides. Les chercheurs de l’Université de Turin ont donc combiné des nanobulles avec des ondes de choc extracorporelles. Les nanobulles sont des nanoparticules possédant un cœur gazeux qui peut être chargé en médicament (en l'occurrence la doxorubicine), lequel sera délivré sur le site de la tumeur. Les ondes de choc, déjà employées dans la lithotripsie et en orthopédie, sans effet secondaire, sont des ondes de type acoustique qui peuvent être dirigées avec une grande précision en profondeur, augmentant les effets cytotoxiques des anticancéreux. Ces dernières ont été séparées en trois groupes : l’un recevant de la doxorubicine sous sa forme habituelle, l’autre de la doxorubicine dans des nanobulles, et le troisième un placebo. Et chaque souris a reçu des ondes de choc sur l’une des deux tumeurs (1,5 heure après l’injection des nanobulles ou de la doxorubicine) mais pas sur l’autre. Le traitement a été répété (et le volume de la tumeur mesuré) chaque semaine pendant 21 jours. Puis, les souris ont été sacrifiées et les tumeurs ainsi que les cœurs (les plus sujets aux effets secondaires de la doxorubicine) examinés. Les chercheurs ont ainsi observé que le volume (ainsi que le poids) de la tumeur était significativement réduit chez les souris ayant reçu des nanobulles chargées en doxorubicine ainsi que des ondes de choc, par rapport aux souris ayant reçu de la doxorubicine sous sa forme habituelle (avec ou sans onde de choc), et celles recevant un placebo. Les tumeurs ayant reçu ce traitement combiné contenaient aussi davantage de doxorubicine et de cellules tumorales tuées. Par ailleurs, les marqueurs de fibrose et de stress oxydatif au niveau cardiaque étaient significativement moins présents chez les souris ayant reçu la doxorubicine sous forme de nanobulles plutôt que par voie classique. "La prochaine étape sera de conduire des essais cliniques avec l’espoir d’améliorer le traitement et la qualité de vie des patients" conclut le Docteur Maria Catalano, du département des sciences médicales de l’Université de Turin, et auteure principale de l’étude. Article rédigé par Georges Simmonds pour RT Flash Society for Endocrinology | | ^ Haut | |
|
| | | L’équipe israélienne du Technion composée par la doctorante Avigail Landman (Nancy & Stephen Grand Technion Energy Program) et le Dr. Hen Dotan (Electrochemical Materials & Devices Lab) propose de séparer géographiquement les deux compartiments accueillant chacun une des deux réactions électrochimiques à l’origine de la production d’hydrogène : la réaction d’oxydation (produisant de l’oxygène) d’une part et la réaction de réduction (produisant de l’hydrogène) d’autre part. Pour bien comprendre l’aspect innovant de cette séparation, une petite remise en contexte s’impose. Tout d’abord, le dihydrogène (H2) est l’un des principaux candidats pour devenir le carburant vert du futur. Sa spécificité ? Il est non-toxique, possède une très bonne densité énergétique (quantité d’énergie que l’on peut libérer par unité de masse), et sa combustion en présence d’oxygène rejette de l’eau. D’où l’engouement pour la recherche sur les procédés photo-électrochimiques (PEC) de production d’hydrogène. Les installations de production d’hydrogène actuelles consistent en deux compartiments d’eau séparés par une fine membrane empêchant l’oxygène et l’hydrogène produits séparément de se mélanger (le mélange étant explosif). Chaque compartiment contient une électrode (bout de métal), qui est reliée à son homologue via un fil conducteur (cuivre, etc.). Le procédé consiste à créer un flux d’électrons d’une électrode vers une autre (de l’anode vers la cathode), créant ainsi un « manque » d’électron du côté de l’anode. Ceci provoque une réaction produisant de l’oxygène et un surplus d’électrons du côté de la cathode, menant à l’hydrolyse de l’eau et à la production d’hydrogène. Les deux réactions dépendent également de la migration d’une molécule (OH-, hydroxyde) faisant office de transporteur d’électrons d’un compartiment à un autre à travers la membrane. Néanmoins, tout ce procédé dépend d’une source externe « forçant » le flux d’électrons de l’anode vers la cathode. Cette source peut être un panneau photovoltaïque bien entendu, mais l’on peut obtenir de meilleurs rendements en utilisant une photo-anode, c’est à dire une anode capable de catalyser directement la réaction décrite ci-dessus en captant les rayons solaires. On parle alors de cellules photo-électrochimiques. Mais il y a un risque, avec ces méthodes classiques, de voir l’oxygène et l’hydrogène se mélanger et donc exploser. De plus, la surface de photo-anode requise pour une production en quantité commerciale est immense, il est donc nécessaire de trouver un moyen de récolter l’hydrogène tout au long de la surface photovoltaïque, le stocker, puis le transporter vers le point d’utilisation final près du consommateur. Or, le stockage et le transport de l’hydrogène sont complexes et coûteux. C’est là que vient se greffer l’idée lumineuse d’Avigail Landman et du Dr. Hen Dotan : et si l’on séparait géographiquement les deux compartiments ? Sur le principe, l’anode et la cathode sont reliées par un fil de cuivre conduisant le courant. Or, le transport d’un courant électrique sur de longues distances ne pose aujourd’hui aucun problème, contrairement à celui de l’hydrogène. De plus, les deux compartiments étant séparés, il n’y a pas de risque d’explosion. Finalement, d’un point de vue logistique, il est très intéressant de pouvoir capter le soleil dans un lieu reculé, pour pouvoir ensuite créer de l’hydrogène directement à la « pompe » en centre ville. Reste le problème de la membrane et de la migration des ions hydroxydes OH-. Pour résoudre ce casse-tête, l’équipe a rajouté un couple d’électrodes additionnelles reliées par un second fil électrique. Ces deux électrodes sont composées d’un matériau à base de nickel qui peut réagir avec les transporteurs d’électrons : les ions hydroxydes. D’un côté, l’électrode est oxydée par ces transporteurs et capte leurs électrons qui rejoignent, via un fil conducteur, l’autre compartiment où l’électrode de nickel est réduite, libérant des électrons sous forme d’ions hydroxydes. De ce fait, le circuit devient « fermé » et la production d’hydrogène peut se faire de façon continue ! Si les perpétuelles réactions d’oxydation et de réduction des électrodes additionnelles finissent par les user, leur durée de vie est considérable et l’on peut inverser les électrodes dans les deux compartiments pour les régénérer. Article rédigé par Georges Simmonds pour RT Flash France Diplomatie | | | |
| L'un des plus grands parcs éoliens en mer, avec ses 150 turbines, a été mis en service lundi 8 mai 2017 en mer du Nord, au large de la ville de Groningue aux Pays-Bas, a annoncé son directeur. Au cours des quinze prochaines années, le parc Gemini, qui s'étend à 85 km de la côte nord de ce pays, fournira de l'énergie à un million et demi de personnes, sa capacité à pleine puissance étant de quelque 600 mégawatts pour une production annuelle estimée à 2,6 TWh, soit plus de la moitié de la production électrique annuelle d'un gros réacteur nucléaire. "Nous sommes maintenant officiellement (entrés) dans la phase opérationnelle", a expliqué à l'AFP le directeur de Gemini Wind Park, Matthias Haag. La compagnie canadienne spécialisée dans les énergies renouvelables Northland Power a participé à ce projet conçu en 2010 qui aura au total coûté 2,8 milliards d'euros (trois milliards de dollars), tandis que les turbines ont été fabriquées par le groupe allemand Siemens Wind Power. Chaque éolienne a une puissance de 4 MW, et elles sont regroupées en deux "fermes" de 75 unités chacune dans une zone de la mer du Nord connue pour être une des plus venteuses dans l'espace maritime néerlandais. Il y a pour chaque ferme une station off-shore haute tension reliée à une station terrestre, chargée de convertir le courant, par un câble de 110 Km. Ce parc éolien fournira à lui seul 13 % des énergies renouvelables consommées aux Pays-Bas et permettra d'économiser environ 1,25 million de tonnes de CO2, soit l'équival ent de 50.000 véhicules roulant 25.000 kilomètres chaque année. Article rédigé par Georges Simmonds pour RT Flash Sciences et Avenir | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Un rapport américain de statistiques médicales indique une baisse du taux de mortalité pour les principaux cancers aux États-Unis entre 2010 et 2014 chez les hommes, les femmes et les enfants, toutes origines ethniques confondues. Entre 2010 et 2014, les décès liés à un cancer auraient diminué de 1,8 % par an chez les hommes, de 1,4 % par an chez les femmes et de 1,6 % par an chez les enfants selon le rapport annuel du NIH (National Institutes of Health) sur la prévalence du cancer aux Etats-Unis. Chez les hommes, le taux de mortalité aurait baissé pour 11 des 16 types de cancer les plus courants et chez les femmes, pour 13 des 18 types les plus courants chez elles (comme le cancer du poumon, le cancer colorectal et celui du sein). Sur ces quatre années, les chercheurs ont constaté chez les hommes une diminution des décès par cancer du poumon de 3,5 % par an, par cancer de la prostate de 3,4 % et une baisse des décès par cancer colorectal de 2,5 % chaque année. Les chercheurs ont constaté chez les femmes, une régression des décès liés au cancer du poumon de 2 % par an, au cancer du sein de 1,6 %, et des décès par cancer colorectal de 2,8 % par an. Sur cette période, le nombre de diagnostics de nouveaux cancers a également baissé pour les hommes mais est resté stable pour les femmes. Enfin, le taux de survie à cinq ans pour les cancers diagnostiqués depuis 2006 a également augmenté de manière significative pour presque tous les cancers, à l'exception des cancers cervicaux et utérins. Article rédigé par Georges Simmonds pour RT Flash Medscape | | | |
| Il est capital d'éliminer la totalité des cellules tumorales afin de limiter le risque de propagation des cellules malignes. Parmi les cellules cancéreuses, la sous-population de cellules souches de cancer constitue la principale catégorie impliquée dans la progression des tumeurs et la résistance aux traitements. Leur détection est donc un enjeu important pour empêcher toute récidive cancéreuse. Le professeur Tetsuya Taga et ses collègues de la Tokyo Medical and Dental University viennent de mettre en évidence un problème majeur lors de la détection par immuno-fluorescence de ces cellules dans un modèle de cancer du cerveau particulièrement agressif. En effet, les travaux de ces chercheurs révèlent qu’une sous-population de cellules souches tumorales, contrairement aux autres cellules constituant la tumeur, n’accumulent pas suffisamment de fluorescence pour permettre leur détection. En échappant à cette dernière, ces cellules participent davantage à l’inefficacité du traitement et à un nouveau développement de la tumeur. Les chercheurs se sont alors intéressés au mécanisme responsable du faible niveau d’immunofluorescence. Ils ont ainsi testé l’effet d’un chélateur du fer, ion qui permet aux cellules d’abaisser la fluorescence, et ont montré qu’en utilisant cette molécule déjà cliniquement approuvée, il était possible de booster le niveau de fluorescence dans ces cellules souches cancéreuses initialement peu fluorescentes. Les chercheurs ont finalement identifié un gène, celui de l’hème oxygénase-1 (OH-1), très probablement à l’origine de ces niveaux différents de fluorescence et qui constitue une cible très intéressante pour améliorer la détection par fluorescence des cellules souches cancéreuses et minimiser davantage le risque de réapparition tumorale. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| L’hôpital universitaire de la Charité (Berlin) coordonne un projet national destiné à développer des méthodes de stimulation cérébrale pour aider les personnes âgées à préserver leurs fonctions motrices et sensorielles. Le projet est intitulé « Train-Stim » pour « Plasticité neuronale du vieillissement actif : amélioration des fonctions sensorielles, motrices et cognitives par des interventions d’entraînement et par la stimulation cérébrale non-invasive ». A mesure que l’on vieillit, il devient de plus en plus difficile d’apprendre et d’intégrer l’information de manière adéquate. Le projet vise à comprendre comment contrer ces effets du temps sur le cerveau. Il s’agit d’optimiser les méthodes existantes de stimulation cérébrale non-invasive ainsi que d’entraînement cognitif et moteur. Lors d’une stimulation cérébrale transcrânienne, des aires précises du cerveau sont davantage activées ou inhibées grâce à des champs électriques ou magnétiques. La méthode est sans danger et indolore. Ce type de stimulation a déjà montré des résultats prometteurs dans le traitement de troubles neurologiques comme la dépression ou les suites d'un AVC. Cette méthode pourrait ainsi permettre l’amélioration des fonctions mémorielles et de mouvement, et de la compréhension du langage par les personnes âgées. Les chercheurs examineront dans un premier temps les processus de changement de la plasticité cérébrale (la capacité d’apprentissage et d’adaptation du cerveau). Sur la base de ces premiers résultats, ils pourront ensuite améliorer les méthodes existantes avant de les tester et les adapter en-dehors du laboratoire. Article rédigé par Georges Simmonds pour RT Flash Ifado | | | |
| Des scientifiques de l’Institut de Neurosciences de l’Université de Barcelone, de l’Institut de Recherche Biomédicale de Bellvitge (IDIBELL) et de l’Institut de Chimie Avancée de Catalogne (IQAC-CSIC), ont conçu le premier médicament qui s’active grâce à la lumière, pour le traitement de la douleur. Les résultats de cette étude ont été publiés dans la revue eLife. Ce médicament est la première utilisation de l’optopharmacologie pour améliorer le traitement de la douleur. L’optopharmacologie est une discipline émergente qui utilise la lumière pour contrôler l’activité des médicaments. Dans le cas présent, ce médicament appelé JF-NP-26 peut s’activer avec la lumière localement au moment voulu. Le procédé de photosensibilisation consiste à modifier chimiquement un médicament dont l’effet est connu pour le rendre photosensible et l’inactiver. Il s’active lorsqu’un faisceau de lumière est dirigé vers lui grâce à une fibre optique, avec une longueur d’onde appropriée et une précision millimétrique. De cette manière, l’action pharmacologique est déterminée à l’exposition à la lumière. Cette technique permet d’éviter certains effets secondaires de la molécule libérée dans le cas de ce médicament, le raseglurant. L’enjeu de ces recherches est de développer l’optopharmacologie afin de résoudre de nombreux problèmes associés à la pharmacologie conventionnelle. Ces traitements pourraient permettre de soigner autrement la maladie de Parkinson ou le psoriasis, par exemple. Article rédigé par Georges Simmonds pour RT Flash Universitat de Barcelona | | | |
| Des scientifiques du Centre de Recherche Médicale Appliquée (CIMA) de l’Université de Navarre ont développé une technique d’immunothérapie qui améliore le traitement du cancer du poumon chez les animaux. Le principe de l’immunothérapie est de stimuler le système immunitaire pour qu’il reconnaisse et détruise les cellules tumorales. Cette technique a aujourd’hui beaucoup de potentiel en tant qu’outil puissant pour le traitement du cancer du poumon. Les protéines C5a et PD-1 favorisent la progression du cancer du poumon car elles participent à supprimer l’activité antitumorale des cellules du système immunitaire. Une équipe de l’Université de Navarre a démontré que le blocage de ces protéines inhibe la croissance de la tumeur du poumon et prévient les métastases chez les modèles animaux. L’objectif est de surmonter la résistance de la tumeur à l’immunothérapie du cancer. Un traitement anti-C5a et anti-PD-1 réduit significativement la croissance des tumeurs du poumon et ses métastases. Cette étude se révèle donc importante pour une nouvelle approche thérapeutique pour des patients avec ce type de tumeur. Article rédigé par Georges Simmonds pour RT Flash SINC | | | |
| Les NEET protéines ont été découvertes en 2003 comme étant la cible d’un médicament utilisé dans la lutte contre le diabète de type II : le pioglotazone. Mais c’est en 2007 que le professeur Nechushtai et ses collaborateurs ont démontré que ces protéines, localisées au niveau de la mitochondrie, contenaient deux centres fer-soufre (Fe-S). En quoi cette caractéristique est-elle si importante ? Les protéines à centre fer-soufre sont cruciales pour la réplication et la réparation de l’ADN qui, en cas de dysfonctionnement, peut conduire à la formation de cellules cancéreuses. Il a également été montré que ces protéines sont impliquées dans l’homéostasie mitochondriale permettant le bon fonctionnement de cette organelle essentielle à la survie de la cellule. Par ailleurs, ces protéines remplissent de nombreuses fonctions critiques, notamment au niveau de la prise en charge du métabolisme oxydatif de la cellule responsable de la production de molécules oxydantes très agressives à la base de nombreuses maladies. Dans quelles maladies sont-elles impliquées ? Une mutation du gène codant pour NAF-1 conduit à un arrêt de l’expression de cette protéine et entraîne l’apparition du syndrome Wolfram 2. Le syndrome de Wolfram, également connu sous son acronyme anglophone DIDMOAD (pour « diabetes insipidus, diabetes mellitus, optic atrophy, and deafness ») est un syndrome rare, appartenant au groupe des maladies dites orphelines, qui associe un diabète de type 1, un diabète insipide, un trouble grave de la vision (atrophie optique) et des troubles neurologiques. Plus récemment, il a également été démontré que les protéines NAF-1 et MitoNEET sont impliquées dans le développement du cancer du sein. Il a été mis en évidence que, dans les cellules cancéreuses, l’expression de ces protéines est augmentée. L’équipe du professeur Nechushtai a montré qu’en diminuant l’expression de ces deux protéines indépendamment ou simultanément, une diminution de la prolifération tumorigène et des fonctions de la mitochondrie (centre énergétique de la cellule) in vitro était observée. Ces résultats suggèrent que les NEET protéines sont des cibles prometteuses dans la lutte contre le cancer. Mais l’investigation ne fait que commencer. En effet, MitoNEET/NAF-1 étant des cibles du pioglotazome (traitement contre le diabète de type II, abandonné en 2011 à cause d’un risque trop élevé de cancer de la vessie dû à cette molécule), la question est de savoir si ces protéines jouent un rôle dans le développement du diabète. Et la réponse semble être oui : une étude effectuée sur des souris obèses a permis de mettre en évidence l’implication des protéines NEET dans le développement du diabète et de l’obésité. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| La technique d’édition "CRISPR/Cas" (CRISP pour Clustered Regularly Interspaced Short Palindromic Repeats) est aujourd’hui reconnue comme l’une des technologies biomédicales de pointe et d’avenir. La capacité de la technologie à "modeler" est utilisée, ici avec succès, pour remplacer dans des cellules souches un gène clé dans le processus inflammatoire par un gène qui libère un médicament biologique qui combat l’inflammation. Une nouvelle thérapeutique à mettre en regard des traitements actuels de l’arthrite. De nombreux médicaments actuels utilisés pour traiter l’arthrite (Enbrel, Humira et Remicade) – qui attaquent, mais de manière systémique, et non ciblée, le facteur de nécrose tumorale alpha (TNF-alpha), une molécule clé de l’inflammation. Bref, le traitement médicamenteux n’est pas ciblé sur l’articulation arthritique et n’est donc pas exempt d’effets secondaires. À l’aide de CRISPR, les chercheurs modifient des cellules souches de souris pour lutter contre l’inflammation causée par l’arthrite et d’autres maladies chroniques. Ces cellules souches intelligentes ou SMART (pour Stem cells Modified for Autonomous Regenerative Therapy) sont capables de se différencier en cellules de cartilage qui, idéalement, viennent remplacer le cartilage arthritique, produisent un médicament anti-inflammatoire biologique qui protège les articulations et les autres tissus environnants contre les dommages de l’inflammation chronique. Ces SMART cells ont été développées à l’École de médecine de l’Université de Washington à St. Louis et au Shriners Hospitals for Children (St. Louis), en collaboration avec les chercheurs de Duke University et Cytex Therapeutics Inc. Les chercheurs ont d’abord travaillé à partir de cellules cutanées prélevées à partir de queues de souris ; ils ont converti ces cellules en cellules souches via CRISPR en cellules cultivées in vitro privées d’un gène inflammatoire clé, et équipées à la place d’un gène thérapeutique anti-inflammatoire. Ces travaux devraient permettre de déboucher sur une thérapie ciblée en réponse à une inflammation localisée dans une articulation. Si cette stratégie était validée chez l’Homme - en particulier si les cellules manipulées ne répondent bien qu’aux signaux inflammatoires - c’est une nouvelle thérapie clinique prometteuse capable non seulement de remplacer les cellules arthritiques mais d’autres types de cellules lésées dans d’autres systèmes. L’exemple est donné avec le diabète, où des SMART cells pourraient détecter le glucose et transformer l’insuline en réponse. Bref, la capacité de réparer des tissus vivants à partir de cellules souches intelligentes capables de répondre précisément à leur environnement ouvre des possibilités passionnantes en médecine régénérative. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Une étude internationale, coordonnée par Frédéric Laumonnier (Unité 930 « Imagerie et Cerveau » Inserm/ Université de Tours) et Yann Hérault de l'Institut de génétique et de biologie moléculaire et cellulaire, a permis de mieux comprendre le rôle des zones de contact entre les neurones dans certains troubles cérébraux. L'étude révèle que la mutation d'un des gènes impliqués dans les déficiences intellectuelles et l'autisme entraîne un dysfonctionnement au niveau des synapses, structures essentielles pour la communication neuronale. L'autisme et les déficiences intellectuelles (DI) sont des troubles psychiatriques apparaissant principalement au cours de la période du développement cérébral et qui persistent souvent à l'âge adulte. On constate chez les personnes atteintes d'autisme des incapacités à établir des interactions sociales et à communiquer, des troubles du comportement ; en outre, les sujets ayant une DI présentent des difficultés de compréhension, de mémoire et d'apprentissage. Si les origines sont encore mal connues, on sait désormais qu'une part significative d'entre elles sont associées à des mutations génétiques. Au cours du développement du cerveau, la formation des synapses est indispensable pour les fonctions cérébrales comme la mémoire et l'apprentissage. Les synapses sont les zones de contact entre les neurones, assurant la connexion et la propagation de l'information entre eux. Certaines sont inhibitrices et d'autres excitatrices, pour permettre la mise en place de réseaux neuronaux fonctionnels. Or, des mutations d'un gène nommé PTCHD1 (Patched Domain containing 1), localisé sur le chromosome X et qui permet l'expression d'une protéine potentiellement impliquée dans le fonctionnement des synapses, ont récemment été identifiées chez des garçons atteints des troubles cités précédemment. Ces mutations entraînent la perte d'expression du gène. Afin de valider l'implication des mutations du gène PTCHD1 dans les troubles de l'autisme et des DI, Yann Hérault et ses collaborateurs ont créé un modèle murin n'exprimant plus le gène PTCHD1. Ils ont observé chez ces animaux des défauts importants de mémoire, ainsi que des symptômes significatifs d'hyperactivité, confirmant ainsi l'implication du gène dans l'autisme et les DI. Des études menées en parallèle par l'équipe de Frédéric Laumonnier ont permis, d'une part, de montrer que la protéine PTCHD1 était présente au niveau des synapses excitatrices et, d'autre part, de déceler chez ces mêmes souris des modifications au niveau des synapses. Ces altérations de la structure et de l'activité synaptique dans les réseaux neuronaux excitateurs sont particulièrement significatives dans une région au centre du cerveau appelée l'hippocampe. Cette région joue un rôle majeur dans les processus cognitifs, notamment la mémoire et la formation de nouveaux souvenirs. Article rédigé par Georges Simmonds pour RT Flash News Press | | | |
| Une équipe de chercheurs de l’Université de Temple et de l’Université de Pittsburgh a récemment fait appel à la technologie d’édition de gènes révolutionnaire, CRISPR/Cas9, pour éliminer l’ADN du VIH-1 des génomes des cellules T de souris. CRISPR est une biotechnologie capable de manipuler un gène pour le renforcer, ou lui retirer tous ses défauts. Aujourd’hui, il serait donc possible de stopper la reproduction du virus HIV-1, mais également d’éliminer le virus des cellules infectées d’un animal. Ici, l’étude menée par les chercheurs démontre que la reproduction du VIH-1 peut être stoppée et le virus éliminé des cellules infectées chez des souris à deux stades de la maladie. Selon Wenhui Hu, co-auteur de l’étude, "Ces recherches confirment les données de nos précédents travaux et nous avons amélioré l’efficacité de notre stratégie d’édition de gène. Cette stratégie est efficace sur deux nouvelles versions de souris, l’une ayant une infection aiguë dans des cellules de souris et l’autre une infection chronique ou latente dans des cellules humaines". Cette avancée confirme le potentiel thérapeutique immense de l'outil CRISPR/Cas9, les nouveaux « ciseaux génétiques » qui permettent de « couper » avec une précision absolue l’ADN de n’importe quelle espèce. Pour cette étude, les fragments d’ADN du virus ont été coupés avec succès après un seul traitement de CRISPR/Cas9. La technique serait donc capable de débusquer les virus dissimulés dans les organes et les tissus. Les résultats sont ici très prometteurs et cette nouvelle technique pourrait bientôt pouvoir contrer la capacité du virus à résister aux antirétroviraux et à se cacher dans des cellules. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| En temps normal, notre système immunitaire nous protège efficacemment contre les substances étrangères appelées antigènes (bactéries, virus, micro-organisme, cellules tumorales, aliments, etc.). Mais parfois ce système se dérègle et se retourne contre les cellules de l’organisme. Les maladies auto-immunes affectent plusieurs dizaines de millions de personnes à travers le monde. En Occident, elles sont les principales causes de décès chez les femmes de moins de 65 ans. Ces maladies comprennent le diabète de type 1, la sclérose en plaques, la maladie de Crohn, la colite ulcéreuse, la polyarthrite rhumatoïde et plusieurs types de maladies rénales. Des chercheurs de l’Université Monash, en Australie, ont essayé de comprendre pourquoi et comment le système immunitaire peut se détraquer au point de finir par provoquer de graves maladies auto-immunes chez certains patients. Selon Richard Kitching, coauteur de l’étude, « le système immunitaire humain a évolué au fil du temps pour lutter contre les infections et les maladies, en nous protégeant des envahisseurs. Mais notre système immunitaire peut se mettre à s'attaquer à nos propres cellules à cause de l'action de certaines molécules HLA ». Les antigènes HLA sont des molécules situées à la surface des cellules. Ils sont un marqueur du système immunitaire. Ces protéines constituent un système de reconnaissance propre à l’organisme. Elles servent donc à déterminer si une cellule fait partie de l’organisme ou s’il s’agit d’un envahisseur. Mais selon ces travaux, certaines de ces cellules augmenteraient au contraire le risque de développer une maladie auto-immune. Par exemple, certaines versions d’une molécule HLA appelée DR15 ont montré qu’elles augmentaient le risque de maladie du syndrome de Goodpasture, de la sclérose en plaques et d’autres affections auto-immunes. Une autre molécule appelée HLA-DR1 a également été associée à un certain nombre de conditions auto-immunes. En étudiant les réactions immunitaires de souris élevées pour exprimer le gène DR15n ou le gène DR1, ces chercheurs ont découvert que les souris DR15 avaient commencé à développer le syndrome de Goodpasture, tandis que celles qui ne possédaient que DR1 ou les deux molécules ne l’ont pas fait : « Dans la maladie de Goodpasture, lorsque la molécule DR15 est présente, elle peut sélectionner et instruire les cellules T pour attaquer le corps. Si elles sont seules dans notre corps, ces cellules peuvent attaquer les tissus du corps, ce qui entraîne les maladies auto-immunes », explique Kitching. « Mais quand les souris présentent les deux molécules, ces cellules T sont mises en sommeil ». Cette découverte marque une avancée importante dans la compréhension des mécanismes fondamentaux subtils d'équilibre et de rétroaction qui conduisent parfois notre système immunitaire à considérer ses propres cellules comme une menace. Cette avancée ouvre également la voie vers des traitements plus ciblés pour les maladies auto-immunes. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Il n'est encore qu'un projet mais il a déjà un nom : Yara Birkeland. Il s'agit du premier porte containers entièrement automatique et ne générant aucune pollution lors de son fonctionnement. Ce navire devrait être construit en Norvège par le constructeur aéronaval Kongsberg, en partenariat avec le chimiquier Yara, également norvégien, spécialisé dans la fabrication d'engrais. L'objectif de ce navire est de proposer une alternative écologique au transport routier des marchandises entre les villes portuaires du sud du pays. "Aujourd'hui, nous avons besoin quotidiennement de plus d'une centaine de jours (en temps cumulé NDLR) de temps de transport de camions pour acheminer nos produits depuis notre usine de Porsgrunn jusqu'aux ports de Brevik et Larvik depuis lesquels nous effectuons nos livraisons partout dans le monde" chiffre Svein Tore Holsether, directeur général de Yara. Avec un tel navire à propulsion électrique, il serait possible d'économiser un total de 40.000 jours de circulation de camion par an sur les routes norvégiennes, estiment les concepteurs de ce projet. Si l'avantage écologique de faire circuler des marchandises via un navire électrique "zéro émission" plutôt que via des camions diesel saute aux yeux, quel est l'intérêt de rendre une telle machine totalement autonome ? "Accroître la productivité et l'efficacité, en permettant de faire fonctionner le navire 24h sur 24 et 7 jours sur 7" explique Kristin Nordal, responsable de la communication chez Yara. "La chose sera tout à fait possible, d'autant plus que le chargement et le déchargement des marchandises seront eux aussi entièrement automatisés". Le partenariat entre les deux acteurs du projet venant d'être signé (le 9 mai), la construction peut désormais commencer. Si le calendrier est tenu, le Yara Birkeland pourrait entrer en service dès 2019, avec un équipage dans un premier temps. Puis, si le navire donne satisfaction, il devrait commencer à opérer de manière autonome dès l'année suivante. Il circulera alors sans équipage ni capitaine et sera équipé de capteurs lui permettant de détecter les autres navires. La machine pourra ainsi, seule, définir et suivre une trajectoire afin d'éviter les collisions. Toutefois, son trajet sera suivi en temps réel à distance par un opérateur qui pourra prendre la main sur les commandes en cas de besoin. Article rédigé par Georges Simmonds pour RT Flash Sciences et Avenir | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|