Consommer son placenta ? À éviter

DÉTECTEUR DE RUMEURS / L’idée de consommer son placenta pour éviter la dépression post-partum et pour prendre des forces après l’accouchement fait des adeptes sur le web. Mais la pratique n’est pas forcément bénéfique pour la santé. Le Détecteur de rumeurs explique pourquoi.

L’origine de la rumeur

La placentophagie, qui consiste à manger son placenta après l’accouchement pour en retirer de l’énergie, suscite un intérêt croissant chez les femmes en post-partum, en particulier aux États-Unis où des vedettes comme Kim Kardashian et Hilary Duff annoncent avoir consommé le leur sous forme de capsule ou en smoothies.

Le placenta assure les échanges nutritifs entre la mère et le fœtus par le biais du cordon ombilical. Par extension, les défenseurs de la placentophagie soutiennent que la pratique est bénéfique pour la mère puisque le placenta conserve les hormones, les vitamines et les nutriments qui ont permis au bébé de grandir.

Le placenta se mange cru, en smoothies avec des fruits, ou cuisiné. Le Détecteur de rumeurs a même vu des livres de recettes pour placenta ! Mais le plus souvent, les femmes le consomment sous forme de gélules fabriquées avec leur placenta déshydraté. Sur Internet, des dizaines d’entreprises proposent de préparer le placenta pour la consommation humaine ou vendent des ensembles d’encapsulation permettant aux nouvelles mamans de faire leurs propres gélules à partir de leur placenta.

Bien que la placentophagie soit encore peu répandue, elle inquiète les autorités de santé publique. Après les Centres de prévention et de contrôle des maladies (CDC) américains et Santé Canada, c’était au tour de la Société des obstétriciens et gynécologues du Canada (SOGC) de dénoncer la pratique dans l’édition de mai 2019 du Journal of Obstetrics and Gynaecology Canada.

Les bienfaits présumés

Parmi les bienfaits qui y sont attribués : la prévention de la dépression post-partum, une amélioration du taux de fer, une augmentation du niveau d’énergie et de la production de lait, et un renforcement des liens maternels.

De nombreux blogues rapportent les témoignages de femmes disant s’être senties mieux, avoir vu s'améliorer leur sommeil, leur humeur et leur niveau d’énergie, après avoir consommé leur placenta. Ces bienfaits sont aussi rapportés dans des sondages réalisés aux États-Unis. Leur méthodologie est toutefois critiquée par la SOGC.

Efficacité et sécurité contestées

Le problème, c’est qu’il n’existe pas suffisamment d’études à grande échelle et statistiquement fiables qui démontrent que le placenta agit comme un antidépresseur, aide à la production de lait ou réduit le risque de dépression post-partum. De plus, il n’est pas certain que le placenta conserve des vertus nutritives une fois expulsé du corps de la mère; et les faibles concentrations de nutriments trouvées dans les capsules de placenta déshydraté font douter d’un éventuel effet thérapeutique.

Après avoir fait une revue des données scientifiques disponibles sur la consommation de placenta, la SOGC a conclu en mai que la consommation de placenta humain ne peut être recommandée en raison du manque de données probantes. L’organisme souligne que les rares études sont de trop petites tailles ou comportent des failles méthodologiques. Par contre, les dommages potentiels, notamment le risque d’infection, sont documentés.

Les risques étaient aussi au cœur de l’avis émis par Santé Canada en novembre 2018. Le Ministère recommandait aux mères d’éviter de manger du placenta en raison des risques d’infections pour la femme et son nouveau-né. Un nourrisson a d’ailleurs été hospitalisé en septembre 2016, en Oregon, pour une infection bactérienne causée par les gélules de placenta contaminées au Streptococcus agalactiae que sa mère avait ingérées alors qu’elle l’allaitait. Les Centres de prévention et de contrôle des maladies ont réagi en juin 2017, en recommandant d’éviter la consommation de capsules de placenta, les méthodes d’encapsulation n’étant souvent pas adéquates pour tuer toute trace de contamination bactérienne ou virale.

Le placenta peut aussi être infecté lors sa manipulation et de son entreposage, après l’accouchement.

Au Canada, les méthodes utilisées pour préparer le placenta à la consommation, notamment sa cuisson ou sa déshydratation, ne sont pas réglementées, ce qui augmente le risque de contamination par des champignons, des virus ou des bactéries nuisibles. Jusqu’à maintenant, Santé Canada n’a autorisé aucun produit de santé contenant du placenta humain.

Verdict

Aucune donnée probante ne démontre que la consommation de placenta est bénéfique pour la santé humaine ou qu’elle peut réduire la dépression post-partum, régénérer le fer ou améliorer la lactation. Par contre, les risques potentiels, notamment ceux de contracter une infection, sont réels. Il est recommandé de laisser son placenta à l’hôpital après l’accouchement.

Science

Autisme, pesticides et PR: la suite

BLOGUE / La Fondation David-Suzuki a vivement réagi à mon billet de la semaine dernière au sujet de leur rapport sur le lien allégué entre les pesticides et l'autisme. C'était à prévoir, remarquez : je n'ai pas été particulièrement tendre envers leur document.

La FDS a publié sa réplique vendredi après-midi dernier. Par souci de transparence et d'honnêteté intellectuelle, je la reproduis intégralement ici. Autant vous avertir tout de suite, c'est long (et les points soulevés/développés ne me semblent pas tous très pertinents, mais bon). Je répondrai brièvement à cette réplique à sa suite.

Science

Les Canadiens ont moins confiance en la science, selon un sondage

Un sondage suggère que la confiance que les Canadiens ont envers la science est peut-être en train de s'éroder.

L'enquête, réalisée par le cabinet de sondage Ipsos pour le compte de la multinationale 3M, révèle que près de la moitié des personnes interrogées considèrent que les scientifiques sont élitistes et qu'un nombre important de personnes interrogées ignorent les découvertes scientifiques qui ne concordent pas avec leurs convictions personnelles.

«Bien que les sceptiques de la science représentent une minorité de Canadiens, leur nombre augmente», a déclaré Richard Chartrand de 3M Canada. «Cette tendance est préoccupante, car elle montre que la méfiance est en hausse.»

Ces données canadiennes sont tirées d'un sondage mondial mené entre juillet et septembre 2018 auprès de plus de 14 000 personnes. C'est la deuxième année que 3M effectue ce sondage.

À une époque où les changements climatiques et la perte d'espèces sauvages placent la science au sommet de l'ordre du jour public, le sondage indique que 32 % des personnes interrogées sont sceptiques à ce sujet. Le nombre de sceptiques s'élevait à 25 % l'année précédente.

«C'est passé d'une personne sur quatre à une personne sur trois», a noté M. Chartrand. «Il est difficile pour nous de comprendre pourquoi.»

Les résultats de l'étude étaient contradictoires. Bien que le doute soit en croissance, neuf répondants sur 10 ont déclaré avoir toujours confiance dans les résultats de recherches.

Près de la moitié — 44 % — ont déclaré qu'ils considéraient les scientifiques comme des «élitistes». Environ un tiers ont estimé que les scientifiques étaient influencés par l'ordre du jour du gouvernement. Un autre tiers pense que la science est influencée par les intérêts des entreprises.

Et 30 % ont indiqué qu'ils ne croyaient qu'aux sciences qui cadraient avec leurs convictions personnelles.

D'autres sondages ont fait écho à celui de 3M-Ipsos.

Question d’opinion

Un sondage Léger réalisé en 2017 pour le Centre des sciences de l'Ontario a révélé que 29 % des personnes interrogées pensent que comme les théories scientifiques peuvent être remises en question, on ne peut leur faire confiance. Une autre question a permis de constater que 43 % des répondants estiment que la science est une question d'opinion.

«C'est déprimant, mais pas trop surprenant», a déclaré John Smol, écologiste à l'Université Queen's, qui a écrit sur le sujet. «Il y a un réel décalage entre ce que font les scientifiques et la perception du public.»

M. Smol craint que les Canadiens ne comprennent pas comment fonctionne la science — ce sont les données qui comptent et non les croyances.

«Il y a certainement des idées fausses», a-t-il déclaré. «Vous ne pouvez pas leur en vouloir. Il existe une jungle de désinformation.»

Ce n'est pas la faute du public, affirme aussi Stephen Johnstone, qui dirige le département des sciences de la Terre et de l'atmosphère à l'Université de l'Alberta.

«Nous devons faire un effort pour communiquer dans des termes compréhensibles», a-t-il déclaré.

«En science, il y a déjà eu une éthique selon laquelle moins il y avait de gens qui comprenaient réellement ce que vous faisiez, meilleur était votre travail. Cela change.»

M. Smol abonde dans le même sens.

«Nous avons la responsabilité réelle de rendre la [science] accessible. Nous effectuons encore un travail relativement médiocre en ce qui concerne la traduction des données — généralement payée par les contribuables — et leur transmission au public.»

Science

Vapotage: des effets dévastateurs à craindre pour les poumons

LA SCIENCE DANS SES MOTS / Le vapotage cause de graves maladies chez de jeunes adultes et adolescents par ailleurs en bonne santé. Il provoque une toxicité et des lésions susceptibles de raccourcir l’espérance de vie et parfois même de tuer. Ses dégâts semblent irréversibles et inguérissables.

Un récent rapport, publié dans le New England Journal of Medicine, confirme que c’est bien le cas : 53 patients hospitalisés souffraient d’une grave toxicité pulmonaire et de lésions. L’âge moyen de ces patients était de 19 ans.

Dans sa brève histoire, le vapotage a mené à des hospitalisations, des semaines passées aux soins intensifs, des défaillances pulmonaires, un besoin urgent d’un appareil de pontage cardiopulmonaire et, après l’échec de toutes ces interventions, le décès tragique de ces jeunes par ailleurs en bonne santé.

Le Canada n'est pas à l'abris: un jeune de la région de London, en Ontario, pourrait être le premier patient canadien atteint d'une maladie pulmonaire causée par le vapotage, a indiqué le bureau de la santé publique de la région, mercredi.

En tant qu’expert scientifique en imagerie pulmonaire, je développe de nouvelles techniques afin de de pouvoir visualiser l’intérieur de la poitrine de façon à mesurer et surveiller aisément les anomalies pulmonaires des patients. Je constate les effets dévastateurs sur les poumons de fumeurs de cigarette et de cannabis. Je vois aussi la façon dont les bronches sont détruites et comment des millions de sacs alvéolaires paraissent abîmés ou même totalement détruits, résultant en de graves difficultés respiratoires, une piètre qualité de vie, puis la mort.

En raison des connaissances que j’ai acquises en développant de nouvelles techniques d’imagerie pulmonaire, et compte tenu de l’impact de l’inhalation du tabac et des gaz sur la santé pulmonaire, je suis préoccupée par le fait que les gouvernements et autres instances réglementaires aient choisi de se distancier des risques posés par la cigarette électronique.

Je suis très inquiète car le marketing de la cigarette électronique est à la fois persuasif, envahissant et répandu, en particulier quand il vise les enfants et les adolescents dont la croissance et le développement pulmonaires ne sont pas encore terminés.

Des substances huileuses à l’intérieur des poumons

Selon quelques rapports récents de patients souffrant de toxicité pulmonaire liée au vapotage, des substances huileuses ont été découvertes dans leurs globules blancs, leur tissu pulmonaire et leurs bronches.

S’il est possible que ces substances proviennent du mélange de nicotine et de THC contenu dans les cigarettes électroniques utilisé par ces patients il est encore difficile de comprendre et d’établir comment l’usage de la cigarette électronique induit ces maladies pulmonaires potentiellement mortelles.

Science

Le «lendemain de veille» des dinosaures...

Il y a 66 millions d’années, une météorite s’est écrasée sur la Terre, lançant une cascade d’événements qui allait mettre prématurément fin à la carrière des dinosaures. Mais que s’est-il passé au lendemain de la collision ? Dans l’heure qui a suivi ?

Ce sont les questions auxquelles ont voulu répondre les chercheurs qui ont analysé un forage du cratère de Chicxulub, qui gît aujourd’hui sous 1 000 mètres de calcaire, à cheval entre la péninsule du Yucatan et le Golfe du Mexique. Une «carotte» de roc de 130 mètres de long qui, décortiquée millimètre par millimètre, révèle une journée cataclysmique dont on devinait déjà les grandes lignes — mais la révèle pratiquement heure par heure.

Le genre de précision qu’on n’a pas l’habitude de voir en géologie, note dans le National Geographic la géologue Jennifer Anderson, qui commente le travail de ses collègues, paru lundi dans la revue Proceedings of the National Academy of Sciences.

La météorite a d’abord «temporairement» creusé un trou de 100 kilomètres de large et d’une trentaine de kilomètres de profondeur. Un impact qui a provoqué un tsunami s’éloignant dans la direction opposée au cratère, mais aussi catapulté de la roche jusque dans la haute atmosphère — et probablement au-delà, dans l’espace interplanétaire.

La plus grosse partie du matériel est retombée sur la terre ferme en quelques minutes, laissant une empreinte caractéristique — reconnaissable 66 millions d’années plus tard — d’une roche en fusion qui est retombée et s’est refroidie. En 30 minutes, l’océan a commencé à envahir le trou, par une ouverture du côté nord. Mais ce n’était qu’un avant-goût du déplacement qui allait se produire quand toute l’eau du tsunami allait revenir, quelques heures plus tard : des vagues de plusieurs centaines de mètres, renvoyées par les rivages les plus proches. Leur empreinte : une couche de 10 cm de sable et de gravier.

Ce qui ne se trouve pas dans le forage est aussi révélateur que ce qui s’y trouve, poursuivent les géologues : une absence de soufre, alors que les roches environnantes en sont riches. Une autre empreinte indirecte, à leurs yeux, de la quantité gigantesque de roche qui a été éjectée dans l’atmosphère, y libérant manifestement son soufre avant de retomber au sol. Et bien que le forage ne dise rien des jours qui ont suivi, cette quantité de soufre a dû avoir un impact sur le climat.

La journée n’était pas terminée. Des accumulations de charbon confirment que des incendies ont fait rage — et ont probablement brûlé pendant des semaines. Et là non plus, le cratère n’en dit rien, mais il est facile de déduire que ces incendies n’ont pas seulement brûlé à proximité : une partie de la roche en fusion éjectée dans l’atmosphère a pu servir d’allumette à de grandes distances.

Science

Formule 1: le mental joue pour «50 % sinon plus»

PARIS — La performance d'un pilote de Formule 1, «c'est au moins 50 % physique, 50% mental, sinon plus pour le mental», estime le docteur Riccardo Ceccarelli, fondateur de Formula Medicine et pionnier des méthodes d'entraînement à destination des pilotes.

Q : Quelles sont les spécificités de l'entraînement d'un pilote de Formule 1 ?

R : À titre de comparaison, le sport qui, pour moi, est le plus similaire est la boxe. Le boxeur doit à la fois être fort et rapide. Il ne faut pas que ses muscles soient trop gros, sinon il perd en vitesse. Le boxeur essaye aussi d'être au poids le moins élevé possible pour rester dans la catégorie inférieure. Il lui faut un temps de réaction très court, beaucoup de concentration, de la confiance en soi, ne pas avoir peur en allant au combat. Si vous considérez tous ces aspects, il y a beaucoup de points communs entre piloter une voiture et boxer.

Q : Quelle proportion prennent respectivement les préparations physique et mentale ?

R : Pour nous, c'est au moins 50 % physique, 50 % mental, sinon plus pour le mental. Quand vous avez atteint une haute condition physique et que vous pouvez piloter sans vous fatiguer pendant toute la durée de la course, il suffit de maintenir cela. Par contre, vous pouvez toujours progresser sur le plan mental et c'est cela qui améliore vos performances. Demander à un pilote d'enchaîner pendant une heure et demie soixante-dix tours au rythme des qualifications et sans faire aucune erreur est impossible. Ça serait comme demander à un marathonien de courir chaque kilomètre au même rythme. Il faut gérer son énergie, ses capacités et ça se joue dans le cerveau. Le rythme de course d'un pilote en bonne condition physique n'est pas limité par ses muscles mais par ses aptitudes mentales, sa capacité à rester concentré et à 100%.

Q : Comment travaillez-vous cet aspect mental ?

R : Nous disposons de deux gymnases jumeaux de la même superficie, l'un dédié au physique, l'autre au mental. Nous avons créé des logiciels pour travailler la concentration, la focalisation de l'attention, le temps de réaction, la coordination, la fluidité de mouvement, la flexibilité mentale, la capacité à effectuer plusieurs tâches simultanément... Ce qui est intéressant, c'est que nous mesurons non seulement la performance mais aussi le rythme cardiaque et l'activité cérébrale. C'est comme la télémétrie d'une voiture: nous pouvons savoir si vous gaspillez de l'énergie, si vous avez trop de pression au début, si vous vous fatiguez à la fin ou perdez en concentration, si vous pensez trop et ne restez pas assez focalisé... Pour plus de pression, jusqu'à quatre personnes peuvent participer au même test. Les pilotes sont en général tellement fiers et ont un tel esprit de compétition que la plupart sont alors moins performants et consomment plus d'énergie. C'est important de leur montrer que la compétition peut leur faire perdre de leur potentiel et qu'il faut arriver en course relaxé, l'esprit libre, sans trop réfléchir ou se fixer d'objectif, d'être juste calme et confiant. Pour résumer, c'est comme un détecteur de mensonges qui permet de déceler vos points faibles pour travailler ensuite dessus avec des psychologues de manière personnalisée. Le but est d'améliorer la performance tout en réduisant la consommation. Quand votre corps et votre esprit consomment moins, vous gérez mieux la pression, vos capacités et vos ressources. On parle de mental economy training («entraînement pour s'économiser mentalement», ndlr). C'est innovant car la préparation mentale était jusque-là l'affaire de psychologues ou de coachs qui travaillent avec la parole plutôt que de chiffres.

* * * * *

Propos recueillis par Raphaëlle Peltier.

Science

Le deuxième visiteur interstellaire est encore plus intéressant que le premier

Les astronomes sont dans un état d’excitation avancé : un autre objet interstellaire, la comète C/2019 Q4 (Borisov) serait entré dans notre système solaire, après le mystérieux Oumuamua de 2017. Et ce petit nouveau aurait plusieurs avantages sur Oumuamua.

Explication. On entend par objet interstellaire un corps céleste qui n’est pas en orbite autour de notre Soleil. Autrement dit, il ne s’agit même pas d’une comète dont l’orbite est si excentrique qu’elle met des milliers d’années à faire un tour complet. Il s’agit d’un astéroïde ou d’une comète qui est venu d’ailleurs… et qui va y retourner.

Qu’est-ce qui rend les astronomes si certains de leur coup, puisqu’ils n’ont détecté cet objet qu’alors qu’il était déjà relativement près de nous, et non au-delà de notre système solaire ? Deux choses : sa trajectoire — qui permet de déduire de quelle région du ciel il arrivait — mais surtout sa vitesse, qui fait en sorte qu’il ne sera pas capturé par l’attraction de notre Soleil et poursuivra sa route vers les étoiles.

Si l’intuition des astronomes se confirme quant à l’identité extrasolaire de la comète C/2019 Q4 (Borisov), celle-ci présentera trois avantages sur Ouamuama.

  • L’excentricité de son orbite : une planète comme la Terre, avec son orbite presque circulaire, a un facteur d’excentricité de presque zéro. Les comètes et les astéroïdes, y compris les plus «excentriques», oscillent entre 0 et 1. Oumuamua était à 1,2, ce qui en faisait déjà une anomalie. Alors que ce nouveau venu est estimé pour l’instant à 3,08.
  • Sa vitesse : à 41 kilomètres par seconde, c’est déjà plus rapide que tout autre objet de notre système solaire, suffisant pour échapper à la gravité de notre Soleil, sans compter qu’il va encore gagner de la vitesse à mesure qu’il va s’en approcher; le bémol ici, note l’astronome Phil Plait, est qu’un objet « normal » aurait pu gagner beaucoup de vitesse s’il s’était beaucoup approché de Jupiter, mais sa trajectoire n’étant pas parallèle à celle de notre système solaire, une telle rencontre avec Jupiter semble improbable.
  • Elle continue de s’approcher : alors qu’Oumuamua avait été découvert tandis qu’il s’éloignait déjà de nous, celui-ci, découvert le 30 août — par un astronome amateur russe appelé Gennady Borisov, d’où son nom provisoire — devrait être à son point le plus près de nous — à «seulement» 300 millions de km — au début de 2020, ce qui laisse présager que beaucoup de temps de télescopes initialement prévu pour d’autres choses sera consacré à cette bien modeste comète qui ne fait que quelques kilomètres de diamètre.

S’ajoute à cela le fait que si on a détecté deux objets venus d’ailleurs en seulement deux ans, il doit y en avoir beaucoup d’autres qui passent inaperçus dans notre voisinage.

Science

Peut-on réellement savoir ce que pensent les animaux?

LA SCIENCE DANS SES MOTS / Sarah, «la chimpanzée la plus intelligente au monde» est décédée en juillet dernier, à quelques jours de son soixantième anniversaire. Durant la plus grande partie de son existence, elle a servi de sujet de recherche, ce qui a permis aux scientifiques d’ouvrir une fenêtre sur le mode de pensée du parent le plus proche de l’humain.

La mort de Sarah nous donne l’occasion de réfléchir à une question fondamentale: peut-on réellement savoir ce que pensent les animaux? En m’appuyant sur mon expérience de philosophe, je postule que la réponse est non. Car il y a des limites de principe à notre compréhension de la pensée animale.

La pensée animale

Il ne fait guère de doute que les animaux réfléchissent. Leur comportement est trop sophistiqué pour n’être qu’instinctif. Mais il est extrêmement difficile de déterminer avec précision ce à quoi ils pensent. Notre langage humain n’est pas adapté à l’expression de leurs pensées.

Sarah est l’exemple parfait de ce casse-tête. Lors d’une étude célèbre, elle a choisi correctement l’objet nécessaire pour compléter une série d’actions. Face à une personne se débattant pour atteindre quelques bananes, elle a bien choisi un bâton plutôt qu’une clé. Alors que face à une personne enfermée dans une cage, elle a préféré la clé au bâton.

Ce qui a amené les membres de l’étude à conclure que Sarah possédait « une théorie complète de l’esprit », comprenant les concept d’intention, de croyance, et de savoir. Théorie immédiatement contestée par d’autres chercheurs. Ils doutaient que nos concepts humains puissent saisir avec exactitude le point de vue de Sarah. Bien que des centaines d’études additionnelles aient été menées depuis des décennies, le désaccord règne en maître quant à la caractérisation des concepts mentaux des chimpanzés.

La difficulté ne découle pas d’une incapacité à s’exprimer. Une fois un langage rudimentaire maîtrisé, le casse-tête Sarah ne relevait plus de savoir ce qu’elle pensait mais bien de comprendre ce que ses mots voulaient dire.

Les mots et leur sens

Il se trouve que le problème de l’association de leur sens aux mots est une obsession fondamentale des philosophes du XXe siècle. Parmi ceux-ci, W.V.O. Quine, probablement le philosophe le plus influent de la seconde moitié de ce siècle.

Professeur à Harvard, la renommée de Quine s’est construite sur l’idée de ce qu’il faudrait pour traduire une langue étrangère — un projet qu’il intitule la traduction radicale. Il conclut qu’il y aurait toujours plusieurs traductions possibles toutes aussi valables les unes que les autres. En conséquence, nous ne pourrons jamais définir le sens exact à attribuer aux mots d’une langue. Mais il a également fait remarquer que la traduction radicale était limitée à la structure même d’une langue.

Quine a inventé une langue étrangère sans aucun rapport avec les langues humaines connues. Je me servirais de l’allemand pour illustrer ce propos. Supposons qu’un germanophone prononce la phrase: Schnee ist weiss («La neige est blanche»). Ses amis sourient et acceptent le sens de cette phrase telle quelle. Malheureusement, il y a peu d’indices quant au sens de la phrase. Il y a plusieurs vérités et la phrase pourrait signifier n’importe laquelle de ces vérités.

Ce qui suggère une conclusion générale: si nous sommes capables de traduire des phrases d’une langue à l’autre, c’est essentiellement parce que nous pouvons traduire les mots d’une langue vers une autre langue.

Mais imaginons une langue dont la structure nous est totalement inconnue. Comment la traduire? Si, pour traduire des phrases, il faut en traduire les mots, mais que ces mots ne sont pas liés à notre langue, nous serions incapables de les reporter dans notre langue. Nous ne pourrions pas comprendre le sens de ces phrases.

Science

Vitesse d'expansion de l'Univers: la controverse continue

WASHINGTON — Les astrophysiciens savent depuis 90 ans que l'univers s'étend, et ils tentent depuis de mesurer la vitesse exacte de cette expansion. Mais différentes méthodes produisent des résultats différents, forçant les scientifiques à se demander si leur théorie du cosmos est solide.

Dans les années 1920, les astrophysiciens Georges Lemaître et Edwin Hubble ont découvert que l'univers était en expansion, au lieu d'être un terrain calme et borné. En 1998, deux équipes de chercheurs ont découvert que le rythme de cette expansion s'accélérait avec la distance, et que l'univers était rempli d'une mystérieuse «énergie noire» causant cette accélération, depuis 14 milliards d'années. Ils ont gagné le prix Nobel en 2011.

La vitesse est calculée grâce à la «constante d'Hubble». Cette constante est estimée de plus en plus précisément par les physiciens. Le problème est qu'elle est de 67,4 selon une méthode, et de 73 selon une autre. L'unité est en kilomètres par seconde par mégaparsec. Un mégaparsec égale environ trois millions d'années-lumière. Cela se lit ainsi: des galaxies situées à trois millions d'années-lumières (1 mégaparsec) s'éloignent de 67,4 (ou 73 !) kilomètres par seconde.

Les deux nombres semblent proches, mais pas pour les cosmologistes. Chaque méthode ayant une marge d'erreur faible, le fossé entre les deux résultats ne s'explique pas par une simple erreur de calcul: il y aurait donc un problème plus fondamental, quelque chose qui nous échapperait concernant l'univers et que la théorie actuelle n'est pas capable d'expliquer. Peut-être que l'équation expliquant le Big Bang et le cosmos a besoin d'être mise à jour.

«Des lois physiques inconnues»

La recherche actuelle, impliquant de nombreuses équipes dans le monde, consiste non seulement à affiner les mesures de distance des étoiles, mais aussi à trouver de nouvelles méthodes pour mesurer la vitesse de fuite des galaxies et peut-être résoudre ce que les physiciens appellent sobrement, au lieu d'une controverse ou d'une crise, la «tension» de la constante d'Hubble. Illustrant cette quête frénétique, une étude décrivant une méthode nouvelle, rédigée par des chercheurs de l'Institut d'astrophysique Max Planck en Allemagne et d'autres universités, est ainsi parue jeudi dans la revue américaine Science.

Ils sont parvenus à mesurer la distance de deux étoiles en observant comment sa lumière se courbe autour de grosses galaxies sur son trajet jusqu'à la Terre. Cette équipe a mesuré la constante à 82,4 km/s/mégaparsec, mais avec une marge d'erreur de plus ou moins 10 %, soit beaucoup plus que les mesures effectuées par d'autres équipes.

«Si la tension est réelle, cela veut dire que l'univers ancien était gouverné par des lois physiques inconnues», dit la cosmologiste Inh Jee à l'AFP, coautrice de l'étude. Le but de ces nouveaux travaux est de vérifier s'il y réellement un problème fondamental. Elle espère que d'autres observations réalisées avec sa méthode permettront de réduire l'erreur, qu'elle reconnaît être trop grande pour l'instant.

Interrogé par l'AFP, l'un des prix Nobel 2011 Adam Riess, de l'Université Johns Hopkins, confirme que ces nouveaux résultats ne sont pas assez précis pour vraiment peser dans la controverse, en tout cas pour l'instant. «Je ne pense pas que cela apporte grand chose à l'état actuel des connaissances. Mais c'est sympa que des gens cherchent des méthodes alternatives, donc bravo¢, conclut le célèbre astrophysicien dans un e-mail.

Science

Paludisme: une promesse venue du Nord

Région fragile, le Grand Nord québécois a encore beaucoup à nous apprendre. Il possède une biodiversité unique dont pourraient même être extraites des molécules susceptibles de nous soigner… ou de soigner des populations lointaines, selon une récente découverte.

L’équipe du chimiste Normand Voyer, de l’Université Laval, a en effet mis à jour de possibles propriétés antipaludiques dans des molécules des eaux froides de la baie de Frobisher, au Nuvavut. Et l’une des quatre molécules issues de ce champignon microscopique du genre Mortierella s’avère particulièrement prometteuse. «L’incroyable, c’est qu’une molécule du Nord pourrait aider à soigner une des pires maladies du Sud», la malaria, ou paludisme, relève le chercheur.

Certains moustiques des régions chaudes (les anophèles femelles) transmettent par piqûre à l’homme un parasite, du genre plasmodium. C’est ce parasite qui entraine le paludisme. Cette maladie infectieuse se caractérise par des symptômes voisins de la grippe : fortes fièvres, douleurs musculaires, affaiblissement, fatigue. Mais les conséquences peuvent être beaucoup plus graves : anémie, œdème pulmonaire, détresse respiratoire, jusqu’au décès pour les nourrissons et les jeunes enfants, les malades et les personnes avec un système immunitaire affaibli.

En laboratoire, les quatre molécules (mortiamide A, B, C et D) ont été testées sur différentes souches. Résultat : la mortiamide D a réussi à éliminer le parasite Plasmodium falciparum des globules rouges, in vitro, en 72 heures.

Il ne s’agit que d’une première étape : l’identification d’une molécule prometteuse. «Il nous faut comprendre son mode de fonctionnement et quelles sont les enzymes qu’elle affecte. Nous sommes encore loin d’un médicament», convient le chercheur.

Le Nunavut constitue un milieu de vie haut en stress avec son alternance de six mois de froid glacial et d’obscurité et de six mois d’intense rayonnement UV. Ce qui explique que les organismes indigènes se parent de moyens de défense performants pour assurer leur survie.

Si un champignon nordique possède de telles molécules, plus toxiques pour les parasites, c’est qu’il s’agit d’une défense chimique — la même stratégie de protection que le piment jalapeño avec ses molécules au goût piquant (capsaïcines), afin de ne pas être mangé.

À côté des prospections minières dans la mire du gouvernement provincial, dorment donc des richesses naturelles, terrestres et marines. «Mon rêve serait de préserver la chimio-diversité du Grand Nord avant que les changements climatiques ne les fassent disparaître», poursuit le Pr Voyer.

Lutte au paludisme

Malgré un recul des cas de paludisme dans le monde depuis près de 20 ans, cette maladie infectieuse stagne : on a compté 219 millions de cas en 2017. Elle fait encore des ravages en Asie, en Amérique centrale et du Sud et surtout en Afrique, où près de 90 % des décès surviennent — l’OMS en dénombrait 435 000 en 2017, majoritairement de jeunes enfants.

À l’autre bout du monde, les changements climatiques déplacent aussi les vecteurs de cette maladie, les anophèles, vers des altitudes plus élevées. La lutte prend de nombreuses voies : insecticides, moustiquaires imprégnées d’insecticides, assèchement de milieux humides… Avec une certaine efficacité, mais sans parvenir à éliminer l’ennemi.

«Nous avons fait beaucoup de progrès, mais il faut plus d’efforts pour éradiquer les moustiques porteurs du parasite», déclare le Professeur adjoint du Département de médecine sociale et préventive de l’École de santé publique de l’Université de Montréal, Thomas Druetz.

Le traitement actuel contre le paludisme — un dérivé de l’artémisinine qui provient d’une plante de Chine, l’Artemisia annua, donné en première ligne — connaît lui aussi des résistances. Même combiné avec d’autres traitements antipaludiques, il perd du terrain face au parasite.

«Les résistances que nous constatons pour les traitements actuels montrent que nous avons besoin de nouvelles molécules. La publication du Pr Voyer est intéressante, mais est à un stade très préliminaire; on ignore encore l’efficacité de cette molécule chez l’homme», relève encore le chercheur.

Pour sa part, le Pr Druetz étudie l’efficacité de médicaments de prévention face au paludisme saisonnier. Sa récente étude, auprès d’enfants du Mali, montre que cette stratégie diminue de 44 % le risque d’un diagnostic positif, mais aussi décroît le risque d’anémie modérée et sévère chez les enfants. Près de 12 millions de très jeunes enfants d’une douzaine de pays africains ont reçu ce type de traitement préventif.

Qui bénéficie de cette pharmacopée du Nord ?

À l’Université du Québec en Abitibi-Témiscamingue, le chercheur et directeur de l’École d’études autochtones, Hugo Asselin, a élaboré un répertoire de 546 taxons végétaux utilisés par les peuples autochtones de la forêt boréale canadienne. Le sureau, l’achilée, le thuya et bien d’autres plantes : un savoir qu’il importe de préserver

Mais ces plantes intéressent aussi les industries pharmaceutique et cosmétique sans que les premiers peuples en tirent des redevances ou une forme de compensation. «Qui bénéficie de cette pharmacopée du Nord ? Lorsqu’on fait des recherches et des produits à partir des ressources utilisées par les communautés, sans les associer, j’y vois un glissement vers une appropriation d’une richesse naturelle et je me questionne sur la dimension éthique», relève l’ethnobotaniste de l’Institut de recherche en biologie végétale de l’Université de Montréal, Alain Cuerrier. Il juge que les travaux du Pr Voyer sont ainsi dans une zone grise, parce que le Canada n’a pas ratifié le Protocole de Nagoya sur l'accès aux ressources génétiques et leur partage équitable.

Les chercheurs n’ont pas de droits acquis sur les ressources et les savoirs locaux et les recherches devraient bénéficier aussi à ceux qui y vivent, d’une manière ou d’une autre. «Il s’agit du territoire Inuit et les chercheurs ont un devoir de transparence et de consultation des communautés qui y vivent. C’est dommage que les autochtones n’aient pas été mêlés à ça ni les autorités autochtones consultées», relève encore le Pr Cuerrier.

Science

Surprise: les squelettes surnommés les «amants de Modène» étaient deux hommes

PARIS — Découverts enterrés main dans la main, ils sont rapidement devenus les «amants de Modène» mais surprise, une étude publiée dans Scientific Reports révèle que ces deux squelettes de l'Antiquité étaient des hommes.

Découvert en 2009 dans la ville de Modène en Italie lors de fouilles dans une nécropole datée entre le IVe et le VIe siècle, les deux individus étaient en trop mauvais état pour que les chercheurs puissent définir leur sexe. Leur inhumation, particulière, avait alors laissé penser qu'ils avaient été placés ainsi pour «montrer leur amour éternel», expliquent les chercheurs dans un communiqué de l'Université de Bologne.

Mais une nouvelle analyse met à mal cette lecture fleur bleue: l'émail dentaire des deux individus contiennent une protéine, appelée AMELY, apanage des hommes.
Une découverte qui rend ces deux squelettes, exposés à Modène, encore plus intéressants. «Dans le passé, plusieurs tombes renfermant des couples d'individus placés main dans la main ont été découvertes mais c'est toujours un homme et une femme», explique Federico Lugli de l'Université de Bologne, coauteur de l'étude.

Reste donc maintenant à découvrir ce qui liait ces deux hommes. «Nous pensons que ce choix symbolise une relation particulière entre les deux individus, mais nous ne savons pas laquelle, reconnait le chercheur qui aurait tendance à écarter tout lien amoureux du fait des pratiques sociales et des restrictions religieuses de l'époque. «À partir du règne de Justinien (527-565), les rapports sexuels entre hommes sont pleinement considérés comme un crime», précise l'étude.

«À la fin de l'Antiquité, il est peu probable qu'un amour homosexuel puisse être reconnu aussi clairement par les personnes qui ont préparé l'enterrement, explique le chercheur. Étant donné que les deux individus sont d'âge similaire, à peu près 20 ans, ils pourraient plutôt être parents, par exemple frères ou cousins. Ou alors ce sont des soldats qui sont morts ensemble au combat.»

Science

Maxime Bernier et le climat: «regardons les faits»

DÉTECTEUR DE RUMEURS / Au cours d’une entrevue accordée à l’émission 24/60 le 4 septembre, le chef du Parti populaire canadien a répété à plusieurs reprises son refus de parler d’une «urgence climatique», et a souligné qu’il fallait s’appuyer sur «les faits». Le Détecteur de rumeurs l’a pris au mot.

Maxime Bernier : Il y a 10 ans, c’était Al Gore qui nous disait, si on ne fait rien, le niveau des océans va monter et ça va être la fin pour certaines villes... À chaque 10 ans, on nous parle d’urgence climatique.

Fait : en citant Al Gore, Maxime Bernier faisait peut-être référence au militantisme environnemental. Mais il n’existe pas de tels cycles dans la recherche scientifique sur le climat ou sur les océans. La tendance lourde, depuis les années 1960, est plutôt constante : une accumulation de données allant de plus en plus dans la direction d’un réchauffement climatique anormalement rapide, causé en bonne partie par l’activité humaine.

MB : Est-ce que le niveau des océans augmente ? Non !

Fait : selon plusieurs études, le niveau des océans a monté en moyenne de 1,2 mm à 1,7 mm par année entre 1900 et 1990, et ces chiffres semblent avoir doublé depuis les années 1990. Si la tendance se maintient, entre les estimations les plus optimistes et les plus pessimistes, cela représentera, d’ici 2100, de 450 à 750 millions de personnes vivant aujourd’hui dans des zones qui seront submergées.

MB : Et on ne peut pas baser des politiques climatiques sur la peur... Moi je suis en train de dire qu'on doit bâtir des politiques publiques sur la raison et les faits.

Fait : la température moyenne de la Terre a augmenté d’un degré depuis un siècle et tout dépendant de la vitesse à laquelle nous réduirons nos émissions de gaz à effet de serre, on aura dépassé le seuil du degré et demi entre 2030 et 2040; le seuil des deux degrés pourrait être franchi avant 2100 — voire les trois degrés, dans les scénarios moins optimistes.

MB : Ce que je suis contre, c’est de dire que (c’est) la faute principale de l’activité humaine. Et il y a des scientifiques comme Patrick Moore, qui a quitté l’organisation qu’il a fondée lui-même, Greenpeace, il est un scientifique, et il dit qu’il y a plusieurs autres facteurs.

Fait : Patrick Moore n’a pas fondé Greenpeace, il en est devenu membre en 1971, comme en témoigne cette lettre fournie par Greenpeace. Moore a été un militant actif de Greenpeace Canada jusqu’au début des années 1980.

Fait : Patrick Moore ne publie pas de recherches, il est avant tout un lobbyiste rémunéré depuis 30 ans par différentes industries, en particulier le nucléaire, l’exploitation minière et forestière.

Le Détecteur de rumeurs ouvre ici une parenthèse : lorsqu’on lit dans les médias une phrase telle que «les scientifiques s’entendent sur le réchauffement climatique», on veut en réalité dire «les scientifiques qui ont publié des recherches sur le climat arrivent tous aux mêmes conclusions». Ou encore : « les scientifiques qui ont publié des recherches sur le climat dans des revues révisées par d’autres scientifiques arrivent tous aux mêmes conclusions». Le seul texte que Patrick Moore ait publié ces dernières années qui pourrait être qualifié de recherche est un document publié en 2016 pour le compte du Frontier Center for Public Policy, un groupe de pression de droite qui a affiché sa vive opposition aux «dommages politiques causés par le lobby de l’énergie verte».

MB : Regardez dans les faits. Regardez dans les faits. Je ne demande pas aux gens de me croire sur parole, je demande aux gens de faire leurs recherches, de regarder, je fais appel à l'intelligence des gens, et j'amène un autre point de vue au débat.

Fait : en science, tout n’est pas sujet au même type de « débat » qu’une discussion politique. L’évolution, par exemple, ne fait plus débat parmi les biologistes, l’astrologie ne fait plus débat parmi les astronomes, la Terre plate ne fait plus débat parmi les géographes. Ces sujets font consensus.

On entend souvent dire que «97 % des recherches publiées par des experts sur le climat» confirment la théorie du réchauffement climatique causé par l’homme. L’origine de cette affirmation est une recherche de l’historienne des sciences de l’Université Harvard, Naomi Oreskes, en 2004 : sur 928 études publiées par des climatologues et contenant les mots-clefs (en anglais) «global climate change», aucune n’était en désaccord avec le consensus sur le réchauffement climatique. Depuis, au moins 14 compilations similaires sont arrivées à des totaux variant entre 91 % et 100 %, tout dépendant du niveau d’expertise retenu pour figurer dans la compilation.

Science

L’un des plus gros animaux volants de l’histoire identifié au Canada [PHOTOS]

PARIS - Dix mètres d’envergure et 250 kilos: une nouvelle espèce de ptérosaure, gigantesque reptile volant qui vivait à l’ère du Crétacé, a été identifiée au Canada par une équipe de paléontologues.

Ce ptérosaure, appelé «Cryodrakon boreas», vieux d’environ 77 millions d’années, est l’un des deux plus gros animaux volants ayant existé, rivalisant par sa taille avec un autre ptérosaure connu, le «Quetzalcoatlus» (10,5 mètres), expliquent les chercheurs à l’occasion de la publication de leur étude dans le Journal of Vertebrate Paleontology.

Les fossiles avaient été découverts il y a déjà 30 ans dans la province canadienne de l’Alberta, mais les paléontologues les avaient alors associés au «Quetzalcoatlus», découvert au Texas.

Mais en les étudiant de plus près, il s’est avéré que ces fossiles provenaient finalement d’une espèce différente.

En comparant le squelette d’un jeune animal à l’os de cou géant, intact, d’un autre spécimen, les paléontologues ont déduit que le «Cryodrakon boreas» pouvait atteindre 10 mètres à sa taille adulte.

Il existe à ce jour plus de 100 espèces connues de ptérosaures, répartis en Amérique, en Asie et en Europe.

«C’est une belle découverte. Nous savions que cet animal était présent ici, mais maintenant nous pouvons prouver qu’il est différent des autres, et lui donner un nom», se félicite David Home, chercheur à l’Université Queen Mary de Londres et auteur principal de l’étude.

Cette découverte «nous donne une meilleure idée de la diversité des ptérosaures en Amérique du Nord et de leur évolution», ajoute le chercheur.

Comme les autres reptiles volants du Crétacé, le «Cryodrakon boreas» était carnivore. Il se nourrissait probablement de lézards, de petits mammifères et même de bébés dinosaures.

+



Un fossile d’un os du cou de «Cryodrakon boreas» pouvait atteindre 10 mètres à sa taille adulte.  AFP/QUEEN MARY UNIVERSITY OF LONDON/DAVID HONE



Science

D'autisme, de pesticides et de PR

BLOGUE / À première vue, quand un groupe d'intérêt publie un rapport qui s'appuie sur 158 études scientifiques, il y a de quoi se réjouir. On déplore constamment que la science a de la misère à se frayer un chemin jusque dans les débats publics, alors on ne va quand même pas bouder ce plaisir, hein ? Mais en cette matière comme en tant d'autres, le diable se cache souvent dans les détails, et le rapport de la Fondation David-Suzuki sur le lien entre autisme et pesticides en est simplement une preuve de plus.

Le rapport, paru la semaine dernière, est disponible ici. Il se présente comme une «revue de la littérature scientifique» et montre explicitement du doigt les pesticides comme une cause majeure, sinon la principale, de la hausse fulgurante des diagnostics d'autisme au cours des 20 dernières années — le nombre a été multiplié par presque 10 chez les élèves du Québec depuis 2001, d'après un graphique du rapport.

Le document a eu un bel écho, étant repris par plusieurs médias, malheureusement pas toujours de manière très critique — mais des fois oui, quand même. En fait, même le premier ministre François Legault a été cité comme qualifiant le phénomène de «grave» et «inquiétant», c'est tout dire. Alors il vaut la peine de regarder ce rapport de plus près. Voici ce que j'en retiens, en vrac :

- Vous avez dit «études» ? La bibliographie du rapport comporte bel et bien 158 références, mais ces «158 études» ne sont pas toutes des études à proprement parler, et celles qui en sont ne portent pas toutes sur le lien allégué entre les pesticides et l'autisme. On y trouve des rapports gouvernementaux, des études sur l'inflammation des poumons par des polluants (réf. 31), sur l'effet des polluants sur les mitochondries (partie des cellules qui fournit de l'énergie à la cellule, réf. 33), etc. Il y a aussi des études qui portent sur l'effet de la pollution en général sur l'autisme, dans lesquelles les pesticides sont décrits comme un facteur environnemental parmi d'autres, sans plus.

- Pas toutes pertinentes. Il y a bel et bien, dans ces références, des études qui suggèrent vraiment un lien entre les pesticides et l'autisme. La Fondation David-Suzuki en a d'ailleurs trouvé un assez bon nombre, disons-le. Mais même parmi elles, il s'en trouve qui ne sont pas aussi pertinentes qu'il n'y paraît. Quelques unes portent sur le DDT (et son dérivé, le DDE), un insecticide qui a été interdit d'utilisation au Canada... dans les années 70. Quelques autres examinent les effets d'un autre insecticide, le chlorpyrifos, dont le Canada s'apprête déjà à interdire la plupart des usages agricoles.

- Samsel et Seneff. Tant qu'à être dans ces études-là : sérieusement, Fondation David-Suzuki ? Samsel et Seneff ? Plusieurs «études» d'Anthony Samsel et Stephanie Seneff ?!? Eux qui ne sont vraiment pas des experts en toxicologie, le premier étant consultant pro bono en environnement et la seconde, chercheuse en informatique ? Eux qui ont lié le glyphosate (l'herbicide le plus vendu dans le monde) à littéralement toutes les maladies modernes, allant de l'autisme à l'obésité en passant par le cancer et quoi d'autre encore ? Eux dont les articles ont été totalement anéantis par à peu près tous les vrais experts qui ont perdu leur temps à les lire ? À quoi on joue là, au juste ?

Écoutez, même de proches collaborateurs de Gilles-Éric Séralini ont descendu les «études» de Samsel et Seneff en flamme. Pour mémoire, M. Séralini est l'auteur principal de la tristement célèbre étude de 2012 qui prétendait «prouver» que les OGM étaient cancérigènes, mais dont les faiblesses méthodologiques étaient immenses et dont les résultats ont ensuite été intégralement contredits par d'autres études mieux faites. Il a la réputation (amplement méritée) d'être extrêmement et inutilement alarmiste. Eh bien deux de ses collaborateurs ont conclu en 2017 que «les mécanismes et le vaste éventail de conditions médicales que Samsel et Seneff font remonter au glyphosate dans leurs commentaires sont au mieux des théories sans substance, des spéculations, ou simplement incorrectes».

Si même des chercheurs à la réputation un brin sulfureuse comme eux s'en distancient, ça en dit long sur la valeur de ces travaux. Or le rapport de la Fondation David-Suzuki cite plusieurs articles de Samsel et Seneff et consacre quelques paragraphes à défendre (en suivant une logique douteuse) leur crédibilité. Pincez-moi quelqu'un, je dois être en train de faire un cauchemar.

- Angles morts. Au-delà des références pas directement pertinentes et des sources douteuses — j'imagine que l'Alternative Medicine Review (réf. 132) a l'air pas si mal quand on cite Samsel et Seneff, joual-vert j'en reviens toujours pas de celle-là —, je répète qu'il y a d'authentiques études faites par des chercheurs sérieux qui suggèrent un lien possible entre l'autisme et les pesticides. On ne peut pas dire que le rapport de la Fondation David-Suzuki est basé uniquement sur du vent. Mais on peut certainement en dire qu'il a un angle mort é-nor-me : la génétique.

Le document passe très rapidement (en page 4) sur les causes génétiques de l'autisme, essentiellement pour en minimiser l'importance. Or nombre d'études récentes montrent justement que l'on a affaire à un phénomène très principalement génétique, mais la pas-si-bien-nommée «revue de littérature» de la Fondation David-Suzuki n'en dit absolument rien. Pas un mot sur la plus vaste étude jamais entreprise sur la question, pourtant parue cet été, qui a conclu que l'autisme est «héritable» (lire : génétique) à 80 %. Pas un mot sur celle-ci, parue en 2017, qui place l'héritabilité à 83 % et la part de l'environnement à 17 %. Pas un mot sur cette méta-analyse qui a agrégé les données des études de jumeaux sur l'autisme et a chiffré la part des gènes entre 64 et 91 %. Et j'en passe.

Or si l'environnement joue un si faible rôle, alors l'«hypothèse» avancée et présentée comme une quasi certitude par la Fondation David-Suzuki ne tient absolument pas la route : des facteurs secondaires ne peuvent pas expliquer (en tout cas, pas plus que très partiellement) que le nombre de cas ait été multiplié par 10. Et c'est encore moins plausible quand, comme la FDS, on se concentre uniquement sur une petite partie de ces facteurs environnementaux (les pesticides, mais on soupçonne bien d'autres causes environnementales par ailleurs).

Alors il faut logiquement regarder du côté des diagnostics (critères différents, meilleur dépistage, sensibilisation des milieux médicaux et de l'éducation, remplacement de diagnostics antérieurs par l'autisme, etc.) pour expliquer la hausse des cas. Mais la «revue de littérature» passe tout aussi rapidement là-dessus que pour les gènes, encore ici pour en minimiser l'importance. Et elle passe complètement sous silence des études comme celle-ci, par exemple, qui a trouvé qu'une part appréciable de ceux qui ont reçu un diagnostic de «trouble de développement du langage» dans les années 1980 auraient très probablement été considérés comme autistes s'ils étaient nés 20 ans plus tard.

Notons que tout ceci est entièrement cohérent avec les réactions d'experts quand sort une étude liant autisme et pesticides. Ils font presque tous valoir que l'on a affaire d'abord et avant tout à une question de gène et de diagnostic (voir ici, ici et ici).

* * * * *

Il n'y a pas 56 conclusions possibles à tout ceci : la FDS est partie avec une conclusion choisie à l'avance, qui cadrait avec son idéologie et avec le message politique et alarmiste qu'elle voulait véhiculer, alors elle s'est fabriqué une «revue de littérature» taillée sur mesure. Il fallait laisser entendre le plus clairement possible que les pesticides sont derrière la hausse des cas d'autisme, alors exit les causes à quelque 80 % génétiques, exit les questions de diagnostic. Et s'il faut gratter les fonds de tiroir jusque dans leurs racoins les plus obscurs pour grossir la «revue de littérature» avec des travaux non-pertinents ou spectaculairement faibles, so be it, comme on dit.

À sa décharge, le document comporte une section «Méthodologie» où l'on peut lire que la revue a été faite en utilisant uniquement des noms de pesticides comme mots-clefs. Et où il est spécifié que «cet examen n'a pas été conçu pour être exhaustif». À la décharge de sa première auteure, la directrice scientifique de la FDS Louise Hénaut-Éthier, elle a explicitement mentionné au Journal de Montréal que «je ne peux pas répondre sans équivoque : “les pesticides causent l’autisme”. Scientifiquement, je n’ai pas le droit». Elle affirme qu'elle et son rapport ne font qu'invoquer le principe de précaution.

Mais franchement, ça me semble tenir davantage du sauf-conduit commode que de la nuance sérieuse. Après avoir passé 30 pages à présenter une version partielle et déformante de la littérature scientifique, il suffirait d'enterrer une petite phrase en fin de document pour s'en dédouaner ? Après avoir martelé le message alarmiste «les pesticides causent l'autisme» sur toutes les tribunes disponibles (et en sachant très bien qu'il serait souvent relayé tel quel dans les médias et sur les réseaux sociaux), il suffirait d'une petite phrase pour faire semblant qu'on n'a pas dit ce qu'on vient de dire ?

À cet égard, la conclusion du document est assez parlante (mes soulignements) :

Science

Découverte de deux nouvelles espèces d’anguilles électriques à haute tension

PARIS - Deux nouvelles espèces d’anguilles électriques ont été découvertes dans les eaux douces amazoniennes, dont l’une capable d’envoyer des décharges de 860 volts, les plus puissantes jamais enregistrées dans le monde animal, selon une étude publiée mardi dans la revue Nature Communications.

Connues depuis plus de 250 ans, les anguilles électriques, de gros poissons pouvant mesurer jusqu’à 2,5 mètres, étaient jusqu’ici affiliées par les scientifiques à une seule espèce. L’identification de deux nouvelles variétés souligne à quel point la richesse de la biodiversité en Amazonie reste méconnue, selon cette étude menée au Brésil, en Guyane française, au Guyana et au Suriname.

«Pouvoir encore trouver de nouveaux poissons d’une telle taille dans la forêt amazonienne, en dépit des activités humaines qu’elle subit depuis 50 ans, montre qu’il reste énormément d’espèces à découvrir, dont beaucoup pourraient servir à la recherche médicale, ou susciter des avancées technologiques» explique à l’AFP Carlos David de Santana du muséum d’histoire naturelle Smithsonian à Washington, qui a dirigé les recherches.

Cette découverte «renforce la nécessité de préserver la plus grande réserve de biodiversité de la planète», ajoute le chercheur.

Les anguilles électriques, qui sont malgré leur nom plus proches des poissons que des vraies anguilles, passionnent les scientifiques de longue date du fait de leur capacité à produire de l’électricité - comme une batterie biologique - leur permettant, par un mécanisme d’électrochocs, de paralyser leurs proies à distance.

Leur anatomie a inspiré le physicien italien Alessandro Volta, l’inventeur de la première pile électrique - la pile voltaïque - en 1799. Elle a aussi servi la recherche sur les maladies neurodégénératives et, plus récemment, sur la pile à hydrogène pour implants médicaux.

Carlos David de Santana et son équipe ont découvert ces deux nouvelles espèces en étudiant l’ADN de 107 spécimens.

La première, appelée «Electrophorus voltaï», localisée au Brésil, est capable de produire des décharges allant jusqu’à 860 volts, soit 200 volts de plus que le record enregistré par l’espèce déjà connue, «Electrophorus electricus». La seconde espèce découverte, «Electrophorus varii», peut quant à elle produire des décharges atteignant les 570 volts.

Ce phénomène pourrait s’expliquer par une adaptation de cette espèce à son milieu aquatique, situé sur les hauts plateaux, où la conductivité électrique est faible.

Environ 250 espèces de poissons électriques vivent en Amérique du Sud. Tous produisent du courant électrique pour communiquer ou s’orienter, mais les anguilles électriques sont les seules à l’utiliser aussi pour chasser ou se défendre.

Science

Six trucs pour amener votre enfant à parler de sa journée

LA SCIENCE DANS SES MOTS / «Comment s'est passée ta journée à l'école?» «Bien.» Cela vous dit quelque chose ? C'est la réponse appréhendée à une question bien intentionnée que tout parent pourrait poser. Cette réponse donnée machinalement suggère que l'enfant limite l'information qu'il partage avec ses parents, ou qu'il n'en donne plus du tout, au sujet de sa journée à l'école.

Lorsque les parents entendent «bien», ils peuvent réagir de différentes façons. Certains peuvent chercher à obtenir plus d'information en posant plus de questions. Cependant, la recherche a montré que poser trop de questions peut sembler envahissant, en particulier pour les adolescents.

D'autres parents peuvent cesser de poser des questions parce qu'ils en ont assez d'entendre la même réponse. Cependant, la recherche a montré que les enfants qui perçoivent un faible intérêt de la part de leurs parents ont davantage de problèmes de santé mentale et de comportement.

Par conséquent, les parents peuvent se sentir découragés. Comment peuvent-ils amener leurs enfants à parler de leur journée sans les irriter ou les amener à se refermer davantage ?

À chaque âge ses questions

À tous les âges, des études ont révélé que la communication parentale peut protéger contre une faible estime de soi et un mauvais rendement scolaire. Une forte participation des parents peut aussi avoir une influence positive sur la participation des enfants à l'école, leurs objectifs éducatifs et leurs résultats. Et notamment, une communication positive peut renforcer le lien d'attachement entre parents et enfants.

Mais comme tous les aspects du développement, les compétences en communication se développent avec le temps.

Du concret pour les tout-petits

De la maternelle à la 1ère année, les conversations avec les jeunes enfants à l'école tournent généralement autour de sujets reliés à l'école, aux nouvelles amitiés ou aux expériences concrètes. Par exemple, un jeune enfant pourrait vouloir partager l'information suivante : «J'ai joué sur les barres de singe à la récréation !»

Vous pouvez aller plus loin avec votre jeune enfant en lui faisant décrire ses expériences. Par exemple, «J'ai vu que Justin a pris ton jouet aujourd'hui. Qu'est-ce que ça t'a fait ?» Il peut aussi être utile de l'aider à mettre des mots sur ses émotions, en verbalisant ce que vous remarquez, par exemple :

«On dirait que tu étais en colère parce que Justin a pris ton jouet.»

Parler des amis

De la 2e à la 3e année, les amitiés deviennent de plus en plus importantes pour les enfants. Ils peuvent être plus intéressés à parler de leurs nouvelles relations avec leurs pairs qu'à parler de leurs travaux scolaires. Essayez de montrer de l'intérêt en posant des questions sur leurs amis, par exemple :

«Parle-moi de tes amis. Qu'est-ce qu'ils aiment faire à la récréation ?»

Dévier la question

De la 4e à la 5e année, les enfants pourraient commencer à considérer vos questions comme des demandes, ce qui réduirait davantage le partage d'information. Il peut être plus facile d'aborder les sujets qui vous intéressent en faisant dévier les questions sur les pairs de votre enfant pour entamer une conversation. Vous pouvez tenter la question suivante :

«Que pensent tes amis du nouveau professeur de sciences ?»

Solliciter leur opinion

De la 1ère à la 5e secondaire, l'établissement de l'identité et de l'indépendance personnelles est un élément essentiel de l'adolescence. Par conséquent, votre adolescent(e) peut rechercher plus d'intimité et partager moins d'information avec vous. Vous pouvez soutenir ces étapes du développement en démontrant votre intérêt pour leurs opinions, en leur permettant d'avoir un peu d'intimité au besoin et en leur permettant de prendre part à la prise de décision familiale.

Quel que soit l'âge de votre enfant, gardez à l'esprit que les conversations positives, courtes mais fréquentes, que vous aurez avec lui au fil du temps sont toutes aussi valables que les conversations longues et approfondies que vous pourriez avoir avec lui.

Science

La planète a d'autres «poumons» que l'Amazonie

DÉTECTEUR DE RUMEURS / L’Amazonie est beaucoup de choses, mais elle n’est pas le seul «poumon de la planète» et elle ne produit pas 20 % de l’oxygène contenu dans l’air, comme on l’a souvent entendu ces dernières semaines. Le Détecteur de rumeurs survole ce qu’est et ce que n’est pas l’Amazonie.

L’origine de l’expression «poumon de la planète»

Nos propres poumons alimentent notre corps en oxygène. Pour cette raison, on utilise depuis longtemps l’analogie du poumon lorsqu’on veut expliquer le procédé appelé photosynthèse : comme toute plante, un arbre produit de l’oxygène. Par conséquent, plus une forêt est étendue, et plus grande est la quantité d’oxygène qu’elle produit.

Le seul défaut de cette analogie est que l’Amazonie n’est pas notre seul poumon : il y a d’autres forêts tropicales et surtout, il y a les océans.

Mais l’Amazonie produit tout de même 20 % de l’oxygène de notre planète ?

Les estimations à ce sujet varient, mais le vrai pourcentage est plus près de 16 % si on ne calcule que la photosynthèse qui a lieu sur la terre ferme (selon une étude de 2010). Si l’on calcule aussi l’oxygène produit dans les océans, par le phytoplancton, les estimations varient plutôt entre 9 % (selon un écologiste britannique) et 6 % (selon un climatologue américain).

Il est possible que l’erreur du 20 % ait son origine dans un calcul qui ne portait à l’époque que sur la terre ferme : sachant que les forêts tropicales sont responsables à elles seules de 34 % de la photosynthèse réalisée sur les continents, puisque l’Amazonie représente à peu près la moitié des forêts tropicales, on a arrondi à 20 %.

Si l’Amazonie joue un rôle mineur avec l’oxygène, en est-il de même avec le CO2 ?

Une forêt est ce qu’on appelle un « puits de carbone », c’est-à-dire que chaque plante absorbe du dioxyde de carbone ou CO2. C’est une autre partie du cycle naturel de la photosynthèse. Mais dans le contexte du réchauffement climatique, cela signifie aussi que chaque plante absorbe également une partie des surplus de CO2 que notre société moderne produit. C’est la raison pour laquelle, ces dernières années, plusieurs initiatives de réduction de notre empreinte carbone suggèrent de planter des arbres pour «absorber» en partie nos excès.

Or, brûler une forêt ne fait pas que retirer des puits de carbone. Chaque arbre brûlé envoie aussi du même coup dans l’atmosphère tout le carbone qu’il avait absorbé.

Les estimations là aussi varient, mais si on évalue à au moins 90 millions de tonnes de carbone la quantité emmagasinée dans la forêt amazonienne, cela fait de cette forêt le plus grand puits de carbone sur la terre ferme (les océans en absorbent davantage).

Par ailleurs, ce chiffre signifie que de brûler la forêt dans sa totalité ferait bondir de près de 10 % la quantité de CO2 dans l’atmosphère : cette quantité est actuellement de 410 parties par million (PPM), l’Amazonie en ajouterait une quarantaine. À titre de comparaison, la quantité de CO2 dans l’atmosphère était de 280 PPM pendant la majeure partie de l’histoire de l’humanité, jusqu’à la révolution industrielle, et elle croît à présent de 2 ou 3 PPM par année.

Risque-t-on de voir bientôt disparaître toute la forêt amazonienne ?

À l’heure actuelle, la moitié de la forêt est toujours protégée par le gouvernement brésilien contre la déforestation, malgré les politiques plus permissives du président Jair Bolsonaro.

Une étude parue dans Science en 2014 note également que seulement 3 % de la surface de l’Amazonie est propice à la culture de soja, qui est l’une des deux principales raisons — l’autre étant l’élevage de bovin — pour laquelle les fermiers cherchent à gagner des terres sur la forêt.

Toutefois, il n’est pas nécessaire de détruire toute la forêt pour que se produise le scénario du pire.

Pourrait-il y avoir un point de non-retour ?

Des scientifiques évoquent en effet la possibilité d’un «point de bascule» (tipping point), c’est-à-dire un seuil de déforestation au-delà duquel une large portion du reste de la forêt se dégraderait à cause de la diminution des pluies, pour se transformer en savane. Un processus qui, là aussi, relâcherait dans l’air d’énormes quantités de CO2. Aucun consensus n’existe sur ce que serait ce point de basculement.

Selon le Fonds mondial pour la nature, 17 % de la forêt amazonienne a disparu dans les 50 dernières années.

Le réchauffement climatique pourrait aussi y contribuer : une augmentation du nombre de périodes de canicule signifie plus d’eau qui s’évapore, donc un climat plus sec, donc des risques accrus de feux de forêt.

Les surfaces brûlées n’augmentent-t-elles pas à cause de Bolsonaro ?

Oui, la déforestation a repris, mais pas seulement à cause de Bolsonaro.v Le rythme de déforestation de l’Amazonie avait décliné de pas moins de 70 % entre 2004 et 2012, selon l’étude de 2014 parue dans Science. Mais il avait recommencé à augmenter sous la présidence de Dilma Rousseff, en 2012.

Sous Bolsonaro, le premier semestre de 2019 montre effectivement une accélération de cette hausse (39 % de plus que pendant le premier semestre 2018), selon l’Institut brésilien de recherches spatiales. Mais ce taux de déforestation demeure inférieur à ce qu’il était avant 2004.

L’Amazonie est-elle tout de même un trésor de biodiversité ?

On y compte au moins 16 000 espèces différentes d’arbres, 40 000 espèces de plantes, 2,5 millions d’espèces d’insectes, 2 200 de poissons, 1 300 d’oiseaux, 427 de mammifères et 380 de reptiles. Et ce n’est que ce qui a été recensé jusqu’ici. L’Amazonie pourrait abriter jusqu’à 10 % des espèces vivant sur la terre ferme de notre planète, bien qu’elle n’en représente que 1 % de la superficie.

L’Amazonie n’est-elle pas aussi habitée par des nations autochtones ?

On compte quelque 400 «tribus» autochtones dans l’Amazonie selon l’organisme Survival International. La plupart possèdent une langue et une culture qui leur sont uniques. Elles représentent plus d’un million d’habitants. Au Brésil, au moins une cinquantaine sont qualifiées par la Fondation nationale des Indiens comme «non contactées» ou «isolées», c’est-à-dire qu’elles évitent ou refusent tout contact avec le reste du monde.

Science

Ce sondage est-il fiable?

SCIENCE AU QUOTIDIEN / «La campagne électorale fédérale approche à grands pas et nous serons bientôt submergés de résultats de sondages. Pour m’attarder souvent aux détails de leur méthodologie, j’ai remarqué que si certains les expliquent clairement (méthode, marge d’erreur, etc.), d’autres se contentent de nous informer que l’échantillonnage était «non probabiliste». Alors comment faire pour savoir si un sondage est vraiment fiable?», demande Serge Rivard, de Québec.

De manière générale, oui, les sondages sont fiables. La revue savante Nature – Human Behaviour a publié récemment une étude basée sur quelque 30 000 sondages électoraux dans 45 pays entre 1942 et  2017. Elle a trouvé une erreur moyenne de 2 points de pourcentage pour les sondages réalisés à une semaine ou moins du scrutin, et conclu que «de temps à autre les sondeurs se trompent, ce qui les place sous les projecteurs [...mais en bout de ligne] nous n’avons trouvé aucun signe supportant l’idée d’une crise de fiabilité des sondages».

Cela dit, il en va de ces coups de sonde comme du reste des réalisations humaines : ils sont imparfaits. Un sondage, d’abord, consiste à interviewer un groupe relativement peu nombreux de gens (généralement autour de 1000) afin d’estimer l’opinion de toute une société (des millions, voire des dizaines ou des centaines de millions). En soi, c’est toujours un brin périlleux, puisque les chances pour que ces quelque 1000 personnes représentent de manière parfaitement exacte la société entière sont minces. Mais d’un autre côté, on sait aussi qu’il y a peu de chances pour qu’elles s’en écartent beaucoup. D’où l’idée de la «marge d’erreur», rendue par la célèbre formule «précis à plus ou moins 3 % 19 fois sur 20». Cela signifie que si le parti X obtient 38 % des intentions de vote dans l’échantillon, alors il y a 19 chances sur 20 pour que ses «vrais» appuis dans la population tombent dans une fourchette de ± 3 %, soit quelque part entre 35 et 41 %.

Cela implique, évidemment, qu’il reste toujours 1 chance sur 20 pour que le sondage s’écarte de la «vérité» par plus de 3 %. Ce peut être 4 %, ou 6 %, ou même en principe plus de 10 %, même si c’est extrêmement improbable. Mais cela nous donne déjà un premier indice de fiabilité : est-ce que les résultats sont en ligne avec ce que d’autres sondages récents ont montré ? Si oui, c’est bon signe. Mais si les chiffres sont très différents, cela peut vouloir dire de deux choses l’une. Ou bien l’opinion publique vient de subir un changement rapide (c’est rare, mais ça arrive). Ou bien on a affaire à «la 20fois sur 20», pour ainsi dire. Il vaut mieux alors attendre que d’autres sondages viennent confirmer (ou infirmer) la nouvelle tendance.

Ce qui nous mène un autre indice de fiabilité : les dates d’échantillonnage. Un sondage, c’est comme une photo, ça montre ce qui était là à un moment donné, puis ça ne bouge plus. Alors plus l’échantillonnage remonte à loin dans le passé, plus fort est le risque que l’opinion publique ait changé et que ses résultats ne soient plus valides.

Il y a par ailleurs moyen de réduire la marge d’erreur, remarquez : par la taille de l’échantillon (qui est un troisième indice de fiabilité). Plus il est grand, et plus la marge d’erreur diminue — mais cela finit par coûter cher. Autour de 1000 personnes, elle est d’environ 3 % ; pour l’abaisser à 2 %, il faut interviewer près de 2500 personnes; et pour atteindre 1 %, l’échantillon doit dépasser les 9500. Inversement, à 500 personnes, elle est d’environ 4,4% et de 7% à 200. C’est pourquoi il faut toujours se méfier des «sous-échantillons» — comme les intentions de vote au Québec dans un sondage pan-canadien.

Maintenant, plusieurs firmes ont commencé à faire leurs sondages au moyens de «panels web». Elles se constituent des groupes de quelques dizaines (voire centaines) de milliers de gens afin d’avoir un bassin de répondants plus faciles et économiques à joindre et interviewer que les sondages «classiques». Ces sondeurs s’arrangent pour que leurs panels ressemblent autant que possible à la population en général (même distribution des sexes, des groupes d’âge, des revenus, etc.), mais il reste que procéder de cette manière ne donne pas un échantillon aléatoire (ou «probabiliste») au sens strict parce que les répondants ne sont pas «pigés» parmi la population en général comme dans un sondage téléphonique. Ils viennent d’un sous-groupe relativement restreint.

Or les équations qui servent à calculer les marges d’erreur présument que l’échantillon est probabiliste — elles ne s’appliquent pas autrement. C’est la raison pour laquelle certains sondages sont publiés sans marge d’erreur. D’un point de vue purement mathématique, c’est la bonne chose à faire, mais je crois que cela prive le public d’un élément d’information important : il y a forcément une marge dans les résultats des panels web. Si un de ces panels accorde, disons, 37 % des intentions de vote au parti X, cela ne signifie pas que celui-ci a exactement 37 % d’appuis dans la population en général, mais bien autour de 37 %.

À cet égard, j’aime bien la formule employée par Léger Marketing, qui calcule une marge malgré tout : «un échantillon de cette taille aurait eu une marge d’erreur de x si l'échantillon avait été probabiliste». Des statisticiens à qui j’en ai parlé dans le passé voient ça comme un pis aller, puisque l’idéal serait de travailler avec des échantillons véritablement aléatoires, mais bon, ça reste quand même «moins pire», plus informatif que de ne rien dire.

Maintenant, tant qu’à être dedans, disons un mot sur les méthodes d’échantillonnage. Hormis les panels web et le bon vieux téléphone, les sondeurs procèdent aussi souvent par appels automatisés (l’entrevue se fait au téléphone mais le questionnaire est administré par un robot). Il n’est pas clair que l’une ou l’autre de ces méthodes est vraiment meilleure que les autres — après tout, il y a bien des façons de faire un mauvais sondage, comme des questions biaisées, une mauvaise pondération, une répartition erronée des indécis, etc. À cet égard, il est assez parlant de voir que le célèbre site d’agrégation de sondage et de prédictions électorales FiveThirtyEight, du statisticien américain Nate Silver, a donné la même note de F et cessés d’utiliser les sondages des maisons TCJ Research, qui ne fait que des appels robotisés, et Strategic Vision LLC, qui ne procède que par appels avec téléphonistes.

Mais quand même, comme il n’y a rien de parfait, toute méthode peut introduire des biais. Lors de la présidentielle de 2016, les appels automatisés ont un peu mieux fait que les autres méthodes, se trompant en moyenne par 2,8 points contre 3,2 à 3,9 pour les autres, a montré un «post-mortem» rédigé par des experts (p. 15 / 39). Cependant, FiveThirtyEight a trouvé qu’à plus long terme, les appels «en personne» semblent faire légèrement mieux que les autres, dans la mesure où ils incluent des numéros de cellulaires. Mais la différence est mince et dans ses modèles, M. Silver ne leur accorde qu’un «bonus modeste».

Science

Les «gènes gais» vs la sélection naturelle: qui gagne?

BLOGUE / La semaine dernière, la fameuse étude sur les bases génétiques de l'homosexualité a soulevé une question qui taraude la science depuis longtemps : s'il existe des variantes de gènes qui augmentent les chances d'être homosexuel, et donc qui écartent certains de leurs porteurs de la reproduction, comment se fait-il qu'ils aient «survécu» à la sélection naturelle? Mais avec la rentrée, qui tient toujours les chercheurs très occupés, je n'avais trouvé personne pour m'aider à y répondre...

Or j'ai fini par parler ce matin à Dany Garant, chercheur en écologie évolutive et en génétique des populations à l'Université de Sherbrooke, et je crois qu'il vaut la peine de revenir brièvement sur le sujet.

L'étude en question, rappelons-le, conclut qu'il n'existe pas «un» gène gai, mais que les comportements homosexuels sont influencés par des centaines d'endroits sur le génome. Au total, l'héritabilité génétique expliquerait environ 32 % du phénomène, et l'étude a aussi trouvé que plus un individu a des relations avec des gens du même sexe, moins il a d'enfants : 1,7 enfant en moyenne pour ceux qui ont des relations sexuelles uniquement avec le sexe opposé, contre autour de 0,5 enfant pour ceux dont 75 à 100 % des partenaires sont du même sexe. D'où la question : comment est-ce que ces 32 % d'héritabilité ont-ils pu se transmettre d'une génération à l'autre à travers les âges?

Voici, en résumé, les principaux points de mon entrevue avec M. Garant :

- D'abord, de manière générale, les traits complexes régis par des centaines gènes donnent moins d'emprise à la sélection naturelle. Cela vaut pour les relations avec des gens de même sexe comme pour bien d'autres caractéristiques. De ce que je comprends, ultimement la sélection doit agir sur chaque variante. Or si chacune ne joue qu'un rôle infinitésimal, ladite sélection n'aura que très peu d'effet sur le trait final — et il peut alors difficilement, par définition, y avoir une sélection.

- Il peut aussi y avoir «des régions du génome qui sont liées entre elles, dit M. Garant, par exemple parce qu'elles agissent ensemble». Cela peut contribuer à maintenir des variantes qui, dans certains cas, sont moins «adaptatives» (lire : mènent à une descendance moins nombreuse).

- Si on ajoute à cela le fait qu'une partie des gènes impliqués n'ont rien à voir avec l'attirance sexuelle (des traits de personnalité comme l'ouverture aux expériences nouvelles et l'aversion au risque peuvent entrer en ligne de compte dans la décision d'avoir une relation homosexuelle), cela diminue encore plus la «pogne» qu'il reste pour la sélection.

- Le fait que les comportements homosexuels soient «génétiquement héritables» à 32 % implique en outre que l'environnement (au sens large) joue un rôle prépondérant. Or pour que la sélection agisse, il faut que des variantes de gènes avantagent (ou défavorisent) leurs porteurs pour la peine. Dans le cas qui nous intéresse, si l'environnement compte pour 68 % des comportements homosexuels, alors les variantes génétiques favorisant l'homosexualité ne représentent pas un gros désavantage (toujours en termes de descendance).

- Et puisque il est question d'environnement, ajoutons que pendant très longtemps, l'homosexualité a été violemment réprouvée. C'est parfois encore le cas, d'ailleurs, malheureusement. Mais quoi qu'il en soit, cela implique qu'historiquement (et encore aujourd'hui, bien que dans une moindre mesure) beaucoup d'homosexuels ont dû cacher leurs préférences naturelles, rentrer dans le moule et avoir des enfants comme tout le monde, faute de quoi ils étaient rejetés — ou pire. Alors s'il restait encore une pression de sélection malgré tout ce qui précède, cette répression sociale a pu en réduire les effets encore davantage.

P.S. Je profite de ce «retour» sur l'article de Science pour vous conseiller la lecture de cette critique assez dure, mais aussi éclairante, de la fameuse étude.

Science

Le ciel de septembre 2019: un voyage en quatre dimensions

Peut-être ne l’avez vous jamais réalisé, mais lorsque vous observez le ciel la nuit, vous faites un vertigineux voyage dans l’espace et le temps. Le mois de septembre est très propice pour vivre cette expérience cosmique !

À l’échelle humaine, avec nos seuls sens, il nous est impossible de mesurer la distance des étoiles : le ciel nous apparaît en deux dimensions. Mais vous vous en doutez, le ciel n’est pas une voûte fixe au-dessus de nos têtes, c’est un espace tridimensionnel.

Intuitivement, on pourrait penser que les étoiles les plus brillantes sont les plus proches. C’est généralement vrai, mais on ne peut pas toujours s’y fier.

Prenons par exemple le fameux Triangle d’été, bien visible ce mois-ci au-dessus de nos têtes à la tombée de la nuit (référez-vous à la carte).

Véga, en haut et à droite du triangle, est située à 25 années-lumière de nous; Altaïr, en bas, se trouve à 17 années-lumière. Ces deux étoiles sont relativement proches, astronomiquement parlant. Maintenant, repérons Déneb, en haut et à gauche : elle est située à la distance étonnante de 1550 années-lumière, près de dix fois plus loin !

Cela signifie que le Triangle d’été est en réalité très déformé dans l’espace : son sommet supérieur gauche est beaucoup plus loin que les deux autres.

Autre exemple : l’étoile hypergéante Mu de la constellation de Céphée, connue aussi sous le nom de l’étoile Grenat à cause de sa teinte rouge remarquable. Avec un diamètre de 1300 fois celui du Soleil, elle est intrinsèquement cent mille fois plus lumineuse que le Soleil ! À l’œil, cependant, elle ne semble pas si brillante (magnitude +3,6), car elle est possiblement située à 5300 années-lumière ! Sa distance exacte reste difficile à déterminer, mais c’est l’une des étoiles visibles à l’œil nu les plus distantes.

À la campagne ou dans un parc le soir, imaginez la portée de votre regard dirigé vers le ciel. Imaginez des rayons de différentes longueurs, des « courts » et des « longs », qui partent de votre être et qui atteignent les étoiles, une à une, sur des distances qui s’étalent sur des milliers de milliards de kilomètres. Vous verrez, l’exercice donne le vertige !

Le vertige ne s’arrête pas là... La lumière voyage à 300 000 kilomètres par seconde. En un an, elle parcourt la distance d’une année-lumière soit environ dix mille milliards de kilomètres ! La lumière prend donc un certain temps à nous arriver des étoiles : exactement une année pour chaque année-lumière. Lorsqu’on dit que Véga est située à 25 années-lumière, cela veut également dire que sa lumière prend 25 ans à nous parvenir. On la voit donc 25 ans dans le passé. En regardant le Triangle d’été, d’un coup on remonte le temps de 25 ans, 17 ans et 1550 ans ! On remonte à 5300 ans si on regarde vers Mu de Céphée. Wow !

Aussi visible en septembre, l’un des astres les plus lointains que l’on puisse distinguer à l’œil nu est la galaxie d’Andromède. En l’observant à l’œil ou avec des jumelles, notre rétine capte une lumière vieille de plus de 2,5 millions d’années !

Grâce à la puissance de l’astronomie et de l’imagination, en observant le ciel vous voyagez dans l’espace et dans le temps !

Le système solaire

Plus près de nous, peu de phénomènes remarquables sont observables cette année en septembre. La pleine lune aura lieu le 14 à 0 h 33, heure avancée de l’Est, et la nouvelle lune le 28 à 14 h 26. L’équinoxe, qui marque le début de l’automne astronomique, surviendra le 23 septembre à 3 h 50 du matin.

Côté planètes, seules Jupiter et Saturne sont visibles, relativement basses à l’horizon à la tombée de la nuit. Jupiter, très brillante, est le premier astre à s’allumer au crépuscule, en direction sud-sud-ouest. Lorsque le ciel s’assombrit davantage, on aperçoit Saturne qui culmine au sud, 22 degrés au-dessus de l’horizon. Le soir du 5 septembre, au crépuscule, le premier quartier de Lune repose quelques degrés à droite de Jupiter. Le lendemain soir, la Lune gibbeuse se retrouve à la gauche de Jupiter. Le 7 septembre, la Lune se trouve maintenant à droite de Saturne. Enfin, le soir du 8 septembre, on retrouve la Lune 5 ½ degrés à gauche de Saturne au crépuscule.

Bonnes observations !

Sébastien Gauthier est astronome au Planétarium Rio Tinto Alcan

Au Planétarium de Montréal : Un seul billet pour voir tous les films présentés le jour de votre visite au Planétarium Rio Tinto Alcan. Consultez l’horaire sur notre portail Web à espacepourlavie.ca.

Science

La «générosité» de l'érable

LA SCIENCE DANS SES MOTS / Chaque cellule vivante n’est essentiellement qu’un petit sac d’eau. Vu sous cet angle, la vie ne consiste guère plus qu’en la construction et la reconstruction de milliards de sacs d’eau. Mais ce qui rend cette tâche particulièrement ardue est qu’il n’y a pas assez d’eau à disposition. Il n’y aura jamais suffisamment d’eau pour toutes les cellules qui pourraient voir le jour. Chaque être vivant à la surface de la Terre est ainsi engagé dans une guerre sans fin pour s’approprier une quantité d’eau totale équivalant à moins d’un millième du pourcent des ressources hydriques de la planète.

Les arbres sont les plus désavantagés parce qu’ils ne peuvent se déplacer à la recherche de l’eau dont ils ont besoin et, parce qu’ils sont grands, ils en demandent bien davantage que les animaux. Si vous traversez les États-Unis de Miami à Los Angeles sur la I-10, en passant par la Louisiane, le Texas et l’Arizona, cela vous prendra trois longues journées, mais surtout, vous apprendrez l’une des bases de la biologie végétale : le volume de végétation présent en un endroit donné est directement proportionnel au volume de précipitations annuel qui s’y déverse.

Si l’on imagine que toute l’eau de la planète est équivalente à celle d’une piscine olympique, la quantité dans le sol à disposition des plantes remplirait à peine une bouteille de soda. Les arbres ont besoin de tellement d’eau – près de quatre litres pour l’élaboration d’une poignée de feuilles – qu’il est tentant d’imaginer que leurs racines pompent activement le sol. Mais la réalité est tout autre : les racines d’un arbre sont totalement passives. L’eau pénètre passivement dans les racines le jour et en ressort tout aussi passivement la nuit, comme les marées obéissant à la lune. Les tissus racinaires fonctionnent comme une éponge : si on les place, lorsqu’ils sont secs, sur une flaque de lait renversé, ils se dilatent automatiquement pour aspirer le liquide. Si on place ensuite cette éponge gorgée de lait sur du béton sec, le lait sera aspiré par le trottoir, où se formera peu à peu une tache humide. Où que l’on creuse, on constate que le sol est plus humide à mesure que l’on progresse vers la roche-mère.

Un arbre mature reçoit la majeure partie de son eau par le biais de sa racine pivot, qui est celle qui s’enfonce à la verticale. Les racines des arbres situées près de la surface poussent latéralement pour former une structure de support en réseau, afin d’empêcher l’arbre de tomber. Ces racines peu profondes humidifient également les sols arides, en particulier quand le soleil est couché et que les feuilles ne transpirent plus activement. Les érables matures redistribuent ainsi toute la nuit, par le biais de leurs racines superficielles, l’eau prélevée en profondeur. Il a été montré que les petites plantes qui vivent à proximité de ces grands arbres dépendent, pour plus de la moitié de leurs besoins, de cette eau recyclée.

La vie d’un jeune arbre est extrêmement difficile : 95% de ceux qui atteignent l’âge d’un an ne subsistent pas jusqu’à leur deuxième année. En général, la graine d’un arbre ne voyage pas très loin ; la plupart des graines d’érable prennent ainsi racine à moins de trois mètres du tronc qui supporte les branches dont elles sont tombées. Les jeunes érables doivent alors lutter pour l’accès à la lumière, alors qu’ils se trouvent à l’ombre d’un érable adulte qui capture à son profit tous les éléments nutritifs de ce coin de sol depuis des années.

Il existe, cependant, un acte de générosité parental fort de l’érable envers sa progéniture. Chaque nuit, sous terre, la ressource la plus précieuse de toutes — l’eau — s’écoule du plus fort vers le plus faible, de sorte que l’arbrisseau puisse continuer à vivre pour se battre un jour de plus. Cette eau ne constitue pas tout ce dont le jeune arbre a besoin, mais elle y contribue et aucune aide ne sera de trop pour que, dans cent ans, un érable existe toujours à cet endroit. Aucun parent ne peut rendre la vie parfaite à ses enfants, mais nous essayons tous de les aider à grandir du mieux que nous pouvons.

Science

Cholestérol à la hausse chez les... corbeaux?

Une étude révèle que les résidents des villes sont plus nombreux que ceux des campagnes à présenter un taux élevé de cholestérol, résultat probable d’une trop grande consommation de fast food. Méfiez-vous toutefois, cette étude ne parle pas des humains, mais des… corbeaux.

L’équipe d’ornithologues du Collège Hamilton, dans le Nord de l'État de New York, a d’abord mesuré le taux de cholestérol et de masse de gras chez 140 corbeaux dans des régions rurales et urbaines de Californie, et a constaté cette différence entre les deux groupes. L’échantillon n’est pas énorme, conviennent-ils, mais pour contrer la critique à l’effet que d’autres facteurs pourraient expliquer cette différence, ils ont déposé des cheeseburgers à proximité de nids dans des régions rurales de l’État de New York… ce qui, à raison de trois burgers par jour par nid, représentait une centaine de commandes chez McDonald chaque fois !

Résultat : le taux de cholestérol de ces corbeaux ruraux s’est révélé similaire à celui des corbeaux urbains.

À ceux qui seraient choqués par l’idée de nourrir des oiseaux de cheeseburgers au nom de la science, il faut noter qu’au contraire des humains, les espèces de corbeaux ne sont pas toutes affectées négativement par des taux élevés de cholestérol et qu’en fait, se défend la chercheure principale, Andrea Townsend, des recherches ont même suggéré que le cholestérol pouvait contribuer à la survie de certains oiseaux. La réalité est que, si on a assez bien étudié les effets d’une consommation excessive de gras chez les humains, les recherches à ce sujet sur les oiseaux restent encore maigres.

Science

Six mythes sur l’immigration

DÉTECTEUR DE RUMEURS / L'immigration fait régulièrement la Une de l'actualité, au Québec et ailleurs. Les opinions divergent, la méfiance s’exprime et les jugements se multiplient quant à la capacité des immigrants à s’intégrer, à participer au marché du travail et même quant à leur nombre. Mais qu’en est-il réellement ? Le Détecteur de rumeurs déboulonne certains mythes.

La majorité des immigrants sont des réfugiés : faux

Dans un premier temps, il faut savoir que l’immigration a plusieurs visages. Au Québec, environ 60 % des immigrants proviennent de la catégorie économique, c’est-à-dire qu’ils sont sélectionnés par la province en raison de leurs compétences professionnelles et de leur capacité à contribuer à l’économie. De l’autre côté, il y a les immigrants admis par le gouvernement fédéral par le programme de regroupement des familles, qui représentent près de 25 %, ou comme réfugiés (incluant les demandeurs d’asile). Ces derniers sont souvent obligés d’entrer au Canada sans les documents de voyage nécessaires et sans autorisation. On parle alors d’entrée irrégulière. Bien qu’ils représentent environ 17 % des nouveaux arrivants, ce sont souvent eux qui attirent l’attention et la grogne, comme lors des arrivées du printemps 2017 au chemin Roxham, à la frontière du Québec et des États-Unis.

Source : ministère de l’Immigration, de la Diversité et de l’Inclusion. *Cette catégorie regroupe surtout des cas humanitaires, quelques dossiers de demandeurs non reconnus du statut de réfugié, de titulaires de permis ministériel et des cas d’intérêt public.

«Les immigrants nous envahissent» : faux

Pour toute l’année 2018, 51 118 immigrants ont donc été admis au Québec. C’est légèrement moins que l’année précédente. De ce nombre, seulement 8832 (17,3 %) étaient des réfugiés, souvent ciblés par ceux qui craignent «l’envahissement». Malgré ces arrivées, l’ensemble des personnes nées dans un autre pays ne représente que 13,7 % de la population du Québec, selon le plus récent recensement de Statistique Canada (2016).

Et une étude de l’Institut du Québec, publiée en septembre 2018, montre que le Québec n'accueille que 14,5 % des immigrants admis au Canada, alors qu’il représente 23,1 % de la population. Le document précise que sans l'apport de l'immigration, la population du Québec serait en décroissance dès 2034 en raison du vieillissement accéléré de la population et de son faible taux de fécondité.

Selon des projections effectuées pour Statistique Canada, la proportion d’immigrants continuera d’augmenter au cours des 25 prochaines années pour atteindre entre 24,5 % et 30 % de la population du Canada en 2036.

Mais la méfiance perdure. En juin 2019, 63 % des répondants à un sondage web mené par la firme Léger pour la Presse canadienne estimaient que le gouvernement devrait «prioriser de réduire le nombre d'immigrants qui entrent au Canada». Seulement 37 % croyaient au contraire que le gouvernement devrait l'augmenter, alors que les entreprises, pendant ce temps, disent avoir désespérément besoin de travailleurs. Selon Emploi-Québec, près du tiers des travailleurs devront être remplacés d'ici 2024.

«Les immigrants volent nos jobs» : faux

En 2017, le taux de chômage des immigrants âgés de 25 à 54 ans et arrivés au Québec depuis cinq ans et moins était de 15,8 %, comparativement à 4,5 % pour les Québécois nés ici. Leur principal obstacle à l’emploi : la reconnaissance des diplômes et de l’expérience de travail acquis à l’étranger.

Les immigrants qui sont au Québec depuis cinq ans ou plus s’en tirent mieux, avec un taux de chômage de 8,7 % en 2017, alors qu’il oscillait entre 10,6 % et 13,8 % de 2007 à 2015. Cela demeure toutefois supérieur à celui des gens nés au Québec. Plus révélateur, le taux d’emploi des 25 à 54 ans, c’est-à-dire la proportion des immigrants qui travaillent, a augmenté de plus de 7 % en dix ans pour atteindre 62,8 % en 2018, au Québec.

La pénurie de main-d’œuvre qui frappe le Québec et le Canada explique en grande partie que plus d’immigrants intègrent le marché du travail. Ils viennent occuper les postes que les employeurs peinent à combler. Huit organismes économiques québécois, dont le Conseil du patronat et la Chambre de commerce du Montréal métropolitain, ont même demandé au gouvernement de François Legault de ne pas diminuer le nombre d’immigrants économiques admis, afin de répondre au «besoin urgent de main-d’œuvre».

Les immigrants sont aussi plus nombreux à créer leur propre emploi. En 2010, Statistique Canada indiquait que 5,3 % des immigrants possédaient une entreprise privée neuf ans après leur arrivée en sol canadien, contre 4,8 % des personnes nées au Canada.

Les «illégaux» court-circuitent le processus d’immigration : faux

Au printemps 2017, le nombre de demandeurs d’asile entrant au Canada de manière irrégulière en provenance des États-Unis a explosé, suscitant de vives critiques. Toutefois, pendant l’année 2017, 59 % des demandeurs d’asile sont entrés au Canada de manière régulière. Parmi ceux qui sont entrés de manière irrégulière, 53 % finissent par être reconnus comme des réfugiés, et moins de 1 % ont des antécédents criminels.

Contrairement à la croyance populaire, ce n’est pas un crime de passer la frontière sans autorisation quand il s’agit de demander asile, note le bureau canadien du Haut Commissariat des Nations Unies pour les réfugiés (HCR). Autre détail important : les demandes d’asile politique et les demandes d’immigration ne sont pas soumises au même processus. Les premières sont traitées d’abord par l’Agence des services frontaliers, puis par la Commission de l’immigration et du statut de réfugié, les secondes passent par le ministère de l’Immigration — il s’agit de deux voies étanches et séparées. Et il est à noter qu’une augmentation du nombre de réfugiés ne se traduit pas par une baisse du niveau d’immigration économique l’année suivante.

Le Québec se dirige vers l’islamisation : faux

Le ministère de l’Immigration du Québec ne compile pas les statistiques sur la religion des immigrants. En examinant les pays d’origine de ceux qui sont arrivés au Québec entre 2013 et 2017, on observe que les deux premiers pays de naissance des immigrants économiques — qui composent, rappelons-le, 60 % des immigrants au Québec — sont la France et la Chine. Parmi les réfugiés, seule la Syrie, qui compte une population majoritairement musulmane, se dégageait du lot (33 % des réfugiés) suivie loin derrière par Haïti (6,7 %).

Les rangs des communautés musulmanes grossissent donc… lentement. Lors du recensement de 2011, à peine plus d’un million de Canadiens se disaient musulmans, ce qui représente 3,2 % de la population du pays. Au Québec, ils représentent 3,1 % de la population. Certes, c’est près de deux fois plus qu’en 2001, alors qu’ils représentaient 2 % de la population canadienne et 1,5 % de celle du Québec. Mais à ce rythme, il faudrait des décennies avant que les musulmans forment une proportion significative de la population.

La majorité des immigrants ne parlent pas français : vrai et faux

La connaissance du français est effectivement en baisse chez les nouveaux arrivants. En 2017, 58 % des nouveaux arrivants ne parlaient pas le français, comparativement à 53 % en 2016. De 2006 à 2015, c’est une minorité variant entre 35 et 44 % qui ne parlait pas français.

Les immigrants économiques choisis par le Québec sont les plus nombreux à connaître le français puisqu’il s’agit d’un critère de sélection. Malgré tout, seulement 61,5 % d’entre eux maîtrisaient le français en 2017, contre 72,9 % l’année précédente.

Les statistiques de recensement démontrent toutefois que 10 ans après leur arrivée, 90,5 % des immigrants économiques, 77,1 % de ceux qui ont bénéficié du programme de réunification familiale et 84,3 % des réfugiés, parlent le français. Et le gouvernement de la Coalition Avenir Québec songe à imposer un test de français aux futurs candidats à l’immigration.

Science

L’auto, le piéton et le «tunnel»

SCIENCE AU QUOTIDIEN / «Depuis environ un an, les limites de vitesse de mon quartier ont été abaissées à 30 ou 40 km/h dans beaucoup de rues. J’ai conduit des ambulances pendant 32 ans à des vitesses parfois très élevés. Or il me semble que j’ai moins de concentration quand je roule à 30 qu’à 90. Je constate que mes yeux se promènent ici et là pour s’attarder à des choses inutiles pour un conducteur (un chien qui urine, par exemple) plutôt que devant moi. Est-ce normal ?» demande Yolande Poisson, de Rosemont.


Oui, il semble que c’est tout-à-fait normal. Et pour tout dire, le fait que le regard s’attarde à des détails périphériques à la conduite quand on roule plus lentement n’est pas un signe que notre capacité de concentration diminue : c’est simplement comme ça que l’attention fonctionne. Il y a une sorte d’«effet tunnel», bien documenté, qui vient avec la vitesse. Plus la voiture se déplace vite, plus le champ de vision effectif du conducteur se réduit et focalise sur la route, au détriment de ce qui l’entoure [http://bit.ly/2MKom1u]. Il y a d’autres choses que la vélocité qui entre en ligne de compte, remarquez — à vitesse égale, un environnement plus complexe, avec des courbes, bâtiments et activités autour va amener le conducteur à décrocher le regard de la route plus souvent que, par exemple, un chemin de campagne en ligne droite —, mais ça reste quand même une tendance assez claire.

Tenez : en 2004, une étude française [http://bit.ly/2HByqWB]| a soumis une vingtaine de conducteurs à une simulation où ils devaient conduire sur une autoroute où le trafic roulait soit à 90 km/h, soit à 130 km/h. Tout au long de la simulation qui durait 2 heures, un point de couleur se trouvait droit devant eux, dans la fenêtre arrière du véhicule qui les précédait ; ce point changeait parfois de couleur et les participants devaient appuyer sur un bouton aussitôt qu’ils le percevaient. Et ils devaient faire de même quand ils voyaient un petit signal périphérique, qui apparaissait périodiquement dans le clignotant d’une voiture roulant dans la voie d’à côté.

Résultats : à 90 km/h, les conducteurs ont détecté 57 % des signaux périphériques, ce qui était un peu mieux qu’à 130 km/h (54 %). Mais pour le signal «central», droit devant eux, ce fut l’inverse : ceux qui filaient à 130 km/h ont mieux performé (60 %) que ceux qui roulaient plus lentement (52 %). D’autres études [http://bit.ly/2Zsv7f4] ont aussi montré, par exemple, que la pupille se dilate à mesure que la vitesse diminue et que l’œil se fixe sur plus d’endroits différents quand on roule lentement.

Bref, plus on va vite, plus le regard doit se concentrer sur ce qu’il y a droit devant, et plus on roule lentement, plus l’attention peut se porter sur le contexte. Et du point de la sécurité, ce n’est pas du tout une mauvaise chose : en milieu urbain, si l’on veut éviter les collisions, il vaut nettement mieux ne pas fixer toujours la route, afin de voir les piétons, cyclistes ou objets avant qu’ils n’arrivent sur la chaussée. Ce n’est pas le signe d’un manque d’attention, c’est simplement que l’attention s’adapte à l’environnement et à la vitesse du véhicule.

D’ailleurs,  dit François Gagnon, conseiller scientifique à l’Institut national de santé publique qui travaille notamment sur l’effet des aménagements urbains sur la sécurité, «le principe même des mesures d’apaisement de la vitesse, c’est d’attirer l’attention des conducteurs vers autre chose que la vitesse. Avec un dos d’âne allongé, par exemple, on concentre l’attention sur le dos d’âne et les personnes qui peuvent traverser à cet endroit-là. C’est la même chose avec le rétrécissement des intersections : là où il n’y avait rien, on remplit avec du béton ou de la verdure. On peuple l’espace et on attire l’attention du conducteur vers autre chose que la vitesse, et ça incite à rouler plus lentement.»

Pour ralentir la circulation, ces obstacles sont nettement plus efficaces que de simplement changer la limite de vitesse, poursuit-il. Ce qui est une bonne chose, puisqu’il est abondamment démontré que c’est un facteur majeur pour la sécurité de tout le monde.

«Les véhicules motorisés sont les principaux facteurs de blessure, dit M. Gagnon. C’est la masse la plus importante, c’est l’énergie la plus importante dans la rue, alors c’est eux qui blessent les autres. (…) Et ce qui se passe en termes de sécurité quand on réduit les vitesses est assez bien documenté pour les piétons et les cyclistes.»
Une étude «classique», dit-il, a été menée à Londres où pas moins de 399 zones à vitesse réduite (20 miles à l’heure, ou 32 km/h) ont été mises en place au cours des années 1990 et 2000. Parue dans le British Medical Journal [http://bit.ly/2ZsKoMW], l’étude a conclu à un réduction de 32 à 35 % des collisions avec des piétons et de 17 à 38 % pour les cyclistes — et ces chiffres étaient encore plus élevés quand on ne retenait que les enfants de 0 à 15 ans.

D’une part, explique M. Gagnon, des vitesses réduites diminuent la distance de freinage, ce qui aide l’automobiliste à éviter un accident. Et d’autre part, quand la collision survient malgré tout, elle est moins grave. D’après des chiffres que l’on trouve sur le site de l’Institut des ingénieurs en transport, environ 90 % des piétons qui se font renverser à 30 km/h survivent au choc, et 10 % en meurent. À 50 km/h, cette proportion passe à 60-40. Et à 65 km/h, elle tombe à 20-80...

Science

Découverte d'une seconde mutation génétique résistante au virus du sida

WASHINGTON — Une mutation génétique extrêmement rare, responsable d’une maladie musculaire touchant une centaine de personnes, crée une immunité naturelle contre le virus du sida, ont rapporté jeudi des chercheurs espagnols qui espèrent que ce sera une piste pour de nouveaux médicaments anti-VIH.

Une première mutation était bien connue jusqu’à présent : celle découverte chez le fameux «patient de Berlin», Timothy Brown, guéri du VIH grâce à une greffe de cellules-souches contenant une mutation rare du gène CCR5, qui confère une immunité naturelle contre ce virus.

La nouvelle mutation concerne un autre gène (Transportine-3 ou TNPO3) et est beaucoup plus rare : elle a été découverte il y a des années chez une même famille en Espagne, atteinte d’une maladie musculaire ultra-rare, appelée dystrophie musculaire des ceintures de type 1F.

Les médecins se sont aperçus que des chercheurs sur le VIH s’intéressaient séparément au même gène, car il joue un rôle dans le transport du virus à l’intérieur des cellules.

Ils ont donc contacté des généticiens de Madrid, qui ont eu l’idée de tenter d’infecter, en laboratoire, du sang des membres de cette famille espagnole avec le virus du sida.

L’expérience livra une surprise: les lymphocytes de ceux qui avaient cette maladie musculaire ultra-rare étaient naturellement résistants au VIH. Le virus n’arrivait pas à rentrer dedans.

«Cela nous aide à comprendre beaucoup mieux le transport du virus dans la cellule», explique en français à l’AFP José Alcamí, le virologue de l’Institut de santé Carlos III à Madrid qui a mené ces recherches publiées dans la revue américaine PLOS Pathogens.

Le VIH est certes le mieux connu de tous les virus, dit-il, «mais il y a encore beaucoup de choses qu’on connaît mal. Par exemple, on ne sait pas pourquoi 5 % des patients qui sont infectés ne développent pas de sida. Il y a des mécanismes de résistance à l’infection qu’on comprend très mal».

Le chemin est encore long pour exploiter cette faille afin de produire un nouveau médicament. Mais la découverte de cette résistance naturelle confirme que le gène TNPO3 est une autre cible intéressante pour barrer la route au virus.

Science

Le «gène gai» : suite et fin ?

On le cherche depuis des décennies. Des études sur l’orientation sexuelle de jumeaux suggèrent continuellement son existence. On avait bien cru le trouver récemment, quelque part sur le chromosome X. Mais tout indique maintenant que le «gène gai» n’existe tout simplement pas : il y a des centaines de gènes qui influencent le fait d’avoir eu ou non une relation avec le même sexe et, même tous ensemble, ils n’expliquent qu’une partie relativement mineure de l’homosexualité, selon une étude parue jeudi dans Science, la plus vaste jamais entreprise sur le sujet.

«Il n’y a pas de jauge pour déterminer si quelqu’un a un partenaire du même sexe, a dit Andrea Ganna, premier auteur de l’étude et chercheur en génétique à l’Université Harvard, lors d’une conférence téléphonique tenue plus tôt cette semaine. Par exemple, nous n’avons pas trouvé de signal fort sur le chromosome X, contrairement à ce qui avait été rapporté précédemment dans la littérature scientifique. Les comportements sexuels, en fait, sont très polygéniques [NDLR : influencés par de nombreux gènes], ce qui est similaire à ce qu’on voit pour bien d’autres traits comportementaux.»

L’étude en question a consisté à scanner tout le génome de près de 500 000 personnes, provenant des banques de données de la compagnie 23andMe, qui vend des tests génétiques au grand public, et d’une banque de données britannique. En mettant ces données en relation avec les comportements sexuels (homo ou hétéro) autodéclarés des participants, les chercheurs ont trouvé cinq principaux sites sur le génome associés au fait d’avoir déjà eu une relation sexuelle avec quelqu’un du même sexe. Mais même tous ensemble, ces cinq sites expliquent moins de 1 % du phénomène.

En ajoutant par-dessus ces cinq «gènes» toutes les autres différences génétiques de moindre importance, au nombre de centaines, sinon de milliers, M. Ganna conclut que le génome explique au total «entre 8 et 25 % de la variance dans les comportements homosexuels autorapportés». Le reste viendrait de l’«environnement», à comprendre ici au sens large : éducation, culture, tout ce qui se passe in utero, stress divers, etc.

Fait à noter, les gènes impliqués ne sont pas tous forcément liés à l’attraction pour les gens du même sexe. Certains traits de personnalité, comme l’ouverture aux nouvelles expériences ou le degré d’aversion (ou d’insensibilité) au risque, peuvent avoir une incidence sur la décision d’un individu d’avoir ou non une relation avec une personne du même sexe, indépendamment de l’attirance.

«Je pense que tout ceci montre que [les comportements homosexuels] font partie d’une variabilité normale et naturelle de notre espèce», a pour sa part indiqué Benjamin Neale, lui aussi de Harvard et un des auteurs «séniors» de l’article de Science.

«Enfin»

Ces conclusions sonnent comme de la musique aux oreilles de Michel Dorais, chercheur en travail social à l’Université Laval qui, sans être généticien lui-même, mène des recherches sur l’homosexualité depuis une quarantaine d’années.

«Je suis content parce que ce type de recherche-là [sur les origines biologiques de l’homosexualité], habituellement, c’est du temps perdu. Mais pour une fois, ce n’est pas du temps perdu tant que ça parce que les auteurs disent : regardez, ça ne donne plus rien de faire ça, ça ne mène nulle part. Mais ça fait des décennies qu’on sait ça, parce que la conduite sexuelle, et même les désirs, c’est tellement complexe qu’à l’évidence, ça ne peut pas être un comportement automatique comme manger. Quand vous avez des désirs sexuels [qui sont différents des comportements à proprement parler, NDLR], d’abord il faut que vous décidiez si vous les réalisez ou non, il faut décider avec qui, comment approcher cette personne-là, etc. Alors les comportements sexuels sont des comportements extrêmement complexes qui ne peuvent tout simplement pas être régis par des réflexes automatiques et génétiques», dit M. Dorais.

Pour tout dire, les résultats de Science montrent une telle complexité que certains appellent à abandonner ou modifier certaines «échelles» d’attraction sexuelle utilisées en recherche, comme la classique «échelle de Kinsey» qui montre une gradation allant de l’hétérosexualité exclusive à l’homosexualité exclusive, car elles seraient trop simplistes.

«C’est un de nos résultats les plus intéressants, mais les plus provocants aussi, a commenté M. Ganna : d’un point de vue génétique, il n’y a pas de continuum unique qui irait des comportements hétérosexuels jusqu’aux comportements homosexuels. En d’autres termes, les variantes de gènes qui sont associées au fait d’avoir déjà eu un partenaire de même sexe une fois dans sa vie ne sont pas les mêmes variantes qui sont associées au fait d’avoir eu plus de partenaires du même sexe que de partenaires du sexe opposé. Alors il n’y a pas d’échelle unique qui ferait que plus une personne est attirée par l’autre sexe, moins elle l’est par le même sexe.»

Actualités

Six idées reçues sur l’aide financière aux médias

DÉTECTEUR DE RUMEURS / Le fait d’apprendre ce mois-ci que six journaux régionaux québécois - Le Soleil, Le Droit, La Tribune, Le Nouvelliste, Le Quotidien et La Voix de l'Est - se retrouvaient sous la protection de la loi sur les faillites a ramené à l’avant-scène des arguments maintes fois répétés, entre lesquels il est difficile pour certains de dégager le vrai du faux. Le Détecteur de rumeurs a retenu six idées reçues.

Avertissement : l’Agence Science-Presse est elle-même un média qui reçoit une aide financière du gouvernement du Québec, en l’occurrence une « aide directe », telle que définie au point 3. Le projet du Détecteur de rumeurs bénéficie quant à lui d'une aide financière du bureau du scientifique en chef du Québec.

1) « Les médias qui ne peuvent pas s’adapter au numérique devraient fermer leurs portes ? » Douteux.

Pour vérifier cela, il faudrait d’abord définir ce que veut dire « s’adapter au numérique » : un très grand nombre de médias d’ici et d’ailleurs ont expérimenté depuis 20 ans des formules inédites, souvent innovantes, et aucun ou presque n’a réussi à en dégager des profits.

Il faut par ailleurs se rappeler que pour « s’adapter au numérique », encore faut-il en avoir les moyens. Selon une compilation faite en 2016 par le Centre d’études sur les médias (CEM) de l’Université Laval, la part des investissements publicitaires consacrée aux journaux était en rapide déclin depuis le début des années 2000, essentiellement au profit d’Internet. Sauf que ça ne se traduit pas en revenus publicitaires pour les « journaux sur Internet », mais pour Facebook et Google : rien qu’à eux deux, à travers le monde, ils accaparaient en 2017 le quart de ces revenus.

Et si on ne calcule que les nouveaux revenus publicitaires, c’est-à-dire ceux qui n’existaient pas avant l’an 2000, c’est pire : selon le CEM, en 2016 au Canada, 95 % des sommes supplémentaires dépensées en publicité étaient allées aux Google, Facebook, YouTube et autres plateformes d’Internet, plutôt qu’aux médias.

2) « Les gens ne sont pas prêts à payer pour de l’information ? » Incertain.

Il est difficile d’affirmer combien de gens paieraient si davantage de médias devenaient payants sur Internet. Mais pour l’instant, les données préliminaires dont on dispose ne sont pas encourageantes.

Selon le rapport 2015 de l’Institut Reuters pour l’étude du journalisme, dans 12 pays étudiés, ceux qui payaient pour des nouvelles en ligne représentaient 10 % des lecteurs.

D’autres enquêtes publiées depuis 2015 ont apporté des nuances : le pourcentage semble plus élevé dans plusieurs pays d’Europe (20 % en Suède et en Pologne), mais pas tous (11 % en France); aux États-Unis, l’information locale semble avoir plus de chances de récolter des gens désireux de payer; et le fait d’être déjà abonné à de l’information papier semble être un facteur qui influence positivement la volonté de payer pour de l’information en ligne.

Au Québec, on constate par ailleurs que le seul quotidien à disposer d’un accès payant sur le web, réservé à ses abonnés, soit Le Devoir, a dégagé un léger bénéfice à quelques reprises au cours des dernières années.

3) Si l’État aide financièrement un média, ça signifie qu’il lui signe un chèque ? Pas nécessairement.

Une aide directe consiste effectivement en un chèque : il peut s’agir soit d’une somme d’argent renouvelée chaque année, soit d’un montant alloué à la pièce, pour un an, sur présentation d’un projet. Exceptionnellement, il peut s’agir d’un prêt, comme celui alloué à Capitales Médias ce mois-ci. Une aide indirecte en revanche, peut prendre la forme de crédits d’impôt, comme ceux annoncés par le gouvernement Trudeau en 2018 (mais qui n’ont pas encore été créés) ou d’exemptions fiscales aux journaux imprimés comme en France. On retrouve tantôt des exemptions fiscales, tantôt des incitatifs fiscaux, dans de multiples secteurs de l’économie, les plus connus ces dernières années ayant été l’énergie et le multimédia, par exemple pour inciter une compagnie à s’installer dans une ville ou à créer de l’emploi. Financer des entreprises ou les accompagner est le rôle même de la société d’État Investissement Québec.

Il faut par ailleurs savoir qu'au sujet des revenus et de l'éventuelle profitabilité, il existe un débat parmi les défenseurs de l’information journalistique : les médias doivent-ils être considérés comme des entreprises commerciales comme les autres, ou comme une forme de « service public » ? Le débat se poursuit.

4) L’aide directe de l’État aux médias est une idée née avec la crise des quotidiens ? Faux.

Au Québec, la majorité des grands magazines et la majorité des émissions d’affaires publiques de la télévision, dont la totalité de celles diffusées sur les chaînes spécialisées, sont subventionnées. Les magazines qui satisfont aux critères reçoivent une aide directe, renouvelée chaque année, du Fonds canadien pour les périodiques (qui représentait une enveloppe de 75 millions de dollars en 2018). Les médias communautaires sont subventionnés par le ministère québécois de la Culture. Les émissions de télé peuvent être financées par Téléfilm au fédéral ou par la SODEC au provincial sur présentation d’un projet et d’un engagement de diffusion par une chaîne de télé.

5) L’idée d’une aide indirecte aux médias est apparue en 2018, avec les crédits d’impôt du gouvernement Trudeau ? Faux.

Historiquement, la première aide indirecte aux médias canadiens a été l’aide à l’envoi postal, qui remonte au 19e siècle : avoir le statut de journal donnait droit à une réduction sur les envois aux abonnés par la poste.

Chez nous, la plus visible des aides indirectes a longtemps pris la forme des « avis publics ». Puisque la loi oblige un gouvernement à annoncer, par exemple, ses audiences publiques en vue d’une modification à une loi, le seul canal à sa disposition a longtemps été le journal local. Cette aide a considérablement diminué dans les années 2010, les gouvernements et les municipalités affichant sur leur propre site web.

Plusieurs pays, dont la France, offrent des exemptions fiscales aux journaux imprimés : le journal en ligne Médiapart s’est battu pendant plusieurs années (et a eu en partie gain de cause) pour que ces exemptions soient élargies aux médias numériques.

6) Les Québécois donnent déjà beaucoup aux médias ? Faux.

Au Québec, l’aide aux médias serait, par citoyen, inférieure à celle qu’on retrouve dans nombre de pays européens selon une analyse produite en 2016 pour la Fédération nationale des communications par la firme MCE Conseils. La presse écrite québécoise recevrait en moyenne 3 $ par habitant, contre 5,83 $ aux États-Unis. À l’autre extrémité du spectre, le pays qui soutient le mieux la presse écrite était la Finlande (92,23 $ par habitant), suivie de la Norvège (57,65 $ par habitant) et de la Suède (35,67 $ par habitant).

Qu’en est-il de la radio et de la télévision ? Même portrait. Le Canada serait l’un des pays occidentaux qui soutient le moins son diffuseur public, avec 33 $ per capita par an. Seule la Nouvelle-Zélande (25 $) ferait moins, ainsi que les États-Unis. Par contre, la Norvège verserait 163 $ par habitant, l’Allemagne 107 $ et l’Irlande 54 $. La BBC recevrait l’équivalent de 118 $.

+

DE L"ÉDUCATION AUX MÉDIAS

Quelle que soit la solution financière qui sera proposée pour assurer la pérennité des médias, il faudra aussi de plus en plus penser à faire ce qu'on appelle de l'éducation aux médias et à l'information : identifier des sources crédibles, c'est bien, mais faire comprendre ce qui caractérise un travail journalistique crédible, c'est tout aussi important. C'est dans ce contexte que le Détecteur de rumeurs a vu dans ce malheureux événement qui frappe ses collègues journalistes du Québec l'occasion de faire, avec ce texte, un peu d'éducation aux médias : les idées reçues qui ont été retenues ici ne sont qu'un échantillon de celles auxquelles il serait possible de s'attaquer.

Science

Un pas de plus pour sauver le rhinocéros blanc au Kenya

OL PEJETA — Des vétérinaires ont prélevé avec succès les ovocytes des deux dernières femelles rhinocéros blanc du Nord, un pas de plus dans les efforts acharnés pour sauver cette espèce de l’extinction, ont annoncé les scientifiques en charge du projet vendredi au Kenya.

La science représente le dernier espoir pour le rhinocéros blanc du Nord - l’une des deux sous-espèces de rhinocéros blanc - après le décès l’année dernière à l’âge de 45 ans du dernier mâle, appelé Sudan, dans la réserve kényane d’Ol Pejeta (centre).

Les deux femelles, Najin, 30 ans, et sa fille Fatu, 19 ans, sont les derniers individus de leur espèce et vivent sous bonne garde à Ol Pejeta, où le prélèvement de leurs ovocytes a été pratiqué jeudi.

Aucune d’elles n’est en mesure de mener une grossesse à son terme: Fatu souffre de lésions dégénératives au niveau de l’utérus et Najin d’une fragilité de son train arrière incompatible avec une portée.

Jeudi, une équipe de vétérinaires a réussi à prélever cinq ovocytes sur chaque femelle (placées sous anesthésie pendant deux heures) en ayant recours à des techniques novatrices en matière de procréation assistée.

«C’est un très grand succès: hier, 10 ovocytes ont été prélevés, ce qui correspond plus ou moins à ce que nous espérions», s’est félicité Jan Stejskal, du zoo tchèque de Dvur Kralove, où Najin et Fatu sont nées avant d’être transférées au Kenya.

M. Stejskal a expliqué comment à partir de 2014, lorsque l’infertilité des deux femelles a été établie, plus de 15 zoos européens ont travaillé de concert pour développer et perfectionner une technique d’extraction d’ovocytes sur les rhinocéros.

«La méthode (de prélèvement) et l’équipement ont tous deux été conçus de zéro», a souligné vendredi ajouté le professeur Thomas Hildebrandt, de l’Institut Leibniz de recherche zoologique et animale, à Berlin.

En 2018, cette même équipe était parvenue à créer des embryons hybrides, résultat de la fécondation d’ovocytes de femelles de rhinocéros blancs du Sud avec des spermatozoïdes de rhinocéros blancs du Nord. Ces embryons avaient été congelés. Les prélèvements de jeudi permettent aux scientifiques d’escompter la création à court terme d’embryons à 100% rhinocéros blanc du Nord.

Implacable braconnage 

Les ovocytes prélevés jeudi ont ainsi été immédiatement envoyés dans un laboratoire spécialisé en Italie pour y être fécondés d’ici la fin de la semaine, avec des spermatozoïdes qui avaient été prélevés sur quatre mâles de l’espèce avant leur décès.

Les scientifiques doivent à présent développer une technique pour implanter ces embryons dans des mères porteuses, en l’occurrence des femelles rhinocéros blancs du Sud.

«Nous sommes très contents que ce partenariat nous fasse avancer d’un pas dans la prévention de l’extinction du rhinocéros blanc du Nord. C’est particulièrement émouvant quand on pense à la disparition déchirante de Sudan (...)» a pour sa part commenté John Waweru, le directeur général du service kényan de la faune (KWS).

On compte actuellement cinq espèces de rhinocéros sur terre, parmi lesquelles les rhinocéros noirs et les rhinocéros blancs se trouvent en Afrique. Le rhinocéros blanc du Nord est généralement considéré comme une sous-espèce du rhinocéros blanc, mais des scientifiques ont émis l’hypothèse qu’il pouvait s’agir d’une espèce à part entière.

Dans leur milieu naturel, les rhinocéros n’ont que peu de prédateurs, en raison de leur taille et de leur peau épaisse.

Mais de prétendues vertus médicinales attribuées en Asie à leur corne ont alimenté dans les années 1970 et 80 un braconnage implacable qui a largement décimé le rhinocéros blanc du Nord en Ouganda, Centrafrique, Tchad, République démocratique du Congo (RDC), et dans l’actuel Soudan du Sud.

Ces territoires traditionnels du rhinocéros blanc du Nord ont longtemps été en proie aux conflits et donc propices aux activités criminelles, dont le braconnage. En 2008, le rhinocéros blanc du Nord était déjà considéré comme éteint à l’état sauvage.

Les rhinocéros modernes sillonnent notre planète depuis 26 millions d’années. Au milieu du 19e siècle, on estimait leur population à plus d’un million d’individus pour le seul continent africain.

Diversité génétique? 

Les scientifiques impliqués dans le projet espèrent que leurs efforts aboutiront in fine à la naissance de plusieurs bébés rhinocéros blanc du Nord, mais, de leur propre aveux, leur approche a ses limites.

Les ovocytes ne peuvent être collectés sur les femelles que trois fois par an et la question du manque de diversité génétique des futurs petits pèse sur les efforts en cours.

Pour tenter de remédier à cette difficulté, le consortium scientifique BioRescue tente également de produire artificiellement des gamètes (cellules reproductrices) de rhinocéros blancs du Nord grâce à des cellules provenant de tissus congelés prélevés sur d’autres spécimens de l’espèce sans lien de parenté.

Selon les membres de BioRescue, l’objectif est final est de réintroduire le rhinocéros blanc du Nord dans des zones protégées de son habitat naturel, ce qui pourrait prendre pas moins de 70 ans.

Au-delà de cet objectif, Richard Vigne, le directeur général d’Ol Pejeta, souligne que ces efforts ont le mérite de mettre en évidence «la crise actuelle de l’extinction (de nombreuses espèces) dont nous, les humains, sommes responsables».

Science

Ralentir certains spermatozoïdes pour choisir le sexe du bébé?

En lice pour le prix de «ils sont rendus là?» : des chercheurs spéculent sur la possibilité d’identifier, dans le spermatozoïde, un nombre restreint de gènes qui sont responsables du chromosome X, ouvrant la porte à des substances chimiques qui pourraient un jour être utilisées pour ralentir certains spermatozoïdes, et du coup, réduire les chances que le futur bébé soit une fille.

On n’en est pas encore là. Mais plusieurs chercheurs s’inquiètent déjà de la porte que vient d’ouvrir l’équipe de Masayuki Shimada, de l’Université d’Hiroshima, au Japon : ils ont d’abord identifié 500 gènes qui sont actifs dans les spermatozoïdes transportant le chromosome X, et qui ne le sont pas chez ceux qui transportent le chromosome Y. Ils en ont ensuite identifié 18 qui encodent les protéines ressortant à la surface du spermatozoïde. En théorie, un gel utilisé au moment des relations sexuelles qui ciblerait précisément ces protéines pourrait ralentir la progression de ces spermatozoïdes spécifiques.

C’est hautement théorique, mais ces spéculations surgissent du fait que jusqu’ici, on avait toujours présumé que les spermatozoïdes des mammifères étaient identiques, mis à part les gènes qu’ils transportent. Le fait qu’il existe une « empreinte », quand bien même ne s’agit-il que d’une poignée de protéines, peut donner des idées à certains. La recherche, qui a porté sur des souris, aurait permis d’avoir 90 % de rejetons mâles lorsqu’on ralentissait certains spermatozoïdes de cette façon.

Interrogés par le New Scientist, des experts évaluent que si cela se confirmait, il faudrait compter une dizaine d’années avant qu’un produit conséquent ne puisse être sur le marché. «Personne ne serait capable de vous en empêcher» dans votre chambre à coucher.

La sélection du sexe avant la naissance, pour des raisons autres que médicales, est interdite au Canada, en Chine et en Inde, entre autres, mais est légale dans la plupart des autres pays, incluant les États-Unis, où il existerait un petit marché pour ce que certains appellent le « l’équilibre des familles » (family balancing).

Science

Non, les crèmes solaires ne sont pas cancérigènes

LE DÉTECTEUR DE RUMEURS / La crème solaire serait plus nuisible pour la santé que les effets du soleil sur la peau, selon ce qu’on peut lire sur plusieurs sites. Les produits chimiques contenus dans les écrans protecteurs représentent-ils vraiment un danger? Le Détecteur de rumeurs a enquêté.

Le cancer de la peau est le plus fréquent au Canada : il représente au moins 40 % des nouveaux cancers diagnostiqués chaque année. La plupart sont causés par un contact prolongé avec les rayons UV, qui sont aussi à l’origine des coups de soleil, du vieillissement prématuré de la peau et des cataractes. Pour s’en protéger, la Société canadienne du cancer recommande d’appliquer un écran protecteur — par exemple, une crème ou un vaporisateur.

Or, la sécurité et la composition de ces écrans protecteurs suscitent de l’inquiétude, notamment sur Internet. Les crèmes solaires sont accusées, entre autres, de contenir :

• des substances toxiques;
• des nanoparticules qui peuvent provoquer des cancers;
• de favoriser le développement de mélanomes;
• d’entraîner une carence en vitamine D, laquelle est liée par la communauté médicale à des maladies métaboliques dont l’ostéoporose et le rachitisme chez les enfants, et à des cancers de la peau.

Si la majorité de ces allégations découlent de mauvaises interprétations d’études scientifiques, certaines méritent qu’on s’y attarde pour démystifier la dangerosité des crèmes solaires.

Les substances toxiques

Les agents actifs des crèmes solaires sont de deux types : les filtres chimiques, composés de molécules organiques qui pénètrent dans la peau, et les filtres minéraux, qui agissent comme une barrière à la surface de l’épiderme. Certains produits à large spectre, qui protègent à la fois contre les rayons UVA et UVB, combinent les deux types de filtres.

La plupart des crèmes qu’on trouve en magasin contiennent un ou plusieurs des 17 filtres chimiques autorisés au Canada, parmi lesquels l’avobenzone, le Mexoryl SX, l’octinoxate et l’oxybenzone. Les écrans solaires minéraux quant à eux, utilisent de l’oxyde de zinc et/ou du dioxyde de titane.

Ces ingrédients sont-ils dangereux ?

Selon l’Environmental Working Group (EWG), un organisme américain de défense de l’environnement, l’oxybenzone, appelée aussi benzophénone 3, peut imiter le comportement des hormones. Du moins chez les poissons qui ont été exposés à des doses élevées ou chez les rats qui en ont mangé pendant 21 jours. Ce potentiel a aussi été identifié dans des études sur des cellules.

Chez les humains, le seul problème de santé identifié est la photodermatite, une réaction cutanée déclenchée chez certaines personnes par l’exposition au soleil.

L’octinoxate et l’enzacamène présentent, pour leur part, un potentiel d’agir — de faible à moyen — comme une hormone et ainsi, la possibilité de perturber le système reproducteur des rats qui en mangent. Ce qui ne correspond pas à l’utilisation normale d’un écran solaire et empêche toute extrapolation des résultats à l’humain. Des cas d’allergie ont aussi été signalés pour l’octinoxate.

Au-delà des filtres, il y a un autre ingrédient montré du doigt : le palmitate de rétinyle, aussi connu sous le nom de rétinol. Ce dérivé de la vitamine A est ajouté aux écrans solaires pour réduire le vieillissement de la peau. Une étude menée en 2012 par le Programme américain de toxicologie a montré que le rétinol accélérait le développement de tumeurs et de lésions cutanées chez des souris exposées à des lumières UV. Mais il est difficile d’extrapoler ce constat aux risques de cancer de la peau chez l’homme.

Bref, on peut choisir d’éviter ces ingrédients par prudence, mais pour le moment, il n’est pas démontré qu’ils sont nocifs pour l’humain. En supposant qu’on s’enduise de crème solaire, et qu’on ne la mange pas!

Les nanoparticules 

L’oxyde de zinc et le dioxyde de titane ont quant à eux le défaut de laisser un résidu blanc sur la peau. Pour remédier à cet inconvénient et rendre leur produit translucide, les fabricants de crèmes solaires les utilisent sous forme de nanoparticules. Quelques études ont suggéré que ces particules de petite taille pourraient amener la formation de radicaux libres — on appelle ainsi un fragment libéré d’une molécule, plus instable, capable de réagir davantage avec les molécules de son entourage — qui pourraient pénétrer la peau et endommager les cellules.

Des études parrainées par la Food and Drug Administration des États-Unis et l’Union européenne ont toutefois conclu que les nanoparticules d’oxyde de zinc et de dioxyde de titane ne pénétraient pas au-delà de l’épiderme. Et ce, même si la peau est endommagée, par exemple par une éraflure. L’Association canadienne de dermatologie a même officiellement déclaré qu’il n’existe aucun indice que l’application de produits contenant de l’oxyde de zinc et du dioxyde de titane micronisés puisse engendrer de la toxicité.

Les nanoparticules peuvent toutefois provoquer des lésions pulmonaires lorsqu’elles sont inhalées, ce qui est le cas lorsqu’on choisit une protection solaire en vaporisateur.

Bref, les nanoparticules contenues dans les écrans solaires minéraux ne sont pas non plus nocives pour la santé, à moins qu’elles soient inhalées, par exemple en utilisant une protection solaire en vaporisateur. Dans ce cas, elles peuvent causer des lésions pulmonaires.

Favoriser le développement de mélanomes

Un certain nombre d’études ont révélé que les utilisateurs fréquents de crème solaire présentaient plus de mélanomes, un type de cancer de la peau. Mais quand on y regarde de plus près, on constate que généralement, ceux qui s’enduisent d’écran protecteur sont aussi ceux qui passent plus de temps au soleil, un important facteur de risque du mélanome, avec les coups de soleil à répétition. D’autres études n’ont pas abouti à des conclusions aussi claires. La recherche devra se poursuivre sur le sujet.

Les écrans solaires ne suffisent pas à protéger des cancers de peau, mais lorsqu’ils sont utilisés correctement, ils aident à prévenir les coups de soleil, ce qui diminue le risque de mélanome.

La carence en vitamine D

Un bon écran solaire bloque les rayons UV et protège contre le cancer de la peau. Mais ce faisant, il empêche la production naturelle de vitamine D. Or, plusieurs études montrent que des niveaux plus élevés de vitamine D chez les personnes exposées au soleil peuvent jouer un rôle dans la réduction du risque de mélanome.

Heureusement, l’humain n’a pas besoin de s’exposer au soleil pour produire de la vitamine D. Et en cas de carence, on la trouve en supplément et dans certains aliments enrichis, comme le lait de vache et les boissons de soya.

De plus, une étude publiée en mai dans le British Journal of Dermatology, a comparé les niveaux de vitamine D après une semaine de vacances chez une centaine de personnes — dont un groupe témoin qui n’était pas allé au soleil — qui avaient ou non utilisé un écran solaire. Les chercheurs ont conclu que les écrans solaires, même utilisés de manière optimale pour prévenir les coups de soleil, permettraient une bonne synthèse de la vitamine D issue du soleil.

Verdict

À moins d’en manger, d’en inhaler ou de s’exposer de longues heures au soleil, les crèmes solaires n’entraînent pas de graves dangers de santé. Tandis que les risques de développer un cancer de la peau sans protection sont, eux, mieux documentés.

+++

LARGE SPECTRE

Au Canada, la recommandation générale est d’utiliser un produit avec un facteur de protection FPS 30 à «large spectre», qui protège à la fois contre les rayons UVB et UVA. Depuis 2007, l’Environmental Working Group (EWG) établit chaque année un guide d’achat des écrans solaires en passant en revue les ingrédients contenus dans les produits affichant un FPS et vendus aux États-Unis. La version 2019 a étudié quelque 1 300 produits. Le groupe dispose aussi d’une banque de données, Skin Deep, qui répertorie et évalue le niveau de sécurité, pour la santé et l’environnement, de plus de 70 000 produits de soins et de leurs ingrédients.