Fini, le réchauffement?

SCIENCE AU QUOTIDIEN / «Un expert réviseur du GIEC, François Gervais, physicien et professeur émérite de l’Université de Tours en France, souligne une contradiction entre deux rapports du GIEC sur le réchauffement. L'hypothèse officielle retenue est une hausse de 0,2 °C par décennie (en réalité dans une fourchette de 0,1 à 0,3 °C) alors qu'un autre rapport di GIEC (AR5) montre une hausse de 0,04 °C par décennie entre 1998 et 2012, soit 5 fois moins. Je cite François Gervais : «cette hausse infinitésimale se prolonge depuis 20 ans aux fluctuations naturelles près.» Alors qui dit vrai?», demande Jean-Yves Uhel, de Sainte-Foy.

Il s’agit ici d’une entrevue que M. Gervais a accordée à la revue française Valeurs actuelles en octobre dernier, dans la foulée de la publication de son livre L’urgence climatique est un leurre. Dans cet ouvrage, il accuse le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC, relié à l’ONU) et la climatologie en général d’être inutilement alarmistes.

Il y a plusieurs choses à dire à ce sujet. D’abord, sur le fond, il n’y a absolument aucune contradiction entre la soi-disant «hypothèse officielle» de +0,2 °C par décennie et le rythme observé entre 1998 et 2012. La température moyenne qu’il fait sur Terre connaît des variations naturelles d’une année à l’autre, pour une foule de raisons — le cycle El Nino / La Nina, par exemple. Si bien que si l’on ne retient que des sous-périodes assez courtes, on peut en trouver qui semblent contredire la tendance générale. Mais par définition, c’est en regardant l’ensemble des données que l’on juge de la valeur d’une tendance générale, pas en découpant une petite séquence et en écartant le reste de la série.

L’exercice auquel se livre M. Gervais est d’autant plus douteux, d’ailleurs, que la «pause» du réchauffement à laquelle il fait référence est terminée depuis plusieurs années. Le graphique ci-bas montre l’«anomalie» de température (l’«écart» d’année en année par rapport à la moyenne de 1951-1980) depuis la fin du XIXe siècle. Les données viennent du site de la NASA. Il est vrai, comme le dit M. Gervais, que cette anomalie n’a pratiquement pas bougé entre 1998 (+0,62 °C) et 2012 (+0,61 °C). Mais l’augmentation de température a repris en 2013, l’anomalie a dépassé les 0,7 °C en 2014 et elle a oscillé autour de 0,9 °C de 2015 à 2017. Il est assez incongru, pour dire le moins, de laisser cela «hors de l’image»...

En outre, présenter le rythme de 0,2 °C par décennie comme une «hypothèse officielle» laisse entendre qu’il s’agit d’une simple projection théorique — j’imagine que ce n’était pas l’intention de M. Uhel, je tiens à le souligner. En réalité, ce rythme-là correspond aux observations empiriques, en particulier le fait que le réchauffement s’est accéléré au cours du XXe siècle. Si l’on regarde de nouveau notre graphique, on constate que l’anomalie de température est passée d’entre - 0,2 et - 0,3 °C à la fin du XIXe siècle à environ +0,7 °C dans les années 2010 — un rythme d’environ 0,08 °C par décennie. Si on part des années 50 (autour de -0,1 °C), le rythme grimpe à 0,15 °C par décennie. Et si on prend le tournant des années 80 (+ 0,0 °C) comme point de départ, on obtient environ 0,25 °C par décennie. Alors d’un point de vue factuel, cette «hypothèse officielle» ne me semble ni particulièrement hypothétique, ni très alarmiste.

Il faut dire ici, sur la forme, que M. Gervais n’en est pas à son premier découpage du genre. Dans un autre livre climatosceptique paru en 2013, L’innocence du carbone, il avait plusieurs fois cité des séquences très partielles et soigneusement choisies pour cadrer dans sa trame narrative. Ces «contre-vérités» avaient d’ailleurs été vigoureusement dénoncées par le climatologue français François-Marie Bréon dans Le Monde (https://lemde.fr/2AeRRB2).

Rappelons aussi que, tout scientifique qu’il soit, M. Gervais n’est pas lui-même climatologue. Ses travaux de recherche ont surtout porté sur l’électromagnétisme et la physique des matériaux à l’Université de Tours, où il a longtemps dirigé le Laboratoire d’électrodynamique des matériaux avancés. Ce n’est qu’après sa retraite en 2012, apparemment, qu’il a commencé à publier sur le climat. À cet égard, le titre d’«expert réviseur du GIEC» qu’il s’attribue ne veut pas dire grand-chose puisque n’importe quel universitaire peut envoyer ses commentaires aux GIEC et son nom figurera ensuite dans sa liste des «experts réviseurs».

Alors à la question de savoir «qui dit vrai», il me semble manifeste que l’avis des véritables experts, les climatologues (dont ceux du GIEC), est largement préférable à celui de M. Gervais, sauf tout le respect que je lui dois.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Ce sondage est-il fiable?

SCIENCE AU QUOTIDIEN / «La campagne électorale fédérale approche à grands pas et nous serons bientôt submergés de résultats de sondages. Pour m’attarder souvent aux détails de leur méthodologie, j’ai remarqué que si certains les expliquent clairement (méthode, marge d’erreur, etc.), d’autres se contentent de nous informer que l’échantillonnage était «non probabiliste». Alors comment faire pour savoir si un sondage est vraiment fiable?», demande Serge Rivard, de Québec.

De manière générale, oui, les sondages sont fiables. La revue savante Nature – Human Behaviour a publié récemment une étude basée sur quelque 30 000 sondages électoraux dans 45 pays entre 1942 et  2017. Elle a trouvé une erreur moyenne de 2 points de pourcentage pour les sondages réalisés à une semaine ou moins du scrutin, et conclu que «de temps à autre les sondeurs se trompent, ce qui les place sous les projecteurs [...mais en bout de ligne] nous n’avons trouvé aucun signe supportant l’idée d’une crise de fiabilité des sondages».

Cela dit, il en va de ces coups de sonde comme du reste des réalisations humaines : ils sont imparfaits. Un sondage, d’abord, consiste à interviewer un groupe relativement peu nombreux de gens (généralement autour de 1000) afin d’estimer l’opinion de toute une société (des millions, voire des dizaines ou des centaines de millions). En soi, c’est toujours un brin périlleux, puisque les chances pour que ces quelque 1000 personnes représentent de manière parfaitement exacte la société entière sont minces. Mais d’un autre côté, on sait aussi qu’il y a peu de chances pour qu’elles s’en écartent beaucoup. D’où l’idée de la «marge d’erreur», rendue par la célèbre formule «précis à plus ou moins 3 % 19 fois sur 20». Cela signifie que si le parti X obtient 38 % des intentions de vote dans l’échantillon, alors il y a 19 chances sur 20 pour que ses «vrais» appuis dans la population tombent dans une fourchette de ± 3 %, soit quelque part entre 35 et 41 %.

Cela implique, évidemment, qu’il reste toujours 1 chance sur 20 pour que le sondage s’écarte de la «vérité» par plus de 3 %. Ce peut être 4 %, ou 6 %, ou même en principe plus de 10 %, même si c’est extrêmement improbable. Mais cela nous donne déjà un premier indice de fiabilité : est-ce que les résultats sont en ligne avec ce que d’autres sondages récents ont montré ? Si oui, c’est bon signe. Mais si les chiffres sont très différents, cela peut vouloir dire de deux choses l’une. Ou bien l’opinion publique vient de subir un changement rapide (c’est rare, mais ça arrive). Ou bien on a affaire à «la 20fois sur 20», pour ainsi dire. Il vaut mieux alors attendre que d’autres sondages viennent confirmer (ou infirmer) la nouvelle tendance.

Ce qui nous mène un autre indice de fiabilité : les dates d’échantillonnage. Un sondage, c’est comme une photo, ça montre ce qui était là à un moment donné, puis ça ne bouge plus. Alors plus l’échantillonnage remonte à loin dans le passé, plus fort est le risque que l’opinion publique ait changé et que ses résultats ne soient plus valides.

Il y a par ailleurs moyen de réduire la marge d’erreur, remarquez : par la taille de l’échantillon (qui est un troisième indice de fiabilité). Plus il est grand, et plus la marge d’erreur diminue — mais cela finit par coûter cher. Autour de 1000 personnes, elle est d’environ 3 % ; pour l’abaisser à 2 %, il faut interviewer près de 2500 personnes; et pour atteindre 1 %, l’échantillon doit dépasser les 9500. Inversement, à 500 personnes, elle est d’environ 4,4% et de 7% à 200. C’est pourquoi il faut toujours se méfier des «sous-échantillons» — comme les intentions de vote au Québec dans un sondage pan-canadien.

Maintenant, plusieurs firmes ont commencé à faire leurs sondages au moyens de «panels web». Elles se constituent des groupes de quelques dizaines (voire centaines) de milliers de gens afin d’avoir un bassin de répondants plus faciles et économiques à joindre et interviewer que les sondages «classiques». Ces sondeurs s’arrangent pour que leurs panels ressemblent autant que possible à la population en général (même distribution des sexes, des groupes d’âge, des revenus, etc.), mais il reste que procéder de cette manière ne donne pas un échantillon aléatoire (ou «probabiliste») au sens strict parce que les répondants ne sont pas «pigés» parmi la population en général comme dans un sondage téléphonique. Ils viennent d’un sous-groupe relativement restreint.

Or les équations qui servent à calculer les marges d’erreur présument que l’échantillon est probabiliste — elles ne s’appliquent pas autrement. C’est la raison pour laquelle certains sondages sont publiés sans marge d’erreur. D’un point de vue purement mathématique, c’est la bonne chose à faire, mais je crois que cela prive le public d’un élément d’information important : il y a forcément une marge dans les résultats des panels web. Si un de ces panels accorde, disons, 37 % des intentions de vote au parti X, cela ne signifie pas que celui-ci a exactement 37 % d’appuis dans la population en général, mais bien autour de 37 %.

À cet égard, j’aime bien la formule employée par Léger Marketing, qui calcule une marge malgré tout : «un échantillon de cette taille aurait eu une marge d’erreur de x si l'échantillon avait été probabiliste». Des statisticiens à qui j’en ai parlé dans le passé voient ça comme un pis aller, puisque l’idéal serait de travailler avec des échantillons véritablement aléatoires, mais bon, ça reste quand même «moins pire», plus informatif que de ne rien dire.

Maintenant, tant qu’à être dedans, disons un mot sur les méthodes d’échantillonnage. Hormis les panels web et le bon vieux téléphone, les sondeurs procèdent aussi souvent par appels automatisés (l’entrevue se fait au téléphone mais le questionnaire est administré par un robot). Il n’est pas clair que l’une ou l’autre de ces méthodes est vraiment meilleure que les autres — après tout, il y a bien des façons de faire un mauvais sondage, comme des questions biaisées, une mauvaise pondération, une répartition erronée des indécis, etc. À cet égard, il est assez parlant de voir que le célèbre site d’agrégation de sondage et de prédictions électorales FiveThirtyEight, du statisticien américain Nate Silver, a donné la même note de F et cessés d’utiliser les sondages des maisons TCJ Research, qui ne fait que des appels robotisés, et Strategic Vision LLC, qui ne procède que par appels avec téléphonistes.

Mais quand même, comme il n’y a rien de parfait, toute méthode peut introduire des biais. Lors de la présidentielle de 2016, les appels automatisés ont un peu mieux fait que les autres méthodes, se trompant en moyenne par 2,8 points contre 3,2 à 3,9 pour les autres, a montré un «post-mortem» rédigé par des experts (p. 15 / 39). Cependant, FiveThirtyEight a trouvé qu’à plus long terme, les appels «en personne» semblent faire légèrement mieux que les autres, dans la mesure où ils incluent des numéros de cellulaires. Mais la différence est mince et dans ses modèles, M. Silver ne leur accorde qu’un «bonus modeste».

Science

Génétique : le grand casse-tête

SCIENCE AU QUOTIDIEN / Les Américains ont lancé le Human Genome Project en 1990 afin de décrypter l’ADN humain. Ils y sont parvenus en 2003, ce qui a permis quelques percées du côté des maladies reliées à un seul gène. On nous a alors dit que pour les maladies plus complexes, comme le cancer ou la schizophrénie, cela prendrait «plus de temps». Or cela fait 16 ans maintenant et le coût du décryptage a fortement diminué, alors pourquoi est-il toujours si difficile d’isoler le ou les gènes responsables de ces «maladies complexes» ?», demande Pierre Sénécal, de Québec.

«Ça a quand même aidé, dans plusieurs cas, à découvrir de nouveaux médicaments parce que ça nous a permis de cibler des mécanismes. (…) La génomique est et restera utile, mais pour différentes raisons, comme les niveaux de complexité sur le phénotype [le «produit final» des gènes et de l’environnement, ndlr], c’est certain que les promesses de la génomique d’il y a 35 ou 40 ans n’ont pas encore été transférées à ces maladies complexes là, qui sont les plus coûteuses et les plus prévalentes», dit Dr Michel Maziade, psychiatre et chercheur au centre CERVO de l’Université Laval.

La première de ces raisons est la complexité du génome humain lui-même. Les estimés «classiques» parlaient jusqu’à récemment de 20 000 à 25 000 gènes, mais des travaux les plus récents ont réduit cette fourchette à 19-22 000 [https://go.nature.com/2yuU75L]. Le simple fait que l’on ne s’entende toujours pas sur le nombre exact de gènes que possède l’être humain donne déjà une idée de la complexité de la chose. En outre, chacun de ces quelque 20 000 gènes peut remplir un ou plusieurs rôles différents, et ils peuvent s’influencer les uns les autres. «Ces gènes sont ensuite traduits en protéines [ndlr : l’ADN ne sert à rien d’autre qu’à conserver de l’information pour assembler des protéines] et ça aussi, c’est d’une grande complexité aussi (…), la même mutation dans un gène peut donner 2, 3 ou même 15 protéines différentes», dit Dr Maziade.

Et encore, les gènes à proprement parler ne représentent qu’environ 1 % de notre génome. Les 99% restants, l’«ADN non codant», remplissent des fonctions dans la régulation des gènes et leur transcription en protéines, mais leurs rôles ne sont pas encore bien compris. Bref, s’il est vrai qu’il y a plus de 15 ans qu’on «lit» le génome humain, cela ne signifie pas qu’on devrait tout comprendre aujourd’hui. Cela veut simplement dire qu’on a ouvert un champ de recherche d’une complexité inouïe et qu’il faut encore se donner du temps — beaucoup de temps.

De plus, dans le cas d’afflictions comme les cancers, la schizophrénie, etc., la complexité de la maladie elle-même vient d’ajouter par-dessus. Elles sont en effet causées par des longues listes de facteurs possibles (nombreux gènes impliqués, facteurs environnementaux, habitudes de vie, etc.) pouvant varier d’un individu à l’autre, même si les symptômes sont les mêmes. Alors dans ces cas-là, par définition, même si on connaissait la génétique parfaitement (ce qui n’est pas le cas), celle-ci ne pourrait pas constituer plus qu’un morceau du casse-tête.

Prenons le cas de la schizophrénie, par exemple. «Il y a quelques centaines de gènes connus pour avoir une influence, dit Dr Maziade. Si on prend un score combiné pour ces quelque 200 mutations, c’est nettement associé à la maladie [mais cela ne fait pas une différence énorme]. Le risque de la maladie est de 1% dans la population en général, et de 1,5% chez les enfants porteurs. Donc ce n’est même pas assez puissant pour servir d’outil diagnostic». Et encore, ajoute-t-il, ce score de risque chevauche en grande partie celui de la dépression, des troubles anxieux grave et du trouble bipolaire, si bien qu’il n’est pas très spécifique.

Il faut dire qu’en ce qui concerne la maladie mentale, il y a encore une autre couche de difficulté qui vient s’ajouter aux autres : la «boîte noire» impénétrable qu’a longtemps constituée le cerveau vivant. La psychiatrie a historiquement dû se contenter d’étudier le comportement des patients (donc les «symptômes») et le cerveau de gens décédés. Cela a permis d’identifier la fonction de plusieurs zones du cerveau, mais il bien des troubles mentaux (dont possiblement la schizophrénie) ne sont pas causés par le mauvais développement de telle ou telle partie du cerveau, mais par la mauvaise communication entre ces zones. Cela demande donc d’étudier le cerveau vivant, en pleine action, ce qui était autrefois impossible — et même en 2019, ce n’est toujours pas facile.

Encore de nos jours dans le DSM-5 (manuel diagnostic le plus utilisé en psychiatrie), la définition des maladies mentales est basée sur les symptômes, et non sur ses causes. C’est un peu comme si, en santé physique, on appelait une maladie «la toux» sans égard au fait qu’elle soit causée par une bactérie, un virus, un irritant comme la cigarette, un cancer, etc. Ce n’est pas de la faute de la génétique si cet aspect de la psychiatrie n’est pas encore bien connu.

Enfin, mentionnons que pour ces maladies complexes, mentales comme physiques, les facteurs environnementaux forment eux aussi un enchevêtrement qu’il n’est pas nécessairement plus facile à démêler que le rôle des gènes. «On sait par nos études familiales et de jumeaux que les gènes doivent être là pour que la maladie apparaisse, mais qu’ils ne sont pas suffisants, explique Dr Maziade. Il faut qu’il y ait des facteurs d’adversité environnementale, qu’ils soient infectieux ou psychosociaux, dont on ignore les timings dans la trajectoire [ndlr : un même stresseur peut avoir des résultats complètement différent selon qu’il survient in utero, à 2 ans, 15 ans, etc.], mais qui viennent déclencher la vulnérabilité due aux gènes.»

C’est d’ailleurs justement ce qui donne espoir à Dr Maziade : la recherche psychiatrique a jusqu’à présent surtout étudié des patients chez qui la maladie est déjà déclarée, et qui ont derrière eux des années, sinon des décennies de médication. On n’a encore peu fait de grandes études longitudinales où l’on suivrait les enfants provenant de familles où il y a des cas de schizophrénie, et qui sont donc plus à risque. Il y a peut-être là des clefs importantes pour comprendre le développement de la maladie — et pour la prévenir, espère-t-il.

Mais, encore une fois, ce problème-là ne fait qu’illustrer de nouveau que la génétique n’est qu’un «morceau de puzzle». Certains savants (et médias) ont fait miroiter d’énormes espoirs dans les années 2000, et il y a certainement des raisons d’espérer que des percées en génétique vont nous aider à comprendre et traiter ces maladies complexes. Mais il ne faut juste pas espérer qu’un seul ou quelques «morceaux» vont résoudre le casse-tête au complet.

Science

Un peu de chimie dans... le spa

SCIENCE AU QUOTIDIEN / «Comme plusieurs autres, j’ai acheté l’année dernière un spa au brome avec le système In-Clear. Or j’apprends cette année que le gouvernement interdit maintenant le brome car il serait potentiellement cancérigène. Pourriez-vous m’expliquer en quoi c’est cancérigène et est-ce que je dois me départir de mon spa ? Autrement, est-ce que je peux m’en servir d’une façon sécuritaire et comment ?», demande Pierre Douville, de Cap-Rouge.

Le brome fait partie de la «famille» d’éléments chimiques des halogènes, avec le chlore, le fluor, l’iode et l’astate. Il ne réagit pas aussi agressivement que le fluor et le chlore, mais il figure quand même parmi les éléments les plus réactifs du tableau périodique. Tellement, en fait, que le brome ne se trouve jamais sous une forme «pure» (Br2) dans la nature : on le voit uniquement dans des composés, avec d’autres atomes. On peut toutefois en produire du brome «pur» de plusieurs manières, dont l’électrolyse, qui consiste à exposer une molécule contenant du brome à un léger courant électrique. La molécule s’en trouve «brisée» et le brome, libéré.

C’est ce qui est fait dans les systèmes d’assainissement des eaux de piscine et de spa comme celui de M. Douville, qui fait l’électrolyse du bromure de sodium (NaBr). Comme le brome est un «javellisant» au même titre que le chlore, il est lui aussi efficace pour tuer les germes. Et de la même manière, il peut également être un irritant pour les yeux et pour la peau.

Comme l’indique M. Douville, Santé Canada a effectivement rendu une décision au sujet du bromure de sodium l’automne dernier [http://bit.ly/312xTUX]. Le ministère est tenu par la loi de réévaluer à tous les 15 ans ses autorisations pour tous les «produits antiparasitaires», et cette échéance était arrivée pour le NaBr. La littérature scientifique pertinente des 15 dernières années est alors passée en revue pour voir si de nouvelles études n’auraient pas identifié des dangers que l’on ignorait quand le feu vert a été donné. «C’est ce qu’on a fait pour le NaBr, et c’est ce qui nous a fait conclure qu’il pouvait y avoir des problèmes», dit  Frédéric Bissonnette, de Santé Canada.

Il n’est pas tout à fait juste de dire que «le gouvernement interdit maintenant le brome», car la plupart de ses applications passées ont été maintenues. Ce ne sont que certains usages du NaBr qui ont été bannis — mais, oui, l’électrolyse dans les spas et piscines en fait partie.

La raison, explique M. Bissonnette, est que quand on fait l’électrolyse du bromure de sodium, les réactions voulues ne se produisent pas toujours parfaitement comme prévu et il y en a toujours une partie qui ne se transforme pas en brome, mais en «ions bromates» (BrO3-). Or les bromates sont considérés comme des «cancérigènes possibles» par le Comité international de recherche sur le cancer, un organisme relié à l’Organisation mondiale de la santé [http://bit.ly/2LLCebe].

«Je ne suis pas sûr qu’il y avait des études précisément sur les appareils dans les piscines ou les spas, les données venaient surtout d’études sur l’eau potable. (...) Certaines sources d’eau potable contiennent du bromure de manière naturelle, il y a des normes pour ça. Et dans certains cas, il y a de l’ozonation [ndlr : pour désinfecter] ou de l’exposition à des ultraviolets, et ça peut créer des bromates. (...) On a fait des extrapolations à partir de ça pour connaître les concentrations dans les spas, et ces concentrations-là étaient problématiques», explique M. Bissonnette.

C’est pour cette raison qu’en plus de retirer du marché les électrolyseurs qui produisent du brome, Santé Canada oblige maintenant les fabricants à «indiquer sur l’étiquette de tous les autres produits contenant du bromure de sodium pour piscines et spas qu’ils ne doivent pas être utilisés en association avec l’électrolyse, l’ozonation ou le rayonnement ultraviolet», lit-on dans la réévaluation.

Enfin, une autre nouvelle restriction est d’interdire l’utilisation du NaBr avec une autre substance nommée monopersulfate de potassium. «Le problème principal avec le monopersulfate, c’est que quand on s’en sert, ça prend des concentrations plus élevées de bromure de sodium dans l’eau pour que ça fonctionne bien. Et c’est au point que les concentrations de brome deviennent suffisamment élevées pour que ça crée des problèmes pour la glande thyroïde», explique M. Bissonnette.

Cette glande, comme on le sait, a une grande affinité pour l’iode, qu’elle absorbe bien et dont elle a besoin pour fonctionner correctement. Or comme le brome fait partie de la même «famille chimique» que l’iode et partagent avec lui plusieurs caractéristiques, il peut entrer (quand il est assez concentré) en compétition avec l’iode et prendre sa place dans la glande thyroïde. Quand il est utilisé avec le monopersulfate de potassium, le NaBr peut atteindre de telles concentrations, et c’est ce qui a motivé cette interdiction supplémentaire.

«Maintenant, ajoute M. Bissonnette, à la question de savoir si la personne doit se débarrasser de son spa, il faut dire qu’il y a d’autres produits qui peuvent être utilisés (...et) il y a d’autres produits à base de brome qui sont toujours permis.» Il revient au propriétaire de voir avec son détaillant ou avec le fabricant quel produit peut bien faire avec le modèle qu’il possède.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

On chauffe pas le dehors (mais des fois oui)

SCIENCE AU QUOTIDIEN / «Lors des périodes de canicule de cette année, des scientifiques ont prétendu que l’utilisation de climatiseurs résidentiels aggrave la situation en rejetant l’air chaud à l’extérieur. D’après eux, cela aurait pour conséquence d’empirer le problème des îlots de chaleur. Mais quand on songe au volume d’air qu’il y a à l’extérieur, il me semble que cette conclusion est exagérée, non ?», demande Jean-Pierre le Bel, de Rimouski.

À partir d’une certaine taille, pratiquement toutes les villes ont des secteurs où il n’y a pas d’arbres pour faire de l’ombre. Le béton, l’asphalte et d’autres matériaux du genre (souvent foncés) y dominent, et comme ils captent et emmagasinent plus de rayonnement solaire que ne le feraient des surfaces végétales, cela augmente la température aux environs. Sans compter le fait que les végétaux peuvent rejeter des quantités étonnantes de vapeur d’eau dans les airs, vapeur qui emmène beaucoup d’énergie (lire : «de chaleur») avec elle. L’effet est très local, mais il peut être considérable : s’il tourne généralement autour de quelques degrés, l’agence américaine de protection de l’environnement parle de différences pouvant aller jusqu’à 12°C. Dans des cas extrêmes, des écarts de près de 15°C sur à peine 500 mètres de distance ont déjà été documentés à Montréal (pdf, p. 104/144).

Maintenant, les climatiseurs fonctionnent essentiellement comme des réfrigérateurs : ils ne détruisent pas de chaleur ni ne créent de fraîcheur (deux choses physiquement impossibles de toute manière), mais ils absorbent de la chaleur à l’intérieur et la libèrent dehors. Cela demande bien sûr de l'énergie, et la consommation d'électricité que cela implique produit une certaine quantité de chaleur. Alors d’un point de vue strictement mathématique, il est certain que cela ne peut qu'augmenter la température ambiante, ne serait-ce que de manière infinitésimale. La question est : est-ce suffisant pour être ressenti, ou à tout le moins mesuré ?

Et il semble que la réponse soit quelque chose comme «plutôt oui». Il existe plusieurs études à ce sujet, qui sont surtout des modélisations puisqu’on ne peut pas, dans la «vraie vie», reproduire deux fois la même météo dans une ville donnée, avec et sans air climatisé. Mais leurs résultats se recoupent à plusieurs égards.

D’abord, elles trouvent toutes que le «réchauffement» causé par les systèmes d’air climatisés survient surtout la nuit. Pendant le jour, la météo est dominée par le rayonnement solaire. D’après cet article d’une équipe française qui a examiné le cas de Paris, cela s’explique par le fait que la «couche limite» de l’atmosphère (celle qui est directement influencée par le sol) est beaucoup plus haute pendant le jour que pendant la nuit (2300 mètres contre 250 mètres d’altitude dans l’article) et qu’il y a plus de brassage atmosphérique durant le jour. La nuit, le volume d’air influencé par ce qui se passe au sol est donc réduit et il est plus calme. Cela signifie que la chaleur relâchée par les climatiseurs a plus tendance à rester au même endroit, ce qui amplifie son effet.

Ensuite, ces travaux concluent tous à un effet de la même amplitude, ou presque. L’étude parisienne indique que les climatiseurs font une différence de 0,5 à 1°C sur la température ressentie dans la rue (la nuit). Cette autre étude, qui portait sur la région de Phoenix, arrive elle aussi à un écart de 0,5 à 1°C dans ses simulations les plus réalistes. Cette dernière cite également plusieurs autres recherches qui arrivent à des résultats comparables.

Maintenant, est-ce beaucoup ? Est-ce peu ? Le mathématicien Francisco Salamanca, auteur principal de l’étude sur Phoenix, parle d’«un rôle important qui exacerbe les îlots de chaleur urbains nocturnes». Cependant, son article indique aussi que les différences de températures entre les zones urbaines et rurales de la région de Phoenix atteignent jusqu’à 5 à 7 °C — si bien que les 0,5 à 1°C de chaleur rejetée par les climatiseurs n’en représentent pas une grosse partie. Ce qui n’est pas très étonnant, puisque la liste des principales causes des îlots de chaleur (surfaces asphaltées/bétonnées, absence de végétaux, etc.) est essentiellement la même chez toutes les sources scientifiques et gouvernementales, et elle ne mentionne presque jamais la chaleur déplacée par les systèmes de climatisation. Celle-ci serait donc un facteur, mais pas parmi les plus déterminants.

Du point de vue du réchauffement, c’est plus l’électricité que la climatisation demande qui inquiète. Dans un rapport paru l’an dernier, l’Agence internationale de l’énergie (AIE) avertit que 20 % de l’énergie consommée par les bâtiments de la planète est consacrée à les rafraîchir, et que cette consommation est appelée à tripler d’ici 2050 ; elle égalerait alors la demande totale en électricité de la Chine d’aujourd’hui !

Comme beaucoup de pays produisent une grande partie de leur électricité en brûlant du gaz naturel ou du charbon, c’est appelé à devenir un fort contributeur au réchauffement planétaire, ce qui fait dire à l’AIE que «la climatisation représente un mur dans lequel le monde se dirige» (cooling crunch). Notons cependant que cette règle générale ne s’applique pas bien au Québec, qui tire presque toute son électricité de source hydraulique.

Science

Les «aimants» à moustiques

SCIENCE AU QUOTIDIEN / «Il y a longtemps que je me pose cette question : pourquoi certaines personnes se font piquer sans cesse par des maringouins et d'autres pas du tout, ou presque ? Il suffit que je sorte quelques minutes dans mon jardin et, déjà, j’ai quelques piqûres, alors que mon conjoint, lui, les maringouins lui tournent autour mais ne le piquent jamais. Nous avons fait une petite recherche sur le sujet mais n’avons pas trouvé grand-chose de concret», demande Sophie Lemarier, de Gatineau.

Contrairement à ce qu’on pourrait penser, les moustiques ne se nourrissent pas de sang, en général. Leur appareil buccal est plutôt fait pour aspirer la sève des plantes et le nectar des fleurs. Oui oui, comme les jolis papillons, les sympathiques abeilles, les pucerons mignons et tant d’autres espèces dont les noms ne sont jamais maudits avec autant de régularité et de hargne.

La différence, c’est que chez le maringouin, la femelle a besoin d’une diète riche en protéines pour fabriquer ses œufs, et c’est dans ce but qu’elle suce le sang des autres animaux. Ce ne sont pas tous les moustiques qui «s’intéressent» aux humains, remarquez bien, mais sur les 52 espèces présentes au Québec, une trentaine nous piquent, selon le site de la Société d’entomologie du Québec [http://bit.ly/2JINXUy]. Alors on peut dire qu’on fait «notre grosse part», mettons…

C’est par une série d’indices que les moustiques femelles trouvent leur chemin jusqu’à nous, d’après la SEQ et un (excellent) résumé paru récemment sur le site de l’Office for Science and Society (OSS) de l’Université McGill [http://bit.ly/2xKZPA0]. Les mouvements et la forme du corps en feraient partie, de même que la traînée de gaz carbonique (CO2) que nous laissons derrière nous en respirant. La peau et la sueur contiennent également des composés, notamment des acides lactiques, qui attirent les moustiques — lesquels sont aussi sensibles à la chaleur de notre corps. C’est par les antennes que la femelle perçoit ces odeurs.

(Précisons ici que les antennes des moustiques mâles ne sont pas équipées pour détecter nos odeurs, mais plutôt pour entendre les battements d’ailes des femelles et capter leurs phéromones, en vue de l’accouplement.)

Mais cela ne répond pas vraiment à la question de Mme Lemarier : tout le monde exhale du CO2, tout le monde sue (encore que pas tous également, mais bon), tout le monde émet de la chaleur. Alors pourquoi certaines personnes seraient plus «tentantes» pour les maringouins ?

Ça n’est pas encore compris de manière précise et complète. Il faut dire que la «recette» de l’odeur humaine est faite de plus de 300 composés différents, ce qui ne simplifie rien. Mais la génétique semble être impliquée. Dans une étude récente [http://bit.ly/2XHwJfi], des chercheurs ont conçu une cage à moustiques menant à un tunnel en «Y». Au bout de chacune des deux branches du «Y» se trouvait un endroit où un humain pouvait glisser la main (protégée par un moustiquaire), et une quarantaine de paires de jumeaux ont accepté de se prêter au jeu. Pendant qu’un jumeau se plaçait la main dans une branche du «Y», l’autre faisait pareil dans l’autre branche, afin de voir si les moustiques allaient préférer l’un ou l’autre.

Résultats : les jumeaux identiques (qui ont exactement les mêmes gènes) attiraient les piqueurs de manière assez égale alors que pour les jumeaux fraternels (qui ne sont pas plus «pareils» que des frères et sœurs), les moustiques montraient souvent une préférence claire et constante pour un des deux. L’étude a conclu qu’environ 67 % de la différence était génétique.

L’article ne dit pas quels gènes sont impliqués, cependant, ni par quels mécanismes ils peuvent attirer les moustiques, à part en influençant notre odeur corporelle. Mais dans un commentaire à son sujet [http://bit.ly/2xJvEcr], le chercheur britannique Tim Spector, qui n’avait pas participé à cette étude, propose deux mécanismes possibles. D’abord, il confirme que des recherches (dont les siennes) ont montré que la génétique a un effet sur nos odeurs — en tout cas, celle de nos aisselles. Il est donc bien possible que certaines personnes possèdent des variantes de gènes qui rendent leurs senteurs plus ou moins attirantes pour les maringouins.

Et ensuite, d’autres gènes ont une influence sur la flore bactérienne qui vit sur notre peau et qui «sont aussi responsables d’une bonne partie de nos odeurs. Même en se lavant les mains, nous ne sommes pas capables de nous en débarrasser», écrit M. Spector. Ce qui fait donc une deuxième manière dont les gènes peuvent nous transformer en aimants à moustiques (ou en repoussoirs, pour les chanceux).

Mentionnons une dernière chose, pour finir : non seulement y a-t-il plusieurs facteurs humains qui sont impliqués, mais ce que nous appelons «moustiques» recouvre en fait des dizaines d’espèces différentes (juste au Québec, parce qu’il y en a 3000 dans le monde) qui ne sont pas toutes attirées exactement par les mêmes choses, même si certaines se recoupent. Certaines ignorent complètement les humains, et parmi la trentaine qui nous piquent, toutes n’ont pas les mêmes comportements et préférences. Comme l’écrit Ada McVean, de l’OSS, certaines espèces de moustiques sont plus actives le soir, d’autres pendant le jour, d’autres en début de saison, d’autres quelques semaines plus tard, etc. Et, ajoute M. Spector, il y en a qui sont plus attirées par l’odeur de nos mains et de nos pieds, et il y en a qui préfèrent d’autres parties de notre corps.

Bref, cela ajoute une couche de complexité supplémentaire à l’histoire : selon le moment de la journée ou de l’été, et selon les espèces de moustiques présentes, les «aimants» ne seront pas forcément toujours les mêmes.

Science

Quand vieillesse rime avec fatigue...

SCIENCE AU QUOTIDIEN / «Pourquoi le corps finit-il par avoir moins d’énergie quand on vieillit? Pourtant, nous mangeons pratiquement autant qu’avant et nous dépensons moins puisque nous avons moins d’activités, mais nous nous sentons quand même plus fatigués!», demande Denis Tremblay, de Chicoutimi.

En 1990, des chercheurs israéliens ont commencé à suivre environ 1000 personnes âgées nées en 1920-21, puis les ont rencontrées de nouveau après 6-8 ans et 12-15 ans. Au départ, à 70 ans, 29% d’entre elles rapportaient de la fatigue; à 78 ans, cette proportion était passée à 53 %; et autour de 85 ans, c’était plus des deux tiers, à 68 % [http://bit.ly/328LxHo].

Bien entendu, cela n'a rien de très étonnant, dit Pierrette Gaudreau, chercheuse au département de médecine de l’Université de Montréal et co-directrice du Réseau québécois de recherche sur le vieillissement. «Il y a plusieurs raisons à ça, dit-elle. Le vieillissement, on pourrait résumer ça par l'usure graduelle des cellules, des tissus et des organes. Dans un monde idéal, on voudrait que tout vieillisse à la même vitesse de manière à ce qu’on reste très bien pendant longtemps et qu’on n’ait pas plusieurs années d’incapacité avant de décéder. Mais ce n'est pas ce qui se passe dans la réalité.»

Parmi les facteurs — autres que la maladie ou un âge vraiment très avancé, s’entend — qui peuvent causer de la fatigue chez des personnes âgées par ailleurs en assez bonne santé, il y a une réduction de la «puissance hormonale», illustre Mme Gaudreau. «À partir de 30 ou 35 ans, on perd environ la moitié de cette puissance à chaque décennie, si bien que les “pics“ de sécrétion hormonale à 80 ans sont tout petits par rapport à quand on a 30 ans».

C’est le cas, notamment, pour la production de l’«hormone de croissance», dont le corps a évidemment besoin pour se développer pendant l’enfance, mais que nous continuons à sécréter pendant tout le reste de la vie parce que l’organisme s’en sert pour «l’entretien», si l’on veut (remplacer les vieilles cellules et les vieux tissus, maintenir le corps en bon état de marche, etc.). Il s’agit d’une hormone dite «anabolisante», qui favorise la prolifération et la différenciation des cellules ainsi que la fabrication de muscles, et qui réduit l’adiposité. Avec l’âge, on en fabrique de moins en moins, ce qui explique en partie pourquoi on perd des muscles et gagne des graisses en vieillissant, et «c’est sûr que ça va avoir un effet sur la force et sur la fatigue, même si ça n’explique pas tout», dit Mme Gaudreau.

Une autre cause possible de la fatigue qui vient avec l’âge est la réduction de la production des hormones thyroïdiennes. «Ce sont des hormones très importantes qui régulent le métabolisme de base [ndlr : grosso modo, la puissance à laquelle le corps «carbure»]. Chez certaines personnes qui en sécrètent trop, c’est comme si elles étaient en phase manie, elles sont très actives. À l’inverse, quand on n’en sécrète pas assez, ce sont d’autres symptômes qui vont apparaître, comme la fatigue, la perte d’appétit, etc. Des fois, dans le bureau du gériatre ou du médecin de famille, ces symptômes-là peuvent être confondus avec la déprime», explique Mme Gaudreau.

Dans tous les cas, tient-elle à souligner, «on parle ici de gens qui seraient autour de 60 ou 65 ans. Parce que c’est sûr que si on parle de quelqu’un qui a 90 ans, on n’est pas du tout dans le même genre de clientèle. À ce moment-là, c’est vraiment l’usure générale de l’organisme qui fait qu’on a moins de capacité, moins d’endurance».

Et il y a d’autres facteurs, bien sûr, que les hormones — et même d’autres facteurs que la vieillesse elle-même — qui peuvent causer de la fatigue. Par exemple, tant l’étude israélienne qu’une autre étude du même type, menée aux États-Unis et publiée en 2008 dans le Journal of Gerontology [http://bit.ly/2RWOK88], ont trouvé que la solitude est associée à la fatigue chez les personnes âgées, que les femmes rapportent plus de fatigue que les hommes, que ceux qui font plus d’activité physique se disent moins fatigués, etc.

Les deux études, notons-le, ont également trouvé que la fatigue vient aussi avec un risque de mortalité plus élevé. Dans l’article américain, par exemple, la mortalité était de 31 % après six ans chez les «fatigués», contre 22 % chez les autres.

Cela peut paraître un peu décourageant, évidemment, mais Mme Gaudreau souligne qu’il y a aussi un bon côté à tout ceci : cette fatigue n’est pas entièrement une fatalité, on peut la réduire ou la retarder pour la peine avec un bon programme d’exercice physique.

«Si on fait un exercice régulier et systématique, dit-elle, on peut revenir à état un peu plus jeune, d’un point de vue hormonal. Ça ne fait pas de miracle et il faut s’y mettre sérieusement pour y parvenir, mais des études ont montré qu’avec un programme d’exercice bien contrôlé, disons trois sessions entraînement d’une heure par semaine, on avait des bonnes réponses.

«Par exemple, illustre-t-elle, dans des recherches récentes que j’ai faites avec une collègue de l’UQAM, Dre Mylène Aubertin-Leheudre, on a soumis des personnes âgées avec embonpoint ou obésité à un régime d’exercice physique de haute intensité, mais de courte durée — parce que pour des gens qui ne sont pas habitués à faire de l’exercice, c’est plus motivant d’en faire pour de courtes périodes à la fois. Alors on a regardé les marqueurs de la fonction somatotrope [ndlr : la production d’hormone de croissance, grosso modo], et on a mesuré une augmentation pour un bon nombre de participants.»

Ces régimes d’entraînement ne sont pas nécessairement indiqués pour toutes les personnes âgées — cela dépend de l'état de santé de chacune. Il vaut mieux en parler à son médecin avant de s’y mettre.

Science

Les œufs de poules «urbaines» sont-ils sains ?

SCIENCE AU QUOTIDIEN / «Avec le nombre grandissant d’élevages de poules en milieu urbain, on trouve à peu près toujours quelqu’un dans son entourage ou au travail qui vend des œufs. Mais sont-ils aussi salubres que les œufs qui passent le processus «officiel» d’inspection ? Y a-t-il un danger pour la santé à consommer des œufs de poules élevées par Monsieur et Madame Tout-le-Monde ?», demande Denis Corriveau, de Nicolet.

L’idée souvent énoncée que «le risque zéro n’existe pas» est, je pense, une des rares vérités à peu près universelles en ce bas monde. En principe, il y a toujours un risque à consommer des œufs, quelle que soit leur origine, comme il y en un a à ingérer n’importe quel autre type de nourriture, d’ailleurs. C’est juste que si on arrête complètement de manger, disons que ce qui suit n’est pas un risque, mais une fatalité…

Dans le cas des œufs, ce sont surtout des bactéries de la «famille» des salmonelles qui peuvent causer problème. Car si le jaune d’œuf est nourrissant pour un embryon, il peut l’être aussi pour des colonies bactériennes, qui peuvent atteindre des concentrations dangereuses. En général, une salmonellose s’apparente à une bonne gastroentérite, mais pour les gens plus vulnérables comme les jeunes enfants et les personnes âgées, cela peut entraîner des complications allant (rarement, mais quand même) jusqu’à la mort.

Il n’est pas facile, notons-le, pour un microbe de passer à travers la coquille d’un œuf. Pas facile du tout, même. La coquille est d’abord recouverte d’une membrane qui empêche la contamination. La coquille elle-même est une barrière supplémentaire, bien qu’elle soit toujours un peu poreuse. L’intérieur de ladite coquille est également tapissée d’une seconde membrane protectrice. Le blanc d’œuf, ensuite, est un milieu alcalin qui n’est pas propice à la croissance bactérienne, en plus d’avoir une consistance qui freine la progression d’éventuelles bactéries, même mobiles. Et le jaune d’œuf (le meilleur endroit pour les bactéries) est entouré d’une troisième membrane protectrice. (Voir ici pour plus de détails : http://bit.ly/2KY18Dw)

Bref, les œufs sont équipés pour se défendre contre les microbes. Autrement, il y a longtemps qu’il n’y aurait plus de poules, car l’omniprésence des bactéries est une autre de ces rares vérités universelles en ce bas-monde.

Mais il arrive quand même que des pathogènes parviennent à se frayer un chemin jusqu’à ce «jack-pot» qu’est le jaune. Par exemple, la pondeuse peut elle-même être infectée et la bactérie peut alors arriver dans l’œuf pendant sa formation, avant que toutes les barrières ne soient formées. Même après qu’il soit pondu, l’œuf (comme n’importe quel autre corps) va changer de volume avec la température, et s’il se contracte, cela va créer une aspiration qui peut permettre à des microbes de passer à travers les pores de la coquille et d’éventuels défauts dans les membranes. Ça arrive, et il semble qu’un sous-type de salmonelle — la Salmonella enteritis — soit meilleur que les autres pathogènes pour se rendre jusqu’au jaune [http://bit.ly/2Fp3Jma].

Maintenant, est-ce que cela survient plus souvent avec des «cocos de cour arrière» qu’avec des œufs industriels, qui sont passés à travers une foule de mesure pour les aseptiser ? Ce n’est pas très clair. On a, d’une part, certaines données qui suggèrent que le risque pourrait être plus grand dans les poulaillers tenus par des «éleveurs du dimanche». Par exemple, une étude de l’université Penn State présentée en 2016 dans un congrès de médecine vétérinaire a trouvé que les œufs vendus à la ferme dans les «petits» poulaillers (moins de 3000 pondeuses, pas soumis aux mêmes normes antimicrobiennes que les autres aux États-Unis) étaient plus souvent porteurs de salmonelle que ceux des gros producteurs. Mais ça ne représentait que 2 % des points de vente [http://bit.ly/2J0MjgC] et la comparaison était loin d’être idéale pour les cours arrières où vivent seulement quelques pondeuses, et pas 3000.

De même, la Santé publique américaine (CDC) a observé une augmentation des éclosions de salmonellose liées à des poulaillers urbains depuis 2000 [http://bit.ly/31PgAaQ]. Cependant, les œufs ne sont qu’une des manières de contracter la maladie, et le fait est qu’une grande partie des conseils du CDC ne concerne pas les œufs eux-mêmes, mais la cohabitation avec la volaille — ne pas garder les oiseaux dans la maison, ne pas les serrer contre soi ou jouer avec, ne pas les bécoter, etc.

En fait, l’étude que j’ai trouvée qui répond le plus directement à la question de M. Corriveau, publiée cette année dans Zoonoses and Public Health, n’a rien trouvé d’alarmant. Elle a porté sur une cinquantaine de poulaillers «amateurs» de Boston et n’a décelé la présence de salmonelle que dans un seul d’entre eux, donc 2 % du total, ce que les auteurs décrivent comme une «prévalence faible». Et encore, il ne s’agissait pas d’une souche de salmonelle particulièrement dangereuse. Mais il faut aussi dire que cette étude-là ne portait pas sur la présence de bactéries dans les œufs, mais bien dans les poulaillers en général (excréments de poule et poussières).

Bref, il n’est pas clair que le risque d’infection à la salmonelle est plus élevé pour qui mange des «œufs urbains». Il n’est pas déraisonnable de le penser, remarquez, puisque des études ont montré que les propriétaires de poules en ville ne sont pas tous au courant des bonnes habitudes à prendre pour minimiser les risques de contamination [http://bit.ly/2XyphaA]. Mais dans tous les cas, et c’est sans doute le plus important, ici, ces risques semblent faibles.

Reste tout de même que chaque propriétaire de poulailler doit prendre une série de mesures d’hygiène (nettoyage quotidien, ramassage des œufs chaque jour, dépistage des maladies, etc.) pour s’assurer que ses œufs et ses animaux sont sains. On peut trouver une liste de ces responsabilités sur le site du ministre de l’Agriculture [http://bit.ly/2Fr3ebg], notamment.

Et pour ceux qui achètent de ces «œufs urbains», ajoutons qu’il n’y a certainement rien de criminel à poser quelques questions sur l’entretien du poulailler, sur l’expérience des «éleveurs», etc.

Science

Avez-vous vu mes moineaux?

SCIENCE AU QUOTIDIEN / «Ma femme et moi habitons la Pointe-de-Sainte-Foy depuis 35 ans. Chaque printemps, nous nous faisons réveiller le matin par des douzaines de corneilles qui nichent dans les grands pins. Mais cette année, silence total le matin. On voit une corneille par ci, par là, mais c’est tout. Nous avons aussi vu beaucoup moins de petits oiseaux migrateurs comme les juncos. Où sont passés tous ces oiseaux ?», demande Pierre Fréchette.

En ce qui concerne les corneilles, c’est difficile à dire. Ce peut être simplement un hasard si elles sont allées croasser ailleurs cette année, car cette espèce n’est pas en déclin, dit l’ornithologue d’Environnement Canada Michel Robert. Celui-ci est bien placé pour le savoir car il a dirigé le dernier Atlas des oiseaux nicheurs du Québec, paru ce printemps, qui repose sur plus de 100 000 heures d’observation sur le terrain réalisées par quelque 1800 bénévoles entre 2010 et 2014. Comme le même genre d’exercice avait été fait à la fin des années 80 et que les chercheurs sont retournés exactement aux mêmes endroits, on peut faire des comparaisons et dégager des tendances sur 25 ans.

Or, m’a écrit M. Robert lors d’un échange de courriels, «je n’ai pas noté qu’il semblait y avoir moins de corneilles ce printemps ; de plus, les données de l’Atlas n’indiquent rien qui va dans le sens d’un déclin des populations nicheuses de cette espèce pour la période 1990-2014». Il ne semble donc rien s’être passé de particulier avec les corneilles, à part le fait qu’elles s’adonnent cette année à avoir choisi d’autres branches que celles du voisinage de M. Fréchette. Ça arrive.

En ce qui concerne les oiseaux migrateurs, cependant, il y a clairement «quelque chose là», comme on dit. Parmi les facteurs qui poussent les oiseaux à migrer, on trouve la température et la disponibilité des ressources. Or avec le printemps de (comment le dire poliment ?) schnoutte que nous avons connu, beaucoup d’espèces d’oiseaux qui nichent ou qui passent par ici ont retardé leur arrivée/passage. Certaines ne tolèrent pas le froid et n’auraient pas pu survivre, d’autres sont capables d’endurer un peu de froid quand elles ont de la nourriture, mais ledit froid a justement empêché les insectes et les fleurs de sortir aussi tôt que d’habitude, etc.

Bref, ces espèces n’avaient alors aucune raison de venir dans le sud du Québec, et la plupart sont «arrivées/passées à Québec plus tard qu’à l’accoutumée, écrit M. Robert. Encore ce matin [le 4 juin, ndlr] au Domaine Maizerets, il y avait de nombreuses espèces de parulines en migration alors qu'à ce temps-ci de l’année, normalement, la plupart des oiseaux migrateurs sont déjà [passés]».

* * * * *

«Depuis plusieurs années, on ne voit plus d’hirondelles dans notre paysage, alors où sont-elles allées ? Même les moineaux, qui jadis étaient nombreux dans nos villes et campagnes, semblent les avoir désertés. Est-ce une une réalité ou une fausse impression ?», demande Yvon D’Argy, de Québec.

C’est malheureusement une réalité indéniable, tant pour les hirondelles que pour les moineaux. D’après le Relevé des oiseaux nicheurs du Québec, les populations d’hirondelles rustiques et d’hirondelles de rivage se sont complètement écrasées, ayant fondu de pas moins de 98 % et 92 % respectivement depuis 1970 — au point où le fédéral les a placées sur sa liste d’espèces protégées en novembre 2017. Dans le cas du moineau domestique, on parle d’une baisse d’environ 70 % depuis 1990.

Alors, qu’est-il arrivé ? Grosso modo, ces espèces sont des victimes collatérales et involontaires des changements qui ont «intensifié» notre agriculture au cours des dernières décennies. Par exemple, les marges autrefois laissées en friche autour des champs, et qui constituaient des habitats pour certains oiseaux et insectes, sont maintenant cultivées par les fermiers. On compte environ 80 % moins de pâturages (autre habitat favorable) aujourd’hui qu’au milieu du siècle dernier, lit-on dans un rapport du Regroupement Québec Oiseaux publié en 2014 au sujet de la disparition des oiseaux champêtres. Il y a moins d’élevage qu’avant et le bétail est désormais gardé à l’intérieur presque tout le temps, ce qui prive plusieurs espèces de sources de nourriture — que ce soit les grains qui tombaient des mangeoires ou les insectes que les animaux attiraient.

Beaucoup de terres ont été converties à la production de maïs et de soya, qui n’offrent pas de bons habitats et qui laissent le sol à découvert au printemps, quand les migrateurs arrivent. L’usage grandissant des pesticides est également en cause, tant parce qu’ils éliminent une partie du garde-manger des insectivores et que ceux-ci se trouvent à manger des proies contaminées. Bref, les campagnes ne sont plus aussi hospitalières qu’avant pour ces espèces.

«D’ailleurs, note l’Atlas des oiseaux nicheurs au sujet du moineau domestique, le moineau ne semble pas avoir subi de pertes notables [...] en Abitibi-Témiscamingue, région où les pratiques agricoles ont peu changé.» En milieu urbain, poursuit l’ouvrage, le moineau domestique doit composer avec des prédateurs plus nombreux qu’avant et avec la compétition accrue du roselin familier, une espèce originaire du sud-ouest américain mais qui a beaucoup étendu son aire de répartition récemment.

Dans le cas de l’hirondelle rustique, il faut ajouter qu’elle est aussi «victime» des matériaux modernes avec lesquels on construit les résidences et les granges de nos jours : elle fait son nid avec de la boue qui, si elle adhère solidement au bois, ne prend pas bien du tout sur du PVC ou du métal.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Un café 2 laits 2 velcros svp!

SCIENCE AU QUOTIDIEN / «Pourquoi tout ce qui est sucré est collant? Le miel l’est, le sirop l’est, alors pourquoi?» demande Michel Lévesque.

Il y a deux grandes manières de faire coller deux choses ensemble. On peut procéder par réaction chimique, comme avec les colles. Par exemple, les «super-colles» (dont la célèbre Krazy Glue) sont des molécules nommées cyanoacrylate, qui sont des liquides à température de la pièce. Cependant, en présence ne serait-ce que d’un tout petit peu d’eau — même l’humidité de l’air suffit —, elles réagissent entre elles pour former de longues chaînes. Et une fois sous la forme d’un paquet de chaînes enchevêtrées, pour ainsi dire «prises en pain», les cyanoacrylates deviennent des solides : c’est ce qui fait durcir la colle.

L’autre façon de coller deux choses ensemble passe par des interactions moléculaires, qui sont pas des liens aussi solides et permanents que les réactions chimiques, mais qui peuvent quand même être relativement forts. Et c’est un type d’interaction en particulier, que les chimistes appellent ponts hydrogène, qui rend collantes les substances sucrées.

Quand on dit que deux atomes «réagissent» ensemble, cela signifie qu’ils «partagent» des électrons. Chacun y met un électron, et la paire qu’ils ont désormais en commun les tient ensemble. Or il y a des atomes qui attirent les électrons plus fortement que d’autres. Dans une molécule d’eau (H2O), par exemple, l’atome d’oxygène attire les électrons beaucoup plus fortement que les deux hydrogènes. Et comme les électrons ont une charge électrique négative, l’oxygène prend lui-même une (légère) charge négative; les hydrogènes sont au départ neutres, mais le fait de se faire plus ou moins «voler» un électron chacun les rend légèrement positifs. Cela nous fait donc une molécule qui est, dans l’ensemble, neutre, mais qui a des «bouts» qui sont magnétiques.

Alors que va-t-il se passer quand deux molécules d’eau vont se rencontrer ? Eh bien en magnétisme, les contraire s’attirent, alors les bouts positifs de l’une vont avoir tendance à s’aligner sur le bout négatif de  l’autre. Encore une fois, ça n’a pas la force d’un lien chimique en bonne et due forme, si bien que nos deux molécules d’eau ne resteront pas «attachées» longtemps et passeront rapidement leur chemin. Mais ces «ponts hydrogène», de leur petit nom, ont quand même des effets tangibles — par exemple, l’eau s’évaporerait à bien moins que 100°C si ce n’était de ces attractions.

Maintenant, explique le chercheur en chimie de l’Université Laval Normand Voyer, ces ponts hydrogène agissent un peu à la manière du velcro : «S’il y a seulement un ou deux crochets qui se prennent, ça ne tiendra pas bien. Mais s’il y en a beaucoup plus, alors là, ce sera plus solide.»

Or c’est en plein ce qui se passe avec les molécules de sucre. Si l’eau est une bien petite molécule (H2O), le sucre est dans une autre catégorie : 6 molécules de carbone, 12 d’hydrogène et 6 d’oxygène (C6H12O6). Alors cela fait beaucoup plus de «bouts» chargés positivement (les hydrogènes) et négativement (les oxygènes) que dans une molécule d’eau, donc beaucoup plus de ces «crochets de velcro», souligne M. Voyer. Et c’est pour cette raison que le sirop et le miel sont collants.

Maintenant, pourquoi le sucre blanc en granules ne colle-t-il pas ? «C’est parce que quand le sucre est sec, il est très dense. Alors c’est comme si le velcro était tout pris ensemble», explique M. Voyer. Quand on y ajoute un peu d’eau, cela dissout le sucre (au moins une partie), ce qui vient défaire la «boule» dont il parle. «Et ça, ça va libérer des centaines de milliards de petits crochets de velcro qui vont aller s’accrocher à n’importe quelle surface.»

* * * * *

«Nous avons eu un questionnement en famille récemment : quel sel utiliser pour faire cuire les homards ? Le sel de table, le gros sel, le sel de mer ? Mon beau-frère dit que cela ne change rien puisque ça reste du chlorure de sodium, mais qu’en est-il ?», demande Chantale Boivin, de Cap-Rouge.

Il est vrai que tous ces sels sont constitués très, très principalement de chlorure de sodium (NaCl). La part varie selon le type de sel, le fabricant et le site web consulté, mais pour le sel de table, elle tourne autour de 95 à 99 %, le reste étant constitué de traces d’autres minéraux et d’additifs comme l’iode (ajouté pour prévenir des carences qui causeraient des problèmes de développement) et des agents qui empêchent les grains de sel de s’agglomérer. [http://bit.ly/2w88ICE]

Et le sel de mer? Sur le site de Marisol [http://bit.ly/2Vz6ve2], un fabricant portugais de fleur de sel (soit les cristaux qui finissent par flotter sur de l’eau de mer que l’on fait évaporer), on apprend que la fleur de sel contient environ 97% de NaCl, le reste étant composés de minéraux divers, comme le magnésium. J’ai aussi trouvé d’autres analyses de sels de mer [http://bit.ly/2WPZWoO] dans lesquelles la part de chlorure de sodium varie entre 87 et 93 %, ce qui laisse plus de place pour les autres minéraux, mais elles comprennent une quantité (non-divulguée) d’eau, si bien que la part du NaCl y est sous-estimée.

Cela n’empêche pas qu’il y ait des différences avec le sel de table, remarquez. Les sels de mer peuvent receler des restants d’algues ou des traces d’argiles, par exemple, qui vont les colorer et leur donner une saveur particulière. Donc oui, c’est presque juste du NaCl (c’est pour cette raison, d’ailleurs, que les autorités médicales disent toutes qu’aucun type de sel n’est vraiment moins pire que les autres), mais il reste des différences.

Maintenant, lequel choisir pour le homard ? C’est une question de goût qui sort du cadre de cette chronique, mais quelque chose me dit que le homard est toujours bon de toute manière…

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Comment respirer dans l'espace (pendant 20 ans)

SCIENCE AU QUOTIDIEN / «Lorsque j’ai vu les images du sas qui s’ouvrait pour laisser sortir David Saint-Jacques dans l’espace, le 8 avril dernier, je me suis demandé comment on arrivait à maintenir la «pression atmosphérique» à l’intérieur du laboratoire spatial ? Est-ce qu’on arrive à récupérer l’air présent dans le sas ? Et s’il y a des pertes d’air, est-ce qu’ils ont des bonbonnes de réserve ? Enfin, la pression est-elle la même que celle que nous avons au niveau du sol ?», demande Raymond Martel, de Québec.

De manière générale, dit Mathieu Caron, ingénieur principal des opérations à l’Agence spatiale canadienne, «la Station spatiale (SSI) est très étanche. C’est sûr que conceptuellement, il y a toujours des pertes, mais c’est infinitésimal». La principale source de perte d’air, précise-t-il, ce sont justement les «marches spatiales» comme celle dont M. Martel parle.

«Quand ils font des sorties dans l’espace, les astronautes vont dans le sas, ils ferment porte, mettent leur scaphandre, et après on commence à retirer l’air du sas, explique M. Caron. Ils descendent ça jusqu’à une fraction de la pression de départ : sur la SSI, la pression est à 101,3 kilopascal (ndlr : c’est la pression moyenne sur Terre, au niveau de la mer), et dans le sas ils descendent à peu près au tiers de ça. Mais il reste encore de l’air, et cet air-là est perdu dans l’espace quand les astronautes sortent.»

Et c’est sans compter qu’à ces pertes s’ajoute le fait que les astronautes et les animaux de laboratoire qui servent à des expériences à bord consomment eux-mêmes de l’oxygène, et rejettent du gaz carbonique. La Station a toutefois des réserves à bord : «Il y a quatre réservoirs à haute pression qui sont situés près du sas, dit M. Caron. Deux qui contiennent de l’oxygène et deux qui contiennent de l’azote. Ça sert surtout pour approvisionner les combinaisons des astronautes, quand ils font des sorties, mais ça peut aussi servir pour la station elle-même.» Ces réserves peuvent être utiles notamment en cas d’accident — c’est arrivé l’an dernier, d’ailleurs, quand un petit trou dans une capsule Soyouz a laissé s’échapper de l’air avant d’être colmaté.

La SSI peut aussi être réapprovisionnée en oxygène et en azote (qui compose 78% de l’air, ne l’oublions pas !) par les capsules russes inhabitées Progress, dit l’ingénieur de l’ASC.

En outre, poursuit-il, la station elle-même est équipée de plusieurs «systèmes» qui permettent de garder l’air respirable à bord. C’est d’ailleurs particulièrement important dans le cas de la SSI, qui est une installation permanente — contrairement aux fusées et aux navettes de jadis, qui ne restaient pas longtemps dans l’espace et pour lesquelles dépendre entièrement de leurs réserves n’étaient pas bien grave.

«Il y a d’abord un système qui prend les eaux usées et les recyclent, dit M. Caron, et une partie de cette eau-là subit ce qu’on appelle de l’électrolyse : on brise les molécules d’eau (H2O) avec un courant électrique, ce qui donne de l’oxygène (O2) et de l’hydrogène (H2). L’oxygène peut être remis dans l’atmosphère de la Station. Et ce qu’on fait avec l’hydrogène, c’est qu’on le combine avec du gaz carbonique (CO2) exhalé par les occupants de la SSI et récupéré par un autre «système», et là ça fait de l’eau et du méthane (CH4). L’eau, on la conserve, mais le méthane est renvoyé dans l’espace.»

Voilà donc comment on maintient une atmosphère vivable sur la station spatiale depuis des années.

* * * * *

«J’aimerais savoir si les astronautes de la SSI voient les constellations ou les phases de la lune comme nous les voyons depuis la Terre ? Je prends pour exemple la forme caractéristique de la Grande Ourse. De même, certaines constellations sont plus visibles en été alors que d’autres le sont davantage en hiver. Comme il n’y a pas de saisons dans l’espace, les astronautes voient-ils l’ensemble du ciel comme nous ?», demande Richard Marcoux.

La SSI file à près de 7,7 kilomètres par seconde (bien lire: par seconde), ce qui lui fait faire le tour de la planète de 15 à 16 fois par jour, alors les saisons ne comptent pas là-haut. Mais hormis ce «détail», oui, les astronautes voient la lune et les constellations comme nous, et même mieux que nous puisque la lumière des astres n’a pas à passer à travers l’atmosphère pour se rendre jusqu’à eux. La Station orbite à environ 400 km d’altitude, alors que la Lune est située à plus de 380 000 km de la Terre, donc les astronautes à bord ne la voient pas différemment de nous, et c’est encore plus vrai pour les étoiles, dont la distance se compte en années-lumière.

On peut avoir l’impression que les astronautes ne voient pas les étoiles parce que bien des photos prises dans l’espace n’en montrent aucune — c’est d’ailleurs une question qui m’a été envoyée à quelques reprises. Mais c’est simplement une question de contexte et de sensibilité des appareils. Les étoiles ne sont pas de grosses sources de lumière, si bien qu’elles peuvent être «enterrées», pour ainsi, par des sources lumineuses plus fortes, comme le Soleil ou la lumière que la Terre réfléchit. L’œil humain est souvent capable de retrouver un signal faible à travers un «bruit de fond», mais les appareils photo n’ont pas tous cette capacité. D’où les ciels entièrement noirs que l’on voit sur des image des missions lunaires, par exemple.

Les photos ci-bas l’illustrent bien, d’ailleurs. Toutes deux ont été prises sur la SSI, mais sur celle du haut, on ne voit aucune étoile parce que la Terre est une source de lumière trop forte. Sur celle du bas, cependant, on aperçoit très cllairement la Voie lactée. On peut aussi trouver, ici et sur le web, de très belles vidéos d’étoile prises de la Station.

Science

Les «étoiles dégénérées»

SCIENCE AU QUOTIDIEN / «Dans l’actualité scientifique récente, on a parlé abondamment des trous noirs et j’aimerais comprendre l’origine de ce nom qui me semble un peu étrange, considérant que l’objet en question est super massif alors que par définition, un trou est vide. Et s’il retient toute la lumière et est, de ce fait, invisible, alors pourquoi dit-on qu’il est noir ?», demande Pierre Laforce, de Québec.

Les trous noirs se forment quand des étoiles suffisamment grosses finissent de «brûler» l’hydrogène dont elles sont constituées, explique le physicien retraité de l’Université Laval Serge Pineault, qui a étudié ces drôles d’objets pendant sa carrière de chercheur. Lorsque les réactions de fusion nucléaire qui produisent l’énergie des étoiles comme notre Soleil cessent, alors elles se mettent à refroidir. Or les étoiles sont comme les autres objets de ce point de vue : plus elles sont chaudes, plus elles prennent de l’expansion, et inversement plus leur température diminue, plus elles se contractent. Et la contraction des étoiles en fin de vie a des conséquences, ma foi, spectaculaires en physique. Examinons-les, cela nous permettra de répondre à la question de M. Laforce.

À cause de la gravité, chaque particule d’une étoile exerce une force d’attraction sur toutes les autres — c’est ce qui les tient en un seul morceau pendant des milliards d’années. Et comme les étoiles ont des masses titanesques, cela implique que la pression en leur cœur est extrêmement intense : au centre du Soleil, par exemple, elle équivaut à environ 250 millions de fois celle qui prévaut dans les abysses marines, à 10 000 mètres sous la mer !

Maintenant, quand une étoile en fin de vie commence à refroidir et à se contracter, la distance entre chacune de ses parties diminue. Or justement, l’attraction gravitationnelle augmente rapidement à mesure que deux objets se rapprochent, à raison de «l’inverse du carré de la distance», comme disent les physiciens. Cela signifie que si la distance entre deux parties d’une étoile est réduite de moitié, alors elles s’attirent 2(2) = 4 fois plus fort ; si la distance est coupée en trois, alors l’attraction devient 3(2) = 9 fois plus grande ; et ainsi de suite. Alors forcément, la pression déjà inouïe à l’intérieur de l’étoile va s’accroître encore.

La matière au cœur d’une étoile se comporte à la manière d’un gaz et obéit aux mêmes lois de la physique, explique M. Pineault : si la température du gaz augmente, par exemple, alors sa pression augmente aussi ; si l’on augmente le volume du gaz, alors sa pression et sa température chutent; etc. Mais quand une étoile meurt et se contracte, alors la pression interne atteint des niveaux tels que la matière fini par avoir des comportements, disons, «inhabituels».

«Dans une étoile relativement petite comme le Soleil, dit-il, les électrons vont devenir tellement tassés qu’ils vont former ce qu’on appelle un gaz dégénéré, qui ne se comporte plus comme un gaz normal.» Grosso modo, la pression va forcer les électrons à «accepter» de s’entasser à plusieurs dans des volumes beaucoup plus petits que ce qui serait normalement possible — un peu comme si on parvenait à contraindre deux boules de billard à occuper un même espace en même temps au lieu de rebondir l’une sur l’autre. Cela peut sembler bizarre, du point de vue de l’expérience quotidienne que nous avons de la matière, mais c’est ce qui se passe, et cela donne une idée des pressions absurdes dont on parle ici. Les étoiles de la taille du Soleil finissent en «naines blanches», des objets de seulement quelques milliers de kilomètres de rayon et dont la densité avoisine 1 tonne par centimètre cube !

Chez les étoiles qui ont une masse 10 à 30 fois supérieures à celle du Soleil, c’est encore pire, poursuit M. Pineault : la pression est si intense qu’elle force les électrons et les protons à se «fusionner», pour ainsi dire, et devenir ainsi des neutrons. Ces objets, imaginez un peu, condensent la matière de 2 à 3 de soleils (ils perdent beaucoup de matière en se formant) dans une sphère de seulement 10 à 20 km de diamètre, ce qui donne des densités de l’ordre du million de tonnes par cm³.

Certaines de ces étoiles massives, cependant, conservent plus que 3 masses solaires lorsqu'elles «meurent», et dans leur cas il se passe… eh bien on ne comprend pas trop ce qui se passe là-dedans, indique M. Pineault, mais on sait qu’elles finissent en trous noirs. «La meilleure façon de se représenter les choses, dit-il, c’est de s’imaginer qu’on est sur étoile et qu’on a une pomme qu’on veut lancer à l’infini. À quelle vitesse doit-on lancer la pomme pour qu’elle s’arrache à la gravité de l’étoile ? À la surface du Soleil, cette «vitesse d’échappée» est de 600 km par seconde. Mais à mesure qu’une étoile se contracte, il faut lancer de plus en plus fort, jusqu’au point où il faudrait lancer pomme à la vitesse de lumière. Passé ce point-là, il n’y a plus de vitesse d’échappée possible parce que rien ne peut pas aller plus vite que la vitesse de la lumière.»

Cela implique aussi que l’espace-temps autour du trou noir est tellement tordu par la gravité que même la lumière est «capturée» si elle passe à une certaine distance de cette matière ultracondensée — distance que l’on nomme horizon des événements.

À l’origine. l’expression «trou noir» aurait désigné une cellule de prison particulièrement sordide à Calcutta, dans l’Inde coloniale, d’après le livre sur l’histoire de l’astronomie Mapping the Heavens [http://bit.ly/2IXF5fT]. Elle aurait fini par signifier plus généralement une «expérience horrible», et fut utilisée pour désigner les célèbres objets astronomiques à partir des années 60, pour des raisons qui ne semblent pas complètement claires. Mais le fait est que l’expression décrit fort bien ce qu’elle désigne. La gravité des trous noirs est telle que tout ce qui s’en approche y tombe irrémédiablement, comme dans un trou. Et si aucune lumière ne parvient à s’en échapper, alors l’horizon des événements apparaîtrait comme un cercle noir pour un œil humain qui l’observerait directement.

La toute première image d’un trou noir qui a été dévoilée récemment n’était pas uniformément noire parce qu’elle montrait aussi d’autres choses, comme un disque d’accrétion, soit de la matière qui tourne autour du trou noir lui-même, dit M. Pineault.

Science

Inondations: un «canal» comme à Winnipeg?

SCIENCE AU QUOTIDIEN / «Les inondations sont le sujet de l’heure, alors parlons-en. À Winnipeg, le problème a été en grande partie résolu par un canal de dérivation de 47 km diminuant de 4000 mètres cubes par seconde (m³/s) le débit de la rivière Rouge. Serait-il possible de faire la même chose pour la région de Montréal ? Si l’on déviait 2 000 m3/s de la rivière des Outaouais vers le Saint-Laurent, cela protégerait l’ouest de Montréal. Et cela ne correspondrait qu’à 10 % du débit du fleuve. A priori, le plus simple serait d’ouvrir un canal du lac des Deux Montagnes, au niveau des rapides de Sainte-Anne, vers le lac Saint-Louis», soulève Louis Lepage, de Québec.

En 1950, la région de Winnipeg a été touchée par des inondations particulièrement dévastatrices. Le niveau de la rivière Rouge est monté d’environ 10 mètres et a formé une sorte de «lac» temporaire d’environ 120 km de long sur près de 40 de large au sud de la ville. Plus de 10 000 résidences de Winnipeg (sans compter les fermes alentours) furent inondées, certaines sous 5 mètres d’eau, et il fallut une cinquantaine de jours avant que les eaux se retirent, lit-on sur le site de la Société historique du Manitoba.

C’est à la suite de cette catastrophe que le «canal de dérivation de la rivière Rouge» a été construit, de 1962 à 1968. Essentiellement, il s’agit d’un long chenal qui contourne Winnipeg sur une cinquantaine de kilomètres. Quand les eaux de la Rouge dépassent un certain niveau, le «trop plein» s’écoule en grande partie dans le canal au lieu de suivre son cours naturel, qui le ferait passer à travers la ville. Ça n’est pas une protection totale et «bétonnée», remarquez, puisque des inondations sont survenues par la suite, dont une majeure en 1997 qui a incité les gouvernements à augmenter de 2500 m³/s la capacité du canal. Les travaux furent complétés en 2005, mais des inondations sont quand même arrivées par la suite, notamment en 2009 et en 2011. Cependant, on calcule qu’à chaque fois, le canal de dérivation a permis d’atténuer la crise : le niveau des eaux aurait été de 2 à 3 mètres plus haut sans lui. Alors les dégâts en furent considérablement réduits, de toute évidence.

«De manière générale, ce genre de solution peut marcher, ça fait partie de la boîte à outils classique en prévention des inondations», commente l’hydrologue de l’Université Laval François Anctil. Mais dans le cas particulier de Montréal et de la rivière des Outaouais, lui et les autres experts consultés par Le Soleil ont leurs doutes — et pas que des petits…

D’abord, dit M. Anctil, les environs de Winnipeg dans les années 50 et 60 étaient très loin d’être aussi peuplés que la région de Montréal de 2019. Construire un canal et un barrage entre les deux lacs de l’ouest de Montréal demanderait donc de nombreuses expropriations, avec les coûts et les casse-têtes potentiels que cela implique.

Et il n’est pas sûr que le jeu en vaudrait la chandelle, poursuit-il, parce que l’hydrologie du secteur est assez compliquée. En date de jeudi soir, le lac des Deux Montagnes recevait 8500 m³/s de la rivière des Outaouais, dont 1000 m³/s passaient ensuite par la rivière des Mille-Îles (au nord de l’île de Laval), 3000 m³/s par la rivière des Prairies (sud de Laval) et 4500 m³/s par le fleuve, en passant par le lac Saint-Louis.

Science

VIH: erreur sur l'erreur médicale...

SCIENCE AU QUOTIDIEN / «Il semble qu’il n'y ait que deux théories reconnues sur l'origine du VIH: la «Bushmeat Theory» et la «VOP», pour vaccin oral contre la polio. D’après cette dernière, dans le Congo belge des années 50, la course aux profits aurait incité Dr Hilary Koprowski à fabriquer un VOP afin de profiter du fait que le vaccin Salk venait d'être banni aux États-Unis. Dr Koprowski aurait fabriqué son vaccin dans des cellules de chimpanzés infectés au virus de l’immunodéficience simienne (VIS, l’équivalent du VIH chez le singe). Alors, la source du VIH est-elle une des plus graves erreurs médicales de l’histoire ?», demande Michel Cormier, de Mont-Saint-Hilaire.

On sait que le VIH, ce terrible virus qui s’attaque à nos cellules immunitaires jusqu’à anéantir nos défenses, est génétiquement très, très proche du VIS (lire : presque identique), et on sait que celui-ci est endémique chez le chimpanzé — c’est-à-dire que toutes les populations de chimpanzés sont porteuses d’une souche ou d’une autre de VIS, et ce de manière permanente. Il est certain qu’à l’origine, le VIH était en fait un VIS qui a fait le «saut» d’un chimpanzé à un être humain. La question est : comment est-ce arrivé ?

À cet égard, on ne peut pas vraiment dire qu’il y a «deux théories reconnues». En fait, il n’y en a plus qu’une seule, essentiellement : la théorie de la «viande de brousse», qui veut que le «transfert» initial soit survenu parce que quelqu’un, quelque part dans l’Afrique centrale du début du XXe siècle, a apprêté une carcasse de chimpanzé infecté et s’est coupé ce faisant. Par la suite, une série de facteurs ont permis à l’épidémie naissante de persister et, éventuellement, d’essaimer mondialement — j’y reviens.

La théorie du vaccin de la polio, elle, est largement considérée comme «invalidée» par la communauté scientifique, même si son auteur, le journaliste anglais Edward Hooper, s’y accroche encore farouchement. M. Hooper a publié quelques articles sur son hypothèse dans les années 90, textes qui ont eu un grand écho médiatique d’ailleurs, ainsi qu’un livre sur le même sujet en 1999. Cela a amené des chercheurs à étudier ses thèses mais, loin de la valider, ils y ont surtout trouvé d’énormes trous. Ainsi, en avril 2001, trois savants ont analysé dans Science le contenu génétique de vieilles doses de vaccins oraux anti-polio de la fin des années 50. Les échantillons étaient fournis par l’Institut Wistar, qui était derrière la campagne de vaccination en Afrique centrale soupçonnée d’être à l’origine du VIH. Ils n’ont pas trouvé la plus petite trace d’ADN de chimpanzé [http://bit.ly/2KKnmdt], mais ont clairement identifié de l’ADN de macaque, ce qui montre que le VPO n’a pas été cultivé dans des cellules de chimpanzé, mais bien de macaque. Le macaque n’est pas porteur de souches de VIS qui auraient pu causer l’épidémie humaine actuelle.

Autre (gros) problème : comme on peut le lire dans le livre du chercheur de l’Université de Sherbrooke Jacques Pépin The Origins of AIDS (ouvrage splendide et à lire absolument, en passant), des analyses génétiques ont montré que le VIH est dû à un «saut» unique vers l’humain, survenu autour de… 1920, à une dizaine d’années près. Alors le vaccin oral antipolio, mis au point à la fin des années 1950, ne peut tout simplement pas être en cause.

En outre, M. Hooper a également identifié la région de Kisangani comme origine pour les chimpanzés dont les cellules auraient été utilisées pour le VOP, mais une étude parue dans Nature en 2004 a révélé que les souches de VIS qui circulent dans ce secteur sont trop différentes du VIH pour en être la source [http://bit.ly/2GpmyW4].

Ce qui semble s’être passé, lit-on dans l’ouvrage de M. Pépin et ailleurs [http://bit.ly/2Pjc7aB], c’est qu’après le passage initial à l’humain, le VIH a traversé une sorte de période de «latence» pendant quelques décennies. C’est Kinshasa (et non Kisangani) qui a été le ground zero de la pandémie, c’est là où le virus montre sa plus grande diversité génétique, c’est de là que viennent les plus anciens échantillons séropositifs — remontant à la fin des années 50, époque où le virus arborait d’ailleurs déjà une certaine diversité, signe qu’il était en circulation depuis un bon bout de temps. Tout indique que le virus est peu sorti de Kinshasa jusqu’à ce fameux tournant des années 60, et qu’à Kinshasa même, il restait confiné à une très petite partie de la population, possiblement des prostituées et leurs clients, imagine-t-on.

Que s’est-il passé pour que le VIH finisse par prendre son triste envol ? Eh bien, il est possible que ce soit une erreur médicale qui soit en cause après tout, du moins en partie, mais pas l’erreur que croit M. Hooper. Dans les années 50, les autorités coloniales des Congo belge et français ont entrepris des campagnes de vaccination massives qui étaient bien intentionnées, mais qui se sont souvent déroulées dans de mauvaises conditions d’hygiène. Les seringues n’étaient pas jetées après usage, mais réutilisées — et pas toujours après avoir été désinfectées. Ce n’est pas un hasard si ces campagnes ont coïncidé avec des sursauts d’hépatite C, une maladie qui ne se transmet presque que par le sang, indique M. Pépin dans ses travaux. Alors on peut penser que le VIH en a lui aussi «profité».

Ce ne fut probablement pas le seul facteur, remarquez bien. L’Afrique centrale a subi des changements politiques, économiques et sociaux profonds dans les années 50 et 60. Jusqu’au milieu du XXe siècle, la prostituée «type» à Kinshasa était une jeune femme «entretenue» par trois ou quatre clients, avec qui elle maintenait une relation sur plusieurs années. Par la suite, à cause de la pauvreté grandissante, la prostitution a pris une tournure plus désespérée, chaque femme pouvant voir jusqu’à 1000 clients par année. Il est fort possible que le VIH ait profité de cela aussi pour se répandre en Afrique centrale à partir des années 50 et 60, et éventuellement ailleurs dans le monde — mais c’est une autre histoire.

Science

Depuis quand sommes-nous riches?

SCIENCE AU QUOTIDIEN / «Mon professeur d’histoire attribue la différence majeure entre la pauvreté de l'Afrique et la richesse de l’Europe par le fait que nous sommes issus de la civilisation gréco-romaine. Comment expliquer cet énorme écart de richesse?» demande Robert Parthenais.

Aussi grand, brillant et puissant que fut l’empire romain, son héritage ne peut pas expliquer les écarts de richesse et de puissance dans le monde d’aujourd’hui, deux millénaires plus tard. Une preuve parmi d’autres : tout de suite après sa chute, au Ve siècle, l’Europe médiévale (qui était pourtant son héritière directe) a sombré dans une longue période parfois nommée âge des ténèbres. Pendant des siècles, elle ne fut ni riche, ni puissante. Au Moyen-Âge, c’est plus le monde arabe qu’elle qui a repris le «flambeau de la science» — les mots algèbre et algorithme nous viennent d’ailleurs de l’arabe. L’Europe de l’époque, loin de s’imposer au reste du monde comme elle le fera par la suite, était plutôt dans une position de faiblesse : une grande partie l’Espagne passera plusieurs siècles sous domination musulmane et de l’autre côté de la Méditerranée, à son apogée l’Empire ottoman (basé dans la Turquie actuelle) comprenait tout le sud-est de l’Europe.

Il est difficile d’évaluer la richesse des sociétés à plusieurs siècles de distance, mais les données qu’on a suggèrent que le reste du monde n’avait rien à envier à l’Occident, à l’époque. Autour de l’an 1000, on estime que le produit intérieur brut (PIB) de l’Europe de l’ouest (la partie la plus riche de ce continent à l’heure actuelle) équivalait à environ 775 $ per capita, en argent de 2019. C’était comparable, voire un peu moins que le Japon (820 $), le reste de l’Asie (870 $, la Chine et l’Inde étaient très prospères pour l’époque) et même l’Afrique (800 $), d’après les calculs de l’économiste anglais Angus Maddison.

Jusqu’à la Révolution industrielle, la croissance économique restera anémique pour tout le monde, mais elle explosera, littéralement, en Europe par la suite. Deux chercheurs de la London School of Economics ont examiné récemment la croissance dans six pays européens de la fin du Moyen Âge jusqu’à l’an 2000. Ils ont notamment compté le nombre de séquences de 4 années consécutives où un pays avait connu une croissance annuelle de son PIB d’au moins 1,5 %. Une telle croissance est considérée comme faible de nos jours mais, à la fin du Moyen-Âge, c’était exceptionnel. En 200 ans, (de 1300 à 1500), ces six pays ont connu un grand total de… deux «séquences heureuses» de la sorte. Par comparaison, juste au XXe siècle, ils en ont connu pas moins de 38. C’est vraiment la Révolution industrielle, et non l’héritage gréco-romain, qui a fait la différence.

Alors, pourquoi est-ce en Europe, et d’abord en Angleterre à partir du milieu du XVIIIe siècle, que la Révolution industrielle est survenue ? C’est en quelque sorte «la question-mère de toutes les sciences sociales», dit le politologue de l’Université Laval Louis Bélanger, qui donne des cours sur la montée et le déclin des grandes puissances : c’est en partie pour essayer d’expliquer les écarts de richesse entre les sociétés industrialisées et les autres que ces disciplines sont nées.

Il existe plusieurs thèses différentes à ce sujet, dit M. Bélanger, mais des travaux récemment pointent vers un mélange de contexte politique et de «hasard des contingences historiques». Il semble que, pour une série de raisons, l’Angleterre du XVIIIe siècle ait offert le parfait compromis entre la sécurité d’un État central fort, capable d’assurer la sécurité de ses citoyens et d’appliquer ses lois, et d’un État pluraliste où le pouvoir est minimalement partagé. Grosso modo, l’entrepreneurship tel qu’on le connaît depuis quelques siècles demande un État central assez fort pour fournir un environnement relativement prévisible et une société pas trop chaotique, mais pas assez dominateur pour s’accaparer arbitrairement le fruit de l’entreprenariat ou pour le diriger.

Et il s’est adonné que le moment où ces conditions ont prévalu en Angleterre a coïncidé avec l’arrivée d’innovations technologiques et avec la conquête de nouveaux continents. C’est la conjonction, due en partie au hasard, de tous ces facteurs qui aurait permis l’explosion économique qu’a été la Révolution industrielle.

Cela dit, il existe aussi d’autres pistes d’explication aux inégalités entre les nations, qui peuvent compléter celle de l’industrialisation. Certains insistent sur l’apport de la géographie. Dans son célèbre ouvrage Guns, Germs and Steel, l’auteur américain Jared Diamond fait par exemple remarquer que l’Eurasie est orientée sur un axe est-ouest, ce qui facilitait la dissémination des nouvelles cultures. Dans l’Antiquité, une nouvelle plante domestiquée pouvait se frayer un chemin de la Chine jusqu’en France sans avoir à passer par beaucoup de latitudes différentes. En Afrique et dans les Amériques, qui s’étalent du nord au sud, cela a pu limiter la diffusion de nouvelles cultures, et freiner le développement.

Aux hypothèses géographiques s’ajoutent des explications plus culturelles, comme l’idée (développée par un des pères de la sociologie, Max Weber, au début du XXe siècle) que le protestantisme sied mieux au capitalisme que le catholicisme. Et d’autres encore expliquent les inégalités par des facteurs plus politiques, que ce soit à cause de facteurs externes (l’impérialisme qui a maintenu des pays entiers dans la pauvreté, par exemple) ou internes (comme les conditions ayant mené à la Révolution industrielle).

Ce sont davantage ces dernières qui ont la cote en recherche depuis quelques années, dit M. Bélanger, mais encore une fois, ces thèses ne s’excluent pas forcément les unes les autres.

Autres sources :

- Angus Maddison, The World Economy. Volume 1 : A Millennial Perspective, OCDE, 2006, https://bit.ly/2miErNc

- Roger Fouquet et Stephen Broadberry, «Seven centuries of European economic growth and decline», Journal of Economic Perspectives, 2015, https://bit.ly/2VnqWew

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Pitou et minou ont-ils une grosse empreinte carbone?

SCIENCE AU QUOTIDIEN / «La responsabilité des gaz à effets de serre est toujours mise sur le dos des individus qui conduisent une auto ou qui mangent de la viande. Mais on ne parle jamais du coût écologique des animaux domestiques. Il y a les déjections, à l’intérieur comme à l’extérieur, la fabrication de leur nourriture sous toutes sortes de formes, le transport, les médicaments, etc. Alors combien ça «coûte», un animal domestique, en termes de gaz à effet de serre ?», demande Louise Saintonge, de Québec.

Question bien difficile que voici, car très peu d’études ont été faites à ce sujet. Pour tout dire, en 2017, deux chercheurs en environnement, Seth Wynes (Université de Lund, en Suède) et Kimberly A. Nicholas (Université de Colombie-Britannique), ont tenté de comparer tous les gestes petits et grands que M. et Mme Tout-le-Monde peuvent faire pour réduire leur empreinte carbone, et ils croyaient initialement que se priver d’un chien ferait partie des gestes ayant le plus d’impact. Mais ils ont dû abandonner cette partie de leur travail car «nous n’avons pu trouver que deux études, avec des résultats contradictoires, sur l’empreinte écologique des chiens», ont-ils écrit dans un article publié récemment dans les Environmental Research Letters.

De ces deux études, qui datent de 2011 et de 2013, l’une a conclu qu’un chien de la taille d’un Labrador implique des émissions d’environ 60 kg de gaz à effet de serre par année — autrement dit, presque rien —, alors que l’autre évaluait l’empreinte carbone du même toutou à... 1,6 tonne ! Pour donner une idée de ce que cela représente, c’est l’équivalent d’un vol trans-Atlantique, et deux fois plus que le CO2 qu’une personne peut «sauver» en devenant végétarien pendant un an. Bref, c’est énorme.

Un peu après la parution de l’article de Wynes et Nicholas, une troisième étude sur le sujet est parue, cette fois dans la revue savante PLoS – One. Son auteur, le géographe de UCLA Gregory S. Okin, y fait un estimé du nombre de calories consommées chaque année par les quelque 163 millions de chats et chiens domestiques vivant aux États-Unis et la part de ces calories qui proviennent de sources animales, de même que la masse totale de leurs déjections. Il estime que cela représente environ 33 % de la consommation humaine de calories animales et 30 % des excréments humains, et comme on connaît les GES associés à chacun, M. Okin déduit que les chiens et chats américains sont responsables d’environ 64 millions de tonnes de CO2 chaque année, soit l’équivalent de 13,6 millions de voitures.

Cette étude-là ferait donc pencher la balance du côté de l’hypothèse voulant que les animaux de compagnie ont une grosse empreinte carbone. Cependant, dans ces exercices comptables-là comme dans bien d’autres choses, le diable se cache toujours dans les détails. Ainsi, les calculs de M. Okin partent du principe que si les Américains ne possédaient plus ni chats ni chiens demain matin, alors l’Oncle Sam pourrait réduire sensiblement ses cheptels de bœufs, porc, poulets, etc. Ce qui réduirait bien sûr de beaucoup l’impact environnemental des animaux de compagnie.

Or c’est une prémisse très contestable parce qu’il n’y a tout simplement pas, ou extrêmement peu, d’élevage qui est fait principalement pour fabriquer la nourriture pour animaux. Pratiquement tout le bétail est destiné à la consommation humaine et, c’est avec ce qu’il reste une fois qu’on a enlevé «nos» morceaux que l’on produit les fameuses «croquettes» pour pitou et minou, ainsi que la nourriture en canne. On parle ici, par exemple, de farine d’os, de sang, de pattes, de becs et d’organes, de même que de la «vraie» viande invendue en supermarché et passée date, des graisses de restaurant, de bétail malade ou mourant, etc [https://bit.ly/2FkeFAS].

Bref, même si on faisait disparaître tous les animaux de compagnie, il faudrait maintenir les cheptels aux mêmes niveaux pour répondre à la demande humaine. M. Okin lui-même le reconnaît dans son article, d’ailleurs, mais il maintient tout de même ses conclusions parce que, argue-t-il, la plupart de ces ingrédients pourraient devenir propre à la consommation humaine après transformation. La preuve en est, dit-il, que l’on connaît bien des cas où des gens très pauvres se sont nourris de nourriture pour chats ou chiens. En outre, «la tendance est à la nourriture de luxe qui inclut plus de produits animaux que les Américains considèrent comme comestibles», fait-il valoir.

Il est vrai que ce type de nourriture est plus populaire qu’avant, mais ce sont encore les «croquettes» qui dominent le marché, et de loin : 8,7 milliards $ en 2012 contre 2,3 milliards $ pour la nourriture «humide», d’après des chiffres cités par M. Okin. Et encore, cette dernière n’inclut pas que des parties «comestibles pour l’humain», loin s’en faut. Alors sans dire qu’il n’a aucune valeur, l’argument voulant que la nourriture pour chiens/chats «concurrence» l’alimentation humaine est encore très théorique.

Science

Le marais «miracle» de Beauport…

SCIENCE AU QUOTIDIEN / «J'habite dans le quartier Beauport et tout près de chez moi, il y a dans un petit boisé un marais d'environ 100 mètres carrés qui ne gèle jamais, alors que le courant y est très faible. On y voit d’ailleurs encore des plantes aquatiques toujours vertes, même si la température plonge sous les -20 °C pendant des semaines. Je me demande comment il se fait que de grosses rivières finissent par geler mais pas ce petit marais où l'eau est quasi stagnante », demande Daniel Ross.

Effectivement, comme le montrent des photos que nous a envoyées M. Ross, il y a bel et bien des plantes aquatiques qui semblent (de ce qu’on peut en juger sur les images) en parfaite santé, bien que les clichés aient été pris en plein mois de janvier ! Voyons voir ce qui se cache derrière ce petit «miracle»…

Ce milieu humide, précise M. Ross, est situé juste au nord de l’intersection des rues Blanche-Lamontagne et Pierre-Paul-Bertin. Or, signale l’hydrogéologue René Lefebvre, du Centre Eau, Terre et Environnement de l’INRS, c’est-là une zone connue de «résurgence» des eaux souterraines, c’est-à-dire un endroit où l’eau de la nappe phréatique ressort. Comme il n’a pas pu se déplacer sur le terrain pour tout valider, M. Lefebvre souligne que ce n’est qu’une hypothèse. Mais il admet aussi qu’il ne voit pas vraiment d’autres possibilités — et disons que celle-là expliquerait bien des choses. 

À mesure que l’on s’enfonce sous terre, les variations saisonnières de températures deviennent rapidement un lointain écho. Alors que l’air ambiant fluctue allègrement entre -30 °C et + 30 °C d’une saison à l’autre, à seulement 2 mètres de profondeur, la température du sol se maintient généralement dans une fourchette relativement étroite de 5 à 13 °C tout au long de l’année, d’après un document sur la température des sols de Ressources naturelles Canada. Et à partir de 5 à 6 mètres sous terre, elle est essentiellement stable hiver comme été, à 8 °C environ.

Si l’on a bien affaire ici à une résurgence de la nappe phréatique, alors c’est à peu près à cette température de 8 °C que l’eau du «marais miracle» de Beauport sort du sol, dit M. Lefebvre. Cela explique donc pourquoi l’endroit ne gèle jamais, puisque malgré le faible débit, l’eau est continuellement renouvelée. Il est évident qu’avec le temps, elle se refroidit et finit forcément par geler un peu plus en aval — la décharge du marais est un petit ruisseau qui se jette dans la rivière Beauport qui, elle, se couvre de glace en hiver —, mais dans ce marais, ce n’est pas le cas.

D’ailleurs sans être une preuve formelle, le fait qu’on y voit des plantes aquatiques est un autre signe que l’on a affaire à une zone d’émergence d’eau souterraine. «Cela va créer un microclimat très local avec des températures plutôt constantes au-dessus du point de congélation, ce qui permet à la végétation de survivre», dit M. Lefebvre.

Il est difficile d’identifier de quelle espèce de plante aquatique à partir des photos prises par M. Ross, me dit-on à l’Organisme des bassins versants de la capitale. Sous toutes réserves, ses biologistes disent qu’elles semblent être soit des lenticules mineures, soit des hydrocharides grenouillettes. Mais dans les deux cas, la règle générale est que les plantes aquatiques meurent en hiver — l’hydrocharide grenouillette, par exemple, fait normalement des sortes de bourgeons nommés turions, qui coulent au fond et entrent en dormance jusqu’au printemps (https://bit.ly/2TJIoNP).

Mais si l’eau se maintient autour de 8°C à l’année longue, c’est une autre histoire...

Autre source :

- G. P. Williams et  L. W. Gold, Ground Temperatures, Ressources naturelles Canada, 1976, https://bit.ly/2JhBdHD

Science

Des vents plus violents?

SCIENCE AU QUOTIDIEN / «Ça n’est peut-être qu’une impression, mais il me semble que nous avons de plus en plus d’épisodes de grands vents et qu’ils sont de plus en plus violents. Existe-t-il des statistiques à ce sujet? Et les changements climatiques seraient-ils en cause?» demande Jean-Guy Mercier, de Québec.

Oui, il existe des statistiques là-dessus, notamment sur le site d’Environnement Canada. Pour le simple plaisir d’avoir un exemple concret (et parce que j’ai beaucoup de misère à voir un ensemble de données sans potasser dedans), j’ai fait une petite compilation sur la force des vents au mois de février, telle qu’enregistrée à la station météorologique de l’Université Laval cours des 20 dernières années. Comme le montre le graphique, il est bien difficile d’y voir une tendance à la hausse.

Science

L'«écho» des pensionnats autochtones

SCIENCE AU QUOTIDIEN / «En lisant votre article sur l’épigénétique («Darwin contre Lamarck, round 2»), je me demandais si on pouvait faire un lien avec la situation des autochtones, chez qui le diabète fait des ravages. La pauvreté et les changements dans l’alimentation ont-ils pu avoir ce genre d’effets ?», demande Raoul Kanapé, d’Essipit.

La fonction des gènes, c’est de conserver de l’information servant à fabriquer des protéines. Or les gènes sont pratiquement inchangeables : nous ne faisons qu’en hériter, vivre avec tels quels pendant toute notre existence, et les passer à nos enfants. Cependant, tous les gènes ne doivent pas être exprimés également dans toutes nos cellules — les neurones et les cellules du cœur, par exemple, ne font pas du tout le même travail et n’ont donc pas besoin de produire les mêmes protéines. De même, nos gènes peuvent ne pas être bien adaptés à la situation dans laquelle nous naissons, si bien que l’évolution nous a doté de mécanismes collectivement nommés épigénétique, qui vont augmenter ou diminuer (voire réduire au silence complet) l’expression de tels ou tels gènes.

Dans cette chronique de décembre dernier [https://bit.ly/2Rx1SPn], j’abordais un débat qui fait rage actuellement en science : les «ajustements» épigénétiques peuvent-ils être transmis de génération en génération ? La théorie classique en biologie veut que non, les caractères acquis ne se transmettent pas, seuls les gènes sont passés aux enfants. Mais des expériences récentes sur des souris suggèrent que l’épigénétique pourrait «résonner» sur plus d’une génération, et des données historiques vont dans le même sens. On connaît en effet quelques cas documentés de disette, comme celle qui a sévit aux Pays-Bas à l’hiver 1944-45, où les femmes qui étaient enceintes à ce moment-là ou qui le sont devenues peu après ont donné naissance à des enfants qui ont, même à l’âge adulte, fait nettement plus de diabète et d’obésité que la moyenne. Comme si la famine les avait «programmés» pour avoir des métabolismes économes, et qui se sont avérés mal adaptés lorsque l’abondance est revenue.

Est-ce que cela peut expliquer la véritable «épidémie» de diabète qui sévit chez les autochtones, qui en souffrent de 3 à 5 fois plus que la moyenne (les taux dépassent même 25 % dans certaines communautés) ? Il est effectivement possible que ce soit-là un morceau du puzzle, répond Marie-Claude Tremblay, professeure de médecine familiale à l’Université Laval qui mène des recherches sur le diabète et la santé autochtone, notamment.

À cet égard, le mode de vie nomade qui était marqué par des famines occasionnelles est l’élément qui vient le plus spontanément à l’esprit. Mais, rappelle la chercheuse, il y a aussi (et surtout) un événement qui a exposé un grand nombre d’Autochtones à toutes sortes de privations dans un passé assez récent : les pensionnats.

«Il y en a beaucoup qui ont subi de la malnutrition chronique dans les pensionnats, c’est documenté dans les archives et beaucoup de témoignages à la Commission vérité et réconciliation l’ont mentionné. Ça a pu avoir un effet épigénétique», dit Mme Tremblay.

En outre, hormis la malnutrition, toute forme de traumatisme peut avoir des conséquences semblables. «Ces enfants-là étaient arrachés de leur milieu, et on sait à quel point l’attachement est important pour les enfants, illustre-t-elle. Ils n’avaient pas le droit de parler leur langue, on les rasait, on cherchait à effacer l’Indien en eux. Juste ça, c’est un traumatisme. Et on ajoute ça à la malnutrition et aux abus. (…) Ce qu’on sait, c’est que les traumatismes vont avoir un effet sur les niveaux de cortisol [ndlr : l’hormone du stress] et ça, ça va agir sur l’hormone de croissance ressemblant à l’insuline (igf1) et ça va faire en sorte que le métabolisme va changer» d’une manière qui favorise le diabète et l’obésité.»

De là, on peut penser que les mères exposées ont fait plus de diabètes et d’obésité, et que leurs enfants ont été ou sont également plus à risque. Certaines études ont aussi trouvé des gènes (et pas seulement de l’épigénétique) liés à l’obésité qui sont plus fréquents chez les autochtones.

Cependant, insiste Mme Tremblay, le diabète et l’obésité sont des problèmes de santé complexes et l’épigénétique n’est selon toute vraisemblance rien de plus qu’un petit bout du tableau d’ensemble. Au-delà des pensionnats, dit-elle, «le» gros changement que ces populations ont subi fut la colonisation, avec toutes les conséquences qu’elle a eues : sédentarité, diète traditionnelle remplacée par une alimentation de mauvaise qualité, etc. Le surpoids et le diabète ont clairement des racines sociales et économiques, souligne Mme Tremblay, étant plus fréquents chez les gens pauvres et peu instruits. Or ce sont justement là des facteurs de risque qui sont très présents dans bien des Premières Nations : d’après Statistique Canada, moins de la moitié (48 %) des autochtones de 15 ans et plus ont un diplôme d’études secondaires et leur revenu médian est d’environ 18 000 $, contre 28 000 $ pour les allochtones. Et encore, la situation est bien pire dans certaines communautés éloignées.

«Alors ce ne serait pas complet et pas éthique de parler du diabète chez les autochtones sans parler de tout cela», indique Mme Tremblay.

Autres sources :

- Stewart B. Harris et al., «Type 2 Diabetes in Aboriginal People», Canadian Journal of Diabetes, 2013, https://bit.ly/2D1hSnD  

- Kyle Millar et Heather J. Dean, «Developmental Origins of Type 2 Diabetes in Aboriginal Youth in Canada: It Is More Than Diet and Exercise», Journal of Nutrition and Metabolism, 2012, https://bit.ly/2SjvFja

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Miroir, miroir, dis-moi qui est le plus vert

SCIENCE AU QUOTIDIEN / «Est-il vrai qu’un végétarien propriétaire d’un Hummer fait plus pour l’environnement qu’un utilisateur des transports collectifs carnivore?» demande Gilles Lépine.

Voici une belle question, bien courte et en apparence bien simple, dont on se dit à vue de nez qu’elle doit avoir une réponse qui doit elle aussi être simple et courte. Mais en vérité, dans ce genre de comptabilité il y a toujours de longues, longues listes de facteurs dont on doit tenir compte (nombre de kilomètres parcourus par année, nature et procédés de fabrication des aliments, etc.) et qui impliquent de faire de nombreux choix méthodologiques. Si bien que cette question «pourrait avoir des dizaines de réponses différentes selon les hypothèses considérées», dit Réjean Samson, directeur du Centre international de référence en analyse du cycle de vie (CIRAIG) de l’École polytechnique de Montréal.

Alors faisons quand même quelques petits calculs rapides à partir de moyenne nationales, mais gardons à l’esprit que d’un cas particulier à l’autre, les résultats peuvent varier énormément.

Du strict point de vue des gaz à effet de serre (GES), un Hummer brûle autour de 20 litres d’essence par 100 kilomètres parcourus (l/100 km). En supposant 20 000 km parcourus par année et 2,3 kg de CO2 émis par litre d’essence (d’après le site de Ressources naturelles Canada), cela nous donne 9,2 tonnes de GES par année pour notre conducteur de Hummer.

De quelle quantité de CO2 un usager type du transport en commun est-il «responsable» annuellement ? D’après le site du ministère américain des transports, le «plus polluant» des transports en commun est l’autobus, à 0,18 kg de CO2 par km. Alors mettons les choses au pire et supposons 20 000 km de bus par année pour notre passager — c’est vraiment beaucoup car une bonne partie des usagers du transport en commun vivent proche des centres plutôt qu’en banlieue, mais «mettons que», comme on dit. Cela nous fait un total de 3,6 tonnes de CO2 pour l’année, soit 5 de moins que le Hummer. Et c’est sans compter les gaz à effet de serre émis pendant la fabricant des véhicules, mais passons.

Est-ce que le régime végétarien du propriétaire de Hummer est suffisant pour compenser ? Les bienfaits environnementaux de cette diète varient pour la peine d’une étude à l’autre (encore ici, les choix méthodologiques sont multiples). En 2017, une étude parue dans les Environmental Research Letters parlait de 0,8 tonne de CO2 en moins par année pour quelqu’un qui abandonnerait la viande. Mais cela semble peu aux yeux de Dominique Maxime, lui aussi du CIRAIG, qui travaille plutôt avec le chiffre d’environ 1,5 tonne.

«Ce qui fait la différence, dans les régimes carnés, ça va surtout être les viandes rouges, donc les bovins. C’est parce que la fermentation entérique [dans l’intestin des ruminants, qui est particulier] produit du méthane, un GES 30 fois plus puissant que le CO2. Après, il y aussi toute la gestion des fumiers, qui concerne également le porc et qui est elle aussi une source de méthane», explique M. Maxime.

Dans tous les cas, cependant, c’est largement insuffisant pour compenser les émissions du Hummer. Ou du moins, ça l’est avec les hypothèses que l’on a faites — sur les distances parcourues, sur le fait que le propriétaire du Hummer vit en ville et/ou a accès à des transports en commun efficaces, etc. Mais d’un cas précis à l’autre, cela peut changer du tout au tout.

«En analyse de cycle de vie, on essaie de voir les choses en terme de fonctionnalité, explique M. Maxime. Du point de vue de l’alimentation, on mange tous pour les mêmes raisons, soit se maintenir en santé, peu importe les quantités qu’on ingère et si on est végétarien ou pas. Par contre, pour le choix entre le Hummer et le transport en commun, ce n’est pas forcément la même chose. La personne qui se paye Hummer peut le faire parce qu’elle a besoin, pour son travail, d’un véhicule puissant qui fait du tout terrain. Alors là, on ne peut pas comparer avec le transport en commun ou avec un véhicule ordinaire.»

La comparaison devrait alors se faire avec un véhicule qui sert la même «finalité», comme une grosse camionnette, et pas avec le transport en commun.

En outre, il faut souligner que nous n’avons parlé jusqu’ici que de GES, puisque c’est généralement ce type de pollution que l’on a en tête quand il est question de voitures. Or il y en a d’autres qui sont tout aussi importants, mais ils ne sont pas facilement comparables.

«L’agriculture, ça a d’autres impacts sur l’environnement, comme l’eutrophisation, à cause des quantités importantes de fertilisants utilisés qui vont ruisseler [ndlr : et une fois dans les lacs, vont favoriser la croissance de cyanobactérie et éventuellement «étouffer» les plans d’eau]», dit M. Maxime. Produire de la viande implique de produire des plantes fourragères, et comme la conversion de la matière végétale en matière animale n’est pas très efficace (selon le type d’animal et de fourrage, il faut de 2 à 7 kg de végétaux pour produire 1 kg de viande), manger de la viande implique de cultiver de plus grandes superficies, et donc de contribuer davantage à l’eutrophisation des cours d’eau.

La fabrication et l’usage des voitures n’ont pas ces inconvénients. Mais combien de tonnes de GES «vaut» une éclosion d’algues bleues ? Combien de de CO2 doit-on sauver pour compenser 1 hectare de forêt transformée en champs ? On compare des pommes et des oranges, ici.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Nos maisons ont-elles «froid» quand il vente?

SCIENCE AU QUOTIDIEN / «Il me semble déjà avoir lu quelque part qu'Hydro-Québec tient compte du vent dans ses prévisions de consommation d'électricité. Est-ce vrai qu’il y a un «refroidissement éolien» pour les maisons?», demande Pierre Larouche, de Mont-Joli.

Oui, il y a une sorte de facteur éolien pour la consommation d’électricité en hiver, et il est tout à fait vrai qu’Hydro Québec en tient compte dans ses prévisions de demande. C’est d’autant plus important que les plus fortes pointes de consommation d’électricité au Québec surviennent justement les matins de grand froid, alors il vaut mieux en tenir compte. (Notons tout de suite que j’écris «une sorte de facteur éolien» parce que le mécanisme n’est pas le même que pour la fameuse «température ressentie» dont on parle dans les bulletins de météo. J’y reviens.)

«Effectivement, dans le passé on a pu constater une grosse différence par grand froid, selon qu’il vente ou non, dit Olivier Milon, chargé d’équipe en prévision de la demande chez Hydro Québec. On a des règles d’approximation pour l’estimer. (…) Si on a une température de -20°C et que le vent passe de 10 à 15 km/h, on va observer une charge supplémentaire d’environ 240 mégawatts à l’échelle du Québec. C’est l’équivalent d’une grosse usine qui ouvrirait son four, par exemple.»

Le vent peut donc faire une bonne différence. Mais c’est tout de même la température qui demeure le facteur météo dominant, dans toute cette histoire. «Si on regarde l’effet d’une variation de 1 °C mesuré à l’aéroport de Dorval, si on passe de -20 à -21 °C par exemple, ça peut faire une différence allant jusqu’à 480 mégawatts», dit M. Milon.

Pour remettre tout cela en perspective, rappelons que les pointes de demande par grands froids, lors des pires moments, peuvent atteindre autour de 38 000 MW. C’est donc dire que, tout seul, 1°C ou 5 km/h de vent ne pousse pas beaucoup la demande vers le haut, mais ensemble ces deux facteurs peuvent finir par «peser lourd» dans la demande d’électricité : entre une température de -5°C sans vent et une journée à -25 avec des vents de 30 km/h, l’écart est de l’ordre de 10 000 MW.

Ce qui fait qu’à température égale, nos maisons coûtent plus cher à chauffer quand il vente, c’est qu’elles ne sont pas parfaitement hermétiques. Il y a toujours des échanges d’air entre l’intérieur et l’extérieur — heureusement, d’ailleurs — et le vent, en s’infiltrant par toutes les ouvertures possibles, va accélérer ces échanges-là, explique M. Milon. C’est un mécanisme assez différent de celui qui empire la sensation de froid sur la peau quand il vente. Et on y arrive à l’instant...

* * * * *

«Est-ce que le refroidissement éolien (ou la température ressentie) dont on parle tant lors des bulletins de météo a un quelconque fondement scientifique ?», demande Jean-Pierre Gagnon, de Chambly.

Oui, la «température ressentie» a un fondement scientifique, malgré son nom qui suggère la subjectivité. L’idée de base, c’est que l’air ne transmet pas bien la chaleur — en fait, c’est plutôt un isolant thermique. À cause de cela, il se forme toujours une couche d’air autour de tout objet qui est plus chaud que l’air ambiant, ce qui en ralentit le refroidissement. Mais quand il vente, les bourrasques dissipent cette couche d’air plus chaud, et l’objet perd donc sa chaleur plus rapidement.

Historiquement, ce sont deux explorateurs américains, Charles Passel et Paul Siple, qui ont étudié et quantifié ce phénomène les premiers. Lors d’un séjour en Antarctique, ils ont accroché des cylindres de plastiques remplis d’eau à l’extérieur de leur campement, en notant le temps que l’eau mettait à geler, de même que la température et la force du vent. À partir de là, ils ont accouché d’une formule mathématique qui exprimait la température qu’il devrait faire sans vent pour que l’eau gèle à la même vitesse.

Le résultat était très imparfait, disons-le. La formule surestimait grandement l’effet du vent par temps froid — à -15°C et des bourrasques à 50 km/h, elle indiquait un équivalent de -41°C alors que la version actuelle donnerait -29°C — et les bouteilles de plastique de Siple et Passel étaient une base un brin boiteuse pour déduire une impression de froid sur la peau.

Pour y remédier, Environnement Canada et la National Oceanic and Atmospheric Administration (États-Unis) ont fini par mener une expérience particulière. Ils ont fait marcher 12 personnes sur un tapis roulant dans une soufflerie réfrigérée pendant 30 minutes, en faisant varier la température (+10, 0 et -10 °C) et la vitesse du vent (2, 5 et 8 mètres par seconde). Tout au long de ce manège, la températures corporelle et du visage des marcheurs était mesurée. C’est sur ces résultats qu’une nouvelle formule plus précise, utilisée depuis 2001, a été formulée. Notons qu’elle tient aussi compte du fait que le vent à 1,5 mètre du sol est en général plus faible qu’à 10 mètres, où les stations météorologiques le mesurent.

Sources :

Francis Massen. The NewWindchill Formula: A Short Explanation, Station météorologique du Lycée classique de Diekirch, 2001. https://bit.ly/2DjuQyt

SA. Wind Chill Calculator, CSGNetwork, 2011. https://bit.ly/1xwv0te

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

La Terre n'arrêtera pas de tourner, mais...

SCIENCE AU QUOTIDIEN / «Comme on voit toujours la même face de la lune, certains disent que c’est parce qu’elle ne tourne pas sur elle-même. Si c’est vrai, il s’agirait d’une rare exception parce qu’à ma connaissance tous les astres tournent sur eux mêmes, non ? Et j’ai aussi lu quelque part que la vitesse de rotation de la Terre ralentissait petit à petit, si bien que dans quelques millions d’années, elle s’arrêterait complètement et que sa face constamment exposée au Soleil serait brulée tandis que l’autre serait gelée. Qu’en est-il ?», demande Ghislain Gauthier.

Si la Lune ne tournait pas sur elle-même, il s’agirait en effet d’une exception fabuleusement rare. Les astres — qu’il s’agisse de planètes, de lunes ou d’étoiles — se forment lorsque des nuages de gaz et/ou de poussières flottant dans l’espace finissent par s’effondrer sous l’effet de leur propre gravité. Ces nuages vont alors tourner sur eux-mêmes, puis former un disque qui tourne sur lui-même, puis le disque va petit à petit se transformer en sphère. Et le «produit final», la planète, conserve cette rotation.

J’imagine que l’Univers est trop vaste pour qu’on puisse dire qu’il n’existe absolument aucun astre sans rotation. Mais à partir de ce qu’on sait des étoiles, planètes, lunes et astéroïdes que l’on a observés jusqu’à maintenant, la règle est que tous les objets ont une rotation. Et notre Lune n’y fait pas exception.

On peut avoir l’impression contraire parce qu’on en voit toujours la même face, mais c’est simplement parce que sa rotation est synchronisée avec sa «révolution», comme disent les physiciens : elle prend le même temps pour faire un tour sur elle-même (environ 28 jours) qu’elle n’en met pour faire le tour de la Terre (28 jours aussi). Ce n’est pas un hasard s’il en est ainsi — et l’explication nous permettra au passage de comprendre pourquoi il est vrai que la rotation terrestre ralentit peu à peu.

La Terre et la Lune sont d’énormes masses assez rapprochées (à l’échelle cosmique, s’entend) et qui exercent une forte gravité l’une sur l’autre. Cette gravité, bien sûr, explique pourquoi la Lune continue de tourner autour de notre planète, mais elle fait un petit quelque chose de plus : des effets de marée. Sur Terre, on les voit avec le niveau de la mer, mais la gravité lunaire ne fait pas qu’attirer des masses d’eau. La croûte terrestre se soulève également d’environ 30 centimètres au passage de la Lune, ce qui crée une sorte de «bourrelet» de matière qui se déplace au rythme de la rotation de la Terre et de la révolution lunaire.

Maintenant, il y a deux choses à souligner à propos de ce «bourrelet». La première, c’est qu’il représente un surplus de masse, qui exerce donc un surplus de force gravitationnelle. Comparé à la totalité de la gravité terrestre, ce n’est pas grand-chose, mais cela reste une force qui agit. La seconde, c’est que ce bourrelet est toujours légèrement décalé, légèrement en avance par rapport à la Lune parce que la Terre tourne sur elle-même en 24 heures, alors que la Lune met 28 jours à compléter un tour de la Terre.

Et ce dernier point est capital : comme l’orbite lunaire va dans le même sens que la rotation terrestre, cela signifie que le petit surplus de force gravitationnelle du bourrelet fait accélérer la Lune.

Compte tenu des distances et des masses impliquées, l’accélération est infinitésimale. Pour vous donner une idée, sachez que plus un satellite file rapidement sur sa course orbitale, plus il s’éloigne de sa planète — et l’accélération dont on parle ici fait s’éloigner la Lune au rythme de… 3 cm par année. C’est comparable à la vitesse à laquelle poussent les ongles, alors la distance Terre-Lune est d’environ 380 000 km. Presque rien, quoi.

L’accélération de la Lune n’est cependant qu’un des deux côtés d’une même médaille. Car ultimement, d’où vient l’énergie qu’il faut pour la faire orbiter plus vite ? De la rotation terrestre, sur laquelle notre satellite naturel agit comme une sorte d’ancre. À mesure que la Lune accélère, la Terre tourne de moins en moins vite sur elle-même. Encore une fois, c’est infinitésimal, mais c’est suffisant pour faire une différence notable sur de longues périodes.

Des géologues ont d’ailleurs été capables d’en prendre des mesures très concrètes. On connaît en effet des roches qui se sont formées par l’accumulation de sédiments dans des circonstances telles que l’on peut encore discerner, même des millions d’années plus tard, l’effet de chaque marée individuelle. En analysant les caractéristiques des couches de sédiments que chaque cycle de marée a laissé derrière lui dans des roches de l’Australie, un chercheur a pu estimer que chaque journée durait environ 22 heures il y a 620 millions d’années — et même autour de 18 heures il y a 2,45 milliards d’années.

La Terre a eu le même genre d’effet de marée sur la Lune, et en a ralenti la rotation jusqu’à la synchroniser avec sa révoltuion. La différence est que comme la Terre est beaucoup plus massive, elle exerce des forces plus grandes sur la Lune, et son inertie (sa résistance aux forces exercées par la Lune) est plus importante. C’est pourquoi la Terre n’a pas encore synchronisé sa rotation avec l’orbite lunaire. Cela finira éventuellement par arriver, mais il faudra être patient : on estime que cela prendra encore… 50 milliards d’années.

Pour en savoir plus :

- George E. Williams, «Geological Constrait on the Precambrian History of Earth’s Rotation and the Moon’s Orbit», Reviews of Geophysics, 2000, https://bit.ly/2BW1q8P

- Fraser Cain, «When Will Earth Lock to the Moon ?», Universe Today, 2016, https://bit.ly/2AZupaf

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Les confins de notre «patatoïde»

SCIENCE AU QUOTIDIEN / «Je lisais un article récemment qui disait que les sondes Voyager 1 et 2 étaient sorties de l'«héliosphère». Le texte indiquait qu'elles reçoivent maintenant davantage de rayonnement cosmique [ndlr : qui est une sorte de «pluie» de particules] parce qu'elles ne sont plus protégées par les particules électriquement chargées de notre Soleil. Ce que je ne comprends pas, par contre, c’est quelle différence cela peut-il faire que les particules viennent du Soleil ou du rayonnement cosmique ? Si on compare ces rayonnements à de la pluie, qu’il pleuve à gauche ou à droite ne change rien, non ?», demande Marc Fortin, de Laval.

Les deux sondes Voyager ont été lancées par la NASA en 1977. Le but premier de la mission était d’étudier Jupiter et Saturne mais, une fois ces objectifs remplis, les deux sondes ont poursuivi leurs routes sans interruption à des vitesses d’environ 17 kilomètres par seconde, vers ce que les astronomes appellent l’«espace interstellaire» — donc l’espace entre les étoiles. Voyons ce que cela veut dire.

Le Soleil, comme toutes les autres étoiles, éjecte continuellement de la matière dans toutes les directions. Ce «vent solaire», de son vrai nom, est surtout constitué d’électrons, de protons (des noyaux d’hydrogène, qui composent presque toute la masse du Soleil) et de «particules alpha» (des noyaux d’hélium). À l’échelle humaine, les masses impliquées sont gargantuesques : entre 1 et 2 millions de tonnes par seconde, mais à l’échelle solaire, ce n’est presque rien.

Ce vent solaire, explique Olivier Hernandez, directeur du Planétarium Rio-Tinto-Alcan, à Montréal, «va souffler une sorte de bulle autour du Soleil. Si le Soleil ne bougeait pas, ce serait une belle sphère, pas tout à fait parfaite parce que la force du vent n’est pas constante dans toutes les directions, mais quand même assez ronde. Cependant, le Soleil se déplace dans la galaxie, alors la bulle a plutôt une forme de «patatoïde», si l’on veut».

Ce vent a beau souffler fort — entre 400 et 700 km/s —, il finit toutefois par rencontrer de la résistance dans l’espace : le rayonnement cosmique. Celui-ci est lui aussi un flux de particules (certaines électriquement chargées, mais pas toutes) qui provient d’un peu partout dans l’Univers. C’est un mélange des «vents» provenant des autres étoiles de notre galaxie, du rayonnement émanant des supernovæ (l’explosion d’une étoile en fin de vie) et d’autres sources.

À approximativement 20 milliards de km du Soleil, les deux flux de particules se rencontrent. D’un côté se trouve la zone d’influence du Soleil, l’«héliosphère», où c’est le vent solaire qui domine. De l’autre, à l’extérieur du «patatoïde», ce sont les rayons cosmiques qui dominent : c’est l’espace interstellaire.

La frontière entre les deux, nommée héliopause, n’est pas une ligne bien précise mais «a une épaisseur de plusieurs millions de kilomètres parce que les densités sont très faibles», dit M. Hernandez. Autour de la Terre, le vent solaire comprend en moyenne autour de 5 atomes par cm³, mais dans l’héliopause (plus de 100 fois plus loin du Soleil) et dans l’espace interstellaire, les densités se comptent plutôt en atomes par kilomètre cube. Une particule qui arrive dans cette zone a donc généralement besoin de parcourir une très grande distance avant d’être «repoussée» par une autre particule venant en sens inverse.

C’est dans cette zone-tampon que la sonde Voyager 1 est (finalement) entrée en 2012. Enfin, semble être entrée, puisque cela a fait l’objet d’un débat, en partie parce que «comme le volume de l’héliosphère varie avec l’activité solaire, c’est un peu embêtant de déterminer où la frontière commence et si les sondes en sont sorties», dit M. Hernandez. Mais toujours est-il qu’un article paru dans les Geophysical Research Letters (GRL) a annoncé au début de 2013 que certains des instruments scientifiques sur Voyager 1 avaient enregistré des changements relativement brusques et qui se sont maintenus par la suite. Les deux sondes jumelles sont équipées, chacune, d’un instrument conçu pour mesurer les flux de particules à faible énergie (dont la plupart viennent du Soleil, une source de «vent» pas particulièrement violente) et d’un autre spécialisé dans la détection des particules à haute énergie, qui est une caractéristique des rayons cosmiques — parce que plusieurs de leurs sources sont des événements extrêmement énergétiques.

À partir du 25 août 2012, ont rapporté deux chercheurs américains dans les GRL, l’intensité de la «pluie» de particules à faible énergie a chuté de 90 % en seulement quelques jours, et a éventuellement baissé jusqu’à un facteur de 300 à 500. En même temps, les particules à forte énergie (des centaines de fois plus fortes que ce que le Soleil émet généralement) ont subitement doublé. «Le caractère soudain de ces changements d’intensité indique que Voyager-1 a franchi une frontière bien définie (…) possiblement reliée à l’héliopause», écrivaient-ils.

À ce jour, ces changements d’intensité se sont maintenus, peut-on constater sur le site de du Jet Propulsion Laboratory de la NASA, qui affiche en direct différents paramètres de la mission. Voyager-2, cependant, n’a toujours pas connu cette baisse dramatique des particules de faible énergie, et l’on considère qu’elle est toujours à l’intérieur de l’héliosphère.

Si l’on dit que Voyager-1 n’est plus «protégée» par le vent solaire, c’est parce qu’elle se trouve désormais dans un endroit où ce sont les rayons cosmiques (à très forte énergie) qui dominent et que «tout rayonnement hautement énergétique peut causer des dommages», dit M. Hernandez, mais il ajoute ne pas trop s’en faire pour la sonde. «Au départ, on espérait que les sondes auraient une durée de vie qui les amènerait jusqu’aux années 2020. Maintenant, on s’aperçoit que ce sera plus longtemps. Sur les 10 instruments qui ont été installés sur les sondes, il n’y en a plus que 4 ou 5 qui fonctionnent encore. Donc le risque n’est pas si énorme que ça : les instruments les plus sensibles sont déjà hors service et les autres vont probablement pouvoir continuer jusqu’à ce qu’ils aient épuisé leurs réserves d’énergie. Et éventuellement, les sondes deviendront incapables d’envoyer des signaux.

«En fait, ce serait plus problématique si c’étaient des humains qui arrivaient à l’héliopause. Alors là, oui, les particules hautement énergétiques endommageraient les tissus. On serait en principe capable de construire une protection contre ça, mais à cause de l’épaisseur de matériaux que ça prendrait et de leur masse, on ne serait pas capable d’envoyer tout ça dans l’espace à l’heure actuelle», conclut M. Hernandez.

* * * * *

Vous vous posez des questions sur le monde qui vous entoure ? Qu’elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d’y répondre. À nos yeux, il n’existe aucune «question idiote», aucune question «trop petite» pour être intéressante ! Alors écrivez-nous à : jfcliche@lesoleil.com.

Science

Le bouchon venu de nulle part

SCIENCE AU QUOTIDIEN / «Je me demande ce qui cause les bouchons sur l’autoroute. Je suis conscient qu’une entrave comme un accident peut ralentir le flux des voitures, mais il arrive parfois que l’on puisse se retrouver en file pouvant rouler aussi lentement que 20 km/h sans qu’il n’y ait aucune entrave sur la voie. Si tout le monde suit la limite de 60 à 100 km/h, ne devrions-nous pas avancer à au moins un minimum de 60 km/h ?» demande Patrick Séguin, de Sherbrooke.

Si l’on me permet un rapprochement un brin fantasque, nous avons ici l’équivalent routier de la célébrité des sœurs Kardashian : les médias en parlent parce qu’elles sont célèbres, et elles sont célèbres parce que les médias en parlent. Et de la même manière, les voitures s’arrêtent parce qu’il y a un bouchon de circulation, et il y a un bouchon parce que les voitures s’arrêtent.

C’est du moins ce que l’on se dit quand, après avoir soupçonné un accident, on découvre en sortant de l’embouteillage que toutes les voies étaient parfaitement libres. Mais le fait est que c’est un phénomène qui a fait l’objet de nombreux travaux scientifiques et qu’il obéit aux lois de la physique — ce qui n’est pas sûr dans le cas des Kardashian, mais c’est une autre question.

Une équipe japonaise l’a même testé empiriquement il y a une dizaine d’années. Sur une petite piste circulaire de 230 mètres de circonférence, les chercheurs ont fait rouler 22 ou 23 voitures (cela variait d’un essai à l’autre) en demandant aux conducteurs de maintenir une vitesse de 30 km/h et une distance constante avec la voiture d’en avant. Il n’y avait aucun obstacle sur la piste, aucun resserrement, rien. Mais inévitablement, des embouteillages se sont formés à chaque essai, au bout de quelques minutes.

La raison première, expliquent-ils dans leur article paru en 2009 dans le New Journal of Physics, c’est la densité de la circulation. S’il n’y avait eu, par exemple, que 2 voitures sur la piste, elles auraient été espacées de plus de 100 mètres ; si l’une d’elle avait freiné pour un moment, l’autre n’aurait pas eu à le faire, ou alors elle aurait pu décélérer très progressivement, ce qui aurait donné le temps à la première de reprendre sa vitesse. Mais à 23 voitures, c’est une autre histoire. Si l’on suppose que chacune mesure 4 m de long, cela ne laisse que 6 m d’espacement moyen entre les véhicules, ce qui est peu.

Dans pareilles conditions, dès qu’une voiture freine de manière un tant soit peu brusque, l’autre derrière elle doit faire de même. Et, point important, ce second conducteur doit ralentir plus abruptement encore que le premier parce qu’il ne peut pas freiner simultanément — il y a forcément un temps de réaction. S’il y a une troisième voiture qui suit de proche, elle devra à son tour ralentir encore plus que la seconde, et ainsi de suite jusqu’à ce que, passé un certain point, toute la file soit forcée de s’arrêter complètement avant de repartir. C’est ce qui se passe sur nos autoroutes : quand le trafic devient suffisamment dense, alors le moindre freinage brusque, le moindre écervelé qui «coupe» une voiture peut provoquer une sorte de réaction en chaîne qui mènera à l’arrêt momentané de la circulation, plus ou moins loin derrière.

Maintenant, il y a deux choses à noter au sujet de ces bouchons. La première, c’est que l’endroit où le trafic s’immobilise n’est pas fixe, mais se propage vers l’arrière. En effet, les premières voitures qui doivent s’immobiliser le font à un endroit précis, mais repartent peu de temps après ; celles qui suivent doivent par définition s’immobiliser un peu derrière les premières, avant de repartir à leur tour ; et ainsi de suite. Le résultat est que le point où les voitures s’arrêtent progresse vers l’arrière à la manière d’une vague — les mathématiciens et les physiciens qui ont étudié la question parlent littéralement d’une «onde de trafic» —, typiquement à une vitesse de 15 à 20 km/h, selon une étude parue en 2010 dans les Philosophical Transactions of the Royal Society A : Mathematical, Physical and Engineering Sciences.

Et pour ceux qui seraient plus visuels, un chercheur de l’Université Temple (Pennsylvanie), Benjamin Seibold, a réalisé cette simulation vidéo:

Science

Hibou, chou, cheville...

«Comme nous visitons les parcs nationaux de l’Amérique du Nord, ma femme et moi, une question nous taraude : comment se fait-il que des espèces animales ont évolué pour changer la position de leurs genoux? L’être humain en position de quatre pattes a les genoux pliés vers l’avant et les coudes vers l’intérieur. Les chevaux ont les genoux pliés vers l’arrière et les coudes vers l’extérieur. D’autres mammifères leur ressemblent de ce point de vue. Les ours, quant à eux, ont des articulations semblables aux nôtres. Qu’est-ce qui a causé ces évolutions?» demande Paul-Yvon Blanchette, de Québec.

Voilà une très belle observation! Mais le fait est que contrairement aux apparences, ni les «genoux» du cheval, ni les nôtres ne se sont jamais renversés. Si les «genoux» des chevaux et d’autres mammifères comme le loup (et c’est la même chose pour les oiseaux) plient à l’envers par rapport aux nôtres, c’est parce que ce ne sont pas leurs genoux, justement. Nous les interprétons comme tels à cause, sans doute, de notre tendance à anthropomorphiser les animaux — nous voyons souvent des émotions/intentions humaines dans leur comportement, par exemple. Mais les «genoux articulés dans le mauvais sens» ne sont en fait rien d’autre que... des chevilles!

Chez les vertébrés, il y a essentiellement trois grandes manières de se tenir sur ses pattes. Chez l’humain, l’ours et quelques autres espèces, c’est le «talon» et la plante du pied (ou l’équivalent sur les pattes avant) qui soutiennent le poids. On les appelle plantigrades parce qu’ils se déplacent avec les métatarses (les os qui forment la plante du pied humain) à plat.

Cependant d’autres espèces, comme le chien et le chat, sont dites digitigrades parce qu’elles marchent sur leurs doigts/orteils, littéralement. Les os qui forment le «pied» d’un chat, par exemple, sont les phalanges, soit l’équivalent des orteils/doigts chez l’humain, ainsi que le bout des métatarses. Et d’autres espèces encore, comme les chevaux et les cerfs, se déplacent non pas sur les phalanges, mais sur la pointe des phalanges, souvent montées d’un sabot. On les appelle ongulés parce que les sabots sont l’équivalent des ongles/griffes chez ces espèces — et sont d’ailleurs faits des mêmes substances.

Maintenant, imaginons un instant ce qui passe quand, comme eux, nous marchons nous-mêmes sur la pointe des pieds. L’articulation qui touche au sol est alors celle entre les phalanges (orteils) et les métatarses (plante du pied). Et en remontant plus haut, la première articulation que l’on rencontre n’est plus le genou, mais bien la cheville — et elle plie justement à l’inverse du genou.

C’est ça que l’on voit chez le cheval, le chat, et tant d’autres animaux. Les segments que nous interprétons chez eux comme des tibias sont en fait des métatarses, comme le montre la figure ci-contre (le squelette est celui d’un loup). Et l’articulation entre les métatarses et le tibia n’est pas le genou, mais bien la cheville. Leur vrai genou, lui, est plus haut, mais chez beaucoup de ces espèces il est plus ou moins «caché» par les muscles de la cuisse/fesse.

Maintenant, quels sont les avantages et les inconvénients de ces différentes postures ? Pourquoi certaines espèces ont évolué dans un sens plutôt que dans un autre ? La posture plantigrade est celle qui offre la plus grande surface de contact avec le sol, et donc le plus de stabilité et de puissance, mais cela vient avec un coût : plus de frottement avec le sol (pas idéal pour courir de longues distances) et, à cause d’un jeu de leviers entre les os, une course moins rapide.

Selon l’habitat et la place d’une espèce dans un écosystème, il peut être avantageux de sacrifier la vitesse de pointe et/ou l’endurance pour avoir plus d’équilibre et de puissance. L’écureuil, par exemple, est un plantigrade, ce qui lui donne la stabilité requise pour ne pas tomber des arbres et la puissance qu’il faut pour sauter d’une branche à l’autre, lit-on dans l’Atlas d’anatomie comparée en ligne du chercheur Terry L. Derting. Dans le cas de l’humain, c’est moins clair, d’après une étude parue l’an dernier dans Open Biology. La plupart des primates se déplacent sans que leur talon touche au sol, les seuls vrais plantigrades de cette famille étant les grands singes (nous, les chimpanzés, les gorilles et les orang-outangs). L’article en question note que lesdits grands singes sont aussi les seuls primates à s’asséner des coups de poing lorsqu’ils se battent, les autres se contentant de se mordre. Ses auteurs font donc l’hypothèse que la plus grande stabilité de la position plantigrade permettrait aux grands singes de se taper dessus de la manière la plus efficace possible, pour ainsi dire. Ce serait cohérent avec le fait que les grands singes sont plus agressifs entre eux (les mâles, du moins) que les autres primates, mais c’est un sujet assez controversé.

Quoi qu’il en soit, à l’autre extrémité du spectre, on retrouve les onguligrades, auxquels la posture confère moins d’équilibre et de puissance que celle des plantigrades, mais qui sont (en règle générale) bien équipés pour la vitesse et/ou l’endurance. Et entre les deux se trouvent les digitigrades, qui sont (toujours en règle générale) des espèces ayant besoin d’un compromis de vitesse, d’équilibre et de puissance.

Ce n’est pas un hasard, note M. Derling, si les onguligrades sont presque tous herbivores (avec de rares exceptions omnivores comme le porc) et si beaucoup de digitigrades sont des prédateurs. Cela correspond aux besoins de chacun!

Sciences

Nombres dénombrables (et autres morceaux de poésie)

SCIENCE AU QUOTIDIEN / «C’est une question improbable, mais elle me laisse perplexe… Supposons que nous ayons une route d'une longueur infinie dont les voies sont séparées par des lignes jaunes discontinues. Imaginons aussi que leur espacement n’est pas égal : pour l’une des deux routes, il y aurait 1 trait à tous les 2 mètres alors que pour l’autre, ce serait 1 trait à chaque mètre. Laquelle des deux routes contiendrait le plus de traits, sachant qu'elles ont toutes les deux une longueur infinie ?», demande Benoît Rouleau, de Québec.

Confronté à un problème comme celui-là, à peu près tout le monde est d’emblée tenté de penser que l’une des deux routes compte deux fois plus de traits que l’autre. Et c’est tout à fait compréhensible. Après tout, sur chaque tranche de 1000 mètres, se dit-on, l’une compte 500 traits (1 à tous les 2 m) alors que l’autre en a 1000 (1 par mètre), et comme c’est vrai pour toutes les tranches de 1000 mètres jusqu’à l’infini, il s’ensuit forcément que la seconde a deux fois plus de traits que la première, non ?

Eh bien non, dit le mathématicien de l’Université Laval Jean-Marie de Koninck : en fait, les deux routes ont autant de traits.

«Ces deux routes-là sont des ensembles infinis qu’on appelle «dénombrables». Dénombrable, ça veut tout simplement dire qu’on a une méthode pour énumérer tous les éléments. Par exemple, si tu vas dans une soirée et que tu dis «Nous étions 12 hier soir», mais que quelqu’un te demande comment tu le sais, tu peux énumérer tous les invités : moi, Claude, Paul, etc. Alors tu fais ce qu’on appelle une bijection entre les personnes présentes et les nombres de 1 à n.» Essentiellement, cela signifie que l’on attribue le nombre 1 à un invité, puis le nombre 2 au second invité, et ainsi de suite jusqu’à 12.

Il en va de même avec les lignes jaunes des routes infinies, et les ensembles infinis dénombrables comme ceux-là ne sont pas plus grands l’un que l’autre, dit M. de Koninck. Évidemment, si l’on ne tient compte que d’un bout de route de 1000 mètres, alors ce n’est plus vrai. Mais pour des routes infinies, oui.

Une bonne façon de se représenter le problème est ce que les mathématiciens appellent le paradoxe de l’hôtel de Hilbert, du nom de son inventeur, David Hilbert, l’un des plus grands mathématiciens du XXe siècle. Il consiste à imaginer un grand hôtel avec un nombre infini de chambres, mais qui seraient toutes occupées. Si un nouveau client se présente, pourra-t-on trouver à le loger ? Notre expérience quotidienne des choses nous porte à croire que non puisque les chambres sont déjà toutes prises, mais c’est simplement parce que le cerveau humain n’est pas souvent (presque jamais, en fait) confronté à la notion d’infini.

Supposons en effet que l’on déplace le client de la chambre 1 dans la chambre 2, que l’on «décale» simultanément celui de la chambre 2 vers la 3, et ainsi de suite jusqu’à l’infini. Au bout de l’opération, la chambre 1 est libre et le nouveau client peut la prendre même si toutes les chambres étaient prises au départ. Comme le montre cet exemple, la notion d’infini peut mener à ce qui nous apparaît intuitivement  être des aberrations, mais c’est comme ça.

Il existe toutes sortes de déclinaisons de ce «paradoxe», mais il y en a une qui peut bien illustrer l’égalité du nombre de lignes entre nos deux routes. Le problème que pose M. Rouleau revient essentiellement à se demander s’il y a autant de nombres impairs (1, 3, 5, 7...) que d’entiers naturels (1, 2, 3, 4, 5, 6...), dit M. de Koninck. D’instinct, on se dit qu’il doit forcément y avoir deux fois plus d’entiers naturels que de nombres impairs, mais ce n’est pas le cas.

Retournons dans l’hôtel de Hilbert. Il y a un nombre infini de chambres, qui sont toutes occupées. Mais imaginons que cette fois-ci, nous n’avons pas affaire à un nouveau client qui arrive seul, mais un nombre infini de nouveaux clients qu’il faut accommoder. Est-ce possible?

Oui. Supposons que l’on déplace chaque client vers une chambre dont le numéro est le double de sa chambre actuelle. De cette manière, le locataire de la chambre 1 ira à la chambre 2, celui de la chambre 2 ira dans la chambre 4, celui de la chambre 3 finira dans la chambre 6, et ainsi de suite. Le résultat final est que toutes les chambres de nombre impair seront libres, et comme il y a une infinité de nombres impairs, alors l’opération nous donne assez de chambres pour accueillir le nombre infini de nouveaux clients.

C’est très contre-intuitif, mais ça marche : nous avions au départ de nouveaux invités que l’on pouvait numéroter de 1 jusqu’à l’infini, ce qui comprend tous les entiers naturels. Et même si seulement 1 entier sur 2 est impair, nous les avons tous logés en libérant uniquement les chambres impaires, parce qu’il y a une infinité de nombres impairs.

C’est par des raisonnements comme celui-là que les mathématiciens peuvent dire qu’il y a autant de nombres impairs que de nombres entiers. Et c’est pour cette raison que les deux routes imaginées par M. Rouleau ont un nombre égal de lignes jaunes.

* * * * *

«Je me suis toujours fié au Soleil pour m’orienter lorsque je suis dans des lieux inconnus et sans autre point de repère : est au levé, sud à midi et ouest au coucher. Or il semble que cette règle ne vaille pas partout — pas chez moi, en tout cas. J’ai réalisé récemment en utilisant un boussole que le Soleil se lève à ce temps-ci de l'année [en juillet] au NNE et qu’il n’arrive à l'est que bien plus tard en avant-midi. Comment se fait-il?» demande René Magnan, de Gatineau.

Ce qui «crée» le mouvement apparent du Soleil dans le ciel, c’est la rotation de la Terre sur elle-même. Cette rotation est réglée comme une horloge, prenant invariablement 24 heures à se compléter, ce qui implique que le Soleil se déplace toujours à la même vitesse dans le ciel. Alors s’il se levait et se couchait toujours aux mêmes points, il se trouverait à parcourir toujours le même trajet à la même vitesse, et la durée du jour serait invariable : 12 heures d’ensoleillement par jour, hiver comme été.

Or ce n’est pas vrai, évidemment : les jours sont bien plus longs en été. Alors comment est-ce possible ?

C’est simplement parce que l’inclinaison de la Terre par rapport au Soleil change selon la saison. En été, le pôle Nord est pour ainsi dire «penché» vers le Soleil, si bien que celui-ci ne se lève pas exactement à l’est ni ne se couche exactement à l’ouest, mais plus au nord. Comme il passe toujours par le sud vers midi, cela allonge sa trajectoire apparente dans le ciel — d’où les journées plus longues. Et en hiver, c’est l’inverse.

Sciences

L'océan qui est mort au pied des Appalaches

SCIENCE AU QUOTIDIEN / «Lors d’un récent séjour à Berthier-sur-mer, quelle ne fut pas ma surprise d’observer des dépôts calcaires sur le sol, comme s’ils étaient orientés verticalement et non horizontalement. Généralement, je m’attendrais à voir de telles stratifications une par-dessus l’autre en regardant une paroi, comme j’en voyais dans mon enfance — j’ai grandi à proximité du fleuve aux Grondines. Comment les dépôts ont-ils pu s’accumuler de cette manière? Ont-ils été retournés par un cataclysme?» demande Daniel Guilbault, de Saint-Augustin-de-Desmaures.

Cela peut effectivement paraître étonnant puisque les roches que l’on voit à Berthier-sur-Mer — comme dans toutes les Appalaches — sont des roches dites sédimentaires: elles se sont formées par l’accumulation de débris divers (sable, coquilles, cadavres, algues mortes, etc.) au fond de l’océan, et ces sédiments ont par la suite été transformés en roche par la pression continue de l’eau. Alors forcément, les couches que l’on voit sur la photo ci-bas que m’a envoyée M. Guilbault se sont à l’origine empilées les unes sur les autres, pas une à côté de l’autre. Que s’est-il donc passé depuis?

Les roches des environs de Berthier-sur-Mer font partie d’une formation géologique nommée groupe de Saint-Roch, indique le chercheur en géologie de l’Université Laval Georges Beaudoin. Il s’agit de roches qui se sont formées il y a environ 500 millions d’années. À l’époque, note M. Beaudoin, les Appalaches n’existaient pas encore, et c’est justement ce qui s’est passé par la suite qui explique pourquoi les couches sont superposées autour de Grondines et juxtaposées à Berthier.

Comme on l’a déjà vu dans cette rubrique, les continents sont faits de plaques tectoniques, que l’on peut se représenter comme des espèces d’immenses «radeau» de pierre qui flottent sur la roche en fusion située sous la croûte terrestre, à plusieurs dizaines de kilomètres de profondeur. Comme il y a des mouvements dans cette roche en fusion, cela fait dériver les plaques tectoniques. Très lentement, soit, mais sur des centaines de millions d’années, les changements sont spectaculaires.

Ainsi, les roches de Berthier se sont formées au fond d’un océan ancien, Iapetus, qui était bordé (entre autres) par deux anciens continents nommés Laurentia et Baltica. Le premier, comme son nom l’indique, est grosso modo la plaque du Bouclier canadien avec les Laurentides actuelles, et le second forme maintenant le nord-ouest de l’Europe. Et quand on vous dit que la tectonique des plaques peut être spectaculaire, voyez plutôt: il y a un peu plus de 500 millions d’années, ces continents étaient situés sous les tropiques (!) de l’hémisphère sud (!!), c’est vous dire comme ils ont dérivés…

Sur une période d’environ 150 millions d’années, lit-on sur le site du Parc national de Miguasha, les continents qui entouraient Iapetus se sont rapprochés jusqu’à refermer complètement l’océan. Dans le processus, Laurentia et Baltica sont entrés en «collision», et les fonds marins qui gisaient entre les deux s’en sont trouvés (très) déformés, jusqu’à en relever hors de l’eau. C’est de cette manière que les Appalaches sont «nées», ou du moins ont «commencé à naître», puisque cette chaîne de montagnes s’est formée en plus d’une étape — mais c’est une autre histoire.

L’essentiel à retenir, ici, est qu’au cours de ce processus, certaines couches sédimentaires qui s’étaient jusque là tenue bien sagement à l’horizontale ont été soulevées jusqu’à en devenir verticale. C’est ce qu’a observé M. Guilbault à Berthier-sur-Mer.

En ce qui concerne la couleur des couches sur la photo (ci-bas), M. Beaudoin indique que «dans les strates rouges, on a simplement des couches qui se sont formées dans de l’eau plus oxydées ou qui se sont oxydées par la suite, et les couches plus grises semblent être des calcaires [moins riches en fer] ou des grès [ndlr: une roche faite de sable comprimé]».

Maintenant, cela peut sembler étonnant, mais ces redressements de roches sédimentaires ne sont pas particulièrement rares, du moins pas aussi exceptionnels qu’on serait tenté le penser a priori. Il suffit simplement pour s’en convaincre de prendre l’exemple du Rocher Percé: si l’on regarde attentivement la photo ci-haut, on se rend vite compte que le plus célèbre caillou du Québec est fait d’une série de strates orientées à la verticale. Ces couches se sont elles aussi formées à l’horizontale dans le fond d’un océan avant que la tectonique des plaques ne les soulève et ne les ré-incline à la verticale. Attention, avertit M. Beaudoin, ça ne s’est pas passé en même temps que la roche autour de Berthier-sur-Mer: la pierre du Rocher Percé est plus récente par plusieurs dizaines de millions d’années et s’est soulevée plus tard (ce fut une autre «étape» de la naissance des Appalaches). Mais le principe est le même et cela montre qu’il est relativement commun de voir des roches sédimentaires dont les couches sont orientées à la verticale.

Enfin, explique M. Beaudoin, les strates de la roche autour de Grondines sont à l’horizontale parce qu’elles font partie d’un autre ensemble géologique, les basses terres du Saint-Laurent. Ce sont elles aussi des roches sédimentaires, mais elles n’ont presque pas subi de déformations. «Le front de déformation [en ce qui concerne la formation des Appalaches], c’est ce qu’on appelle la faille de Logan», dit-il. C’est cette fameuse faille qui remonte le Golfe Saint-Laurent et bifurque vers le sud en amont de Québec.

Les roches sédimentaires au sud de cette faille ont été soulevées et peuvent être à la verticale dans certains secteurs (mais c’est loin d’être le cas partout); celles des basses terres, comme à Grondines, se trouvent au nord de la faille Logan n’ont pas subi de «cataclysme» et reposent toujours à l’horizontale.

Science

Cet étrange délai à la télévision...

SCIENCE AU QUOTIDIEN / «J’aimerais que l’on m’explique comment il se fait qu’il y a souvent un délai, parfois important, dans les échanges au téléjournal lorsque le chef d’antenne parle à un journaliste qui n’est pas en studio. Si on peut parler et se comprendre instantanément au téléphone, il doit bien y avoir moyen d’éliminer cet agaçant délai, non ?» demande Yvan Dion, de La Malbaie.

Il est effectivement bien étonnant qu’en cette ère de connexion ultra-haute-vitesse, une technologie datant du même millénaire que le Moyen Âge transmette la voix plus rapidement (enfin, parfois) que le Web. Mais c’est pourtant bien ce qui se passe, du moins à l’occasion.

«En gros, c’est ce qu’on appelle la latence dans les réseaux, et elle peut venir de quatre sources différentes», explique Florent Parent, professionnel de recherche en informatique à l’Université Laval qui s’occupe également du réseau reliant les superordinateurs de Calcul Canada.

Le premier type de délai et sans doute le plus simple à comprendre, dit-il, est la propagation du signal. Même dans un réseau de fibre optique ou un réseau sans fil où les signaux voyagent essentiellement à la vitesse de la lumière, soit près de 300 000 kilomètres par seconde, cela peut faire une différence dans certaines circonstances.

«Par exemple, illustre l’informaticien, dans le réseau qui relie les universités [ndlr : la recherche implique souvent l’envoi d’énormes fichiers de données], si je me branche ici à l’Université Laval et que j’envoie un ping [ndlr : un petit signal qui fait un aller-retour afin de vérifier l’état d’une connection] à Montréal, on parle de 7 millisecondes (ms) de temps de retour. Ce n’est pas assez pour être perceptible dans une conversation puisque en bas de 100 ms, on ne s’en rend pas vraiment compte. Dans le cas des conversations à la télé, il doit y avoir d’autres sources de délai. Et une hypothèse qui me vient en tête, c’est que peut-être que quand les journalistes sont sur le terrain, ils utilisent un réseau sans-fil, et là la communication se fait par satellite. Et ça, ça va allonger le délai de propagation.»

Souvent, en effet, les satellites de télécommunication sont placés sur des orbites géostationnaires, ce qui signifie qu’ils mettent exactement 24 heures à faire le tour de la planète — par conséquent, ils demeurent toujours au-dessus du même point sur Terre, d’où le nom de géostationnaire. Or ces orbites sont situés à une altitude de près de 36 000 km, si bien que même à la vitesse de la lumière, l’aller-retour prend (36 000 km x 2) ÷ 300 000 km/s = 240 millisecondes. Dans le cas d’une conversation au téléjournal qui passerait par ce genre de satellite, c’est un délai suffisamment long pour qu’on s’en rende compte.

Mais il peut aussi y avoir autre chose, poursuit M. Parent : le délai de traitement. «C’est bien beau la vitesse de la lumière, dit-il, mais il faut compter aussi le fait qu’on a des appareil qui reçoivent la voix, qui la convertissent en numérique, (…et) il y a un traitement de ça et une compression qui vont être faites, ça va ensuite être mis dans des sortes de «paquets» sur des commutateurs [un appareil qui est le point de convergence d’un réseau, ndlr], et souvent il va y avoir une redondance qui va être ajoutée au cas où des paquets seraient perdus, C’est ensuite envoyé, et chaque commutateur qui se trouve dans le chemin, entre le point de départ et le point d’arriver, doit traiter ça, et tout ça  prend du temps, alors ça va ajouter un délai de traitement.»

Ces délais sont généralement minimes, mis pas toujours, et ils s’ajoutent aux autres.

Une troisième source de délai est la «mise en file d’attente», indique notre informaticien. «Ça, on ne peut pas vraiment l’estimer d’avance parce que ça dépend de la quantité de trafic sur le réseau. Quand tout va bien, le délai à peu près nul. Mais s’il y a un gros événement où beaucoup le monde veut des données en même temps (…) où s’il y a un sursaut ponctuel (burst, en anglais) d’activités sur le réseau, alors tout ne peut pas être traité instantanément, alors le système fait une file d’attente. Habituellement, c’est traité selon le principe du premier arrivé, premier sorti, mais il peut y avoir des priorités.»

Enfin, le dernier type de délai est celui de la transmission, qui dépend de la qualité de la carte réseau d’un ordinateur, explique M. Parent. Les meilleures disponibles permettent de transmettre autour de 100 gigabits (et même plus) par seconde, mais une carte de mauvaise qualité peut introduire des délais dans la communication.

En plus de la carte, le protocole de transmission peut aussi faire une différence. «Le protocole internet le plus utilisé et que les gens connaissent le plus, c’est le fameux TCP/IP. Ce qu’on sait moins, c’est que dans ce protocole-là, à chaque petit paquet de données qui est envoyé [ndlr : les données sont toujours divisées en «petits paquets» qui sont envoyés séparément], TCP doit avoir un accusé qu’il a été bien reçu pour assurer une fiabilité de transmission. Ça date des années 80, une époque où les réseaux étaient beaucoup plus lents que maintenant, et c’est pour ça que des modifications ont été apportées au TCP/IP pour augmenter la performance, mais ça reste un travail d’ingénierie à chaque bout du réseau pour maximiser la vitesse.»

Bref, c’est la somme de tous ces délais qui fait la «latence» dans les communications. D’un système à l’autre, d’une situation particulière à l’autre, ils peuvent varier énormément, si bien qu’il est impossible de dire exactement qu’est-ce qui s’est passé dans les cas qui ont tant agacé notre lecteur de La Malbaie. Mais quand on les additionne, on comprend pourquoi il arrive, de temps à autre, que la discussion entre les journalistes et les chefs d’antenne se fasse avec un petit délai.

***

ÉCRIVEZ-NOUS Vous vous posez des questions sur le monde qui vous entoure? Qu'elles concernent la physique, la biologie ou toute autre discipline, notre journaliste se fera un plaisir d'y répondre. À nos yeux, il n'existe aucune «question idiote», aucune question «trop petite» pour être intéressante! Alors, écrivez- nous à  jcliche@lesoleil.com

Jean-François Cliche

De bombes et d'icebergs...

SCIENCE AU QUOTIDIEN / «Comme les ouragans prennent vie à partir des côtes africaines et gagnent en puissance en se nourrissant de la chaleur des eaux chaude de l’Atlantique, serait-il possible de les «intercepter» lors de leur formation pour à tout le moins, les affaiblir ? Par exemple, en s’inspirant des Émirats arabes qui songent à remorquer des iceberg pour s’approvisionner en eau douce, est-ce que de remorquer des mastodontes gelés au début de la trajectoire de formation des ouragans pourrait avoir une incidence quelconque ? C’est un peu farfelu j’en conviens, mais ça m’intrigue quand même», demande Simon Côté.

Supposons que l’on soit capable de remorquer un grand iceberg en forme de cube et de 100 mètres d’arête. Ce serait une sacrée commande, même en y mettant plusieurs remorqueurs, puisque notre «glaçon» pèserait environ 910 millions de kg, mais passons. Et supposons aussi que l’on parvienne à amener le colosse intact jusque dans les eaux tropicales à une température de –10°C.

Pour faire fondre toute cette glace, puis en chauffer l’eau jusqu’à 26 °C (on ne veut pas atteindre 26,5, rappelons-le), il faut de l’énergie. Beaucoup d'énergie : ce sont des montagnes de chaleur, littéralement, que notre iceberg drainerait autour de lui.

D’abord, chaque gramme de glace prend 2 joules d’énergie pour gagner 1°C (pour comparaison, une ampoule de 100 watts brûle 100 joules par seconde). Alors pour chauffer nos 910 millions de kg de glace de –10°C jusqu’à 0°C, il faut un total de 18 200 gigajoules (Gj). Ensuite, pour que la glace fonde, il ne suffit pas de l’amener à 0°C, contrairement à ce qu’on pense souvent. Il faut aussi lui fournir un petit surplus d’énergie nommé chaleur latente de fusion, qui sert grosso modo à rompre les liens qui tiennent les molécules d’eau ensemble dans la glace. Facture énergétique : 333 joules par gramme, pour un total de 303 000 Gj. Et enfin, pour chauffer cette eau de 0° jusqu’à 26 °C, il faut compter 4,2 joules par gramme, ou près de 100 000 Gj en tout.

Au final, notre cube de glace de 100 mètres de côté drainerait à peu près 420 000 Gj en fondant, puis en se réchauffant jusqu’à 26 °C. Ce qui serait suffisant pour refroidir de 1°C la température de 100 millions de m3 d’eau.

Maintenant, la question est : est-ce que cela suffirait à faire une différence ? Et la réponse est clairement «non, même pas proche». Les ouragans prennent généralement forme dans les eaux tropicales (de 8 à 20° de latitude) entre l’Afrique et l’Amérique du Sud, quand la température de surface est de plus de 26,5 °C. Il faut aussi que d’autres conditions soient réunies, notamment des caractéristiques de vent et d’humidité en altitude, mais concentrons-nous sur la température de l’eau.

Cette semaine, d’après les cartes de température [https://bit.ly/2QdSSzx] que l’on trouve sur le site de la National Oceanic and Atmospheric Administration (NOAA), les eaux de surface de l’Atlantique dépassaient le seuil de 26,5 °C entre approximativement 8 et 13° de latitude et entre 60° et 30° de longitude ouest. Cela nous fait donc, de manière conservatrice, une superficie de près de 1,5 million de km2. En partant du principe que la «surface» inclut le premier mètre, on parle ici de 1500 milliards de mètres cubes d’eau à refroidir.

C’est donc dire qu’il faudrait 15 000 icebergs comme celui de notre exemple pour abaisser la température de toute cette eau de seulement 1°C. Et c’est sans compter le grand pan d’océan autour des Caraïbes, où les ouragans peuvent prendre beaucoup de force. Et cela fait abstraction du fait que les eaux de surface dépassent assez souvent les 26,5 °C par plusieurs degrés.

Bref, même en prenant un scénario très optimiste où notre iceberg ne fondrait pas avant d’arriver dans les Tropiques, il ne serait pas grand-chose de plus qu’une goutte d’eau dans l’océan…

* * * * *

«Je me demande pourquoi on n’est pas capable de briser un ouragan lors de sa formation, avant qu’elle ne devienne très forte. Y a t-il des sortes de bombe que l’on pourrait faire sauter dans l'œil dès sa formation pour la briser», demande Claude Duchesne, de Stoneham.

L’idée n’est pas neuve, loin de là. Elle a même fait l’objet de quelques travaux d’un chercheur américain dans les années 50, qui estimait qu’une petite bombe nucléaire bien placée pouvait faire le travail. Il a étudié l’effet atmosphérique de certains essais nucléaires de l’époque et fait quelques calculs, mais l’idée n’a jamais eu de suite vraiment concrète.

Et ce n’est peut-être pas une mauvaise chose, d’ailleurs. Au-delà du fait (assez gênant, merci) que ce «plan» impliquerait de saupoudrer des grandes quantités de radioactivité dans l’atmosphère et dans l’océan, il y a ce petit détail technique que cela a très, très peu de chances de fonctionner, pour deux raisons, lit-on sur le site de la NOAA.

D’abord, comme pour l’iceberg, il y a une question d’échelle : l’énergie relâchée par un ouragan équivaut grosso modo à faire exploser une bombe nucléaire de 10 mégatonnes… à toutes les 20 secondes. Alors on peut difficilement penser qu’en faire sauter 2 ou 3 changerait grand-chose.

Ensuite, ce qui fait la force d’un ouragan, c’est l’intensité de la basse pression dans son «œil» : plus cette pression est basse, plus l’air des alentours sera aspiré fortement, et plus les vents seront puissants. Pour affaiblir un ouragan, il faudrait donc ajouter de l’air en son centre. Encore une fois, on parle de quantités si astronomiques qu’elles interdisent l’espoir d’y arriver un jour : de l’ordre de 500 millions de tonnes d’air qu’il faudrait souffler dans l’œil d’un cyclone de force 5 pour qu’il tombe à une force 2, selon les calculs de la NOAA. Mais de toute manière, ce n’est pas ce que les bombes font. Une explosion ne déplace pas d’air, ou en tout cas pas tellement. Cela envoie surtout une onde de choc qui, une fois passée, laisse les pressions inchangées derrière elle.

Sources :

  • Central Pacific Hurricane Center, Myths About Hurricanes, NOAA, s.d., https://bit.ly/2xy2CdB
  • Mark Strauss, Nuking Hurricanes : The Surprising History of a Really Bad Idea, National Geographic, 2016, https://bit.ly/2MaW9w2

Jean-François Cliche

De la poudre de perlinpimpin en phase liquide

SCIENCE AU QUOTIDIEN / J’ai entendu dire que l’argent colloïdal était employé il y a quelques années, comme antibiotique et pouvait guérir quelques maladies. Mythe ou réalité?» demande Yolande Plamondon, de Pont-Rouge.

De manière générale, on sait que l’argent et certains de ses composés ont des propriétés antiseptiques, et il semble y avoir effectivement eu un usage historique en médecine, avant l’invention des antibiotiques. Par exemple, quand un bébé naissait d’une mère qui avait la gonorrhée, on versait quelques d’une solution d’argent dans les yeux de l’enfant afin d’empêcher la bactérie ne le rende aveugle. Il semble aussi que des jarres d’argent aient pu être utilisées dans certaines cultures anciennes comme moyen de désinfecter l’eau — par ceux qui en avaient les moyens, en tout cas. Mais notons que l’argent a été remplacé, depuis, par des méthodes plus efficaces.

Maintenant, ce sont là des remarques générales, et l’«argent colloïdal» est un cas particulier. Très particulier, en fait. L’adjectif colloïdal réfère au fait que l’argent, qui n’est pas soluble dans l’eau, se trouve en particules si fines qu’elles demeurent en suspension dans l’eau — ou alors que l’argent se présente sous une forme ionique qui est soluble, cela varie d’un fabricant à l’autre. À la limite, on pourrait penser que ces mixtures pourraient servir à désinfecter des blessures, un peu comme le peroxyde d’hydrogène. Mais les quelques études qui ont testé son efficacité n’ont pas donné des résultats très convaincants, et les fabricants d’argent colloïdal ne proposent pas que de l’appliquer sur la peau.

De toute manière, sur les sites de fabricants et de «santé naturelle», on ne parle généralement pas d’application «topiques» (sur la peau). On recommande carrément d’en boire. À tous les jours.

Et c’est ici qu’on quitte la «réalité» pour entrer dans la «mythologie», pour reprendre les termes de Mme Plamondon. Les fabricants prétendent généralement que l’argent colloïdal renforce le système immunitaire. C’est un grand classique dans la santé naturel, d’ailleurs, mais c’est du grand n’importe quoi : aucun aliment ou nutriment n’est connu pour avoir cet effet. Les sites de ventes avancent aussi une longue liste d’autres «bienfaits», assez disparates d’ailleurs : accélérer la guérison des plaies (faux), supplément alimentaire (faux), et ainsi de suite.

Si vous voulez le savoir, ma favorite se trouve sur le site du fabricant québécois Mirax, qui prétend (entre bien d’autres choses) que «l’argent colloïdal aide également à transformer les coups de soleil en un joli bronzage». Le site de Mirax précise aussi que les propriétés de son eau sont «rehaussées […] en la soumettant à de la musique holistique contenant la fréquence de guérison Solfeggio de 432 Hz». Ça ne s’invente pas…

Or toutes ces prétentions reposent sur du vent. Voyez plutôt ce qu’en disent quelques-unes des autorités scientifiques en la matière.

Santé Canada : «À l’heure actuelle, il n’existe pas de données scientifiques prouvant que l’argent colloïdal peut servir au traitement d’une maladie ou d’un trouble chez l’humain.»

Mayo Clinic : «L’argent colloïdal n’est considéré sécuritaire ou efficace pour aucun des bienfaits que les fabricants suggèrent.»

Institut américain de recherche sur les médecines alternatives : «Il n’existe pas d’études de bonne qualité sur les bénéfices qu’il y aurait à prendre de l’argent colloïdal, mais nous avons de bonnes preuves de ses risques.»

En faut-il davantage? C’est simple : l’argent colloïdal, ça ne fonctionne pas. Ça ne guérit aucune maladie, ça n’est pas un nutriment, l’argent ne joue aucun rôle connu dans le corps humain et l’organisme ne fait rien d’autre que l’éliminer. Ça n’est rien de plus qu’un placebo auquel on a fait jouer de la musique (je n’en reviens toujours pas, de celle-là) et qu’on doit, selon le site de Mirax et d’autres fabricants, laisser sous sa langue 30 secondes avant de l’avaler. Allez savoir pourquoi.

Comme l’indiquent les citations ci-haut, non seulement l’argent colloïdal n’apporte aucun bénéfice, mais il vient avec un risque avéré : l’argyrisme. Longtemps une maladie de mineurs et de joailliers, l’argyrisme est une coloration bleutée que la peau prend chez ceux qui sont trop en contact avec l’argent. Et, léger détail, cette coloration est permanente…

Entendons-nous, il faut prendre pas mal d’argent colloïdal, qui vient généralement à des concentrations de 5 à 10 parties par million. Mais on peut se rendre jusque là avec ces produits. L’an dernier, le Bulletin d’information toxicologique de l’Institut de santé publique du Québec a décrit un tel cas : «Une dame de 36 ans, sans antécédent médical, consulte parce que sa peau prend progressivement une teinte bleutée. […] Elle consomme depuis environ 3 à 5 ans une solution d’argent qu’elle s’est procurée dans un magasin de produits de santé naturels. Elle ingère quotidiennement 10 ml de ce produit, ce qui correspondrait aux recommandations indiquées sur le contenant.» Des analyses ont par la suite révélé qu’elle avait, dans le sang, plusieurs dizaines de fois plus d’argent que la normale. Alors l'argyrisme est un risque bien réel.

Enfin, mentionnons que les méthodes de fabrication et les produits finaux varient beaucoup d’une marque à l’autre, a trouvé une étude récente.