Abonnez-vous à nos infolettres. Obtenez en plus et assurez-vous de ne rien manquer directement dans votre boîte courriel.

Science

Le déclin des insectes «sur le radar» (littéralement)

BLOGUE / Les uns diront que c'est «ahurissant». Les autres répondront plutôt «ark non, c'est juste dégueu». Mais le fait demeure : quand ils sortent de l'eau tous en même temps, les petits insectes que l'on appelle «éphémères» forment des nuées si grandes et si denses qu'elles apparaissent sur les radars météo — et des chercheurs viennent justement de s'en servir pour en mesurer l'abondance.

En général, les météorologues se contentent d'ignorer ces éclosions, qui ne font qu'introduire une forme de «bruit» dans leur travail. Mais une équipe de biologistes américains y a, au contraire, vu une splendide opportunité : celle de dénombrer les éphémères, chose qui était considérée plus ou moins impossible à faire puisque ces insectes sont des dizaines de milliards à éclore en même temps. Auparavant, on en estimait l'abondance en prenant des échantillons au fond des rivières et des lacs, et on comptait les larves présentes.

Au-delà du facteur wow/eurk, cette étude-là, qui vient de paraître dans les PNAS, est juste trop intéressante pour que je n'en parle pas ici, surtout pour l'éclairage qu'elle vient jeter sur la question du déclin des insectes. Les éphémères, qui passent deux ans sous forme larvaire au fond de l'eau avant de prendre leur envol par milliards d'un seul coup pour se reproduire (et mourir deux jours plus tard), furent pendant longtemps très nombreuses dans la zone étudiée, soit la partie nord du bassin versant du Mississippi. C'était sans doute considéré comme une nuisance par bien des gens — l'article des PNAS dit qu'il fallait passer le chasse-neige par endroit pour dégager les routes ! —, mais ces nuées remplissaient des rôles écologiques considérables, représentant d'énormes transferts de nutriments entre les écosystèmes aquatiques et terrestres. Beaucoup d'oiseaux insectivores, d'ailleurs, synchronisent leurs migrations sur ces éclosions.

Mais les populations d'éphémères se sont complètement écroulées à partir du milieu du XXe siècles, parce que dans cette région très agricole, les ruissellements contenaient trop de pesticides et trop d'engrais — ce qui mène à l'eutrophisation des lacs et prive d'oxygène le fond de l'eau, où vivent les larves. Jusqu'au point où l'espèce avait été purement et simplement extirpée de la région dans les années 70 : il n'y avait juste plus d'éphémère, zéro, niet, nada. Des efforts de conservation ont été entrepris dans les années 90, et ces insectes ont recolonisé l'endroit avec pas mal de succès.

Or voilà : sur leurs écrans radar, les auteurs des PNAS, menés par Philip Stepanian, de l'Université Notre Dame, ont trouvé que le nombre d'éphémères est en net recul. En 2012, première année pour laquelle ils ont des données, ils en ont dénombré autour de 20 milliards dans la partie nord du bassin du Mississippi. Chaque année par la suite, ce nombre a reculé graduellement pour s'établir à seulement 10 milliards au printemps 2019, soit un recul de 50 % en sept ans.

Cette étude-là me semble particulièrement intéressante pour deux raisons. D'abord à cause de sa méthode. Bien d'autres travaux concluant à un écroulement des populations d'insectes par le passé ont été critiqués (souvent avec raison) à cause de lacunes méthodologiques. Par exemple, dans le cas de la fameuse étude allemande qui avait fait tant jaser en 2017 parce qu'elle suggérait un recul de 75 % de la biomasse des insectes sur 30 ans, d'aucuns avaient souligné que la plupart de ses sites d'échantillonnage (59 %) n'avaient été visités qu'une seule foi, ce qui n'était pas idéal. Mais l'article qui vient de paraître dans les PNAS utilise une méthode on ne peut plus objective, toujours aux mêmes endroits et qui reste toujours très exactement la même d'année en année. On verra quels genres de commentaires ces travaux suscitent chez les entomologistes mais, a priori, ces données-là semblent être du béton armé, même si la période étudiée est assez courte. (Notons que ça ne change rien au fait que dans l'ensemble, les données sont trop partielles pour que l'on soit sûr qu'il y a bel et bien un déclin global des insectes, comme l'ont souligné de nombreux scientifiques, mais il reste que celles qu'on a sont inquiétantes, et celles-ci viennent s'y ajouter.)

L'autre raison qui me fait trouver ces travaux éclairants, ce sont les raisons soupçonnées d'être derrière les difficultés des éphémères. Dans ce secteur du Mid-West, l'impact de l'agriculture sur les cours d'eau est bien évidemment incontournable. Les néonicotinoïdes en particulier sont un «suspect» naturel puisque leurs concentrations dans beaucoup de cours d'eau y est chroniquement au-dessus des normes environnementales — c'est d'ailleurs aussi le cas dans plusieurs rivières qui drainent des régions agricoles du Québec. Et il s'avère que les larves d'éphémères sont très sensibles à cette classe d'insecticide. Alors ça (et d'autres pratiques agricoles) a pu nuire, c'est sûr, peut-être même beaucoup.

Or un autre facteur possible énuméré par M. Stepanian et ses collègues est le réchauffement climatique. À mesure que l'atmosphère se réchauffe, la surface des lacs se réchauffe elle aussi, plus vite que le fond, ce qui va stratifier la colonne d'eau et nuire à son mélange puisque l'eau du fond, plus froide et plus dense, aura plus tendance à rester au fond. En bout de ligne, il y aura donc moins d'oxygène qui va se rendre jusqu'à la faune benthique (au fond de l'eau), dont font partie les larves d'éphémères. Et si celles-ci manquent d'oxygène et meurent, les éclosions d'éphémères adultes seront forcément moins massives.

Je crois qu'il est important de faire ressortir cet aspect parce que quand on parle du déclin des insectes dans les médias, notre premier réflexe est d'accuser les pesticides. Ce n'est pas, je le répète, un mauvais réflexe puisqu'il est certain qu'ils contribuent aux misères des «bibittes». Mais c'est aussi une explication qui est impuissante devant de larges pans de ce déclin. La fameuse étude allemande dont je viens de parler, par exemple, n'a pas été réalisé en campagne, mais bien dans des parcs nationaux. De même, cette «étude hyper-alarmante» a trouvé un déclin de 45 % des insectes dans... la forêt tropicale de Porto Rico, loin de tout pesticide.

Alors il y a autre chose. On me pardonnera, à cet égard, de faire un lien peut-être un peu spéculatif à ce stade-ci. Prenez ça comme une hypothèse (de profane) que je vous soumets comme simple base de discussion, sans plus.

Mais je ne peux m'empêcher de faire un lien avec les travaux d'une équipe en bonne partie québécoise qui a trouvé, l'an dernier, que les lacs de la planète suivent une tendance générale vers une stratification accrue. Non seulement les changements climatiques chauffent-ils directement la surface des lacs, mais il s'accompagnent aussi d'un brunissement des eaux douces (à cause d'une productivité biologique plus grande et de pluies plus abondantes qui charrient des sédiments) qui les rend plus opaques, gardant ainsi la chaleur du Soleil plus proche de la surface. Avec, encore une fois, pour résultat final un appauvrissement du fond en oxygène.

Maintenant, les éphémères ne sont pas les seuls insectes dont les larves se développent dans les lacs : il y en a beaucoup d'autres. Ces histoires de stratification thermique pourraient donc fournir UN mécanisme (pas le seul, mais un intéressant) par lequel le climat pourrait expliquer en partie l'effondrement allégué des populations d'insectes. Il y a aussi, disons-le, beaucoup d'espèces dont le développement ne passe pas par le fond des lacs, mais celles-là peuvent être affectées différemment, notaient les auteurs de l'étude portoricaine.

C'est-là, je le répète, rien de plus qu'une hypothèse de journaliste pour démarrer une conversation. Mais il y a peut-être, dans les conclusions de l'étude parue hier dans les PNAS, quelque chose de généralisable — reste à voir à quel point. Qu'en dites-vous ?

Science

L'eau pétillante est-elle bonne pour la santé ?

LA SCIENCE DANS SES MOTS / Pour plusieurs, le début d’une nouvelle année est le moment de prendre de nouvelles résolutions en matière de santé, qu’il s’agisse de manger plus de légumes, de consommer moins de sucre ou de boire plus d’eau.

Il est essentiel de s’hydrater pour s’assurer du bon fonctionnement du corps, telles que la régulation de la température, le transport des nutriments et l’élimination des déchets. L’eau agit même comme lubrifiant et amortisseur de chocs pour les articulations.

Mais même si la plupart des gens savent qu’ils devraient boire plus d’eau, cela peut être un peu ennuyeux. Alors, que dire de l’eau gazeuse comme option pour égayer un peu les choses ? Après tout, l’eau gazeuse est aussi bonne que l’eau normale, n’est-ce pas ?

Pas tout à fait.

Fluides gazeux

L’eau pétillante est obtenue en infusant de l’eau avec du dioxyde de carbone. Cela produit de l’acide carbonique avec un pH faiblement acide (soit entre trois et quatre). Cette sensation agréable dans la bouche que vous ressentez après avoir bu une boisson gazeuse est en fait l’activation chimique des récepteurs de la douleur sur votre langue. Elle réagit à cet acide, lui conférant un goût plus prononcé.

Et voici une partie du problème, car l’acide contenu dans les boissons peut nuire à nos dents.

La couche extérieure de nos dents, l’émail, est la substance la plus dure et la plus minéralisée de l’organisme. Il est composé d’un minéral appelé hydroxyapatite qui contient du calcium et du phosphate, tout comme la salive, principalement composée d’eau.

Il y a généralement un équilibre entre les minéraux des dents et ceux de la salive. La bouche et la salive ont normalement (un pH de six à sept), mais lorsque ce pH tombe en dessous de cinq et demi, les molécules de calcium et de phosphate s’échappent des dents et se mélangent à la salive. Cela peut se produire en raison de l’acide carbonique présent dans les boissons gazeuses.

Mauvais pour les dents ?

Cette déminéralisation crée de minuscules pores dans le minéral de la dent. L’émail commence à se dissoudre. Au début, les pores sont microscopiques et peuvent encore être bouchés en y remettant du calcium ou du phosphate, ou en remplaçant le calcium par du fluorure - c’est ainsi que le fluorure dans le dentifrice agit pour protéger les dents. Mais une fois que la quantité de minéraux perdus atteint un certain niveau, les pores ne peuvent plus être bouchés et le tissu dentaire est perdu pour de bon.

Si les dents sont fréquemment baignées dans l’acide des boissons gazeuses, plus de minéraux peuvent être dissous que réintégrés. Il y a donc plus de risque d’usure ou d’érosion des dents.

Ainsi, bien que l’eau gazeuse ordinaire soit meilleure pour les dents que les sodas aromatisés (diététiques ou ordinaires) qui ont un pH plus faible, l’eau plate est la meilleure - elle a un pH d’environ sept. Soit dit en passant, le club soda n’est pas seulement gazeux, mais il contient aussi des « minéraux » ajoutés pour la saveur. Ceux-ci peuvent inclure du sodium, donc si vous surveillez votre consommation de sel, vous devez également en tenir compte.

Eau pure

Il convient également de souligner que l’eau gazeuse n’est pas un coupe-faim. Malgré ce que vous pouvez lire en ligne, il n’y a pas de preuves scientifiques solides qui suggèrent que boire de l’eau gazeuse vous fera vous sentir plus rassasié ou réduira votre appétit. Oui, le fait de boire de l’eau gazeuse remplira votre estomac (ce qui vous fera probablement roter aussi !), mais elle ne restera pas dans votre estomac plus longtemps que l’eau plate.

Science

Le secret de Gwyneth Paltrow : faire parler d’elle

Les nombreuses critiques dont a été l’objet l’actrice Gwyneth Paltrow pour ses produits pseudoscientifiques, n’ont pas empêché sa compagnie de grossir. En fait, ces critiques ont peut-être même aidé sa compagnie à grossir.

Le «cycle» peut sembler familier, écrit le magazine de vulgarisation scientifique Undark : une célébrité fait une déclaration; des experts, interviewés par les médias, apportent des preuves comme quoi c’est une fausseté; plutôt que de s’en excuser, la célébrité rejette ces critiques —et reçoit dans le processus une quantité de publicité gratuite.

Gwyneth Paltrow elle-même, dans un portrait que lui consacrait le New York Times Magazine en 2018, disait que de tels «feux d’artifices culturels» lui permettaient de «monnayer des clics» («I can monetize those eyeballs»).
Les critiques viennent de reprendre de plus belle, avec l’annonce d’un partenariat avec Netflix : l’émission mettra en vedette l’actrice et ses «collègues» de sa compagnie Goop, explorant une série de «pratiques alternatives de guérison», incluant la «guérison par l’énergie», l’exorcisme et les médiums.  

Plusieurs médecins et scientifiques ont fait part de leur frustration devant cette décision de Netflix de donner au petit empire qu’est devenu Goop, une plateforme supplémentaire. Au Québec, le pharmacien Olivier Bernard, alias le Pharmachien, a rappelé que de «diffuser ce genre de pseudoscience peut être dangereux».

Mais rien de tout cela n’a rebuté Paltrow, pas même le fait d’avoir dû payer une amende de 145 000$ en 2017 pour publicité trompeuse sur un œuf de jade à insérer dans le vagin. Elle continue de construire son argumentaire sur le fait que «les femmes se sentent ignorées lorsqu’elles parlent de ce qu’elles ressentent à leurs médecins», et qu’elles veulent en conséquence «explorer» des pratiques de santé alternative «et avoir une autonomie sur leur santé».

Son succès s’inscrit par ailleurs dans un contexte plus large où, pour une grande partie de la population, les conseils d’une célébrité sur la santé ont plus de poids que les études scientifiques. Même des influenceurs sur Instagram s’en rendent compte et se bâtissent une clientèle à partir de conseils douteux sur des aliments «miraculeux».

Détail important, autant ces influenceurs que Goop visent une clientèle qui est relativement aisée: capable de se payer du jus exotique là où un verre d’eau aurait fait l’affaire, un gilet «en soie italienne» de 650$, une bouteille de 30 suppléments de vitamine B à 90$ ou de l’eau «infusée de cristal d’améthyste» à 84$.

Critiquer Goop serait-il inutile ? Ce n’est sûrement pas l’avis du professeur en droit de la santé Timothy Caulfield, de l’Université de l’Alberta, lui qui a publié en 2015 un livre intitulé Is Gwyneth Paltrow Wrong About Everything ? Interrogé par Undark, il explique qu’à court terme, «ça peut faciliter la foutaise —vous la répandez— mais je pense qu’à long terme, il est important de s’assurer que ce qui est scientifiquement exact soit là», enregistré quelque part sur Internet. Il note aussi que si les premières réactions à ses critiques, il y a quelques années, étaient que les «conseils santé» de Paltrow, bien qu’étranges, étaient sans risque, «plus personne ne dit cela. Il y a cette prise de conscience comme quoi la diffusion de la désinformation est quelque chose de grave.»

Science

Climat : de nouveaux modèles mettent à mal les objectifs de Paris

PARIS — De nouveaux modèles scientifiques pointent un effet renforcé du dioxyde de carbone sur le climat, hypothéquant la possibilité d'atteindre les objectifs de l'Accord de Paris pour limiter le réchauffement, selon des scientifiques interrogés par l'AFP.

Ces modèles, élaborés par des équipes distinctes dans une demi-douzaine de pays, alimenteront les nouvelles projections des experts du Giec attendues l'an prochain. Ils suggèrent que les effets du gaz carbonique, ou CO2, ont été sous-évalués. D'après ces travaux menés par des institutions publiques américaines, britanniques, françaises ou canadiennes, des émissions de CO2 jusqu'ici associées à un réchauffement de trois degrés pourraient en fait faire monter la température de quatre, voire cinq degrés.

«Nous avons aujourd'hui de meilleurs modèles, qui représentent plus précisément les tendances climatiques», souligne Olivier Boucher, directeur de l'institut français Pierre Simon Laplace qui, comme tous les chercheurs, bénéficie de l'augmentation des données disponibles et de la puissance de calcul depuis les dernières projections du GIEC en 2013. Ces conclusions montrent qu'il «sera évidemment plus difficile d'atteindre les objectifs de Paris, que ce soit 1,5 ou 2 degrés» de réchauffement, fixés en 2015, souligne Mark Zelinka, du Lawrence Livermore National Laboratory de Californie, et auteur principal de la première évaluation de cette nouvelle génération de modèles climatiques, récemment publiée dans la revue Geophysical Research Letters.

Depuis plus d'un siècle, les scientifiques s'attaquent à une question d'apparence simple: si la quantité de CO2 dans l'atmosphère double, de combien se réchauffera la surface terrestre ? Mais définir exactement cette «sensibilité climatique» est difficile, en raison notamment de multiples variables, comme l'influence des océans et forêts et leur rôle de «puits à carbone», captant pour l'heure plus de la moitié des émission humaines.

L'inconnue des nuages

Autre grande inconnue jusqu'à présent : les nuages. «L'évolution des nuages dans un climat plus chaud et savoir s'ils auront un effet atténuateur ou amplifiant a longtemps constitué une source d'incertitude majeure», explique Joeri Rogelj, de l'Imperial College de Londres, chef de file du GIEC sur le «budget carbone», soit la quantité totale de gaz à effet de serre qui peut être émise sans dépasser une certaine élévation de la température.

Ces modèles pointent aux moins deux façons dont les nuages renforcerait l'impact du CO2. Tout d'abord, selon de nouvelles études, les nuages d'altitude dans la couche basse de l'atmosphère terrestre renforcent les radiations solaires, une dynamique elle-même accentuée par le réchauffement, explique M. Zelinka. «Une autre grande incertitude était comment les nuages de basse altitude allaient changer, comme les stratocumulus, c'était le Saint Graal des modèles climatologiques,» poursuit le chercheur.

Or, les dernières recherches indiquent que le réchauffement fait baisser cette couverture nuageuse, qui réfléchit en conséquence moins les rayons solaires, diminuant d'autant son rôle réfléchissant. Pendant la plupart des 10 000 dernières années, la concentration de CO2 dans l'atmosphère a été d'à peu près 280 parties par million (ppm). Mais sur cette période la population mondiale est passée de quelques millions à 7,6 milliards et les émissions de CO2 ont connu une croissance exponentielle depuis le XIXe siècle et une révolution industrielle carburant aux énergies fossiles, pétrole, gaz et surtout charbon. Résultat, la concentration de CO2 est aujourd'hui de 412 ppm, soit une augmentation de 45%, dont la moitié dans les 30 dernières années.

Avec un seul degré de réchauffement global mesuré actuellement par rapport à l'ère pré-industrielle, le monde fait face à une recrudescence de phénomènes extrêmes, canicules, sécheresses, inondation ou cyclones.

Modèles dernier cri

Prix Nobel de chimie en 1903, le savant suédois Svante Arrhenius avait estimé qu'un doublement des concentrations de CO2 aurait pour conséquence un réchauffement de cinq ou six degrés, avant de ramener sa prévision à quatre. Et depuis les années 1970, le consensus scientifique évaluait la sensibilité climatique à trois degrés (avec un écart possible de 1,5), pour environ 560 ppm de CO2.

Le GIEC a élaboré quatre scénarios, dont le plus ambitieux respecte l'objectif de l'Accord de Paris de contenir le réchauffement «nettement en dessous de deux degrés» mais nécessite de réduire immédiatement les émissions de CO2 d'environ 10% par an. Le plus pessimiste verrait des parties de la Terre totalement inhabitables à la fin du siècle. La plupart des experts considèrent déjà le premier comme hors d'atteinte, et le dernier peu probable, sauf si la planète se mettait elle-même à rejeter massivement le carbone déjà captif, par exemple en cas de fonte des terres habituellement gelées du permafrost.

Restent les deux scénarios médians, baptisés RCP4.5 et RCP6.0. Le premier aboutit à une concentration de 538 ppm de CO2, le second à 670 ppm. «Il y a un vif débat dans la communauté de la modélisation climatique, explique Johan Rockstrom, directeur du Potsdam Institute for Climate Impact Research (PIK). Vous avez 12 ou 13 modèles montrant une sensibilité climatique qui n'est plus à 3 mais à 5 ou 6 degrés pour un doublement du CO2. Ce ne sont pas des exceptions, ce qui est particulièrement inquiétant.»

Ainsi, des modélisations française, du département américain de l'énergie, de la météorologie britannique et du Canada prédisent une sensibilité climatique de 4,9, 5,3, 5,5 et 5,6 degrés respectivement, énumère Mark Zelinka. Sur les 27 nouveaux modèles examinés dans son étude, ce sont également ceux qui reflètent le mieux les évolutions des 75 dernières années, renforçant leur crédibilité. «Il faut les prendre au sérieux, ce sont des modélisations dernier cri,» souligne le chercheur.
D'autres modélisations, qui seront prises en compte par le GIEC, sont moins pessimistes, même si la plupart dépassent les prévisions de réchauffement jusqu'ici avancées.

«Le jury n'a pas encore rendu son verdict, mais c'est inquiétant, résume Johan Rockstrom. Depuis plus de 30 ans, la sensibilité climatique était évaluée entre 1,5 et 4,5 degrés. Si elle passe à entre 3 et 7 degrés, ce serait extrêmement dangereux.»

Science

Fortnite créé pour rendre dépendant ? 3 choses à savoir

DÉTECTEUR DE RUMEURS / 78 millions : c’est le nombre de joueurs actifs que compte le jeu vidéo Fortnite à travers le monde. Il est décrit par sa compagnie, Epic Games, comme le jeu le plus populaire de la planète. Mais des drapeaux rouges commencent à être levés alors que de plus en plus de joueurs, surtout des adolescents, en font une utilisation abusive. Le Détecteur de rumeurs s’est demandé si on pouvait parler de «dépendance à Fortnite».

Une des origines de la rumeur

Au Québec, une demande d’action collective a été lancée à l’automne 2019 par les parents de deux enfants de 10 et 15 ans. Elle veut prouver que Fortnite a été conçu pour être le plus addictif possible — et qu’Epic Games n’aurait pas prévenu les joueurs des risques pour leur santé. En juin 2019, une poursuite similaire contre la même compagnie a été déposée devant une cour de Californie. Or, si on se base sur l’état de la science de la dépendance, il y a trois bémols à considérer.

1) Diagnostic encore flou

Alors que la dépendance aux jeux de hasard et d’argent fait l’objet d’un diagnostic clair de la part de l’Association américaine de psychiatrie, ce n’est pas le cas des jeux vidéo. Dans la dernière édition de la bible des troubles mentaux (le DSM-5), la dépendance aux jeux vidéo figure dans la liste des troubles à étudier. On craint un surdiagnostic si la condition n’est pas bien comprise par la science.

L’Organisation mondiale de la santé a cependant statué en 2018 que la dépendance aux jeux vidéo pouvait constituer un diagnostic dans les cas où la pratique devient compulsive. Le diagnostic ne devrait pas être basé uniquement sur les heures passées devant l’écran, mais impliquer aussi une perte de contrôle et une obsession envers le jeu. Cela signifie une perte d’intérêt envers d’autres activités qui stimulaient la personne auparavant. La dépendance peut se traduire par de l’isolement, une baisse des performances académiques, une perte d’appétit ou des problèmes de sommeil.

2) Jeux vidéos : jeux de hasard ?

Depuis deux décennies, lorsqu’on observe le cerveau des joueurs pathologiques, c’est-à-dire ceux qui sont dépendants aux jeux de hasard et d’argent, il apparaît que le jeu stimule chez eux le système de récompense, exactement comme le fait la consommation de drogues. Dans le cas des jeux vidéo, on croit que le même phénomène pourrait se reproduire. Par exemple, quand un joueur réussit une manœuvre ou un niveau particulièrement difficile, il sécrète de la dopamine. À force de répétition, ce mécanisme créerait un sentiment de manque et, ultimement, de dépendance.

Ceci dit, alors que la dépendance au jeu de hasard et d’argent est déjà classée comme une pathologie, est-il approprié de créer un rapprochement avec les jeux vidéo ? «Entre les jeux vidéo et les jeux de hasard et d’argent, les frontières sont de plus en plus minces. On retrouve des caractéristiques communes aux deux», selon Magali Dufour, psychologue et professeure au Département des sciences de la santé communautaire de l’Université de Sherbrooke.

Par exemple, Fortnite offre la possibilité de se procurer des «loot boxes» ou des trésors aléatoires: les joueurs dépensent un montant d’argent pour avoir accès à ces butins qui cachent un élément leur permettant de progresser plus rapidement. D’autres jeux offrent des barrières de progression : en échange d’un certain montant, les joueurs ont un nombre illimité de «vies» et peuvent donc jouer plus longtemps.

Selon les travaux du psychologue anglais Mark D. Griffith, ces deux caractéristiques seraient particulièrement attrayantes pour les jeunes joueurs. C’est d’ailleurs l’un des points que doit prouver la demande d’action collective québécoise.

Parmi les autres pièges se trouvent le renforcement positif, la possibilité de dénicher des items rares, la création d’un avatar plus puissant que soi-même. Ces caractéristiques de certains jeux en ligne semblent augmenter le risque de développer une dépendance, comparativement aux jeux qui n’en contiennent pas.

3) Pas l’unique source du problème

Bien que des millions de joueurs s’adonnent aux jeux vidéo, seule une poignée développe pourtant une utilisation abusive nuisant à la qualité de vie. Aux États-Unis, on estime qu’entre 0,3% et 1% des joueurs auraient réellement une dépendance. Au Québec, selon une recherche menée par Magali Dufour auprès de 4000 adolescents, environ 1,3% pourraient souffrir de cyberdépendance.

Cela soulève la question : y a-t-il des prédispositions à développer une dépendance ? «Le jeu n’est pas l’unique cause du problème parce que sinon, nous serions tous dépendants. Ça n’enlève pas la responsabilité de l’industrie du jeu vidéo pour autant», nuance Magali Dufour. Comme pour les drogues, certaines personnes seraient plus susceptibles que d’autres de développer une dépendance aux jeux vidéo.

Une méta-analyse en 2012 a relevé les principaux traits de personnalité associés à une telle dépendance: solitaire, introverti, tendance à l’ennui, agressivité, faible estime de soi, trouble anxieux... Même si ces traits ne peuvent expliquer à eux seuls le développement d’une dépendance, ils sont considérés comme faisant partie de l’équation. Surtout s’ils sont combinés à un jeu particulièrement attrayant et à un environnement facilitant l’accès à ce jeu vidéo.

Verdict

Difficile de statuer si Fortnite a été créé pour développer une dépendance. Cependant, les preuves s’accumulent afin de classer la dépendance aux jeux vidéo comme un trouble de santé mentale reconnu.

Science

L’essence tombera-t-elle du ciel un jour ?

SCIENCE AU QUOTIDIEN / «On parle beaucoup d’urgence climatique mais aucun programme clair n’est proposé, à l’exception d’une augmentation de taxes carbone donnant un permis de polluer pour les plus riches. Cependant, il y a des entreprises comme Carbon Engineering Ltd au Canada et BFS en France qui proposent des technologies pour capter le CO2 directement dans l’air et le transformer en carburant. Alors quelle est l’efficacité réelle de ces technologies ? Est-ce que c’est «pour vrai» ou est-ce que c’est une autre fabulation de l’internet ?», demande Stéphan Raymond, de Québec.

«La question est un peu compliquée parce que la capture directe du CO2 dans l’air est plus récente que d’autres approches. Ça fait une dizaine d’années qu’on en parle, ce qui est relativement court comparé à la séquestration géologique du carbone, par exemple. Et encore, il y a des projets en séquestration, mais toujours rien à des échelles suffisamment grandes pour avoir un effet notable», dit d’emblée Louis-César Pasquier, chercheur au centre Eau, Terre et Environnement de l’INRS qui mène justement des travaux sur le stockage et l’utilisation du CO2.

Les technologies de capture directe du CO2 dans l’air — à ne pas confondre avec les technologies qui prennent le CO2 «à la source», dans des cheminées industrielles — fonctionnent bien dans l’ensemble, leurs principes scientifiques sont prouvés, mais «ces compagnies-là sont rendues à faire la démonstration concrète de leurs technologies, parce qu’elles n’ont pas encore été mises en place à grande échelle», ajoute M. Pasquier.

Mine de rien, c’est une étape qui peut s’avérer plus ardue qu’on s’y attendrait à priori. «C’est toujours plus facile des faire des choses de manière contrôlée dans une éprouvette que dans des équipements industriels beaucoup plus grands», indique-t-il.

Mais il y a quand même des progrès qui se font et des technologies qui sont testées très concrètement, hors des labos. La firme Carbon Engineering dont parle M. Raymond, par exemple, a une usine-pilote en Colombie-Britannique qui fonctionne depuis 2015. Il s’agit essentiellement d’un gros ventilateur qui pousse de l’air au-dessus d’un bassin contenant des composés chimiques qui réagissent avec le CO2, qui est alors «capturé».

Dans un article paru dans la revue savante Joule en 2018 [http://bit.ly/2QZsWKl], la compagnie a détaillé les résultats de ses trois premières années d’activités et, si certains aspects étaient vraiment très encourageants, d’autres forçaient plutôt au réalisme. Ainsi, le projet-pilote a été capable d’extirper du CO2 de l’atmosphère à un coût variant (selon les configurations choisies, les sources d’énergie, etc.) entre 94 et 232 $ la tonne, ce qui est déjà une énorme amélioration sur les quelque 600 $/t que calculait en 2013 l’American Physical Society pour la capture directe.

Et comme Carbon Engineering entend éventuellement convertir à grande échelle ce CO2 en carburant, certains observateurs ont tout de suite annoncé que cela laissait entrevoir un avenir pas si lointain où l’essence serait carboneutre.
Mais d’un autre côté, les quantités d’énergie que cela prend pour extirper ce carbone de l’atmosphère montrent que cela ne peut pas être une solution miracle applicable mur-à-mur — pas à l’heure actuelle, en tout cas. «Le nerf de la guerre, ça va être l’énergie parce que pour faire du carburant, il faut remonter la pente énergétique», dit M. Pasquier, qui fait référence au fait que l’énergie contenue par le carburant doit bien venir de quelque part.

Par exemple, l’article de 2018 montre que dans la «configuration» de l’usine pour transformer le CO2 capturé en carburant, Carbon Engineering a dû dépenser 1535 kiloWatts-heure en gaz naturel et en électricité pour chaque tonne de gaz carbonique capturé. Pour donner une idée de ce que cela représente en vue d’une éventuelle production à très grande échelle, supposons que l’on veuille utiliser cette technologie pour rendre tous les transports routiers du Québec «carboneutres». En 2017, les voitures et camions circulant dans la Belle Province ont émis 27 millions de tonnes de CO2, alors avec l’usine de Carbon Engineering, il faudrait dépenser autour de 41 téraWatts-heure (TWh) pour retirer tout ce de CO2 de l’atmosphère. Pour fin de comparaison (et même si une partie du gaz naturel n’est pas facilement remplaçable par de l’électricité dans ce procédé), c’est une quantité d’énergie supérieure à toutes les exportations d’Hydro-Québec, qui sont d’environ 36 TWh par année, et cela représente une bonne part de ses ventes annuelles totales, qui tournent autour de 210 TWh. C’est considérable.

Et encore, ce n’est même pas toute l’énergie qu’il faudrait dépenser pour produire du carburant — juste celle qu’il faut pour extraire le gaz carbonique de l’air. Selon ce que spécifie l’article de Joule, il faudrait ensuite fournir d’autre énergie pour faire ce que les chimistes appellent l’«électrolyse de l’eau», qui consiste à séparer les atomes d’hydrogène et d’oxygène des molécules d’eau (H2O). On ferait ensuite réagir cet hydrogène avec le carbone du CO2 pour faire des hydrocarbures (du carburant). Il y aura donc encore de grosses dépenses énergétiques à prévoir. Ce n’est pas pour rien, note M. Pasquier, que l’usine de Carbon Engineering est situé à côté d’une rivière : c’est pour avoir accès à une source d’énergie renouvelable.

Et tout cela a un coût. Dans la configuration pour produire du carburant, qui n’est pas la plus onéreuse à 100$ la tonne, juste la capture du CO2 représente une dépense de 23¢ par litre. Sans compter, encore une fois, les étapes suivantes.

Cela ne signifie pas que la capture du gaz carbonique directement dans l’air n’a aucun avenir, remarquez bien. Le fait que des gens comme Bill Gates aient investi de fortes sommes dans ces technologies, sans être une garantie, montre le sérieux de l'affaire. Mais cela implique que, pour l’instant, ces technologies ne sont pas encore «matures». Et que quand elles le seront, il se peut bien qu’elles répondent plus à des besoins de niche — Carbon Engineering vise le marché du carburant d’avion, illustre M. Pasquier — qu’à une demande plus générale.

Éducation

Réforme des sciences pures au cégep: des profs dénoncent un sévère recul de la biologie

Craignant de voir le peu de place accordé à leur discipline être réduit encore plus, des professeurs de biologie au cégep dénoncent les conclusions d’un comité d’experts dans une lettre ouverte. «Nous croyons qu’en ce début de 21e siècle, le Québec ne peut pas prétendre former adéquatement sa jeunesse dans les différents domaines scientifiques en marginalisant ainsi certaines disciplines», écrivent-ils.

Ce comité d’experts ne recommande pas de couper dans les cours de bio obligatoires, qui représenteraient 14 % des heures de cours (contre 11 % en ce moment), mais il éliminerait une grande partie des «cours au choix», avec lesquels les étudiants qui se destinent à une formation universitaire en biologie ou dans les sciences de la santé peuvent adapter la formation à leurs besoins. Le résultat final serait qu’une bonne partie de l’offre de cours en biologie disparaîtrait.

Or «une majorité d’étudiants inscrits en Sciences de la nature se dirigent vers les Sciences de la santé et de la vie [après le cégep]», souligne la lettre ouverte.

«Aurions-nous accepté, collectivement, que des étudiants se dirigeant vers [des disciplines comme le génie ou l’informatique] soient obligés de suivre 60 % de leurs heures de cours de sciences en chimie et en biologie et seulement 30 % de leurs heures de sciences en physique et mathématiques?», poursuit le texte.

«Alors on ne fait pas cette sortie-là contre nos collègues des autres départements, parce que toutes les disciplines sont importantes, mais là on se questionne sur la qualité de la formation qu’on va pouvoir offrir à ces étudiants-là», a expliqué au Soleil Frédéric Demers, un des cosignataires et professeur de biologie au Cégep de Sainte-Foy. La lettre ouverte est signée par 25 profs de biologie, tous du Cégep de Sainte-Foy — mais ils tiennent à spécifier qu’ils l’ont fait à titre personnel et sans engager ni leur département, ni leur cégep. S’ils proviennent tous du même cégep, «c’est qu’on arrive vraiment à la fin du processus de révision du programme, alors il a fallu faire vite», explique une autre signataire, Jacinthe Fréchette.

M. Demers et Mme Fréchette reconnaissent qu’il y a une certaine hétérogénéité dans la formation collégiale en science, dont plusieurs universités se sont plaint par le passé — d’où l’idée de couper dans les cours au choix —, mais ils estiment que la biologie n’a pas être sacrifiée de la sorte.

Science

La «bordélisation» de la lumière

SCIENCE AU QUOTIDIEN / «J’ai vu des savons à vaisselle verts, des savons en barre oranges, des savons à main roses, et d’autres de toutes les couleurs, et pourtant leur mousse est toujours blanche. Pourquoi le savon mousse-t-il toujours blanc peu importe sa couleur ?», demande Origène D’Amours, de Magog.

Il y a essentiellement deux choses à savoir pour le comprendre, répond d’emblée le chimiste de l’Université Laval Normand Voyer. La première, commence-t-il, c’est que «quand on parle des colorants, les gens pensent souvent qu’il y en a beaucoup parce que la couleur, c’est ce qu’on voit en premier. Mais en réalité, le colorant ne représente que quelque chose comme 0,001% du total. C’est vraiment une infime partie du produit, pas besoin d’en mettre plus. Alors quand bien même que le savon serait fluo, il n’y a presque pas de colorant dedans. Et en plus, ça prend juste un peu de savon pour faire beaucoup de mousse parce que la mousse, c’est principalement de l’air [ce qui «dilue» le colorant encore plus que le 0,001% de départ, ndlr]. Alors c’est un peu normal qu’on ne puisse pas voir une bulle orange ou verte !»

Bref, quand on regarde une bulle (et une seule), on la voit transparente. Mais alors, la question devient : pourquoi la mousse est blanche, elle ? Si les bulles sont toutes transparentes, comment leur «somme» peut-elle être blanche ? La deuxième chose à savoir dont parle M. Voyer est justement là mais, avant d’y arriver, il faut faire un petit détour...

La lumière, ce sont des ondes électromagnétiques, c’est-à-dire de l’énergie électrique et magnétique qui se propage dans l’espace un peu à la manière des vagues sur l’eau — avec des «crêtes» et des «creux» qui sont séparés par une certaine distance nommée longueur d’onde. L’œil humain est capable de percevoir des longueurs d’onde située entre environ 380 et 740 nanomètres (nm). Autour de 700 nm, nous voyons du rouge ; aux environs de 600 nm, c’est plutôt du orange que nous voyons ; si la distance entre les «vagues» diminue encore un peu (entre 550 et 590 nm environ), alors nos yeux perçoivent du jaune; et ainsi de suite jusqu’aux plus courtes longueurs d’onde perceptibles par l’humain, soit le violet (entre 380 et 450 nm).

La lumière que nous recevons du Soleil (et de la plupart des ampoules électriques «normales») est un mélange de toutes ces longueurs d’onde. Or nos yeux perçoivent ces mélanges comme du blanc, et la clef de l’énigme de la mousse blanche, comme on s’en doute, elle est précisément là.

Si l’on regardait la paroi d’une bulle de savon au microscope, on se rendrait compte qu’elle est composée de deux minces couches de savon qui retiennent une fine couche d’eau entre elles. Quand la lumière passe à travers la paroi d’une bulle, une partie est réfléchie, mais une autre (grosse) partie traverse la paroi et s’en trouve déviée et ce, à des angles qui vont varier légèrement selon la longueur d’onde — ce qui va séparer les couleurs.

Maintenant, imaginez un peu ce qui arrive dans une mousse comptant des centaines, voire des milliers de petites bulles. En un mot comme en cent, si l’on me permet un terme pas-très-technique : c’est le bordel.

«La lumière est réfléchie et dispersée dans toutes les directions possibles, dit M. Voyer. Si bien qu’en bout de ligne, si le bleu est réfléchi partout, si la même chose arrive au rouge et à toutes les autres couleurs, cela donne un mélange et ça, ça fait du blanc.»

Fait intéressant, enchaîne-t-il, c’est la même chose qui arrive dans les nuages : la lumière est «éparpillée» dans toutes les directions en traversant les gouttelettes d’eau, toutes les longueurs d’onde s’en trouvent «remélangées», et le résultat est que les nuages sont blancs.

* * * * *

«Pourriez-vous expliquer si la décennie s’est terminée en 2019 ou si elle va vraiment finir en 2020 ? Il me semble qu’une décennie, ce sont les années 1, 2, 3, 4, 5, 6, 7, 8, 9 et 10. Donc, la deuxième décennie du troisième millénaire devrait finir en 2020, et non en 2019. Ce qui serait logique puisque l’an zéro n’existe pas : à un moment donné, on était au jour 1 de l’an 1. Corrigez-moi si je me trompe», demande Marie-Claude Boivin, de Québec.

Il n’y a effectivement jamais eu d’an zéro puisque l’habitude de compter les années à partir de la naissance du Christ remonte au 8e siècle et qu’en ce temps-là, le zéro n’avait tout simplement pas été inventé. Ni la numération romaine, ni son équivalent grec n’avaient de chiffre pour le zéro. À l’époque, d’ailleurs, l’idée d’avoir un symbole pour désigner le vide était vue comme un peu bizarre : les nombres étaient faits pour compter les choses alors s’il n’y avait rien à compter, à quoi bon adopter un signe ? On a bien trouvé certaines «formes» de zéro dans des documents antiques — les uns laissaient un espace vide, d’autres comme les Babyloniens mettaient une sorte de «symbole bouche-trou», voir ici : http://bit.ly/36Ls956 —, mais il faudra attendre que le mathématicien italien Fibonacci introduise les chiffres indo-arabes en Europe (autour de l’an 1200) pour que le zéro tel qu’on le conçoit aujourd’hui apparaisse en Occident.

Les années de l’«ère chrétienne» ont donc commencé par «1» et, de ce point de vue, Mme Boivin a entièrement raison : techniquement, il n’y a pas de décennie qui s’est terminée ou a commencé le 1er janvier dernier, la prochaine décennie ne débutera vraiment qu’en 2021. C’est d’ailleurs la position du Conseil national de la recherche : «le 3e millénaire et le 21e siècle ont commencé au même moment, à 00h00 le 1er janvier 2001», lit-on sur son site [http://bit.ly/2tJC4cO].

Sauf que les temps ont bien changé depuis que le moine Bède le Vénérable (672-735) a popularisé l'habitude de compter les années à partir de la naissance du Christ, qui était l'«an 1». L’usage du zéro est si universel et acquis chez nous que, culturellement, il nous semble beaucoup plus naturel de commencer les décennies avec un «chiffre rond», comme on dit. De ce point de vue, il n’y a pas grand-sens à rester prisonnier d’une erreur mathématique commise au Moyen-Âge, alors il est aussi défendable de considérer que les années 2020 ont commencé le 1er janvier dernier. Je ne crois pas qu’il ait vraiment de bonne ou de mauvaise réponse à cette question-là.

Science

Pourquoi les skieurs de fond ne connaissent pas la déprime saisonnière

LA SCIENCE DANS SES MOTS / La saison des fêtes est terminée et nous nous retrouvons avec plusieurs mois d’hiver devant nous, sans rien à célébrer. Alors, quoi faire pour éviter le « blues de janvier », aussi appelé déprime saisonnière ?

Notre étude, récemment publiée dans Psychiatry Research, a suivi près de 200 000 skieurs de fond pendant une vingtaine d’années. Nous avons constaté que les skieurs sont 50 pour cent moins susceptibles de souffrir de dépression que la population en général.

Alors, quel est leur secret ? Et comment en bénéficier sans nécessairement enfiler une paire de ski ?

Une mine d’or pour la recherche

En 1922, une course de 90 km a été organisée pour la première fois en Suède, la plus longue distance au monde. Elle a été nommée « Vasaloppet » en l’honneur d’un ancien roi suédois, Gustav Vasa. En Suède, nous avons un penchant pour la tenue de registres. Depuis 1989, il est possible de suivre tous les Suédois qui ont participé à la course. C’est une véritable mine d’or pour la recherche sur l’exercice.

Des études antérieures ont montré que les skieurs de la Vasaloppet sont significativement plus actifs physiquement, ont une meilleure alimentation, fument moins et vivent plus longtemps que la population générale. Dans notre étude, nous avons cherché à déterminer la fréquence de dépression chez ces skieurs par rapport aux personnes du même sexe et du même âge dans la population générale. Au total, l’étude a porté sur près de 400 000 personnes (dont 40 pour cent de femmes), skieurs et non-skieurs.

Psychologie et chimie du cerveau

Nous pensons que le risque de dépression plus faible chez les skieurs est principalement dû à leur mode de vie physiquement actif. Les skieurs passent également beaucoup de temps à l’extérieur, et l’exposition au soleil est associée à un risque réduit de dépression. Cependant, de précédentes études montrent que l’activité physique a un effet plus important par rapport à la seule luminothérapie. Mais les deux mis ensemble pourraient offrir une combinaison puissante pour prévenir la dépression.

De plus, les environnements naturels semblent améliorer notre capacité à faire face au stress.

Mais comme nous ne savons toujours pas ce qui cause réellement la dépression, il est difficile d’évaluer exactement comment l’activité physique en réduit le risque. Il est probable que l’exercice interagit avec les facteurs psychologiques et moléculaires qui y sont liés.

Psychologiquement, l’exercice peut vous distraire de vos pensées négatives. De plus, l’activité physique peut améliorer votre sensation de bien-être parce qu’elle est perçue comme bénéfique par la société.

Mais supposons que le ski attire des gens qui sont déjà très heureux, alors que les personnes plus tristes et susceptibles d’être déprimées ne souhaitent pas en faire. Dans l’étude Vasaloppet, nous avons tenté de contrôler cette donnée par une analyse supplémentaire : nous avons exclu tous les skieurs et les non-skieurs ayant reçu un diagnostic de dépression au cours des cinq premières années qui ont suivi leur adhésion dans l’étude. Même en tenant compte de ce fait, les skieurs avaient toujours un risque de dépression inférieur d’environ 50 pour cent.

Sur le plan physiologique, il a également été démontré que l’exercice a un effet sur l’inflammation et le stress, deux systèmes liés à la dépression. De plus, l’exercice augmente la sécrétion d’endorphines, soit des molécules de « bien-être », dans le cerveau. L’activité physique stimule également les facteurs de croissance neuronale. Cependant, la plupart de ces découvertes ont été faites dans des études faites sur des animaux avec un suivi de courte durée. Elles doivent donc être répétées chez les humains.

Différences de genres

Le risque de dépression était également réduit chez les skieurs et les skieuses par rapport à la population générale. Toutefois, chez les hommes, les skieurs qui terminaient la course plus rapidement avaient un risque encore plus faible de dépression ultérieure comparativement aux hommes plus lents. Cela indique une relation entre le niveau de condition physique et le risque de dépression.

Science

Pour les enfants (surtout les garçons), le dominant, c'est l'homme

PARIS — Dès l'âge de quatre ans, les enfants, surtout les garçons, associent généralement pouvoir et masculinité, selon une étude publiée jeudi dans la revue scientifique Sex Roles.

«Dans les interactions entre des figures masculines et féminines, les enfants ont tendance à associer l'individu qui domine au masculin», explique à l'AFP Jean-Baptiste Van Der Henst, de l'Institut des sciences cognitives Marc Jeannerod, coauteur de l'étude portant sur plus de 900 enfants de 3 à 6 ans.

Sur une feuille, deux enfants sont dessinés. L'un dans une posture de domination, l'autre représentant la subordination. Aucun des deux personnages n'offre le moindre indice sur son genre et pourtant, «à partir de quatre ans, une large majorité d'enfants considère que le personnage dominant est un garçon», rapportent les chercheurs dans un communiqué du CNRS. Qu'ils soient garçons ou filles, qu'ils vivent au Liban, en France ou en Norvège.

«Nous avons été étonnés de ne pas avoir de différence entre les pays, notamment entre le Liban et la Norvège», considérée comme moins inégalitaire sur cette question, avoue Jean-Baptiste Van Der Henst.

Lors d'une autre expérience, les chercheurs ont demandé aux enfants de choisir dans la peau duquel des deux enfants dessinés ils se verraient bien. Résultat : si les garçons ont désigné le dominant, les filles, lorsqu'elles s'imaginaient face à un garçon, se sont indifféremment identifiées à l'un ou l'autre des personnages. «Les petites filles sont moins enclines à considérer que le genre qui domine est celui des garçons», note le chercheur CNRS.

Poursuivant leur recherche, les chercheurs ont ensuite fait le choix de confronter les enfants à des personnages très genrés: une marionnette fille et une marionnette garçon, aux voix identiques. Les deux figurines jouent d'abord ensemble devant les enfants puis disparaissent de leur champ de vision tout en continuant à discuter. Rapidement, l'une impose ses choix à l'autre. «Les garçons avaient tendance à dire que c'était la marionnette garçon qui décidait alors que les filles n'assignaient pas plus la posture de pouvoir à la marionnette garçon qu'à la marionnette fille», résume le chercheur CNRS.

«On a, au niveau global, une tendance à associer masculinité et pouvoir mais avec des variations selon le genre des participants dans certaines expériences», résume-t-il. Pourquoi cette variation ? Dans la première expérience, le pouvoir est exprimé par une posture. «Peut-être que cette forme de pouvoir un peu agressif, coercitif, est davantage associée à quelque chose de masculin», avance Jean-Baptiste Van Der Henst.

Science

Les 5 étapes du deuil, un modèle valide ? Faux

DÉTECTEUR DE RUMEURS / Déni, colère, marchandage, dépression, acceptation. « Les 5 étapes du deuil » sont à ce point entrées dans la culture populaire qu’on a oublié qu’à l’origine, elles ne voulaient pas dire ce qu’on leur fait dire aujourd’hui, expliquent le Détecteur de rumeurs et l’Organisation pour la science et la société.

L’origine

L’auteure de ce modèle est la psychiatre Elisabeth Kübler-Ross. Dans son livre On Death and Dying (traduit sous le titre Les derniers instants de la vie) publié en 1969, elle résume le processus qu’on a fini par appeler «les cinq étapes du deuil». On en parle aussi comme du modèle Kübler-Ross, ou DABDA (du nom anglais des cinq phases).

Aujourd’hui, une recherche «5 phases du deuil» sur Internet fait avant tout ressortir des références aux étapes que traverserait soi-disant une personne après le décès d’un proche. Or, ce n’était pas l’objet de la recherche menée par Kübler-Ross. La psychiatre étudiait plutôt les étapes que doit traverser une personne qui vient d’apprendre qu’elle souffre d’une maladie incurable.

La recherche initiale

La Dre Kübler-Ross a développé son modèle après avoir interviewé plusieurs individus atteints d’une maladie qu’ils savaient être fatale et ce, après qu’elle ait observé, pendant sa résidence en psychiatrie, que le personnel hospitalier accordait peu d’attention aux patients en phase terminale. À l’époque, il y avait peu de connaissances médicales sur la psychologie de ces patients. Kübler-Ross a donc décidé de travailler avec ces derniers et d'enseigner sur ce sujet mal connu.

Son désormais célèbre livre est le fruit de ses années de contacts avec plus de 200 patients. Pour ce qui est des proches endeuillés, elle écrit dans Les derniers instants de la vie que «les membres de la famille sont soumis à des stades d'ajustements différents mais similaires à ceux décrits pour nos patients». Mais les cinq phases du deuil ne sont jamais mentionnées pour la famille du défunt.

Une série d’anecdotes

Il faut souligner que le livre n’avait pas non plus la prétention de fournir une « preuve » que le modèle de la Dre Kübler-Ross expliquait les comportements d'une personne au seuil de sa mort. Il s'agissait simplement d’une suite d'études de cas prenant la forme de conversations avec ces patients.

Depuis la publication du livre, quelques études ont tenté de valider le modèle : la majorité des résultats indiquent qu’il souffre de graves lacunes. Une étude publiée en 1981 s'est attardée, pour des périodes de temps variables, à 193 individus devenus veufs. La conclusion: «le stress du veuvage persiste plusieurs années après la mort du conjoint; ces résultats ne confirment pas l'existence de phases d'adaptation distinctes.» Une recherche du psychologue américain George Bonnano publiée en 2002 s’est concentrée sur 205 individus avant et après la mort de leur époux. Leurs résultats ont démontré que seulement 11 % ont suivi une trajectoire de deuil présumée «normale».

Les études qui semblent soutenir l'existence d'un tel modèle de phases du deuil souffrent souvent de problèmes de méthodologie. Par exemple, cette étude de 2007 portant sur 233 individus en deuil: après sa publication, plusieurs lettres à la rédaction ont critiqué sa méthode et ses résultats. Les auteurs eux-mêmes ont par la suite quelque peu discrédité leurs conclusions en suggérant de renommer et de reconceptualiser les phases du deuil.

L’impact

À ce jour, le livre Les derniers instants de la vie est mentionné plus de 15 000 fois sur Google Scholar. Il est cité à toutes les sauces, depuis le processus d’acceptation chez les personnes atteintes du sida ou de la maladie pulmonaire obstructive chronique, jusqu’à la douleur vécue par les aidants naturels des aînés souffrant de démence, en passant par les amputés, les médecins qui ont été mal évalués par leurs patients… ou les consommateurs déçus par leur iPhone 5.
Trois chercheurs ont prévenu les professionnels de la santé en 2017 : le modèle en cinq phases qui se voulait purement descriptif est devenu, à tort, « prescriptif », c’est-à-dire qu’on y réfère trop souvent comme étant la norme dans le processus de deuil ou d’acceptation de la maladie. Un choix qui, écrivent-ils, peut faire du tort à certaines personnes.

Un an après sa mort survenue en 2004, Elizabeth Kübler-Ross et son co-auteur David Kessler, reconnaissaient dans le livre On Grief and Grieving (Sur le chagrin et sur le deuil) que les cinq phases ne sont pas nécessairement des arrêts linéaires sur une ligne du temps. Elles ne seront pas vécues par tous, et leur ordre peut changer.

* * * * *

Ce texte est une adaptation du billet rédigé en anglais par Ada McVean, publié sur le site de l’Organisation pour la science et la société de l’Université McGill.

Science

Deux découvertes de l’UL au palmarès de Québec Science [VIDÉO]

Des travaux menés à l’Université Laval, au sujet des interactions entre les espèces de poissons ainsi que de la sclérose latérale amyotrophique, se sont frayé un chemin jusque dans le palmarès des 10 découvertes québécoises de l’année de Québec Science, a-t-on appris jeudi quand le magazine a publié sa fameuse «liste».

La sclérose latérale amyotrophique, ou SLA, est causée dans l’immense majorité des cas par une protéine qui se dérègle et s’agglutine sur les neurones moteurs (chargés de transmettre les signaux du cerveau aux muscles). Les gens atteints, entre 2 et 3 cas par 100 000 personnes, ressentent d’abord une faiblesse dans les bras et les jambes, qui dégénère en paralysie puis éventuellement en problèmes respiratoires entraînant la mort, entre deux et cinq ans plus tard. Il n’existe aucun traitement à l’heure actuelle.

On ignore pourquoi cette protéine se dérègle, mais les chercheurs de l’UL Jean-Pierre Julien et Silvia Pozzi, du centre de recherche CERVO, ont mis au point un anticorps qui s’attaque justement à cette protéine corrompue. Dans une étude parue en février dernier dans le Journal of Clinical Investigation, ils ont montré que des souris atteintes de SLA voyaient leur état musculaire s’améliorer et, dans 20 % des cas, leur cognition prendre du mieux aussi. Ces résultats sont extrêmement encourageants, mais soulignons tout de même qu’il reste encore plusieurs étapes à franchir avant les «essais cliniques», qui testeront l’efficacité et la sûreté du traitement sur des patients.

Par ailleurs, une équipe à laquelle appartient le professeur de biologie de l’UL Philippe Archambault a dressé une étonnante «carte» des interactions prédateurs-proies entre plus de 11 000 espèces marines, et a montré que les océans de la planète sont beaucoup plus liés entre eux qu’on le croyait. Les chercheurs s’attendaient à voir une série de zones à l’intérieur desquelles les espèces sont très interconnectées, mais sans avoir beaucoup de liens avec les autres zones. Or ils ont plutôt réalisé que ce que l’on appelle souvent «les océans» est en réalité, du point de vue des interactions entre les poissons, un seul grand océan, concluaient-ils en juillet dans la revue savante Nature – Ecology and Evolution.

Notons que le palmarès de Québec Science en est à se 27e édition cette année. Comme à chaque fois, le public est maintenant appelé à voter pour sa découverte favorite (https ://www.quebecscience.qc.ca/decouverte2019/) et a jusqu’au 14 février pour le faire.

Science

Viande rouge et conflit d'intérêts : cette fois-ci, c'est pour vrai

BLOGUE / Aussitôt qu'elle fut publiée, l'automne dernier, la «célèbre» série d'articles scientifiques disant que la viande rouge n'est pas mauvaise pour la santé fut la cible d'accusations de conflits d'intérêts. Il s'agissait d'allégations sans grand-fondement et lancées avec une étonnante légèreté, mais il y a eu du nouveau dans ce dossier pendant le temps des Fêtes et cette fois-ci, c'est plus sérieux.

Le 31 décembre, les Annals of Internal Medicine (où étaient parus les papiers qui avaient fait tant jaser l'automne dernier) ont publié une correction indiquant que l'auteur principal Bradley Johnston (de l'Université Dalhousie au moment des travaux, et maintenant à l'Université Texas A&M) avait omis de déclarer une subvention de recherche de Texas A&M AgriLife Research, un fonds financé en partie par l'industrie bovine. Cette subvention, qui s'élevait à environ 75 000 $ selon ce que rapportait le Washington Post cette semaine, a servi à financer des travaux de M. Johnston sur les gras saturés et polyinsaturés — les premiers étant plus abondants dans la viande rouge que dans les autres aliments.

Il faut bien préciser, ici, qu'on ne parle pas d'une rétractation, où une revue «dépublie» et retire carrément une étude de ses archives, mais d'un simple addendum. Ça n'est donc pas un revirement dramatique, mais cela vient quand même ajouter un astérisque (un de plus, diront certains) à côté de cette étude. Je ne crois pas que cela change grand-chose au portrait d'ensemble — toute cette histoire de viande rouge me semble toujours être un verre d'eau que l'on voit à moitié vide ou à moitié plein, selon ses préférences, comme je l'écrivais il y a quelques semaines —, mais il vaut la peine de mentionner ce nouvel astérisque, je pense.

Cela dit, je veux aussi insister sur le fait que ces allégations de conflit d'intérêts sont sérieuses cette fois-ci, mais qu'elles ne l'ont pas toujours été dans ce dossier, malheureusement. En octobre dernier, le New York Times avait publié une «nouvelle» accusant M. Johnston d'avoir caché «des liens passés avec l'industrie» du bœuf. Cependant, le NYT n'avait rien trouvé de plus qu'une subvention de recherche remontant à plus de trois ans en arrière (donc les règles de transparence des Annals of Internal Medicine avait été respectées) de la part d'un organisme nommé International Life Sciences Institute (ILSI).

Il s'agit-là d'une organisation très proche de l'industrie alimentaire et financée par elle, et il est vrai qu'elle compte le géant américain du bœuf Cargill parmi ses donateurs, mais ça n'était en soi pas particulièrement concluant puisque Cargill n'est qu'un donateur industriel parmi beaucoup d'autres (dont la plupart n'ont rien à voir avec l'industrie bovine) et que l'ILSI compte aussi dans ses rangs des producteurs de volaille (dont Cargill, d'ailleurs) qui n'ont pas intérêt à voir la viande rouge être «innocentée», bien au contraire.

En outre — et ça, ça ne s'invente pas —, la subvention de l'ISLI n'avait pas servi à des travaux sur le bœuf ou les gras saturés, mais bien à un article sur... le sucre. Ce qui signifie que le NYT avait considéré qu'une subvention pour étudier le sucre remontant à plus de trois ans constituait un conflit d'intérêts pour étudier la viande rouge. Plus tiré par les cheveux que ça, la tête arrache...

Cette fois-ci, les liens avec AgriLife semblent être quelque chose de beaucoup plus réel — donnons le crédit au Washington Post, qui fut le premier sur cette vraie histoire. Mais il n'empêche que tout ceci montre que l'on devrait manier ce type d'accusation avec beaucoup plus de circonspection qu'on le fait trop souvent. Les conflits d'intérêts en science sont une question sérieuse, pas un outil de relation publique dont on peut se servir à sa guise pour discréditer des chercheurs dont les résultats ne font pas notre affaire.

Science

Les Vikings du Groenland victimes d’avoir trop chassé le morse

PARIS - Les Vikings auraient disparu de l’immense Groenland au 15e siècle après avoir décimé les populations de morses qu’ils chassaient pour leur ivoire, selon une étude publiée lundi dans la revue Quaternary Science reviews.

L’île a été colonisée il y a au moins 3000 ans par le peuple inuit de l’Arctique qui a été contraint de partir probablement en raison des conditions climatiques rigoureuses.

Ensuite est arrivé le Viking norvégien Erik le Rouge, considéré à tort comme le fondateur de la première colonie du Groenland vers le 11e siècle.

L’occupation Viking a alors duré jusqu’au 15e siècle environ avant de cesser dans des conditions qui restent encore mystérieuses.

L’une des explications souvent avancées serait que le Groenland, comme le reste de l’Europe du Nord, traversait la période dite du «Petit âge glaciaire» et que les Nordiques sont partis pour trouver des terres plus clémentes.

Mais selon une équipe de chercheur, «la surexploitation des populations de morses» pour l’ivoire de leurs défenses pourrait également avoir joué un rôle.

En analysant de nombreux objets médiévaux, les chercheurs ont mis en évidence que «pendant longtemps, quasiment tout l’ivoire commercialisé en Europe provenait de morses chassés dans des mers exclusivement accessibles depuis les colonies scandinaves du sud-ouest du Groenland».

«Les Scandinaves du Groenland avaient besoin de commercer avec l’Europe pour le fer et le bois, et n’avaient pratiquement que les produits issus des morses à échanger», explique James Barrett de l’université de Cambridge et coauteur de l’étude dans un communiqué.

Mais selon les chercheurs, au fil des siècles, l’ivoire s’est mis à provenir d’animaux plus petits et de plus en plus souvent de femelles. De plus, «des preuves génétiques et archéologiques suggèrent que les morses provenaient de régions de plus en plus septentrionales».

Puis au XIIIe siècle, l’ivoire d’éléphant a inondé les marchés européens, entraînant une chute du prix de l’ivoire de morse et obligeant les Vikings à intensifier leur chasse pour maintenir la viabilité économique des colonies du Groenland.

«Si à la fois, la population des morses et les prix de leur ivoire ont commencé à chuter, cela a dû sérieusement compromettre la résistance des colonies», déclare Bastiaan Star de l’Université d’Oslo, coauteur de l’étude.

Science

Lendemain de veille: voici ce qui se passe dans votre cerveau

LA SCIENCE DANS SES MOTS / Vous êtes-vous réveillés avec une pointe d’anxiété au lendemain du réveillon ? Après deux semaines de célébrations de Noël bien arrosées, il est possible que vous souffriez de l’angoisse post-cuite, un cocktail d’anxiété et de gueule de bois que les anglophones appellent « hangxiety » (contraction des mots hangover pour gueule de bois et anxiety pour anxiété).

Je suis chercheure en neurosciences et je m’intéresse aux effets de l’alcool et de la nourriture sur le fonctionnement du cerveau. Voici comment la consommation d’alcool peut provoquer de l’anxiété après l’effet euphorisant.

De la téquila aux endorphines et la dopamine

Les boissons alcoolisées – vin, bière ou spiritueux – perturbent l’équilibre des neurotransmetteurs dans le cerveau. L’effet peut en être agréable sur le moment, mais beaucoup moins le lendemain.

Cet effet agréable est dû au fait que l’alcool stimule la production d’endorphines, ces opioïdes naturels fabriqués par le cerveau.

Il augmente aussi la production de dopamine, activant le système de récompense du cerveau – qu’on appelle aussi le système mésolimbique. La production de dopamine renforce les comportements qui ont mené à cette euphorie, si bien que ce petit coup de téquila nous donne envie d’en prendre un autre !

Mais l’alcool ne fait pas qu’activer notre système de récompense. Il perturbe aussi l’activité des neurotransmetteurs qui contrôlent le fonctionnement du cerveau. L’imagerie cérébrale prouve que l’alcool diminue l’activité du cortex préfrontal et du lobe temporal, des centres qui régissent la prise de décision, le contrôle de soi et la mémoire.

Anxiété, malaise et stress

L’alcool augmente l’activité inhibitrice des récepteurs GABA (acide gamma-aminobutyrique). Les récepteurs GABA réduisent les activités des neurones et l’alcool exagère cet effet. Un taux élevé de GABA favorise les sentiments de relaxation et de calme, qui nous rendent plus sociables et moins stressés.

Consommé en grande quantité, l’alcool bloque aussi le système glutamique. Le glutamate est le principal neurotransmetteur d’excitation du cerveau, et il joue un rôle important dans la constitution des souvenirs et des émotions.

L’équilibre entre le GABA et le glutamate est indispensable pour permettre à notre cerveau de fonctionner de façon optimale. L’alcool rompt cet équilibre. L’alcool est un agent dépressif pour le système nerveux central, car il augmente le caractère inhibitif du GABA tout en diminuant le caractère d’excitation du glutamate.

Quand notre cerveau perçoit un haut niveau d’acide gamma-aminobutyrique en conjonction avec un faible taux de glutamate, il réagit rapidement afin de compenser ce déséquilibre. C’est cette réaction compensatoire, menant à une baisse du taux de GABA et à une augmentation du taux de glutamate, qui provoque le sentiment d’anxiété, d’inconfort et de stress qui se produit le lendemain.

Oh non… J’ai pas fait ça ?

Après plusieurs boissons alcoolisées, la transmission de glutamate est ralentie dans le lobe temporal médian, la région du cerveau qui contrôle la mémoire.

Les trous de mémoire provoqués par l’alcool sont causés par l’augmentation rapide du taux d’alcool dans le sang, résultat fréquent d’une cuite, qui se définit par l’absorption de quatre boissons alcoolisées pour une femme, et cinq pour un homme, dans un délai de deux heures.

Lorsque l’on est sobre, les souvenirs se constituent dans le cerveau après que l’information ait été transmise de la mémoire à court terme à la mémoire à long terme. Ce processus s’intitule consolidation de la mémoire. C’est ainsi que les souvenirs sont récupérés et mémorisés.

L’alcool entrave cette fonction, ce qui mène à un état de confusion et de doute le lendemain d’une cuite. Le souvenir confus de la soirée précédente (C’est pas vrai, j’ai vraiment fait ça ?) peut provoquer une forte anxiété.

L’alcool a également un impact énorme sur la qualité du sommeil, car il réduit la phase de sommeil paradoxal, celle où se produisent les rêves. Cette phase est indispensable à l’inscription des souvenirs à long terme. Donc une mauvaise nuit de sommeil à la suite d’une beuverie risque de « fragmenter » les souvenirs.

Les timides souffrent davantage

Ce n’est pas tout le monde qui souffre de l’angoisse de la gueule de bois, mais certains en sont plus affectés que d’autres. Selon une récente étude, l’intensité de l’expérience varie en fonction des traits de personnalité. Les timides seraient plus anxieux après une cuite que les gens moins inhibés.

Comment éviter l’angoisse post-cuite

La seule façon de s’assurer de ne pas subir cette expérience est de ne pas consommer d’alcool.

Par contre, en limitant sa consommant d’alcool, on peut réduire les effets de l’angoisse post-cuite. Espacez le boissons en buvant de l’eau, et vous éviterez l’augmentation rapide du taux d’alcool dans le sang, qui affecte votre mémoire. De plus, vous resterez hydraté, ce qui vous évitera le mal de tête du lendemain.

* * * * *

Ce texte est d'abord paru sur le site franco-canadien de The Conversation. Reproduit avec permission.

«La science dans ses mots» est une tribune où des scientifiques de toutes les disciplines peuvent prendre la parole, que ce soit dans des lettres ouvertes ou des extraits de livres.

Science

Les T-Rex nains n’ont sans doute pas existé, conclut une étude

WASHINGTON — Depuis trois décennies, une controverse agite le monde de la paléontologie: existait-il une espèce naine de tyrannosaures?

Un paléontologue du nom de Robert Bakker l’avait affirmé en 1988 en reclassifiant un spécimen découvert en 1942. Exposé au muséum d’histoire naturelle de Cleveland, il devint le premier membre d’une espèce nouvelle baptisée Nanotyrannus.

En 2001, une autre équipe découvrit le fossile presque complet d’un autre petit tyrannosaure près d’Ekalaka, dans le Montana, dans la célèbre formation de Hell Creek. Baptisé Jane, l’animal, à peine plus grand qu’un cheval de trait, fut rapidement décrit comme un Tyrannosaurus rex juvénile.

Mais une minorité de spécialistes continuaient à affirmer qu’il appartenait à cette espèce «pygmée», Nanotyrannus, en se fondant sur la morphologie du crâne et des os, différente de celle des T-Rex adultes.

Dans une étude publiée mercredi par Science Advances, des paléontologues ont procédé à une analyse microscopique de l’intérieur des os du tibia et du fémur de Jane, et d’un autre fossile moins complet, nommé Petey.

Cette technique dite de paléohistologie a confirmé que les deux étaient des individus immatures, et non des adultes.

Par extension, les auteurs jugent peu probable l’existence de Nanotyrannus.

«Les fossiles sont vraiment cool car les os se fossilisent jusqu’au niveau microscopique», explique à l’AFP Holly Woodward, de l’Université de l’État de l’Oklahoma, qui a conduit l’étude. «On peut inférer le rythme de croissance, l’âge et le niveau de maturité».

Les chercheurs ont également pu compter les anneaux des fémurs et tibias comme on les compte dans un tronc d’arbre pour en dériver l’âge: 13 ans pour Jane et 15 ans pour Petey.

L’étude complète ainsi nos connaissances encore limitées sur les 20 ans qui séparent l’éclosion des tyrannosaures de leur âge adulte. Jane, qui ne devait peser qu’une tonne, est morte juste avant la phase de croissance exponentielle, qui l’aurait amenée à la masse adulte d’environ 9,5 tonnes.

«Tout le monde adore les T-Rex, mais on ne sait pas grand chose sur la façon dont ils grandissent», dit Holly Woodward. «C’est sûrement le dinosaure le plus célèbre du monde, mais on n’a principalement que des squelettes très grands».

C’est la conséquence de la frénésie des collectionneurs et du public pour les T-Rex les plus monstrueux possibles, au détriment de spécimens plus petits. Seuls cinq à sept fossiles de T-Rex jeunes seraient aujourd’hui préservés dans le monde, dont certains dans des collections privées et inaccessibles aux chercheurs, regrette-t-elle.

Science

Les incendies en Australie déciment koalas et autres espèces sauvages uniques

SYDNEY — La vie sauvage australienne, réputée notamment pour ses koalas et ses kangourous, mettra des décennies à se remettre des feux de forêt qui dévastent actuellement l’immense île-continent.

Depuis le début en septembre de ces incendies ravageurs, au moins 20 personnes sont décédées et une surface équivalente à deux fois la Belgique est partie en fumée.

Ces feux ont également été meurtriers pour la vie sauvage. Selon une récente étude, ils sont à l’origine de la disparition de près d’un demi-million d’animaux dans un seul État et des décennies seront nécessaires pour que la vie sauvage se reconstitue.

Cette crise a mis l’accent sur le changement climatique responsable, selon les scientifiques, de cette saison des feux plus intense, longue et précoce que jamais.

Le gouvernement australien a été pointé du doigt, accusé de ne pas apporter de réponses à cette crise et de ne pas prendre les mesures nécessaires sur le plan environnemental.

Des images bouleversantes de koalas assoiffés buvant de l’eau dans des bouteilles tenues par des pompiers ou de kangourous totalement paniqués au milieu des flammes, ont fait le tour du monde.

Une étude de l’Université de Sydney estime que dans le seul État de Nouvelle-Galles du Sud, le plus touché par ces feux, 480 millions d’animaux ont été tués depuis septembre.

Ces calculs de taux de mortalité sont très «prudents», ont souligné vendredi dans un communiqué les auteurs de cette étude, et le bilan pourrait être «considérablement plus élevé».

Des milliards de décès d’animaux?

Afin de parvenir à ce chiffre, les chercheurs ont recoupé les estimations concernant la densité de population de ces mammifères dans cet État avec la superficie de végétation ravagée par les feux. Ce nombre comprend les mammifères, les oiseaux et les reptiles mais pas les insectes, les chauves-souris et les grenouilles.

Le nombre d’animaux qui a ainsi disparu «est susceptible d’être beaucoup plus élevé que 480 millions», selon le communiqué.

«La vie sauvage en Nouvelle-Galles du Sud est gravement menacée et et subit la pression croissante de toute une série de menaces, notamment le défrichement et le changement climatique».

Le professeur Andrew Beattie, de l’Université Macquarie près de Sydney, a déclaré à l’AFP que le nombre de décès d’animaux à l’échelle nationale pourrait se chiffrer en milliards «si vous pensez aux mammifères, aux oiseaux, aux reptiles et aux amphibiens et que vous vous comptez les plus gros insectes comme les papillons».

«Nous pouvons être à peu près sûrs que dans de grandes parties ravagées par ces vastes feux, la plupart des animaux sauvages seront morts», a déclaré ce professeur du département de biologie.

«La flore et la faune auront disparu, ce qui inclut les animaux qui forment la chaîne alimentaire des plus grands, auxquels les gens ne pensent souvent pas», a-t-il expliqué.

Les populations de koalas ont été particulièrement touchées parce qu’ils vivent dans les arbres, se nourrissent uniquement de certains types d’eucalyptus et ne peuvent pas s’échapper rapidement des flammes.

Science

Les gadgets connectés en quête de maturité à la grand-messe annuelle des technologies

SAN FRANCISCO — Les télévisions, voitures et autres brosses à dents «intelligentes» seront en quête de sens et de maturité cette année, lors de la grand-messe américaine annuelle des technologies de grande consommation à Las Vegas.

Du 7 au 10 janvier, le Consumer Electronics Show (CES) va accueillir à Las Vegas environ 175 000 visiteurs et plus de 4500 exposants, qui présenteront des écrans toujours plus fins et souples, des robots toujours plus inventifs et des objets toujours plus intimement connectés au corps humain.

Leur défi n’est plus de surprendre — cela fait quelques années qu’ils suscitent au mieux un haussement de sourcil — mais de prouver leur valeur et leur utilité au consommateur, déjà noyé dans le «tout connecté».

«L’industrie parle désormais d’évolution, et non plus de révolution», constate Tuong Nguyen, analyste chez Gartner.

Les accessoires et vêtements connectés ne peuvent plus se contenter de mesurer le rythme cardiaque, les mouvements ou la vue. Ils doivent mettre leur intelligence artificielle (IA) au service de leur utilisateur de façon concrète en les alertant sur d’éventuelles anomalies et en leur indiquant la marche à suivre.

Emotion connectée

Grâce aux assistants vocaux intégrés aux écouteurs, «le restaurant de l’autre côté de la rue pourrait vous lire son menu, par exemple», imagine Simon Forrest de Futuresource.

Même s’ils sont encore loin de comprendre les émotions humaines, certains appareils font déjà «semblant», ajoute-t-il. «Ils prennent un ton joyeux quand votre équipe de football favorite gagne ou dépité quand votre mère est derrière la porte».

Tous ces objets doivent en outre communiquer entre eux, qu’ils fonctionnent avec Siri (Apple), Alexa (Amazon), Google ou un autre assistant vocal.

«Le CES déborde de gadgets et d’appareils pour la maison, certains bizarres et inutiles, d’autres intéressants», commente Bob O’Donnell de Technalysis Research. «Mais c’est très compliqué de tout faire marcher ensemble, ce qui énerve pas mal de gens».

Les grandes marques ont fini par s’en apercevoir: Amazon, Apple, Google et la fondation Zigbee Alliance veulent créer, d’ici fin 2020, une nouvelle norme pour que les équipements de maison connectés puissent parler la même langue.

En 2019, 815 millions d’objets de ce type ont été vendus, selon le cabinet IDC, qui table sur 1,39 milliard en 2023.

AR, VR, ne vois-tu rien venir

D’autres technologies, présentes depuis plusieurs années sur le salon de 250 000 mètres carrés, peinent à trouver leur place dans le quotidien des consommateurs.

La réalité augmentée (AR) et la réalité virtuelle (VR), par exemple, ont percé dans certains secteurs professionnels (comme la formation) mais pas encore dans les maisons.

Les lunettes et casques restent confidentiels, même si la réalité augmentée fait son chemin sur les mobiles, dans certains jeux ou applications publicitaires (pour visionner du maquillage sur son visage ou des meubles dans son salon).

«Il va encore falloir entre cinq et dix ans avant que ça se répande vraiment», estime Tuong Nguyen.

La 5G aussi n’en finit plus d’arriver. Les technologies reposant sur la dernière génération de téléphonie mobile ultra-rapide seront présentes aux CES, mais à un niveau encore loin des attentes, car les infrastructures ne sont pas prêtes.

Son déploiement vient tout juste de commencer aux États-Unis, alors que la Corée du Sud a distancé le reste du monde.

«On est encore au tout début», remarque Carolina Milanesi, analyste chez Creative Strategies. «Cela coûte très cher d’intégrer un module 5G à un appareil».

Vie privée oui, environnement non

Du côté des voitures autonomes aussi, aucun progrès spectaculaire n’est à prévoir. À défaut d’envisager une commercialisation dans un futur proche, les sociétés feront des démonstrations de leurs derniers progrès pour transformer la voiture en salon mobile, et les ordinateurs de bord en interfaces personnalisables et sécurisées.

«On est revenu à cinq ans en arrière : les constructeurs peuvent vendre des systèmes qui vous protègent et vous facilitent la vie, mais vous gardez le contrôle», explique Mike Ramsey, spécialiste de l’industrie chez Gartner.

Que les objets connectés veillent sur votre perron, vos déplacements ou votre santé, la confidentialité des données personnelles seront cette année encore des enjeux essentiels pour les entreprises, voire des arguments de vente.

L’environnement en revanche, fait à peine partie des stratégies de marketing.

Le souci du respect de la planète se retrouve dans certains matériaux recyclés ou l’allongement de la durée de vie de certains appareils, mais «en général ce n’est pas une réelle préoccupation», note Bob O’Donnell.

«Ce salon, c’est plutôt l’extravagance de la tech», abonde Carolina Milanesi. «Ces sujets sérieux ne trouvent pas nécessairement leur place sur la scène du CES».

Science

Percées scientifiques de 2019: la face cachée de l'évolution

En principe, l’évolution des espèces est exclusivement une affaire de gènes. Ceux qui confèrent un avantage sont sélectionnés, et les autres finissent par disparaître. En pratique, c’est vrai aussi, mais il y a tout de même un petit «oui mais...» que le chercheur de l’Université Laval Martin Laporte y a ajouté cette année : l’épigénétique a elle aussi un rôle à jouer.

C’est ce que lui et son équipe ont démontré en octobre dernier dans un article au sujet du grand corégone publié dans Science Advances — texte cosigné par le biologiste Louis Bernatchez, qui dirige le labo où travaille M. Laporte, ainsi que par Jérémy Le Luyer, de l’institut de recherche maritime français «Ifremer».

Le grand corégone est un poisson qui vit dans les lacs au Canada et dans le nord des États-Unis, et c’est une espèce qui est littéralement en train de se scinder en deux, petit à petit : la variante «normale», qui se nourrit d’invertébrés au fond des lacs et qui dépasse souvent les 40 cm et 1 kilo, et la variante «naine», qui se nourrit de plancton et qui atteint rarement les 20 cm et les 100 grammes.

Or il y avait dans tout ceci une sorte de mystère. Pour que deux populations évoluent en deux espèces à part entière, elles doivent être isolées d’une manière ou d’une autre, du point de vue de la reproduction. Mais les deux écotypes du corégone se côtoient dans plusieurs lacs et ils occupent les mêmes habitats, la seule différence étant les endroits où ils se nourrissent : le fond de l’eau pour la variante normale et le large pour la variante naine. En outre, leurs gènes sont encore presque identiques, et les deux populations demeurent tout à fait capables de se reproduire entre elles, même s’il semble qu’elles ne fraient pas aux mêmes endroits. Et pourtant, malgré cette très grande proximité génétique, les croisements donnent quand même des rejetons faiblards qui meurent plus souvent en cours de développement, montrent plus de malformations et d’instabilités génétiques, et produisent un sperme de moins bonne qualité.

Science

Percées scientifiques de 2019: le refuge du froid

Vite de même, c’était si évident que ça ne pouvait même pas se formuler sous la forme d’une question : si le climat se réchauffe, alors les lacs vont forcément se réchauffer eux aussi, de la surface jusqu’au fond. Bien sûr c’est ce qui est en train de se passer, se disait un peu tout le monde. Jusqu’à ce que la biologiste Isabelle Laurion s’en mêle.

«Ça fait longtemps que je m’intéresse à la stratification thermique des lacs et comment ça affecte leur écologie, dit la chercheuse du centre Eau, Terre et Environnement de l’INRS. Et pour moi, c’était clair qu’un réchauffement à la surface ne voulait pas nécessairement dire un réchauffement au fond du lac. Je travaille sur des plans d’eau où la transparence est faible, donc la lumière ne descend pas profondément. Et ça veut dire que la chaleur aussi a du mal à se propager jusqu’au fond. Alors quand ça se réchauffe en surface, ça crée un écart de température, donc une plus grande stabilité de l’eau, ce qui empêche un bon mélange et garde la chaleur en surface.»

Mais dans les milieux de la recherche, l’idée reçue était que le réchauffement devait se faire sentir sur toute la colonne d’eau des lacs. Ce qui étonnait d’autant plus Mme Laurion que le réchauffement planétaire s’accompagne d’une tendance générale au «brunissement» des eaux douces. La chaleur stimule en effet l’activité microbienne des lacs, ce qui augmente la quantité de matière organique dissoute et rend les eaux plus opaques, explique-t-elle. Le fait que la saison de croissance des plantes s’allonge produit le même effet, les changements climatiques rendent plus fréquents les fortes pluies, qui charrient alors plus de matière en suspension.

Mme Laurion et son équipe ont donc décidé d’en avoir le cœur net et ont épluché la littérature scientifique. Ils ont analysé des données portant sur environ 13 000 lacs dans le monde et répertoriées dans des dizaines d’études différentes. Et ils ont trouvé que non seulement le fond des lacs ne se réchauffe généralement pas, mais que la tendance générale est plutôt au refroidissement, surtout dans les lacs dont les eaux deviennent de plus en plus opaques, comme le soupçonnait Mme Laurion. Ces résultats ont été publiés en août dernier dans la revue savante Limnology et Oceanography Letters. Le gros du travail a été réalisé par un postdoctorant de l’Université de Bâle, Maciej Bartociewicz, qui est premier auteur de l’étude, et les travaux furent dirigés par la chercheuse de l’UdeM Roxane Maranger, qui en est l’auteure «sénior».

Ce sont surtout dans les lacs de faible profondeur (0 à 5 mètres) que l’on observe un refroidissement du fond, ont noté Mme Laurion et ses collègues. Dans cette catégorie, sur 21 études analysées, 18 ont trouvé un refroidissement — généralement entre -0,5 et -3°C, mais certains atteignaient -7,5 et même -10°C — 3 n’ont détecté aucune tendance et aucune n’a mesuré de réchauffement. Le mouvement général amène aussi vers un refroidissement dans le fond des lacs de 5 à 20 m de profondeur (17 études penchent de ce côté, contre 5 qui concluent au réchauffement), alors que dans les grands lacs, le fond semblaient suivre le chemin inverse (tendance plutôt au réchauffement).

«Les lacs plus profonds [ndlr : plus de 20 m de profond] sont généralement grands et donc plus exposés aux vents, ce qui crée de la turbulence et favorise le mélange des eaux de différentes profondeurs. Dans le cas des petits lacs, ils donnent moins de prise au vent et ils ont moins d’échange de chaleur, comme l’évaporation [qui va refroidir la surface et ainsi encourager le mélange, ndlr]», explique Mme Laurion. Ces échanges de chaleur sont plus prononcés dans les grands lacs, même si c'est le vent qui cause le plus clair de la turbulence dans leurs cas.

Tout cela n’est par ailleurs pas sans conséquence pour le climat. Jusqu’à la publication de son étude, les milieux de la recherche partaient habituellement du principe que le réchauffement du fond des lacs allait stimuler l’activité microbienne, qui allait alors «consommer» de plus en plus de la matière organique déposée dans les sédiments, ce qui allait en bout de ligne libérer plus de gaz carbonique (CO2). Mais ça n’est pas aussi simple, ont montré Mme Laurion et ses collègues.

En effet, plus la différence de température entre la surface et le fond d’un lac est grande, et plus ses eaux sont stratifiées et stables — elles ont moins tendance à se mélanger. C’est en plein ce qui est en train d’arriver dans les lacs peu profond, avec le fond qui refroidit et la surface qui réchauffe. Or cela implique deux choses. D’abord, que l’activité microbienne sera ralentie, et non accélérée, ce qui est une bonne nouvelle pour la lutte au réchauffement climatique puisque cela permet aux sédiments de stocker plus de carbone.

Mais d’un autre côté, cela signifie également que l’oxygène, que les lacs reçoivent par la surface, a plus de mal à se frayer un chemin jusqu’au fond. Les bactéries vivant là peuvent alors consommer plus d’oxygène que la turbulence n'en amène, et ce sont ensuite d'autres bactéries dites «méthanogènes» — qui rejettent du méthane (CH4) au lieu du CO2 — qui sont avantagées. Si bien qu’une partie du carbone que les petits lacs émettaient autrefois sous forme de CO2 est maintenant libéré sous forme de CH4, dont l’effet de serre est environ 30 fois plus puissant.

Et comme la lacs peu profonds représentent environ 42% de toute la superficie des lacs du monde, ce n’est pas un petit détail. Au final, calculent Mme Laurion et ses collègues, la contribution des lacs au réchauffement aurait été sous-estimée de 9 %.

Science

Le ciel de janvier 2020: à surveiller dans le ciel en 2020

Pluies d’étoiles filantes, planètes brillantes et conjonctions remarquables : coup d’œil sur les phénomène astronomiques qui retiendront notre attention en janvier et au cours des douze prochains mois.

Étoiles filantes

Une pluie de météores par une belle nuit d’hiver… L’idée vous chante? Alors, habillez-vous chaudement et sortez pour ne rien manquer des Quadrantides, qui atteignent leur maximum vers 3h20 du matin dans la nuit du 3 au 4 janvier 2020. Cette pluie est l’une des deux plus fortes de l’année, plus intense encore que les fameuses Perséides du mois d’août; par contre, son activité maximale ne dure que quelques heures. La Lune gibbeuse croissante se couchera vers minuit et laissera ensuite le champ entièrement libre pour l’observation visuelle des météores : en fait, on s’attend à une excellente année pour les Quadrantides, puisque l’heure prévue du maximum favorise les observateurs de l’est de l’Amérique du Nord. La pluie des Quadrantides est reconnue pour ses météores brillants, de vélocité moyenne; son radiant, situé dans la partie nord de la constellation du Bouvier, près du Dragon, s’élève au nord-est en seconde moitié de nuit. Dans un ciel bien noir, loin de la pollution lumineuse, le spectacle pourrait être mémorable, avec une cinquantaine de météores à l’heure autour du maximum. L’autre pluie annuelle majeure, celle des Géminides, se déroulera elle-aussi sous des conditions quasi-idéales à la mi-décembre 2020. Malheureusement, le dernier quartier de Lune jouera les trouble-fête avec les très populaires Perséides, à la mi-août.

Du côté des planètes

Vous l’avez sans doute déjà remarquée : Vénus règne déjà sur nos débuts de soirée depuis quelques semaines. L’éclatante Étoile du soir brille de mille feux, une vingtaine de degrés au-dessus de l’horizon sud-ouest, où elle attire notre regard pendant le crépuscule. Au cours de l’hiver et du printemps, elle glisse graduellement vers la droite le long de l’horizon, du sud-ouest vers le nord-ouest, et gagne encore de la hauteur : en seconde moitié de mars, Vénus dominera le ciel à la tombée de la nuit, plus de 40 degrés au-dessus de l’horizon ouest au début du crépuscule; elle se couchera alors plus de 4 heures après le Soleil. Mais en avril et mai, elle replonge de plus en plus vite vers les lueurs  du Soleil couchant. Après juin, Vénus passe dans le ciel du matin où elle dominera de manière tout aussi resplendissante l’horizon est en fin de nuit et à l’aube, jusqu’à la fin de l’année.

Avec un petit télescope, vous pourrez facilement suivre l’évolution de son aspect : d’ici mai prochain, à mesure que Vénus se rapproche de la Terre et nous tourne le dos, sa taille apparente grossit et la forme de sa partie éclairée par le Soleil change, passant de gibbeuse à quartier, puis à croissant de plus en plus fin. Car Vénus présente des phases, un peu comme la Lune — une observation fascinante que Galilée lui-même a réalisée il y a plus de 410 ans!

La petite Mercure, la planète la plus rapprochée du Soleil, ne s’écarte jamais beaucoup de notre étoile, et les périodes pendant lesquelles elle est aisément visible se limitent à quelques semaines par année. Mercure effectue une première bonne apparition dans le ciel du soir entre le 23 janvier et le 18 février : on la retrouve au-dessus de l’horizon ouest-sud-ouest, 30 à 45 minutes après le coucher du Soleil. Attention : Mercure est nettement plus brillante au début de cette période de visibilité, et elle faiblit rapidement après le 15 février, en même temps qu’elle replonge vers l’horizon; la fenêtre optimale d’observation s’étend du 25 janvier au 15 février. On aura droit à d’autres excellentes apparitions de Mercure plus tard en 2020, notamment en mai-juin (à nouveau dans le ciel du soir) et en novembre prochain (dans le ciel du matin).

Mars est présentement visible en fin de nuit et à l’aube. On la retrouve au-dessus de l’horizon sud-est à compter de 5 heures du matin : on dirait une simple étoile orangée, pas particulièrement brillante à cause de son éloignement actuel. Le matin du 20 janvier, la Lune décroissante s’approche à 4 degrés au-dessus et à droite de Mars et vous aidera à la reconnaître. Mais en dépit de sa discrétion présente, la planète rouge fera beaucoup parler d’elle dans quelques mois, car 2020 est une année d’opposition martienne : de septembre à novembre, elle sera proche de nous, grande au télescope et brillante dans le ciel. Ce sera elle la grande vedette!

Jupiter et Saturne débutent l’année prisonnières des lueurs du Soleil. Jupiter émerge la première pendant l’aube vers la fin de janvier; Saturne suit à son tour quelques semaines plus tard, au courant de février. Les deux planètes sont actuellement voisines dans le ciel et seront à leur meilleur dans les semaines qui entourent leur opposition, en juillet prochain. Comme Jupiter est plus rapide que Saturne dans sa course autour du Soleil (période de révolution de 12 ans contre plus de 29 ans), vous pourrez constater tout au long de l’année que la planète géante rattrape peu à peu la planète aux anneaux. Elles se croiseront au crépuscule le 21 décembre, avec un écart d’à peine 1/10e de degré (cinq fois plus petit que le diamètre apparent de la pleine Lune). On pourra même les admirer en même temps dans l’oculaire d’un télescope : spectaculaire!

Éclipses et occultations

Seules deux éclipses lunaires par la pénombre, à peine détectables à l’œil et peu spectaculaires, seront observables du Québec plus tard au cours de l’année. En revanche, les amateurs aguerris pourront tenter de relever deux défis d’observation liés à de rares occultations planétaires; il s’agit en quelque sorte d’éclipses qui se produisent lorsque la Lune passe devant des planètes du système solaire. Le matin du 18 février, la Lune décroissante occultera Mars, un phénomène qui se déroulera en plein jour, d’où la difficulté technique. Puis, tôt le matin du 19 juin, la brillante Vénus émergera graduellement (en environ 1min 40s) derrière le bord sombre du croissant lunaire. Cette fois, le phénomène se déroulera très bas dans le ciel, moins de 2 degrés au-dessus de l’horizon est-nord-est, environ une heure avant le lever du Soleil.

Rappelons en terminant une réalité qui semble aller à l’encontre de notre intuition : c’est pendant notre hiver boréal que la Terre se trouve le plus près du Soleil! En effet, notre planète atteint son périhélie le 4 janvier 2020 à 21h48 HNE. À ce moment, la distance Terre-Soleil sera de 147 091 144 km, environ 5 millions de kilomètres de moins qu’à l’aphélie le 4 juillet prochain. L’explication des saisons et des variations de température qu’elles engendrent tient principalement à l’inclinaison de l’axe de rotation de la Terre.

Bonne année astronomique 2020, et bonnes observations !

Marc Jobin est astronome au Planétarium Rio Tinto Alcan.

Au Planétarium de Montréal :

Le Planétarium Rio Tinto Alcan vous offre une expérience vertigineuse à travers le cosmos! Consultez notre portail Web sur espacepourlavie.ca.

Science

Percée scientifiques en 2019: une longueur d’avance sur le cancer

«L’idée de base, c’est que plus tôt on dépiste le cancer du sein, meilleures sont les chances de survie. C’est pour ça qu’on a un programme de mammographie pour les femmes de 50 à 69 ans. Sauf que près d’un cas de cancer du sein sur cinq (18 %) est diagnostiqué avant 50 ans, donc avant que ces femmes-là ne deviennent éligibles au programme de mammographie. Alors comment est-ce qu’on fait pour identifier ces femmes-là qui sont plus à risque pour qu’elles puissent bénéficier elles aussi de la mammographie?»

Ça fait plus de 20 ans que Jacques Simard, spécialiste de la génétique du cancer du Centre de recherche du CHU de Québec, travaille sur cette épineuse question. Et en janvier dernier, lui et quelques dizaines de ses collègues de par le monde ont publié deux articles qui, essentiellement, font la somme de tout ce qu’on connaît à propos des facteurs de risque (génétiques ou autre) du cancer du sein, dans les revues savantes Genetics in Medicine et l’American Journal of Human Genetics.

La question n’était pas facile. On connaissait bien sûr les tristement célèbres gènes BRCA1 et BRCA2, qui font partie d’une poignée de «gènes» (même pas une demi-douzaine) qui multiplient le risque de cancer du sein par 5 ou 6 au cours d’une vie. Mais ces gènes ne sont pas très fréquents, étant présents chez environ une femme sur 200, et sont donc très insuffisants pour comprendre le risque génétique des femmes en général. À cet égard, on connaissait aussi un peu plus de 170 emplacements dans le génome qui sont liés à ce cancer et qui sont beaucoup plus répandus dans la population, mais chacun d’eux ne fait qu’une différence minime. Et on savait qu’il restait encore pas mal d’autres gènes impliqués à découvrir puisque ces 170 emplacements n’expliquaient qu’environ 40 % de l’héritabilité de ce cancer.

M. Simard et ses collègues ont donc, dans un premier temps, séquencé le génome de pas moins de 94 000 femmes ayant reçu un diagnostic de cancer du sein et de 75 000 femmes n’en ayant jamais eu, à la recherche de petites «mutations» nommées SNPs (de l’anglais single nucleotide polymorphisms). Et ils ont pu en identifier 313 qui jouaient un rôle sur le cancer du sein dans un sens ou dans l’autre — certains augmentaient le risque, mais d’autres avaient au contraire un effet protecteur.

Modèle statistique

En mettant tout cela ensemble, ils ont obtenu les «scores de risque génétique» les plus précis jamais mis au point jusqu’à présent. Dans ce modèle statistique, les femmes dans le 1 % le plus à risque ont environ 3,5 fois plus de chance que la moyenne de développer une tumeur au sein au cours de leur vie, alors que les «chanceuses» qui ont hérité de suffisamment de gènes protecteurs pour être dans le 1 % le moins susceptible, elles, courent un risque environ 4 fois moindre que la moyenne. C’est cet ouvrage qui est paru dans l’American Journal of Human Genetics.

À partir de là, M. Simard et d’autres de ses collègues ont intégré ces nouvelles données dans un modèle plus général nommé BOADICEA qui, en plus des gènes, tient aussi compte de l’historique familial, des habitudes de vie, etc. «C’est l’aboutissement d’une longue progression qui a pris presque 20 ans. C’est un modèle qui a été développé par mes collègues de Cambridge, dit M. Simard. […] Au début, c’était un outil utilisé par les cliniques d’oncogénétique, qui était fait pour les femmes qui avaient un risque élevé à cause de leur historique familial. Là on vient de faire un pas majeur et ça devient un outil de dépistage populationnel, pour l’ensemble des femmes.»

Stratifier le risque

Ce modèle-là aussi, publié dans Genetics in Medicine, permet de «stratifier» le risque, c’est-à-dire de distinguer les femmes ayant un risque élevé de celles qui ont peu de chance de développer une tumeur dans un sein. «Si on prend juste les questionnaires épidémiologiques [NDLR : sur l’historique familial et les habitudes de vie], ça place 66 % des femmes dans la catégorie «risque modéré» et 1,8 % dans le risque élevé [NDLR : la balance de 32,2 % ayant un risque faible]. Mais avec le modèle complet, c’est 36,6 % qui ont un risque modéré et 9,8 % qui sont à risque élevé [et donc plus de la moitié, 53,6 %, dont le risque est faible», ce qui permet d’identifier beaucoup plus précisément les femmes les plus à risque, indique M. Simard.

Avec ces informations en main, les chercheurs espèrent que les programmes de dépistage du cancer du sein pourront mieux cibler leur «clientèle». Cela pourrait éventuellement signifier, par exemple, d’étendre le programme québécois de mammographie à certaines femmes de moins de 50 ans qui sont plus vulnérables au cancer du sein — mais ce sera aux décideurs politiques de trancher, «nous, on fait juste leur donner l’information», précise M. Simard. À l’inverse, ajoute-t-il, «il y a aussi une proportion de femmes assez importante, entre 10 et 15 %, qui ont un risque beaucoup plus faible que la moyenne. Alors est-ce que leurs médecins pourraient discuter avec elles de passer une mammographie juste aux 2 ou 3 ans au lieu de le faire chaque année? C’est question qui peut se poser».

Le chercheur du CHU de Québec est d’ailleurs justement en train de finaliser un nouveau projet de recherche qui servira justement à tester ce nouveau modèle avec de vraies patientes. «Est-ce que ça nous permet de dépister les cancers du sein plus tôt, à un stade de développement plus hâtif? C’est vraiment l’objectif de ce projet-là, voir si le modèle fonctionne […] et s’il est bien reçu chez les patientes», dit-il.

En entrevue au début de décembre, M. Simard disait être en train de finaliser l’étude-pilote et de préparer le recrutement de patientes de 40 à 69. «C’est dans la région de Québec et dans la région de Lanaudière. Elles n’ont qu’à aller sur le site Web etudeperspective.ca. […] Le recrutement devrait commencer vers le début février.»

Science

La face cachée d’Alexa, de Siri et autres assistants virtuels

LA SCIENCE DANS SES MOTS / Il y a quelques années à peine, les appareils numériques d’assistance vocale comme Alexa de Amazon, Siri de Apple, et l’Assistant de Google semblaient relever de la science-fiction. Mais demain, c’est aujourd’hui, et cet avenir est désormais intégré, amplifié, et omniprésent.

Les assistants virtuels se retrouvent partout : au bureau, à la maison, dans l’auto, à l’hôtel, et dans bien d’autres endroits. Leur évolution récente est spectaculaire. Leurs systèmes opératoires sont propulsés par l’intelligence artificielle (IA). Ils font la cueillette de données en temps réel, et ils sont capables de rassembler des informations de sources diverses – telles que les appareils intelligents et services infonuagiques – de les contextualiser et les interpréter grâce à l’IA. Si une bonne partie du chemin a été parcouru pour développer ces technologies, il reste encore bien du travail à faire dans ce domaine.

Grand nombre des données récoltées et utilisées par ces assistants numériques contiennent des renseignements personnels, parfois identifiables, et parfois de nature délicate. Alexa et les autres assistants virtuels violent-ils le caractère privé et la sécurité de nos données ? Oui. Ces assistants personnels ont une face cachée.

Je suis spécialiste en protection et en gouvernance des données ainsi qu’en intelligence artificielle. Je travaillais auparavant au bureau du Commissaire à l’information et à la protection de la vie privée de l’Ontario.

Un service de conciergerie

Envisageons le scénario suivant. Vous recevez des amis. Votre première invitée arrive, et la caméra de sécurité de votre porche la filme en train de s’approcher de votre maison. Une voix polie lui souhaite la bienvenue et débarre la porte. Une fois entrée, votre assistant personnel lui explique que vous êtes en route et arriverez bientôt. Votre système de son met en marche une sélection des morceaux préférés de votre invitée (à partir de sa liste Spotify qu’elle a mise en partage sur son réseau d’amis). Puis lui demande si elle préfère toujours le café à saveur de citrouille épicée, ou si elle en voudrait plutôt un à la vanille française ou bien encore un colombien. Peu après, votre invitée prend son café sur la machine à café numérique. Son service de conciergerie terminé, votre assistant vocal se tait, alors qu’en vous attendant, votre invitée passe quelques coups de téléphone.

C’est fascinant de s’apercevoir qu’un assistant virtuel peut avec exactitude identifier votre invitée, choisir ses chansons préférées, se souvenir de son café de prédilection tout en gérant les appareils intelligents de votre domicile.

Nos assistants virtuels à l’accueil

Mais en quoi le comportement de votre assistant numérique vous concerne-t-il ?

Les assistants numériques sont capables d’enregistrer nos conversations, nos images, et bien d’autres éléments de notre vie privée, y compris notre localisation, par l’intermédiaire de nos téléphones intelligents. Ils se servent de nos données pour améliorer leur apprentissage automatique au fil du temps. Ils sont programmés et entretenus par des entreprises qui sont constamment à l’affût de nouvelles façons de capturer et d’utiliser nos données.

Comme c’est le cas pour d’autres programmes informatiques, l’enjeu fondamental est que ces appareils peuvent avoir des défaillances, des problèmes de nature technique ou dans le traitement des données. Ils sont également susceptibles d’être piratés à distance, ce qui représente une atteinte à la vie privée de l’usager.

Par exemple, en Oregon, un couple a dû débrancher leur Alexa, car ses conversations privées étaient enregistrées et envoyées à un ami figurant sur sa liste de contacts.

Dans un incident séparé, un Allemand a reçu par erreur 1700 fichiers d’Alexa appartenant à un parfait inconnu. Ces fichiers contenaient son nom, ses habitudes, ses emplois et autres renseignements confidentiels.

La conscience du privilège

La popularité croissante et la disponibilité des assistants virtuels a eu pour effet d’élargir ce qu’on appelle le fossé numérique. On y découvre un paradoxe intéressant, où les usagers qui sont au courant et attentifs au respect de leur vie privée ont tendance à limiter l’utilisation d’outils numériques, alors que ceux qui protègent le moins leur vie privée intègrent de façon beaucoup plus régulière ces assistants personnels dans leur monde numérique.

Les assistants personnels enregistrent les données des usagers soit en continu, soit en attendant une commande de réveil pour se mettre en fonction. Il n’existe pas de limite à la cueillette de données qu’ils peuvent faire. Ils sont capables de recueillir et de traiter des données non autorisées par l’usager, comme sa voix, par exemple.

Dans notre société où sévit ce « fossé numérique », une personne avertie n’intégrerait pas un tel équipement dans son quotidien, alors que d’autres auraient tendance à accepter ou rationaliser ce type de comportement.

Le respect de la vie privée d’autrui

Dans notre époque aux objets omniprésents et à l’accès illimité à l’Internet, comment devrions-nous gérer ce paradoxe et respecter les choix d’autrui ?

Retournons à notre assistant virtuel du début. Il a dû traiter plusieurs sources de données sur l’invitée afin de pouvoir agir comme un « hôte intelligent ».

A-t-il agi pour nourrir ses algorithmes, ou bien pour empiéter sur la vie privée de l’invitée ? Cela dépend à qui l’on pose la question.

Notre éducation, basée sur les bonnes manières, nous pousse au respect des valeurs d’autrui en matière de technologies numériques. Cependant, les implications et la croissance de ces technologies ont été si radicales et si rapides que nous ne sommes pas encore arrivés à revoir nos paramètres sociaux ni nos exigences.

En tant qu’hôtes, par exemple, sommes- - nous tenus d’informer nos invités de la présence de nos objets branchés ? Serait-il poli pour un invité de nous demander d’éteindre ces appareils ? Devrions-nous nous renseigner sur la présence d’intelligence artificielle avant de nous rendre chez un ami, dans un hôtel, ou dans un Airbnb ?

La réponse à toutes ces questions, c’est oui, selon l’expert en étiquette Daniel Post Senning. Ce dernier croit qu’une auto-évaluation aide à mieux comprendre l’étiquette. Aimerions-nous savoir que nous sommes enregistrés lors d’une réunion d’affaires ou une rencontre privée ? Ou qu’on nous demande d’éteindre nos appareils intelligents lorsque nous recevons ? Les règles de l’étiquette sont universelles : il nous faut être respectueux et honnêtes.

Informez vos collègues que vos assistants virtuels peuvent enregistrer leurs voix, leur image et d’autres données personnelles. Demandez à votre hôte de fermer ses appareils si leur présence vous cause de l’inconfort. Mais faites-le avec respect. Il ne faudrait pas lui demander de le faire en présence d’une personne qui serait dépendante de tels outils, en raison de son âge ou d’un handicap, par exemple.

Tous ensemble pour préserver notre vie privée

La vie privée est une norme sociale que nous devons tous ensemble protéger. Tout d’abord, nous devons nous éduquer en matière de cybersécurité et des risques associés aux technologies numériques. Nous devrions également nous tenir au courant des dernières avancées technologiques et y réagir le cas échéant.

Le gouvernement se doit de jouer un rôle essentiel face à ce paradigme complexe. Il nous faut des lois plus fortes en matière de protection de la vie privée en lien avec les assistants virtuels. Pour l’instant, les règles du jeu sont écrites par Amazon, Google et Apple.

D’autres juridictions ont instauré des réglementations, comme celle du Règlement général sur la protection des données en Europe qui, notamment, supervise la cueillette de données sur un éventail d’appareils intelligents. Le Canada devrait suivre leur exemple.

* * * * *

Ce texte est d'abord paru sur le site franco-canadien de The Conversation. Reproduit avec permission.

«La science dans ses mots» est une tribune où des scientifiques de toutes les disciplines peuvent prendre la parole, que ce soit dans des lettres ouvertes ou des extraits de livres.

Science

Percées scientifiques 2019: 4000 ans d'érosion anthropique

L'année 2019 a été riche en découvertes pour la communauté scientifique de la capitale. Chacun dans son domaine, des chercheurs de la région ont écrit de nouveaux chapitre de l'histoire scientifique. Le Soleil vous présente, à raison d'une par jour, les percées les plus marquantes de l'année.

Commençons par une devinette. Si l’on vous demandait depuis combien de temps l’activité humaine a un effet mesurable sur l’érosion des sols à l’échelle mondiale, vous répondriez quoi? 50 ans? 200 ans? Peut-être même un peu plus?

Eh bien non, ce n’est pas un ou deux siècles, ni même «un peu plus» : en fait, cela remonte à (tenez-vous bien) pas moins de 4000 ans, selon une étude parue en octobre dans les Proceedings of the National Academy of Sciences, à laquelle a participé le chercheur Pierre Francus, du Centre Eau, Terre et Environnement de l’INRS.

L’idée de base derrière ce projet de recherche était qu’on savait que l’activité humaine, l’agriculture en particulier, accélérait l’érosion. En défrichant les terres pour les cultiver, on retire le couvert forestier qui gardait le sol en place, et on l’expose donc davantage au vent et au ruissellement. Cela fera immanquablement plus de matières en suspension que les rivières vont charrier vers les lacs, et ceux-ci vont donc accumuler des sédiments à un rythme plus rapide — et cette sédimentation peut donc servir d’indicateur pour mesurer l’érosion. Dans certains cas documentés, ce rythme a même été multiplié par un facteur 10, voire jusqu’à 100!

Or on n’avait jamais fait le portrait d’ensemble de ce phénomène. C’est pourquoi M. Francus et ses collègues d’une équipe internationale ont épluché la littérature scientifique à la recherche de toutes les données permettant d’estimer le rythme de la sédimentation sur des milliers d’années, et ils en ont trouvé pour plus de 600 lacs à travers le monde.

Résultat : à mesure que les glaciers se sont retirés, la sédimentation a ralenti pour se stabiliser il y a environ 8000 ans, parce qu’il y avait moins d’eau de fonte pour «gratter» les sols, pour ainsi dire. Mais à partir de 4000 ans avant aujourd’hui, le rythme de la sédimentation a recommencé à s’accélérer. Les chercheurs ont aussi noté qu’à peu près en même temps, les pollens contenus dans les sédiments ont changé, les pollens d’arbres cédant de plus en plus le pas à des pollens de végétaux associés à des milieux ouverts — ce qui suggère fortement que l’érosion accrue était liée au défrichage.

Dans l’ensemble, M. Francus et ses collègues n’ont pas trouvé une énorme accélération de la sédimentation. Celle-ci s’est amplifiée dans 35 % des lacs à l’étude mais est restée stable dans 39 % des cas et a même régressé dans 26 %. Cependant, c’est probablement dû au fait qu’avec l’agriculture est aussi venu la «gestion des eaux» par des barrages, des digues, etc., qui ont pu empêcher une partie des sédiments de se rendre jusqu’aux lacs étudiés. «Malheureusement, on n’a pas réussi à avoir suffisamment de données sur la gestion des eaux, mais c’est l’interprétation qu’on a retenue, parce qu’à partir du moment où vous avez un ouvrage de retenue des eaux à quelque part, les apports sont diminués en aval», dit M. Francus.

En outre, il note que l’érosion due à l’activité humaine n’a pas augmenté partout en même temps. Par exemple, «on n’a pas trouvé de signal associé à l’agriculture amérindienne [ndlr : même si beaucoup des lacs étudiés se trouvent autour dans le nord-est américain où vivaient des peuples comme les Hurons, qui cultivaient notamment le maïs], mais ça ne veut pas dire qu’elle n’a pas eu d’effet. Ça veut juste dire qu’on ne l’a pas détecté, sans doute parce qu’ils pratiquaient une agriculture plus respectueuse de l’environnement et qu’ils défrichaient moins. D’ailleurs, on a aussi vu des sites néolithiques [en Europe] où l’agriculture a accéléré l’érosion dans un premier temps, mais où les choses sont revenues à la normale par la suite parce que ces gens-là ne cultivaient pas toujours au même endroit, ils se déplaçaient [comme les agriculteurs amérindiens, ndlr]», dit M. Francus.

Dans l’ensemble, il reste tout de même que c’est à partir d’il y a environ 4000 ans que l’activité humaine a commencé à avoir un effet global sur l’érosion des sols de la planète. Et les auteurs semblent d’ailleurs s’en étonner dans leur article puisque, soulignent-ils, c’est «beaucoup plus tôt que les autres signatures de l’anthropocène [ndlr : période géologique où l’activité humaine a des impacts sur la géologie et les écosystèmes à l’échelle mondiale]», dont on fait généralement remonter le début autour de 1860.

«Une donnée qui m’interpelle, dit M. Francus, c’est que il y a 4000 ans, la population mondiale était d’environ 20 millions de personnes. Il y a beaucoup d’incertitude autour de ces chiffres-là, mais c’était autour de ça. […] Alors il n’y a aucune commune mesure entre ce qu’on détecte il y a 4000 ans et tout ce qu’on appelle maintenant l’anthropocène.»

Science

Face à la déforestation, un botaniste sauve la «mémoire verte» de la Colombie

LA CALERA - Dans le deuxième pays le plus riche au monde en biodiversité, la Colombie, un homme arpente des forêts aussi grandioses que dangereuses, armé seulement d’un carnet de notes et d’un sécateur pour préserver plantes et arbres menacés par les tronçonneuses.

«Oui, la lutte est inégale», admet Julio Betancur, qui a voué sa vie à dresser l’inventaire d’espèces depuis disparues ou menacées de l’être.

Science

En 2019, le pas de géant de la thérapie génique

WASHINGTON - L'été dernier à Nashville, une mère de famille américaine s'est fait modifier le génome et a cessé de souffrir.

«Depuis mes 11 ans, j'espérais une guérison», écrit Victoria Gray, 34 ans, à l'AFP.  «Depuis que j'ai reçu les nouvelles cellules, j'ai retrouvé le plaisir de passer du temps en famille sans vivre dans la crainte de douleurs ou d'une urgence.»

Science

Un mystérieux papillon géant échappe aux scientifiques en Centrafrique [PHOTOS]

DANS LA FORÊT DE LA LOBAYE — Suspendu aux branches à près de 40 mètres du sol, Nicolas Moulin scrute l'horizon. Dans les jumelles de cet entomologiste, une mer d'émeraude pétrifiée se déploie à l'infini.

C'est là, quelque part dans la canopée, que se cache le Papilio antimachus, le plus grand papillon de jour d'Afrique, quasiment inconnu de la science. Depuis sa découverte en 1782, personne n'a jamais réussi à observer la chenille et la chrysalide de ce papillon vénéneux dont l'envergure peut atteindre 20 à 25 cm.

Science

Percées scientifiques 2019: petit vaccin, gros effets

L'année 2019 a été riche en découvertes pour la communauté scientifique de la capitale. Chacun dans son domaine, des chercheurs de la région ont écrit de nouveaux chapitre de l'histoire scientifique. Le Soleil vous présente, à raison d'une par jour, les percées les plus marquantes de l'année.

Voilà plus de 10 ans que le vaccin contre le virus du papillome humain (VPH) est offert aux jeunes filles de bien des pays, dont le Québec depuis 2008. Déjà, les premières études sur ses effets laissaient entrevoir des résultats encourageants. Mais la plus récente permet carrément d’espérer un véritable coup de circuit!

Le VPH est une «famille» regroupant environ 170 virus qui, ensemble, figurent parmi les maladies transmises sexuellement les plus fréquentes. Dans la plupart des cas, l’infection ne cause aucun symptôme et disparaît d’elle-même, mais il arrive qu’elle persiste et provoque l’apparition de condylomes. Et comme le virus va «jouer» dans l’ADN des cellules pour se «reproduire», il lui arrive aussi de laisser des traces dans le matériel génétique qui débouchent sur des cancers. Le VPH est d’ailleurs la cause de la quasi-totalité des cancers du col de l’utérus et d’une majorité des cancers anogénitaux et de la gorge. C’est pourquoi bien des pays mènent des campagnes de vaccination massives des jeunes filles (et plus récemment des garçons) dès le primaire.

Maintenant, est-ce que ça marche? En 2015, une équipe internationale dont faisaient partie des chercheurs du Centre de recherche du CHU de Québec (CRCHUQ) avait mis ensemble toutes les données disponibles sur le sujet, un exercice nommé méta-analyse. Et ils avaient constaté un recul des infections, ce qui était encourageant, mais reposait sur des données encore très partielles. Alors ils ont fait une mise à jour importante cette année, sous la direction de Mélanie Drolet (première auteure) et de Marc Brisson (auteur «senior»), tous deux du CRCHUQ. Et les résultats, parus dans la prestigieuse revue médicale The Lancet, donnent le portrait le plus complet jusqu’à présent des effets du vaccin anti-VPH à l’échelle des populations.

«On avait juste 4-5 ans de données dans la première méta-analyse, et là on est rendu à 8-9 dans certains cas, dit M. Brisson. Et c’est particulièrement important parce que ça donne le temps de voir non seulement que le recul des infections se maintient, et même s’amplifie, mais ça nous permet cette fois-ci de mesurer un effet sur les lésions précancéreuses.»

Et oui, ça marche — et pas qu’un peu. En comparant les chiffres avant et après les campagnes de vaccination, les auteurs ont pu montrer que les infections aux VPH-16 et VPH-18 (les souches plus dangereuses du point de vue du cancer du col de l’utérus) ont reculé de pas moins de 83 % chez les jeunes filles de 13-19 ans, et de 66 % chez les 20-24 ans. Les condylomes sont quant à eux entre 54 et 67 % moins nombreux, selon le groupe d’âge.

Et par-dessus tout, les lésions précancéreuses du col de l’utérus, elles, sont 51 % moins nombreuses chez les 13-19 ans et 31 % chez les femmes de 20-24 ans.

Compte tenu du lien bien connu entre ce cancer et le VPH, cette baisse n’est pas particulièrement étonnante — elle était même attendue —, reconnaît Mme Drolet, mais il demeurait important de vérifier si les résultats étaient bien au rendez-vous. «Les essais cliniques [lors de la mise au point du vaccin, ndlr] étaient prometteurs, mais il fallait quand même aller voir si ça se concrétisait dans la population», dit-elle.

«Et une autre chose qui n’était pas mesurable dans les essais cliniques, poursuit-elle, c’était l’immunité de groupe [ndlr : quand une bonne partie de la population est vaccinée contre un virus, celui-ci a plus de difficulté à circuler et les personnes non vaccinées sont donc indirectement protégées]. Ça, c’est un aspect important qu’on est parvenu à démontrer dans cette nouvelle méta-analyse parce qu’on a observé un recul du VPH chez les garçons même s’ils n’étaient pas vaccinés au moment où les données ont été prises. Cet effet-là avait été prédit par des modèles mathématiques, mais là on peut le quantifier pour vrai.»

L’article de The Lancet mentionne en effet que les condylomes ont reculé 48 % chez les garçons de 15-19 ans et de 32 % chez les jeunes hommes de 20-24 ans. «Nos résultats montrent des preuves convaincantes que les programmes de vaccination contre le VPH ont des impacts substantiels», conclut d’ailleurs le texte. Au point où l’on peut désormais envisager l’«élimination du cancer du col de l’utérus en tant que problème de santé publique, dit M. Brisson. Ça ne baissera jamais à zéro [et le VPH ne disparaîtra pas, donc il faudra poursuivre la vaccination, ndlr], mais ce cancer-là pourrait devenir suffisamment rare pour qu’il ne soit plus considéré comme un problème de santé publique».

Mentionnons que l’article de M. Brisson et Mme Drolet figure parmi les 100 recherches qui ont le plus «fait jaser» en 2019, d’après un palmarès de la firme Altmetric, qui se spécialise dans la mesure de l’impact qu’on les études scientifiques sur le Web. La méta-analyse s’y est classée au 92e rang sur un total de 1,3 million de travaux scientifiques.

Science

Sur ces fameux «pets» de vaches...

SCIENCE AU QUOTIDIEN / «On s’inquiète de l’empreinte carbone des animaux, et particulièrement du bœuf. Mais ne devrait-on pas plutôt y voir un cycle? Les plantes captent le carbone dans l’air et les animaux, comme les vaches, mangent les plantes, puis vont retourner une partie du carbone dans leurs déjections et leur respiration, et le cycle va recommencer. Alors pourquoi les vaches seraient un problème? Comment pourraient-elle produire plus de carbone qu’elles n’en consomment?», demande André Rinfret, de Québec.

Si l’industrie bovine pèse plus lourd sur l’environnement que les autres sortes de viandes — qui, elles, pèsent plus lourd que l’alimentation végétale —, c’est en bonne partie parce que comparé aux autres animaux d’élevage, le bœuf convertit moins bien sa nourriture. D’après une étude parue récemment dans les Environmental Research Letters, pour produire 1 kg de viande (et autres parties comestibles), le bœuf doit manger autour de 36 kg de nourriture, alors que ce ratio est beaucoup moindre pour la volaille (4,2 pour 1) et le porc (6 pour 1). Et comme il faut les produire, ces moulées et ces bottes de foin, cela implique qu’à quantité de viande égale, il faut pas mal plus d’«intrants» (plus d’espace, plus d’engrais, plus de carburant pour la machinerie, etc.) pour le bœuf que pour les autres sortes de viande.

En outre, les bovins ont un système digestif particulier qui fermente la nourriture pendant longtemps. À cause de cela, ils n’émettent pas seulement du CO2, mais aussi du méthane (CH4) dans leurs éructations (et non dans leurs flatulences, comme on l’entend souvent), dont l’effet de serre est environ 30 fois plus puissant que le gaz carbonique. Alors les vaches ont beau ne pas rejeter plus de carbone qu’elles n’en consomment, elles en rejettent sous une forme qui est plus dommageable pour le climat.

Tout ça, ça fait une différence et on n’a pas le choix d’en tenir compte. Mais d’un autre côté, M. Rinfret  n’a pas complètement tort de dire que le carbone consommé par les bovins fait partie d’un cycle : éventuellement, le méthane finit par se retransformer en CO2. Cela prend du temps — des années, voir des décennies pour une petite partie — au cours duquel il empire le réchauffement planétaire, mais ce méthane-là faisait déjà partie du cycle du carbone, il ne vient pas s’y ajouter. Or le problème fondamental à la source du réchauffement climatique n’est pas tant le méthane additionnel (même s’il y contribue) que la combustion de pétrole, gaz naturel et charbon. Comme ceux-ci étaient enfouis sous terre depuis des centaines de millions d’années, leur carbone n’était plus en circulation depuis très longtemps, et les brûler vient ajouter du carbone au cycle.

Le cœur de l’affaire, il est surtout là.

* * * * *

«Est-ce que la sphéricité de la Terre explique au moins en partie pourquoi il fait plus froid aux pôles qu’à l’équateur. À cause de cette sphéricité, les pôles sont un peu plus loin du Soleil, dont les rayons doivent traverser une couche d’atmosphère plus épaisse avant d’arriver au sol, qu’ils frappent d’ailleurs à l’oblique. Ou est-ce surtout à cause d’autres facteurs, comme l’albédo ?», demande Yves Goudreault.

Les pôles sont en moyenne un rayon terrestre (6371 km) plus loin du Soleil que l’équateur. De plus, la Terre est inclinée de 23,5°, ce qui vient ajouter (ou enlever, selon la saison) jusqu’à 2500 km environ, pour un maximum de près de 9000 km. Or la distance Terre-Soleil est «dans une autre ligue», comme on dit : près de 150 millions de km. Alors le rayonnement solaire a beau diminuer avec le carré de la distance, ces quelque 9000 km de plus (en hiver) ne peuvent guère faire plus qu’une différence de l’ordre de 0,01 % — et encore, le Soleil ne se lève même pas aux pôles en hiver, alors en pratique ça ne change absolument rien. De toute évidence, la clef est ailleurs.

L’épaisseur de la colonne d’air traversée par les rayons joue un rôle. Mine de rien, à l’échelle de la planète, un peu plus de la moitié (53 %) du rayonnement solaire n’atteint jamais le sol, étant soit réfléchi, soit absorbé par l’atmosphère — et cette proportion est un peu plus élevée aux pôles.

Mais par-dessus tout, c’est l’angle avec lequel les rayons frappent le sol qui fait la différence. À l’équateur, ces rayons frappent presque parfaitement à la verticale alors qu’ils sont obliques aux pôles. On peut se représenter l’effet que cela a en imaginant une lampe de poche que l’on pointerait sur un mur. Si on pointe directement, la lumière aura une forme assez ronde. Mais si on lui donne un angle, alors la forme s’allonge. Cela implique que la même quantité de lumière doit maintenant éclairer une plus grande superficie — et c’est ce qui arrive avec le rayonnement solaire aux pôles. Si l’on ajoute à cela le fait que le Soleil ne se lève tout simplement pas en hiver aux hautes latitudes, cela signifie que les pôles reçoivent en moyenne (sur une année) moins de la moitié de l’énergie par mètre carré qui arrive l’équateur.

Et ce n’est pas tout : ce qu’il advient de ces rayons solaires une fois qu’ils touchent le sol est aussi important. La surface de la Terre réfléchit en moyenne 30 % du rayonnement, dont l’énergie est alors renvoyée vers l’espace. Mais un couvert de neige ou de glace réfléchit beaucoup mieux la lumière : plus de 80 % ! Voilà pourquoi il fait tellement plus froid aux pôles qu’à l’équateur.

Science

LE grand débat de Noël: sapin artificiel ou sapin naturel?

LA SCIENCE DANS SES MOTS / C’est le temps des Fêtes, et au milieu des listes de choses à faire et des préparatifs, certains se demanderont encore une fois s’il est préférable pour l’environnement d’acheter un arbre de Noël artificiel ou d’opter pour la vraie chose.

C’est une bonne question à poser. Nous sommes en pleine urgence climatique et de plus en plus conscients de notre impact environnemental.

Il est donc logique de se demander si le fait de laisser les arbres au sol pour continuer à croître ne contribuerait pas mieux à la lutte contre les changements climatiques.

Une décennie pour grandir ou se maintenir

Un arbre naturel de taille moyenne (de 2 à 2,5 mètres de haut, âgé de 10 à 15 ans) a une empreinte carbone d’environ 3,5 kilogrammes d’équivalent de dioxyde de carbone (CO2e), ce qui équivaut à parcourir environ 14 kilomètres en voiture.

Cette empreinte augmente considérablement si l’arbre est envoyé à la décharge. Lorsqu’il se décompose, il produit du méthane, un gaz à effet de serre plus puissant que le dioxyde de carbone, et génère une empreinte beaucoup plus grande – près de 16 kilogrammes d’équivalent CO2. Si l’arbre est composté ou recyclé, une pratique courante dans de nombreuses grandes villes – l’empreinte environnementale reste faible.

Par comparaison, un arbre artificiel de deux mètres de haut a une empreinte carbone d’environ 40 kilogrammes d’équivalent CO2 basée uniquement sur la production des matériaux.

Différents types de plastiques sont utilisés pour produire des arbres artificiels. Certains, comme le chlorure de polyvinyle, sont très difficiles à recycler et devraient être évités. Les arbres en polyéthylène, qui ont tendance à paraître plus réalistes, ont des prix plus élevées.

La grande majorité des arbres artificiels sont produits en Chine, à Taiwan et en Corée du Sud. L’expédition à partir de ces usines éloignées augmente l’empreinte carbone des arbres.

Un arbre artificiel doit être réutilisé pendant 10 à 12 ans pour correspondre à l’empreinte d’un arbre naturel qui est composté à la fin de sa vie. Même dans ce cas, le recyclage des matériaux des arbres artificiels est si difficile que ce n’est pas une pratique courante. Certains vieux arbres peuvent être réutilisés, mais la plupart des produits artificiels finiront dans un site d’enfouissement.

Brûler des arbres

Cela donne aux Canadiens soucieux de l’environnement une idée des répercussions de leur choix. Mais d’autres facteurs sont également en jeu. Les arbres naturels deviennent rares et plus chers. Aux États-Unis, le prix moyen d’un arbre naturel en 2019 est passé de 75 dollars US en 2018 à 78 dollars US en 2018.

La température a fait des ravages aux arbres de Noël. Aux États-Unis, le temps chaud et l’excès de pluie ont contribué à une pénurie d’arbres, et les incendies de forêt ont endommagé ou détruit certaines fermes. Les vagues de chaleur de 2017 et 2018 ont tué de jeunes semis en Oregon et auront un impact sur l’approvisionnement en arbres dans les années à venir.