Le voiture autonome que Google est en train de développer.

Attention : ordis au volant!

BLOGUE / Comme n'importe quelle nouvelle technologie, la voiture autonome engendre son lot de méfiance. C'est normal, et il y a même quelque chose de plutôt sain là-dedans : quand on introduit un nouvel élément dans un système hautement complexe (que ce soit une société, un écosystème ou un organisme), il est toujours difficile de prévoir tous les effets que cela aura. Mais est-ce que la prudence doit aller jusqu'à imposer un «préposé» à chaque véhicule sans conducteur ?

C'est en tout cas ce que propose ce texte paru récemment sur le site de Nature : «autonome ne signifie pas et ne doit pas signifier sans supervision humaine» même si c'est manifestement ce que bien des décideurs de l'industrie et des gouvernements ont en tête, avertissent les auteurs, trois chercheurs du MIT. Il devra toujours y avoir une forme ou une autre de contrôle humain exercé sur ces véhicules, que ce soit un «conducteur d'urgence» présent dans l'auto ou des contrôleurs à distance, et l'on devrait adopter des lois qui forcent les constructeurs automobiles à concevoir leurs autos du futur en ce sens.

Il y a plusieurs excellents points qui sont soulevés dans ce texte. Si l'algorithme doit «apprendre» à conduire la voiture de façon sécuritaire, alors comment lui montrer à bien réagir dans des circonstances rarissimes, comme un camion-remorque qu'un vent violent ferait basculer juste devant le véhicule ? En cas d'accident, qui est responsable de quoi ? Puisque différents constructeurs utilisent différents «algos» de conduite, comment tous ces programmes vont interagir ensemble sur les routes ? Si les caméras qui servent d'«yeux» au véhicule cessent de fonctionner, comment fera-t-il pour s'immobiliser sécuritairement ? Et ainsi de suite. C'est une très grosse nouveauté qui s'annonce et elle pose des questions très difficiles. On devra pourtant les résoudre, et le plus tôt sera le mieux.

Mais j'ai un peu de misère à suivre le trio du MIT quand il dit qu'il faudra toujours un «opérateur humain» derrière le volant. À court terme, tant que la technologie sera en développement/rodage, on s'entend que cela s'impose tout naturellement. Mais à plus long terme, quel est l'intérêt de la voiture sans conducteur s'il faut toujours y mettre un conducteur ? L'avantage de la voiture sans pilote est que ses passagers sont tous libérés de la conduite, mais si ce n'est pas le cas, alors à quoi sert-elle ?

Il me semble que cette proposition est l'équivalent logique de demander à ce qu'on installe un second volant et une seconde pédale de frein du côté passager dans tous les véhicules conduits par des humains, et à obliger tout le monde à toujours rouler à deux dans la voiture, afin qu'il y ait toujours quelqu'un pour corriger d'éventuelles erreurs de pilotage ou d'inattention du conducteur. Ça ne tient pas debout : on sait qu'il y a toujours un risque à chaque fois que quelqu'un prend son auto, et nous acceptons collectivement de vivre avec. Alors je ne vois pas de raison de ne pas faire pareil avec les voitures autonomes le jour où l'on jugera qu'elles ont été assez testées pour cela, d'autant plus que les algos font déjà moins d'accidents par distance parcourue que les humains.

En outre, je conçois mal qu'il puisse y avoir un gros avantage, en pratique, à garder constamment un humain en contrôle. C'est déjà un peu monotone de conduire, alors imaginez s'il s'agit de superviser la conduite d'un algo pendant des heures : la plupart des gens finiront par ne plus faire attention à la route et il leur sera impossible de corriger à temps une éventuelle erreur du pilote automatique. Et si c'est quelqu'un qui supervise à distance plusieurs véhicules... vous voyez le topo.

Non, les questions difficiles évoquées plus haut (et les autres) doivent être réglées en amont, pas sur le terrain par des humains qui superviseraient des machines. Ce peut être des normes (qui reste à édicter) pour encadrer les algos, ce peut être en imposant des choix moraux (dans X situation, doit-on sauver les passagers ou les piétons ?) à l'industrie, etc

Ce ne sera pas facile, loin de là, mais on devra bien passer par là. Les expériences sur route menées actuellement par plusieurs constructeurs automobiles laissent entrevoir que ces logiciels pourraient sauver facilement des milliers de vies à chaque année, puisque la plupart des accidents de la route sont le fruit d'erreurs humaines. Or pour en profiter, il faudra accepter (et encadrer) le fait que les algos ne sont pas parfaits. Et que le jour où cela se fera à grande échelle, il y aura des problèmes que nous n'avions pas prévus qu'il faudra résoudre. Mais c'est comme cela avec toutes les nouvelles technologies.

Apprendre à bien encadrer l'électricité, par exemple, ne s'est pas fait du jour au lendemain. Il y a eu des essais et des erreurs, qui ont causé nombre d'incendies et de décès au passage. Mais cela ne signifie en rien que l'électrification des villes était une mauvaise idée. Au contraire, comparé aux lampes à l'huile et au chauffage à combustion, l'électricité est beaucoup plus sécuritaire. C'est juste qu'elle n'est pas parfaite et qu'il a fallu accepter (et encadrer par des lois comme le Code du bâtiment) ses imperfections.

Ce sera la même chose avec les voitures sans pilote (ni superviseur), il me semble. Qu'en dites-vous ?