Véhicules autonomes : pourquoi l’humain reste indispensable

Les voitures autonomes peinent à fonctionner sans intervention humaine. Les rôles en coulisse soulèvent des enjeux techniques et réglementaires.

Les véhicules autonomes promettent de supprimer le conducteur humain. Pourtant, dans la pratique, de nombreuses entreprises, comme Aurora, Tesla, Waymo ou Baidu, s’appuient encore sur des humains, visibles ou non, pour superviser, conseiller ou même intervenir à distance. Cette présence humaine persistante remet en question le discours d’autonomie complète. Elle révèle les limites techniques des algorithmes face aux situations complexes de la route. S’y ajoutent des enjeux de responsabilité juridique, de latence technique et de fiabilité des opérateurs à distance. Ces réalités ne sont pas toujours transparentes pour le public ou les régulateurs. Comprendre la place de l’humain dans la chaîne de décision est essentiel pour évaluer la sécurité et la viabilité économique des véhicules autonomes.

Une autonomie technique entravée par la réalité du terrain

L’idée selon laquelle un véhicule autonome pourrait circuler sans aucun humain à bord est encore loin d’être concrétisée. Même les entreprises les plus avancées dans le secteur, comme Aurora ou Waymo, doivent maintenir des humains à proximité du processus. Le cas récent d’Aurora illustre bien cette tension entre ambition technologique et exigences opérationnelles. La société annonçait en mai 2025 le lancement de sa liaison logistique autonome entre Dallas et Houston. Un mois plus tard, elle déclarait que son partenaire industriel PACCAR avait demandé la présence d’un observateur en cabine, en raison de composants encore à l’état de prototype.

Cette décision ne résulte pas uniquement d’un impératif de sécurité. Elle remet en cause la promesse commerciale d’un modèle sans conducteur. Payer un opérateur pour s’asseoir dans chaque camion nuit à l’argument économique central des véhicules autonomes : réduire le coût humain du transport. Même si cet observateur ne touche pas aux commandes, sa simple présence souligne l’incapacité actuelle à garantir une conduite 100 % autonome dans des conditions variées.

Le problème dépasse Aurora. À Austin, lors du lancement de son robotaxi, Tesla plaçait un superviseur humain sur le siège passager. En Chine, les robotaxis de Baidu intègrent des opérateurs à distance pouvant reprendre le contrôle si nécessaire. Chez Waymo, des agents de flotte répondent aux véhicules en difficulté. Même s’ils n’interviennent pas physiquement, leur rôle reste déterminant.

Ces pratiques révèlent une dépendance technique structurelle. Les véhicules autonomes gèrent bien les environnements répétitifs et cartographiés, mais peinent à interpréter des situations non prévues, comme des travaux routiers, des déviations, ou un agent de circulation improvisé. Ces « cas limites » ne sont pas rares. Ils mobilisent des capacités que les machines ne possèdent pas encore : intuition, interprétation contextuelle, doute raisonné.

voiture autonome

Des opérateurs dans l’ombre et des responsabilités floues

L’autre difficulté majeure concerne la transparence et la chaîne de responsabilité autour de ces opérateurs humains. Si un superviseur, qu’il soit à bord ou à distance, donne une mauvaise instruction à un véhicule autonome et qu’un accident survient, qui est responsable ? Le constructeur ? L’employeur du superviseur ? L’individu lui-même ? Ces questions ne sont pas réglées.

Le droit actuel, aux États-Unis comme en Europe, ne prévoit pas de cadre unifié pour les rôles hybrides mêlant autonomie logicielle et supervision humaine. Or, dans les faits, ces configurations sont courantes. Chez Waymo, les « fleet response agents » sont employés par Cognizant, une société de services numériques. Ils doivent posséder un permis de conduire et sont répartis dans des centres à Arizona, Michigan et offshore. Pourtant, la société refuse de communiquer le nombre exact d’agents et leurs niveaux de formation.

Cette opacité opérationnelle pose plusieurs problèmes. Elle limite la capacité des régulateurs à évaluer les risques systémiques. Elle empêche aussi d’identifier les failles potentielles, comme les décalages horaires, les barrières linguistiques, ou les problèmes de connectivité. Un opérateur situé à plusieurs milliers de kilomètres du véhicule qu’il supervise n’est pas dans les mêmes conditions qu’un conducteur local. Le délai de réaction, ou latence réseau, est critique en situation d’urgence.

À cela s’ajoute un risque bien documenté : la complacence face à l’automatisation. Des études en ergonomie ont montré que les humains chargés de surveiller des systèmes automatiques ont tendance à perdre leur vigilance, surtout en l’absence d’incidents fréquents. Ce phénomène, identifié dans l’aviation et l’industrie lourde, s’applique ici directement. Un opérateur passif peut rater une alerte ou sous-estimer un danger, précisément parce qu’il fait trop confiance à la machine.

Les régulateurs, selon Bryant Walker Smith, spécialiste du droit de l’automobile autonome, devraient interroger chaque étape du processus. Il ne suffit pas de déclarer qu’un système est sûr. Il faut démontrer que chaque rôle humain, même marginal, est clair, bien formé, responsable et intégré dans une logique de sécurité.

Des limites économiques et technologiques à intégrer dans les modèles

Au-delà des aspects juridiques et techniques, la présence d’humains dans l’écosystème autonome remet en cause le modèle économique de ces technologies. Le principal argument des véhicules autonomes, notamment dans le fret, repose sur l’élimination du coût salarial du conducteur. Si un chauffeur humain coûte en moyenne 45 000 à 65 000 euros par an aux États-Unis (incluant les charges sociales et frais), le remplacement par une machine permettrait d’abaisser radicalement le coût au kilomètre.

Or, tant que ces véhicules nécessitent des superviseurs embarqués ou des agents à distance, cette promesse reste théorique. Même si ces opérateurs sont moins nombreux et répartis sur plusieurs véhicules, leur présence implique un coût fixe. Elle impose aussi des infrastructures de supervision, des serveurs, des centres d’assistance, et du personnel qualifié.

La question de l’échelle est également stratégique. Pour être viable, une entreprise comme Aurora devra prouver qu’elle peut superviser des centaines de camions en simultané, avec un nombre restreint de techniciens. Mais cela suppose que la fiabilité technique soit proche de 100 %, ce qui n’est pas le cas aujourd’hui. Chaque intervention humaine réduit la rentabilité, et augmente le risque de panne organisationnelle.

En parallèle, les limites techniques persistent. Le traitement visuel en temps réel, la gestion des aléas routiers, et l’interopérabilité avec les systèmes humains (comme les policiers, les automobilistes, les piétons) restent des défis. Aucun algorithme n’est aujourd’hui capable d’interpréter de manière fiable un signal manuel improvisé d’un agent de voirie ou un comportement erratique d’un véhicule adjacent.

Cela suggère que l’autonomie de niveau 5 — sans aucune intervention humaine — n’est pas atteignable à court terme. Les entreprises devraient adapter leur discours, intégrer les coûts de support humain dans leur planification, et cesser de vendre une technologie comme « complètement autonome » quand elle ne l’est pas.

voiture autonome

Un besoin urgent de transparence et de cadre réglementaire

Le maintien de l’humain dans la boucle n’est pas un échec technologique. C’est un fait. Mais il doit être reconnu, encadré et expliqué clairement. Les rôles de supervision, d’intervention, de gestion de flotte ou de décision d’urgence doivent faire l’objet d’une réglementation spécifique. Cela passe par :

  • Une définition juridique de chaque fonction humaine liée aux véhicules autonomes ;
  • Des standards de formation pour les agents et superviseurs ;
  • Des protocoles de responsabilité en cas d’erreur ou d’accident ;
  • Une transparence publique sur les moyens humains mobilisés par chaque acteur du marché.

Les autorités doivent aussi s’assurer que ces postes ne deviennent pas des points faibles du système. Un service autonome supervisé par des travailleurs mal payés, mal formés, externalisés à l’autre bout du monde, devient vulnérable, inefficace, voire dangereux. Cette vulnérabilité est encore peu abordée dans le débat public.

Les fabricants de véhicules autonomes doivent cesser de mettre en avant une autonomie théorique, alors que chaque véhicule dépend encore d’une intervention humaine, même indirecte. Une technologie n’est pas mature quand elle exige de masquer ses limites.

Le progrès n’est pas dans l’illusion d’autonomie totale, mais dans la capacité à intégrer humain et machine de manière transparente, fiable et responsable.

LES PLUS BELLES VOITURES, votre magazine voiture en toute indépendance.