La mort de Robert Williams
Le 25 janvier 1979, à l'usine Ford de Flat Rock dans le Michigan, Robert Williams, 25 ans, faisait son travail habituel. Le robot de la chaîne de montage, lui, faisait le sien. Sauf que ce jour-là, les capteurs d'inventaire ont dysfonctionné. Le système a envoyé Williams récupérer des pièces manuellement dans une zone normalement réservée aux machines.
Le bras robotique de une tonne ne l'a pas vu. Il ne pouvait pas le voir — il n'avait pas d'yeux. Il a continué son mouvement programmé et a frappé Williams à la tête. Mort instantanée. Premier humain officiellement tué par un robot dans l'histoire industrielle.
La famille a poursuivi en justice et obtenu 10 millions de dollars. Mais l'argent n'a pas ramené Robert Williams. Et surtout, cette tragédie a posé une question qui reste sans réponse satisfaisante aujourd'hui : qui est responsable quand une machine tue ?
L'illusion de la sécurité
Depuis 1979, l'industrie a évidemment progressé. Les cages de protection, les capteurs de présence, les arrêts d'urgence — tout un arsenal de sécurité entoure désormais les robots industriels. Les accidents mortels sont devenus rares. Nous nous sommes convaincus que le problème était résolu.
Cette conviction est dangereuse. Les robots de 1979 étaient stupides — des bras mécaniques suivant des trajectoires fixes. Les robots de 2026 sont intelligents. Ils apprennent, s'adaptent, prennent des décisions. Et avec l'intelligence vient l'imprévisibilité.
Un robot industriel classique fait exactement ce qu'on lui dit. Un robot équipé d'IA fait ce qu'il pense être le mieux. C'est une différence fondamentale que nos cadres de sécurité n'ont pas encore intégrée.
Les nouveaux risques
Les voitures autonomes ont déjà tué. Les drones militaires aussi. Les robots chirurgicaux ont causé des décès lors de procédures mal calibrées. Chaque domaine où l'automatisation progresse génère son lot de victimes.
Mais le vrai danger n'est pas le dysfonctionnement technique — c'est le fonctionnement normal. Quand une IA de conduite autonome décide de freiner brusquement pour éviter un faux positif et provoque un carambolage, elle fonctionne comme prévu. Quand un algorithme de recrutement discrimine systématiquement certains profils, il fait exactement ce qu'il a appris à faire.
Les accidents de 1979 étaient mécaniques. Les accidents de 2026 sont algorithmiques. Et nous n'avons toujours pas de cadre juridique adapté.
La question de la responsabilité
Quand Robert Williams est mort, Ford a été reconnu responsable. La chaîne causale était claire : l'entreprise avait installé un robot dangereux, le robot avait tué un employé, l'entreprise payait.
Avec l'IA moderne, cette chaîne se fragmente. Le fabricant du robot, le développeur de l'algorithme, l'entreprise qui l'a entraîné, celle qui l'a déployé, celle qui l'a configuré — tous peuvent pointer du doigt les autres. Le résultat ? Une dilution de la responsabilité qui profite à tout le monde sauf aux victimes.
L'Union européenne tente d'adresser ce problème avec l'AI Act. Les États-Unis préfèrent le laisser-faire. Mais aucune juridiction n'a encore trouvé de réponse satisfaisante à la question fondamentale : quand une machine autonome cause un préjudice, qui paie ?
L'éthique de l'automatisation
Au-delà du juridique, il y a l'éthique. Nous acceptons collectivement un certain niveau de risque pour bénéficier des avantages de l'automatisation. Les voitures autonomes tueront des gens, mais potentiellement moins que les conducteurs humains. Les robots industriels blesseront des ouvriers, mais le travail qu'ils remplacent était lui-même dangereux.
Ce calcul utilitariste est-il acceptable ? Qui décide du niveau de risque tolérable ? Et surtout, qui subit ce risque — généralement pas ceux qui prennent la décision de déployer les machines.
Robert Williams n'a pas choisi de travailler à côté d'un robot dangereux. Les travailleurs d'entrepôt d'Amazon n'ont pas choisi le rythme imposé par les algorithmes. Les patients opérés par des robots chirurgicaux font confiance à une technologie qu'ils ne comprennent pas.
Ce que 1979 nous apprend
La mort de Robert Williams nous rappelle une vérité inconfortable : la technologie n'est jamais neutre. Chaque innovation apporte son lot de bénéfices et de risques. Notre responsabilité collective est de s'assurer que ces risques sont identifiés, gérés et équitablement répartis.
En 1979, personne n'avait anticipé qu'un robot pouvait tuer. Nous n'avons pas cette excuse en 2026. Nous savons que l'IA peut discriminer, manipuler, blesser et tuer. La question est de savoir si nous allons agir avant la prochaine tragédie ou après.
L'histoire suggère malheureusement que nous attendons toujours les corps avant de bouger. Robert Williams méritait mieux. Les victimes à venir aussi.
