Dans le cas d'Uber, ce n'est pas l'IA qui est en cause mais ceux qui ont défini les règles. C'est comme si le moniteur auto-école disait à son élève : "S'il n'y a pas de passage piéton, de feu rouge ou de priorité à droite, rien d'autre ne peut arriver, la route est à toi... fonce mon gars !".
Quand on spécifie des règles en matière de programmation, on prévoit également ce qu'il faut faire dans les autres cas, surtout en matière de sécurité. Comme le dit Nexus dans le "doute" le véhicule aurait dû s'arrêter (Case else... Brake... End case

). Ça me paraît tellement gros comme erreur que j'en ai du mal à le croire

Uber, des IA au QI d'huître ?

A moins qu'Uber vise uniquement le marché scandinave ou les piétons respectent les passages protégés et attendent que le bonhomme soit vert avant de traverser. Il ne faut pas commercialiser ce modèle chez nous, ça va être une boucherie
