Error humano y autos con inteligencia artificial

error humano en auto autonomo

Leo en Scientific American: What NASA Could Teach Tesla about Autopilot’s Limits algo interesante y que apoya mi punto de vista sobre los autos con AI, se es autónomo o no pero el punto medio es el sweet-spot del error humano y mientras haya marcas que quieran hacernos creer que existe el piloto automático perfecto los accidentes van a seguir sucediendo… y la lógica es simple.

La foto que ilustra este articulo muestra todo lo que está mal con nuestra capacidad de atención y reacción, la versión corta de todo esto es: “Imaginen el tiempo que le lleva al salame de la foto en esa posición pisar el freno o girar el volante en un evento inesperado”, la versión larga se las recomiendo en estos paper de Stephen Casner de 1994 o el de 2014 para entender como somos incapaces de retener atención cuando esta no nos es requerida.

Observe, Orient, Decide, Act (OODA). The framework was originally devised by a U.S. Air Force colonel, and being “in” and “out” of the OODA loop have straightforward meanings. But as automation becomes more prevalent in everyday life, an understanding of how humans behave in an in-between state—known as “on the loop”—will become more important.

Es interesante ver que la NHTSA imagine que los pasos entre “automático” y “autónomo” son secuenciales sin problemas cuando el problema es que no hay tiempo de reacción para seguir el marco de referencia de la USAF, observar, orientarse, decidir y actuar cuando se recorren unos 35 metros en un segundo… el salto debería ser del 2 al 4 sin el “Level 3” que es el conflictivo.

  • No-Automation (Level 0): The driver is in complete and sole control of the primary vehicle controls – brake, steering, throttle, and motive power – at all times.
  • Function-specific Automation (Level 1): Automation at this level involves one or more specific control functions. Examples include electronic stability control or pre-charged brakes, where the vehicle automatically assists with braking to enable the driver to regain control of the vehicle or stop faster than possible by acting alone.
  • Combined Function Automation (Level 2): This level involves automation of at least two primary control functions designed to work in unison to relieve the driver of control of those functions. An example of combined functions enabling a Level 2 system is adaptive cruise control in combination with lane centering.
  • Limited Self-Driving Automation (Level 3): Vehicles at this level of automation enable the driver to cede full control of all safety-critical functions under certain traffic or environmental conditions and in those conditions to rely heavily on the vehicle to monitor for changes in those conditions requiring transition back to driver control. The driver is expected to be available for occasional control, but with sufficiently comfortable transition time. The Google car is an example of limited self-driving automation.
  • Full Self-Driving Automation (Level 4): The vehicle is designed to perform all safety-critical driving functions and monitor roadway conditions for an entire trip. Such a design anticipates that the driver will provide destination or navigation input, but is not expected to be available for control at any time during the trip. This includes both occupied and unoccupied vehicles.

Y acá creo que está lo que gente como Musk e incluso algunos de la NHTSA no entienden, el error humano está en diseñar automóviles esperando que el humano va a reaccionar como un algoritmo sin tomar en cuenta los factores fisiológicos y de comportamiento que impiden que nuestro patrón de respuesta sea constante y sea óptimo.

El error humano en el choque del Tesla fue, obviamente, culpa del conductor pero también del diseñador del auto que no entiende que un componente es… humano.

Leave a Reply

Your email address will not be published. Required fields are marked *