El coche de Google y las tres leyes de Asimov

A estas alturas si no han oído hablar del famoso coche de Google es que han estado ocupados, pero por si acaso pueden leer lo que dice Google aquí, pueden leer lo que dice Enrique Dans aquí o la reseña de Barrapunto aquí. De esta última tomo parte de la descripción:

Los coches usan cámaras de video, radares y lidares (medidores de distancia por láser) como sensores, y utilizan los centros de datos de Google para procesar la información en tiempo real. Por ahora el sistema no funciona en calles arbitrarias: un conductor repasó cada trayecto anticipadamente, anotando datos específicos para el coche autoconducido.

El desarrollo parece una maravilla y es un gran avance, aunque no es tan absolutamente novedoso porque ya en los noventa existían prototipos de vehículos similares aunque no entre el tráfico. La imagen de la izquierda muestra (en muy mala calidad) el aspecto del coche que se puede ver en un video muy breve en Youtube.

Al parecer Google tomó muchas precauciones y siempre había alguien listo para hacerse con los mandos, y el trayecto estaba más o menos prefijado de modo que no podemos saber cuanto de avanzado es el desarrollo respecto de las posibilidades reales de ponerlo en circulación de un modo comercial yo personalmente creo que al desarrollo le falta todavía mucho que andar, no soy tan entusiasta de pensar que esta década que viene habrá vehículos similares a la venta. Y la próxima tampoco, y hablo de antes de 2030.

Los riesgos y la gestión de la seguridad

Hay un análisis interesante sobre los aspectos de seguridad en el blog Seguridad y Gestión, traigo un extracto de la parte que para mi es más interesante:

¿Estaría dispuesto el fabricante del software a hacerse responsable de los errores de conducción que pudiera tener su software, o a responder de los accidentes que pudiera provocar un fallo de programación?
Las responsabilidades derivadas de fallos en los productos fabricados es algo que ha sido abordado de forma completamente opuesta por los fabricantes de automóviles y por los fabricantes de software.

Desde luego las políticas de calidad de la industria de automoción están a años luz de las políticas de calidad de la industria de software. Quiero decir como autodescargo por los informáticos que también el tiempo de evolución y la complejidad es muy diferente, las situaciones a las que se enfrenta un coche es un universo de posibilidades mucho más reducido (o más sencillo de modelar) que la casuística que sufre una aplicación. Del mismo modo aunque la automoción ha evolucionado mucho, si lo hiciera a la velocidad de la informática los coches consumirían CO2 y expulsarían oxigeno  con un consumo mínimo de energía mientras se mueven flotando en el aire con un suave silbido. 🙂

Las tres leyes

Además de las problemática de la seguridad a la que se refiere el anterior artículo debemos analizar la toma de decisiones de un sistema automático como este. Y siempre (desde 1942) que se habla de “robots” realizando tareas humanas salen a nuestro auxilio las famosas tres leyes de la robótica:

  1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

Las situaciones complejas son infinitas:

  • Caso de la primera ley: ¿Cómo decide el sistema si esquiva a un niño que cruza para no provocar una muerte si el precio es chocar con una farola y lesionar a los pasajeros levemente? ¿Cuántos milisegundos tiene para tomar una decisión así de relevante? Los ejemplos en los libros de Asimov de robots bloqueados ante la disyuntiva de elegir entre dos situaciones donde en ambas se lesiona un humano son muy evidentes de la complejidad.
  • Caso de la segunda ley: ¿Cómo decide el robot que no hay seguridad para continuar con las ordenes (recorrido)? Un conductor humano nota la falta de adherencia en la nieve o hielo y para en  la cuneta, pero si ya no conducimos la decisión la debe tomar quién “nota” los mandos, y ese es el coche por si mismo.
  • Caso de la tercera ley: De nuevo el niño que cruza, pero ahora aunque podemos frenar la consecuencia del frenazo es un más que posible choque con otro vehículo, ¿cuanto debe o puede apurar la frenada a riesgo de acercarse al niño, ¿frena en sec0? ¿frena midiendo la distancia al límite? ¿hace sonar el claxón sin frenar? La opción de un coche que es sumamente seguro para los demás a costa de tener continuamente pequeños golpes transitando es poco atractiva.
  • Además de estos casos, tenemos las situaciones de aviso ¿Cuánto debe avanzar la inteligencia artificial para enseñarle que detrás de un balón viene un niño?  ¿qué si alguien se mete dentro del coche lo más probable es que salga de inmediato? ¿Que si un coche se acerca a un sitio para aparcar es muy posible que pare y aparque de repente? Porque conducir es una acción mecánica, lo realmente complejo es la toma de decisiones que no tiene que ver con la conducción.

Es muy posible que en una década podamos hacer un sistema que pilote un Formula 1 mejor que Fernando Alonso, trazando cada vuelta al límite, sin fallos, siendo capaz de adelantar a un doblado e incluso realizando adelantamientos a otro piloto en competición abierta, después de todo ese es un entorno cerrado, definible y donde las habilidades de un sistema automático pueden ser mejores que las humanas, tal como pone Enrique Dans de ejemplo a Deep Blue como ordenador que ha superado a los humanos. Pero es que el ajedrez es al igual que el circuito de un Formula 1  es “matemáticamente modelable” y sin embargo el tráfico real sería como poner a Deep Blue a luchar en una trinchera de la segunda guerra mundial.

Otro tema es que estamos a las puertas de más y mejores sistemas de asistencia a la conducción, que ayuden a un conductor a evitar cierto tipo de colisiones. Pero de ahí a que el coche vaya solo como en “Yo, Robot” o “Minority Report” queda mucho camino por recorrer. Sería una opción si todos los vehículos fueran automáticos y las vías fueran exclusivas, pero no se cambia algo así de la noche a la mañana de modo que el periodo transitorio es la principal barrera.

Anuncios
A %d blogueros les gusta esto: