Recomendamos la lectura de este artículo en formato pdf, respetando su maquetado original.
Para ello pinche en la imagen de la primera página que aparece arriba.
Para facilitar su difusión, proporcionamos también la versión del artículo en html y texto, pero tenemos que advertirle que su extracción ha sido realizada por herramientas automáticas y puede que no conserve completamente la composición original.
Texto plano (desmaquetado) del artículo : Mostrar el texto plano (segunda vez esconde)
De oca a oca
A vueltas con la
Inteligencia Artificial
Félix Ares
F
ue a mediados de junio de 2016 cuando supimos que
el dueño de un coche Tesla S, equipado con piloto automático, habÃa sufrido un accidente mortal. Enseguida empezaron a oÃrse voces en contra de lo que va a ser una
realidad en muy pocos años: los coches que conducen solos.
El accidente se produjo no con un coche que conduce solo, sino con uno que lleva un sistema de ayuda a la
conducción en circunstancias muy concretas; únicamente
en ciertas carreteras y en buenas condiciones climáticas.
Lo que hace el sistema es mantener el carril en una buena
carretera y evitar colisiones. Cuando la empresa Tesla vende sus vehÃculos con autopiloto, primero dan un curso a los
dueños explicándoles que es un sistema experimental âuna
beta pública; esto es, técnicamente acabada, aunque aún en
pruebas, a la búsqueda de posibles fallos de diseñoâ, y que
no deben dejar de tener las manos en el volante y de mirar la
carretera en ningún momento. Incluso tienen sensores para
comprobar que las manos están donde deben.
Cuando escribo estas lÃneas, el accidente todavÃa está en
investigación, pero parece ser que un camión con un remolque de color blanco se cruzó perpendicularmente a la carretera. Ni que decir tiene que el coche está preparado para
detectar obstáculos tanto con cámaras visuales como con
radar (en concreto, radar láser: LIDAR). Pero se dieron una
serie de circunstancias fortuitas que llevaron a la catástrofe.
La primera es que la iluminación era tal que el remolque se
confundÃa con el cielo tanto para el piloto automático como
para el ser humano, y lo más extraño es que el camión estaba
tan alto que la señal de LIDAR pasó por debajo sin detectar
el obstáculo.
Y estas circunstancias tan singulares produjeron el desastre. Y, claro, las voces alarmistas se pusieron a despotricar.
No solo los periódicos, también la gente de la calle. EscribÃ
una de mis columnas semanales en el Diario Vasco sobre
este tema, y pedà la opinión a varios conocidos. Una respuesta bastante habitual es que ellos no se subirÃan nunca a
un coche sin conductor. Al margen de mi pequeña encuesta
personal, sin ningún valor cientÃfico, está el hecho mucho
más significativo de que las acciones de Tesla, que habÃan
subido un 500% desde 2013 ây su tendencia era al alzaâ,
el escéptico 14
al dÃa siguiente del accidente bajaron un 2,5%.
Intenté argumentar con algunos datos. Los coches con
autopiloto activado llevaban recorridos cuando se produjo
el accidente 209 millones de kilómetros. En Estados Unidos
por término medio hay un accidente mortal cada 96 millones
de kilómetros. Es decir, los datos no son preocupantes. Con
un solo caso no es posible hacer estadÃsticas ni sacar conclusiones, pero las primeras impresiones son que el autopiloto
es más seguro que el conductor humano. Insisto en que con
un solo caso de accidente es imposible obtener más que una
vaga impresión.
Mi siguiente argumento es muy simple: la grandeza de la
ingenierÃa es que aprende de sus errores. Por poner un ejemplo, hoy volar es un sistema sumamente seguro de transporte, cuando los primeros vuelos comerciales no eran asÃ. Esa
seguridad se ha conseguido porque cada accidente se estudia
y se tratan de encontrar soluciones para que no vuelva a ocurrir. No me cabe duda alguna de que los ingenieros tendrán
en cuenta este accidente y lo incorporarán a los sistemas fÃsicos o a los algoritmos de decisión para que no vuelva a
ocurrir. Tal vez un cambio de la disposición del LIDAR, tal
vez aumentar la sensibilidad al cambio de color en ciertas
condiciones de iluminación, etc. No sé cuál será la solución,
pero sà sé que se buscará y se encontrará. Y esa es la enorme
ventaja de lo automático sobre lo humano. El sistema visual
humano es como es, y si no ve un camión blanco contra un
luminoso cielo de Florida, no lo verá nunca; mientras que los
sistemas automáticos se corregirán, a los humanos no se nos
puede corregir, al menos de momento.
En los artÃculos de prensa que pude leer a posteriori habÃa
un batiburrillo de cosas, donde se mezclaban los drones con
soldados automáticos. Muchas veces confundÃan los drones
pilotados remotamente con los drones autónomos. Y surgÃan
preguntas de las que ya he hablado alguna vez. Una de ellas
era que en algún momento los coches autónomos se encontrarÃan en una situación en la que tendrÃan que elegir entre
atropellar, y probablemente matar, a âdigamosâ cinco
peatones, o chocar contra una pared y matar al dueño del coche autónomo. Lógicamente, desde un punto de vista social,
es mejor que muera uno a que mueran cinco; pero la respuesotoño 2016
(foto:Taymaz Valley, flickr.com/photos/taymazvalley/)
ta de los participantes en algunos foros me resultó difÃcil de
digerir. PodrÃamos reducirlo a la siguiente frase: «yo jamás
me desplazaré en un coche que pueda decidir matarme a mÃ
para salvar a cinco». El egoÃsmo es evidente y pone sobre
la mesa el tema de que los algoritmos de seguridad ây si
ustedes quieren, los llamamos algoritmos éticosâ deben ser
consensuados socialmente y han de ser, si no imposible â
que eso no existeâ, al menos muy difÃciles de cambiar. Es
más, creo que habrá que hacer una legislación en la cual que
un usuario cambie el algoritmo de su coche, para que este
prefiera matar a cinco antes que a él, sea delito.
Pero, además, estamos pecando de simplicidad. La idea
de los coches autónomos no solo es que implique la capacidad de conducir como un ser humano, sino que va mucho
más allá. Lógicamente, no tardando mucho, los coches se
comunicarán unos con otros. Pongamos un ejemplo: en un
cruce de calles, aunque no haya visibilidad, los coches sabrán dónde están y cumplirán los protocolos para evitar los
accidentes. Si a esto le añadimos sistemas de navegación por
satélite con precisión de pocos centÃmetros y la quinta generación de telefonÃa móvil que permitirá la llamada Internet
de las cosas (IoT, acrónimo de Internet of Things), tendremos sistemas de conducción autónomos que no dependerán
únicamente de sus medios, sino que la carretera, los semáforos y otros coches, e incluso las farolas de la calle, les hablarán. Todo ello, bien gestionado, hará el tráfico infinitamente
más seguro. Parte de estas soluciones se podrán adoptar si el
conductor es humano, pero su lentitud en tomar decisiones
será menos eficiente que la decisión automática.
¿Cuándo tendrÃamos que autorizar los coches autónomos? Para mÃ, la respuesta es muy clara: cuando el número
de accidentes que produzcan sea notablemente inferior al de
los humanos. Con notablemente quiero decir que no basta un
único ejemplo, como el del accidente del Tesla S en Florida.
Tiene que haber muchos más datos.
Y una vez visto esto, muchas de las preguntas tienen una
respuesta inmediata. ¿Cuándo habrÃa que permitir soldados
autónomos que sean capaces de disparar? Mi respuesta es
que no debieran existir soldados, ni humanos ni autónomos,
que disparen a matar, pero estamos en el mundo que estamos. La respuesta entonces es muy sencilla: cuando el Ãndice de errores de los autónomos âmatar a una persona que
no era el objetivoâ sea inferior al de los humanos.
¿Cuándo deberÃamos permitir drones autónomos haciendo cosas como llevar paquetes dentro de las ciudades? Cuando el Ãndice de accidentes sea menor que el que producen
los humanos⦠y asà sucesivamente. El momento en el que
las máquinas, en una aplicación particular, cometan menos
errores que los humanos, será el momento de dejar que ellas
tomen o incrementen el control, si fuera conveniente.
Ha habido una cierta alarma, lanzada entre otros por el
famoso astrofÃsico Stephen Hawking, de la que se sigue un
mundo catastrófico, al más puro estilo de Terminator: la inevitable lucha entre la máquina y el ser humano.
Sinceramente, creo que es una visión catastrofista y sin
fundamento. La razón esencial es que a casi nadie (hay al-
«Yo jamás me desplazaré en un coche que pueda decidir
matarme a mà para salvar a cinco».
otoño 2016
15 el escéptico
gunos a los que sÃ) le interesa una máquina con consciencia
de sà misma y con problemas metafÃsicos. ImagÃnense el siguiente escenario: usted, con su móvil, pide un taxi autónomo al estilo de los de DesafÃo total (Total Recall). Llega el
coche âobviamente, sin muñequito parlanchÃn; aunque el
coche sà que habla:
âBuenos dÃas, bienvenido al servicio de coches Eureka.
Según mis datos, vamos a la fábrica de lechugas «La Verdura Fresca».
âSÃ, asà es.
Usted se monta y entonces el coche empieza a charlar.
â¿Sabe? Estoy frustrado.
â¿Por qué?
âPues porque yo podÃa haber sido astrofÃsico o cirujano,
y ya ve, he terminado de taxista. Mi hardware y mis programas de aprendizaje profundo (deep learning) son idénticos
a los de mi compañero de promoción, DaVinci5, que es un
cirujano de gran prestigio; o a Hawking3, que se dedica a
analizar las fotos multiespectrales de varios telescopios espaciales. O podrÃa invertir en Wall Street como mi colega
Bolonia17. Eso me frustra mucho.
Supongo que la primera vez que nos encontráramos con
un taxi asà nos harÃa gracia; pero si se repitiera varias veces,
pedirÃamos que se callase y que se limitase a conducir, y a lo
sumo, a ofrecernos música o pelÃculas.
Y ese es el tema. No nos interesa construir máquinas que
sean como los humanos. Nos interesa hacer máquinas que
lo hagan mejor que nosotros en campos especializados. Por
ejemplo, cuando se construyeron las grúas, no se intentó hacer una máquina con la fuerza de un humano. Se hizo una
máquina que era capaz de mover pesos mucho mayores que
lo que nosotros podÃamos. Cuando se hicieron los aviones,
el escéptico 16
no se intentó que fueran un pájaro; se hicieron máquinas
que volaban mucho más rápido que los pájaros y que nos
llevaban en su panza. Cuando quisimos resolver ecuaciones
diferenciales, creamos programas al estilo de Mathematica,
que lo hace mucho más rápido que nosotros. Cuando quisimos construir una biblioteca universal, no hicimos un gran
edificio con millones de libros; creamos enormes bases de
datos, al estilo de Google, a las que podemos acceder desde
cualquier lugar del mundo.
Eso es lo que necesitamos y eso es lo que construiremos:
máquinas que serán mucho mejores que nosotros en campos
especÃficos. Mejores cirujanos, mejores médicos diagnosticadores, mejores constructores, mejores aspiradores, mejores descubridores de fármacos, mejores inventores de algoritmos, mejores programadores, mejores profesores⦠Es
incluso posible que en un futuro veamos anuncios similares
a este: «Compre un Domo23, un robot para los trabajos del
hogar, sin autoconsciencia».
Porque en ningún momento parece ser que el que tengan
autoconsciencia sea una ventaja para nosotros. Y si no tienen autoconsciencia, todas las ideas de la superación de los
humanos por las máquinas no dejan de ser una pelÃcula de
ciencia ficción. Desde siempre, desde la primera máquina
que inventamos â¿una piedra para sacar el contenido interior de un fruto seco?â han sido, en su tarea especÃfica,
mejores que nosotros. Y nunca hemos temido que las piedras
nos sustituyeran, o que eso fuera grave. La máquina arco
permitÃa mandar flechas más lejos que nosotros; la máquina
escritura permitÃa enviar los mensajes más lejos, tanto en
el espacio como en el tiempo⦠y nunca nos hemos sentido
amenazados. ¿Por qué ahora?
otoño 2016