El famoso filósofo y tecnólogo, David Weinberger, comenta sus impresiones sobre el relevante papel que la Inteligencia Artificial va a desempeñar en nuestra vida.
¿Realmente queremos que las máquinas tomen decisiones por nosotros?
Dependerá de si aceptamos o no que lo realicen sin intervención alguna humana en determinados casos.
Los ordenadores ya saben cómo convertir escritura hecha a mano en letra de imprenta. La inteligencia artificial dotada de aprendizaje automático, que aprende por sí sola, está haciendo lo mismo, pero de otra manera.
La diferencia es que hasta ahora los humanos tenían que decirles a las máquinas qué buscar para identificar la escritura hecha a mano: si hay una línea vertical con un punto encima, es una «i», etc. Con el aprendizaje automatico («machine learning») no necesitamos introducir ese tipo de reglas, sino que basta con alimentar a las IAs con miles de ejemplos de escritura hecha a mano y ellas mismas descubren los patrones que corresponden a las letras.
No veo ningún problema ético con esto, ni que exista ninguna decisión por su parte. Del mismo modo, si un sistema de aprendizaje automático le dice a su médico que tiene usted un 63% de probabilidades de desarrollar diabetes, la máquina no está tomando una decisión, sino que nos está alertando de una probabilidad estadística. Usted – o más bien, su médico – deberá determinar las medidas a adoptar.
Es posible que la inteligencia artificial actúe sin intervención humana alguna, como sucede con la que indica la mejor ruta para que un automóvil llegue a su destino. Los ordenadores aterrizan y despegan aviones sin el concurso de los pilotos, porque con frecuencia las máquinas suelen ser mejores que los humanos realizando esa tarea. Ése es un caso en el que permitimos que una computadora «decida» (digo «decidir» entre comillas porque las computadoras no son conscientes) por nosotros.
Del mismo modo, permitiremos que la inteligencia artificial conduzca nuestros coches si lo hace con más seguridad que los humanos, ya que los vehículos sin conductor pueden recoger datos en un radio de 360 grados y su tiempo de reacción es mucho más rápido que el nuestro.
¿Permitiremos, por ejemplo, que la inteligencia artificial dicte las sentencias judiciales?
Bueno, podemos decidir no hacerlo porque pensemos que socavará la confianza en nuestro sistema legal. Pero los jueces humanos son propensos a sesgos, y puede que la inteligencia artificial actúe con mayor objetividad que ellos.
Mi punto de vista es que dejaremos que la inteligencia artificial tome «decisiones» por nosotros cuando los resultados sean mejores que los nuestros. Pero somos los humanos los que valoraremos qué consideramos mejor.
Funciona muy bien aplicada al reconocimiento de rostros, o para derrotar a campeones del mundo de ajedrez, go, etc.. Pero la semana pasada el DeepMind de Google dió un paso más allá: su algoritmo de aprendizaje automático con el que puede aprender a jugar cualquier juego por sí mismo partiendo de cero, consiguió proclamarse campeón en cuestión de horas. Adquiere experiencia rápidamente perfeccionando su respuesta ante cualquier situación posible.
En general el mundo del software es oscuro, ¿cómo puede alguien decidir si un sistema de Inteligencia Artificial es adecuado antes de observar los resultados?
Sin duda hay sistemas que van a generar resultados a través de procesos demasiado complejos para que la mente humana los entienda. Para evitar ese problema, puede que queramos crear aplicaciones que sean más transparentes, incluso si eso significa que los resultados sean peores.
Imaginemos, por un momento, que los coches sin conductor son controlados por una inteligencia artificial con unos modelos matemáticos y probabilísticos que los humanos no acertamos a entender, pero que con su intervención las muertes de tráfico disminuyen un 90%. Ahora, supongamos que hacer que los métodos de esa inteligencia artificial se vuelvan «comprensibles» para nosotros, se traducen en una reducción de las muertes de tan sólo el 50%, con lo que, miles de vidas que se podrían haber salvado, se perderían. ¿Querríamos eso como sociedad? Yo creo que no, pero esa es una pregunta a la que tendremos que enfrentarnos.
La transparencia de los algoritmos no es la única forma de controlar la inteligencia artificial. Podríamos controlarla también incidiendo en la transparencia de los datos que se utilizan para entrenarla, exigiendo que no sean sesgados, u obligando a que los resultados sean transparentes, y podamos valorar cómo cumple su función la máquina. En el caso de la inteligencia artificial para coches sin conductor, esto significaría comprobar que realmente se producen menos muertes, más ahorro ecológico, tiempos de transporte más cortos, viajes más cómodos, etc.
La transparencia no es en sí misma un bien ni un fin. La transparencia constituye sólo una herramienta que resulta útil en ciertas circunstancias. Por eso, a veces, la transparencia de los algoritmos será el enfoque correcto, pero no siempre.
Entonces, relacionado con esto, ¿por qué deberíamos confiar en la Inteligencia Artificial?
Solo podremos hacerlo cuando tengamos pruebas concluyentes de que funciona correctamente, lo que podría requerir, en algunos casos, realizar pruebas exhaustivas.
¿Puede la inteligencia artificial amplificar nuestros defectos?
Sin lugar a dudas. La inteligencia artificial aprende de los datos que le damos. Es decir, analiza esos datos ampliamente, y encuentra correlaciones y patrones estadísticos y probabilísticos. Por lo tanto, la inteligencia artificial puede repetir los sesgos que existen en los datos e incluso amplificarlos.
Por ejemplo, si las mujeres están sub representadas en la alta dirección empresarial, los datos lo reflejarán, y la inteligencia artificial puede deducir de ellos que existe una correlación negativa entre ser mujer y ser una alta directiva, y termine por no recomendar a las mujeres para tales puestos.
¿Existen algoritmos «sesgados»? ¿Cómo podemos detectarlos?
Sí, como ya he explicado. Una forma de detectarlos el sesgo es examinar el modelo en que se basa la inteligencia artificial para tomar «decisiones», pero algunos pueden ser demasiado complejos para que los entiendan los humanos.
Otra forma, que sugieren algunos investigadores de las universidades de Harvard y Oxford, es enviar la misma información al sistema, con ligeras variaciones: si por ejemplo modificar el género o la raza de la persona, altera profundamente el resultado, es un indicio claro de que el sistema está sesgado. Claro que esto que explico es una gran simplificación ya que no soy un científico informático.
Finalmente, ¿hasta que punto puede ser pelgroso o no, una Inteligencia Artificial diseñada para efectuar predicciones?
La inteligencia artificial puede hacer falsas predicciones. De hecho, todas sus predicciones conllevan un nivel de confianza, de la misma forma que los meteorólogos afirman que hay un 60% de probabilidad de lluvia.
Las predicciones pueden ser peligrosas si las consecuencias lo son: decir que mañana estará despejado cuando en realidad lloverá, seguramente no será demasiado grave, pero un mal diagnóstico médico puede ser fatal.
Lo que tenemos que preguntarnos es si usar la inteligencia artificial para alguna tarea en particular resulta más peligroso que confiar en los métodos que utilizamos actualmente. Si la inteligencia artificial lo hace mejor, entonces, aun existiendo un riesgo, optaremos por ella.
(Extracto. Adaptación libre)
Imágenes: César Lucas Abreu Madrid Destino|DesarrollandoAmerica.org|FayerWayer|TyN Magazine|Pinterest|youtube.com
http://www.expansion.com/economia-digital/innovacion/2017/12/14/5a314a6eca474131108b460a.html