La Inteligencia Artificial ha estado ya muchos años con nosotros pero de los sistemas expertos, de los programas que supuestamente podíamos considerar inteligentes, se ha llegado al paradigma que está revolucionando esta ciencia: las redes neuronales, las cuales tienen que ver con el aprendizaje de máquinas, con el aprendizaje reforzado, con el hecho de que de pronto el «big data» en casi cualquier tema es el elemento clave para entrenar la red neuronal y que nos sorprenda con sus resultados.
DeepMind, la empresa que trajera el programa AlphaGo, que batiera al mejor jugador del complejo juego oriental Go, o bien, a AlphaZero, que supuestamente aprendió a jugar como súper gran maestro de ajedrez jugando millones de partidas con ella misma y sacando conclusiones que en 500 años los seres humanos no hemos advertido, ahora nos habla de los riesgos que puede tener la ciencia de la inteligencia artificial en el futuro.
«Hay un montón de preguntas filosóficas interesantes y difíciles… las cuales tendremos que responder sobre cómo controlar estos sistemas, qué valores queremos que tengan, cómo los pondremos en acción y para qué queremos usarlos», ha dicho Demis Hassabis, en una entrevista hace un par de días.
Hassabis habló del documental que sobre AlphaGo se ha estado difundiendo, que es el sistema de redes neuronales y de Inteligencia Artificial, el cual asombró literalmente al mundo en el 2016 al derrotar al jugador más fuerte del juego de estrategia chino, el Go.
En una pregunta formulada al final de la plática en el University College London, dijo que la IA es «una herramienta increíble para acelerar el descubrimiento del conocimiento científico», añadiendo: «Creemos que será una de las tecnologías más benéficas de la raza humana». Sin embargo, como cualquier otra tecnología potente, «hay riesgos», dijo, añadiendo: «depende de cómo como sociedad decidamos poner en práctica para resolver los retos en el futuro».
Es evidente que hay problemas éticos. Debe usarse la IA para controlar a otros seres humanos? ¿Debemos hacerle caso a las sugerencias de los sistemas inteligentes y olvidarnos de nuestras propias soluciones quizás basadas en la intuición? Hassabis indica que hay preguntas que «están en la frente de nuestra mente» en DeepMind, quien fundó en el 2010 y que ahora es parte de Google.
Desde luego que en todo esto hay un dejo de especulación educada, porque nadie puede predecir el futuro. Es claro que debemos estar preparados para lidiar con las implicaciones éticas de los sistemas inteligentes, asunto que de hecho, lleva años en discusiones. Pondremos un ejemplo: si existiese un sistema de diagnóstico médico computarizado, basado en la red neuronal más profunda que pueda usted imaginar. ¿Debemos creer en los diagnósticos que a los enfermos humanos? ¿Y cuando propone un tratamiento, deberíamos usarlo sin preguntarnos nada más? ¿Quién será el responsable de los errores posibles en los tratamientos, que incluso podrían poner en juego la vida de algún enfermo? No hay respuestas simples a estas preguntas evidentes.