La Inteligencia Artificial (IA), en los últimos años ha cobrado mucha fuerza gracias a las nuevas tecnologías de software, particularmente la que se refiere a las redes neuronales profundas, la cual ha logrado resolver problemas que aparentemente no podrían solucionarse sino hasta dentro de muchos años. Un ejemplo de ello es el juego del Go, que a través de una red neuronal de aprendizaje reforzado, se logró vencer en un encuentro a cinco partidas, al campeón mundial de la especialidad.
Por otra parte, la IA, al empezar a tener éxitos importantes, enfrentaron algunas críticas y situaciones que quizás hablan a veces del desconocimiento sobre el tema. Incluso Hawking ha dicho reiteradas veces que la IA acabará con la raza humana y que estamos en un peligro evidente. Probablemente Hawking no sabe que estos avances que se han visto muchas veces no pueden ampliarse a otras actividades, otros dominios, por lo que el supuesto peligro de que las máquinas tomen la batuta y decidan “inteligentemente” de acuerdo a sus criterios es algo que no sucederá ni siquiera pronto.
Sin embargo, la empresa de Alphabet (Google), DeepMind, ha decidido definir una unidad de ética que permita atajar con todos estos temores sobre el control que podría tener la IA en los seres humanos. La idea de esto es lanzar una unidad de “ética y sociedad”, para estudiar así el impacto de las nuevas tecnologías en nuestros entornos sociales actuales.
El anuncio se hizo por parte de la empresa DeepMind, con sede en Londres, comprada hace unos pocos años por Google. “Como científicos que desarrollamos tecnologías de la IA, tenemos la responsabilidad de conducirnos y apoyar la investigación abierta con las implicaciones que tengan de hecho nuestro trabajo”, dicen Verity Harding y Sean Legassick, de DeepMind.
“En DeepMind empezamos a trabajar bajo la premisa de que todas las aplicaciones de la IA deberían mantenerse dentro del control humano y ser usadas para propósitos sociales benéficos. Entender esto significa poner en práctica cuestionamientos científicos rigurosos en los retos más sensibles que enfrentamos”, indican Harding y Legassick, y agregan: “Si las tecnologías de la IA están para servir a la sociedad, deben ser moldeadas en las prioridades y preocupaciones de la misma sociedad”.