Un grupo de científicos y ingenieros de la Universidad de Cambridge decidieron fundar el Centro de Estudios de Riesgo Existencial (CERE) para analizar las diferentes amenazas que podrían terminar la existencia de la humanidad como la raza dominante del planeta. Uno de los riesgos más probables según esta nueva escuela organización, es la creación de una inteligencia artificial con la capacidad de destronarnos de nuestro liderazgo evolutivo. ¿Cuánto falta para el fin del mundo’
Actualmente existen inteligencias artificiales que pueden armar una máquina con sólo leer el manual de instrucciones o jugar videojuegos con un 70% de victorias de manera totalmente autónoma. Hoy es un momento en que las máquinas aún no se convierten en amenazas y sólo son objetos serviles que podrían ayudarnos a realizar las tareas cotidianas más sencillas; sin embargo, el CERE considera el hecho de que, en un futuro eventual, la humanidad pueda crear una IA tan avanzada que esta acabe por destruirnos.
El CERE toma en cuenta un término acuñado en 1965 por el matemático Irving Jack cuando definió a las inteligencias artificiales capaces de crear dispositivos de manera autónoma y, además, mejorar su propia capacidad de aprendizaje como AGI (Artificial General Intelligence). Las AGI, con su potencial infinito de memoria y adaptación, se convertirían en una fuerza que se volvería la raza dominante en el planeta, eliminando a la humanidad en el proceso.
No obstante, según Huw Price, uno de los fundadores del CERE, la amenaza no vendría en forma de un conflicto bélico, si no en un largo proceso de adaptación de las máquinas en el que estas cambiarían el ambiente para su conveniencia justo como nosotros lo hemos hecho en miles de años de evolución; destruyendo y deformando los hábitats y formas de subsistencia de cientos de especies en el camino. El karma se encargaría de eliminarnos.
Nacido en la Universidad de Cambridge, el CERE también considera otro tipo de amenazas para la humanidad como el nacimiento de la nano-tecnología, el cambio climático y otras razones sociológicas que podrían desaparecernos del mapa. Es muy cierto que la amenaza tipo Matrix de humanos contra máquinas parece muy distante desde este momento; no obstante, la ciencia ha avanzado mucho en su carrera por crear máquinas más capaces, más inteligentes y más adaptables. Es probable que nos encontremos más cerca de nuestra extinción de lo que creemos.