La Inteligencia Artificial ha sido tomada en muchos casos por la ciencia ficción, y entonces se han creado personajes terribles, como por ejemplo, Terminator, el cual está programado para liquidar a Sara Connors a como dé lugar. Terminator representa de alguna manera la maldad automatizada y eso parece ser terrible. Si se programa un robot para matar y asesina a una persona, ¿quién tiene la culpa? ¿quien lo programó? ¿el programa que controla al robot? Incluso en otros ámbitos, por ejemplo la medicina, si un programa diagnostica mal a un paciente, ¿de quién es la culpa? Entramos pues al problema de la ética y la moral.
Por ello quizás, figuras líderes en la ciencia y la tecnología han llamado a una prohibición de armas que “pueden elegir sus blancos sin la intervención humana”. Stephen Hawking y Steve Wozniak están entre los que dicen que tales armas podrían socavar el amplio uso de la inteligencia artificial.
La carta fue presentada en la Conferencia Internacional de Inteligencia Artificial, la cual se celebró la semana pasada en Buenos Aires, Argentina. Ésta trata con la posibilidad hipotética, pero plausible, de las armas autónomas. La carta da el ejemplo de los cuadricópteros con la habilidad de buscar y atacar personas de acuerdo a un criterio particular. Es incluso posible involucrarlos en un intento de asesinato contra algún individuo o simplemente elegir un blanco de acuerdo a la apariencia de las personas en lo que han denominado “limpieza étnica”.
Los firmantes dicen que la objeción no es para toda la tecnología que se usa en la guerra. Su definición de armas autónomas no cubre mísiles o drones que tengan sus trayectorias o disparen bajo el control de los seres humanos. Vamos, que en este caso siempre alguien carga con la responsabilidad de las decisiones tomadas.
De acuerdo a la carta, si alguna potencia militar empieza a usar armas autónomas, podría crear una carrera armamentista particularmente peligrosa que a diferencia de las armas nucleares, virtualmente cualquier “potencia militar significativa” podría hacerse de armas autónomas. La carta concluye que las armas que sacan ventaja de la inteligencia artificial podría provocar “un rechazo público contra la IA que coartaría sus beneficios sociales en el futuro”.
Como un ejemplo de cómo esta prohibición podría trabajar, los firmantes de la carta apuntan a una convención que se dio en 1998 y que ahora la apoyan más de 100 países, prohibiendo el uso de cualquier arma laser diseñada específicamente para dejar ciega a las personas permanentemente. Fue la primera vez en el siglo que un tratado de esta naturaleza prohibió un arma antes de que se usara ésta en un combate.
Referencias: