Ciencia y Tecnología

Polémica por debate sobre implementación de máquinas de guerra autónomas

tecnologia

Esta semana cuando los expertos debatían temas macroeconómicos en los Alpes suizos también tuvieron tiempo de hablar sobre la posibilidad de la implementación de máquinas de guerra autónomas y surgió la pregunta: ¿Puede la humanidad asistir pasivamente al desarrollo de robots como el de la película Terminator, que decide por sí mismo a quién matar y cuándo hacerlo?

Y no se trata de drones, que durante años estuvieron limitados a misiones de reconocimiento de terreno, hoy son «máquinas asesinas». Ahora el debate es si habrá una nueva generación de armas autónomas dotadas de inteligencia artificial.

«No estamos hablando de drones, que sí están controlados por humanos. Estamos hablando de armas autónomas, que no necesitan una persona detrás de ellas. Son armas muy precisas, que pueden localizar y atacar blancos sin que haya una intervención humana», explicó Stuart Russell, profesor de informática de la Universidad de California.

Durante el debate organizado por la Universidad de California en el marco del Foro Económico de Davos, en Suiza, se planteó qué pasaría si a una máquina se le asigna una misión de guerra y ésta decide atacar cuando ella quiera.

En el debate, la reflexión abordó las preguntas en torno a cómo puede una máquina diferenciar entre un civil y un soldado o un combatiente de un bando y un rebelde.

«La cuestión es saber si los robots pueden responder a las reglas de la guerra» que establece la Convención de Ginebra, planteó Stuart Russell.

Para Alan Winfield, profesor de Ingeniería Electrónica de la University of the West of England, un robot asesino puede liberar a los humanos de las responsabilidades morales.

«Cuando se despliega un robot en un contexto de caos, éste se conduce de una forma caótica», agregó Winfield.AFP