Hawking, Wozniak y científicos de todo el mundo piden la prohibición de los "robots asesinos"

Los "robots asesinos" pueden tomar decisiones de manera autónoma y preocupan tanto a la ONU como a la comunidad científica y humanitaria.


Robot construido en Reino Unido en protesta a los "robots asesinos". Foto: AFP

Noticias RCN

julio 28 de 2015
10:50 a. m.
Unirse al canal de Whatsapp de Noticias RCN

Miles de investigadores y de personalidades del mundo científico, entre ellos el célebre astrofísico Stephen Hawking y el cofundador de Apple Steve Wozniak, lanzaron este martes un llamamiento para pedir la prohibición de las armas ofensivas autónomas, los llamados "robots asesinos".

"Las armas autónomas seleccionan y atacan objetivos sin intervención humana", recuerda la carta, publicada coincidiendo con la apertura de la Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI) en Buenos Aires.

"La tecnología de la Inteligencia Artificial (IA) ha alcanzado un punto en que el despliegue de estas armas será una posibilidad técnica (si no legal) en años, no décadas, y hay mucho en juego", añaden los firmantes, entre ellos investigadores y profesores de Harvard, Berkeley, Cambridge, París o Berlín.

También figuran entre los firmantes el empresario de altas tecnologías Elon Musk, presidente de Tesla (coches eléctricos), SolarCity y SpaceX (tecnología espacial), así como el nobel de Física Frank Wilczek o el cofundador de Skype, Jaan Tallinn.

A diferencia de los drones, que necesitan una intervención humana, los "robots asesinos" pueden tomar decisiones de manera autónoma y preocupan tanto a la ONU como a la comunidad científica y humanitaria, que ya han mantenido dos reuniones de expertos sobre la cuestión en Ginebra.

Los más críticos con estas armas apuntan a que no distinguen entre civiles y combatientes y podrían programar ataques con efectos desproporcionados para la población civil.

Desde el punto de vista militar, estas armas tienen la ventaja de reducir las pérdidas humanas en el campo de batalla pero los científicos recuerdan que eso abarataría el coste de ir a la guerra y podría provocar una nueva carrera armamentística.

"A diferencia de las armas nucleares, no requieren materias primas costosas o difíciles de obtener (...) Sólo será cuestión de tiempo hasta que aparezcan en el mercado negro y en las manos de los terroristas, dictadores (..) y señores de la guerra que deseen perpetrar limpiezas étnica, etc." dice el texto.

La inteligencia artificial "tiene un gran potencial para beneficiar a la humanidad" pero "el inicio de una carrera armamentista de IA militar es una mala idea".

Existe un precedente de prohibición de armas que todavía no existen, cuando en 1998 se prohibieron las armas láser cegadoras antes de que empezaran a ser producidas en masa.

AFP

Unirse al canal de Whatsapp de Noticias RCN Google News Síguenos en Google News

Te puede interesar

La casa de los famosos

Karola regresó a la Casa de los Famosos y dejó inesperado mensaje

La casa de los famosos

¡Vidente realizó sorprendente predicción sobre el futuro de Alejandro Estrada en La Casa de los Famosos Colombia!

La casa de los famosos

La mamá de Karola no se guardó nada y rompió el silencio tras su eliminación de La Casa de los Famosos: ¿qué dijo?

Otras Noticias

Resultados lotería

SUPER ASTRO LUNA: ya hay número y signo ganador hoy 13 de abril de 2026

Las balotas se movieron y revelaron la combinación ganadora tras el sorteo del Super Astro Luna de este 13 de abril. Descubra aquí el resultado.

Elecciones presidenciales 2026

“Mockusianos” se suman a la campaña de Paloma Valencia y Juan Daniel Oviedo

Apenas el fin de semana la candidata presidencial denunció amenazas de muerte en su contra y la vandalización de una sede de su partido en Bucaramanga.


Trump no se guardó nada y les lanzó amenaza a los barcos de Irán: “Eliminados de inmediato”

Calendario de Millonarios para soñar con la clasificación: estas son sus cuentas

¿Cuántas tazas de café debería tomarse diariamente? Estudio reveló el impacto de la bebida