InicioInternacionalLos robots asesinos de Hollywood se convierten en herramientas de las Fuerzas...

Los robots asesinos de Hollywood se convierten en herramientas de las Fuerzas Armadas

Los responsables de seguridad nacional de Estados Unidos advierten del potencial de la nueva tecnología para dar un vuelco a la guerra, los conflictos cibernéticos y -en el caso más extremo- el uso de armas nucleares.

WASHINGTON — Cuando en el mes de octubre, el presidente Joe Biden anunció fuertes restricciones para venderle a China los chips de computadora más avanzados, lo hizo, en parte, como una manera de ofrecerle a la industria estadounidense una oportunidad de recuperar su competitividad.

No obstante, en el Pentágono y el Consejo de Seguridad Nacional había un segundo objetivo: el control de armas.

"Hay una serie de conversaciones informales en la industria -todas informales- sobre cómo serían las normas de seguridad de la inteligencia artificial", dijo Eric Schmidt, ex presidente de Google y presidente del Consejo de Innovación de Defensa. Foto Mike Blake/Reuters“Hay una serie de conversaciones informales en la industria -todas informales- sobre cómo serían las normas de seguridad de la inteligencia artificial”, dijo Eric Schmidt, ex presidente de Google y presidente del Consejo de Innovación de Defensa. Foto Mike Blake/Reuters

En teoría, si el Ejército de China no puede obtener esos chips, es probable que ralentice sus intentos de desarrollar armas que funcionen con inteligencia artificial.

Esto le daría a la Casa Blanca, y al mundo entero, tiempo para determinar ciertas reglas relacionadas con el uso de la inteligencia artificial en todo, desde sensores, hasta misiles y armas cibernéticas, para, a fin de cuentas, prevenir algunas de las pesadillas que se han plasmado en películas de Hollywood:

computadoras y robots asesinos autónomos que se apartan de sus creadores humanos.

Ahora, la nube de temor en torno al popular bot ChatGPT y otros tipos de software que funcionan con inteligencia artificial ha hecho que la restricción de venderle chips a China solo parezca una solución temporal.

Cuando Biden se apareció el jueves en la Casa Blanca en una reunión de ejecutivos del sector tecnológico que están teniendo problemas para limitar los peligros de esta tecnología, su primer comentario fue:

“Lo que ustedes están haciendo tiene un gran potencial y también un gran riesgo”.

Según sus asesores en seguridad nacional, esto fue un reflejo de los recientes informes clasificados acerca de la posibilidad de que la nueva tecnología trastoque la guerra, el conflicto cibernético y —en el caso más extremo— la toma de decisiones sobre el uso de armas nucleares.

Pero incluso cuando Biden estaba exponiendo su advertencia, los funcionarios del Pentágono decían en foros sobre tecnología que creían que no era una buena idea esa pausa de seis meses en el desarrollo de las siguientes generaciones de ChatGPT y tipos similares de software:

ni los chinos ni los rusos van a esperar.

“Si nosotros nos detenemos, adivinen quiénes no lo harán: los posibles enemigos en el extranjero”, señaló el miércoles el director de información del Pentágono, John Sherman.

“Tenemos que seguir adelante”.

Su afirmación categórica destacó la tensión que se siente en la actualidad en toda la comunidad de defensa.

Nadie sabe en realidad lo que pueden hacer estas nuevas tecnologías cuando se trata de desarrollar y controlar armas y nadie tiene idea del tipo de régimen de control de armas que podría funcionar, si es que existe alguno.

Este presagio es impreciso, pero muy preocupante.

¿Acaso el ChatGPT podría empoderar a actores que anteriormente no habrían tenido acceso fácil a tecnología destructiva?

¿Podría acelerar las confrontaciones entre las superpotencias y no dejar mucho tiempo para la diplomacia y la negociación?

“La industria no es tonta y ya estamos viendo intentos de autorregulación”, señaló Eric Schmidt, un ex presidente de Google que actuó como presidente inaugural de la Junta de Asesoramiento en Innovación de 2016 a 2020.

“Así que hay una serie de charlas informales que están teniendo lugar en estos momentos en la industria —todas son informales— acerca de cómo serían las reglas de seguridad con respecto a la inteligencia artificial”, comentó Schmidt, quien ha escrito, junto con el ex secretario de Estado Henry Kissinger, una serie de artículos y libros sobre la posibilidad de que la inteligencia artificial trastoque la geopolítica.

El intento preliminar de poner barreras de protección a estos sistemas es evidente para cualquiera que haya probado las versiones iniciales de ChatGPT.

Los bots no contestan preguntas sobre cómo hacerle daño a alguien con una mezcla de drogas, por ejemplo, ni cómo dinamitar una presa o paralizar centrifugadoras nucleares, que son operaciones que han llevado a cabo Estados Unidos y otros países sin contar con la ventaja de las herramientas de inteligencia artificial.

Pero estas listas negras de acciones solo disminuirán el uso indebido de estos sistemas; pocas personas creen que puedan detener por completo esos intentos.

Siempre hay un truco para eludir los límites de seguridad, como podrá confirmar cualquiera que haya intentado desactivar los insistentes pitidos del sistema de advertencia del cinturón de seguridad de un automóvil.

Aunque el nuevo software ha hecho popular el asunto, este no es nada nuevo para el Pentágono.

Las primeras reglas sobre el desarrollo de armas autónomas se publicaron hace una década.

Hace cinco años, se estableció el Centro Conjunto de Inteligencia Artificial del Pentágono para estudiar el uso de la inteligencia artificial en combate.

Algunas armas ya funcionan con piloto automático.

Desde hace mucho tiempo, los misiles Patriot, los mismos que derriban misiles o aeroplanos que entran a un espacio aéreo protegido, han tenido un modo “automático”, el cual les permite disparar sin intervención del ser humano cuando son superados por objetivos que llegan más rápido de lo que podría reaccionar un ser humano.

Pero tienen que estar supervisados por seres humanos que puedan suspender los ataques si fuera necesario.

En las fuerzas militares, los sistemas que cuentan con inteligencia artificial pueden acelerar el ritmo de las decisiones en el campo de batalla al grado de generar riesgos totalmente nuevos de ataques accidentales o de decisiones derivadas de alarmas confusas o deliberadamente falsas de ataques próximos.

“Un problema básico con la inteligencia artificial en las Fuerzas Armadas y en la seguridad nacional es cómo defenderse de los ataques que son más rápidos que la velocidad con la que los seres humanos toman decisiones y creo que ese problema no está resuelto”, comentó Schmidt.

“En otras palabras, el misil llega tan rápido que tiene que haber una respuesta automática. ¿Qué sucede si es una señal falsa?”.

Seguridad​

Tom Burt, quien encabeza operaciones de confianza y seguridad en Microsoft, empresa que va a toda velocidad en el uso de la nueva tecnología para renovar sus motores de búsqueda, dijo en un foro reciente en la Universidad George Washington que pensaba que los sistemas de inteligencia artificial ayudarían a quienes se defienden a detectar un comportamiento anormal con mayor rapidez de lo que ayudarían a los atacantes.

Hay especialistas que no están de acuerdo.

Pero Burt señaló que temía que podría “potenciar” la difusión de desinformación dirigida.

Todo esto augura una era totalmente nueva de control de armas.

Algunos expertos afirman que, como sería imposible detener la propagación de ChatGPT y de sistemas de software parecidos, la mayor esperanza es restringir los chips especializados y cualquier otra energía computacional necesaria para impulsar esta tecnología.

Sin duda, este será uno de los muchos planes de control de armas que se plantearán en los próximos años, en un momento en que al menos a las principales potencias nucleares parece no interesarles negociar sobre las armas viejas, mucho menos sobre las nuevas.

NOTICIAS RELACIONADAS

MAS LEIDAS