Robótica

Los robots asesinos podrían causar atrocidades masivas

Los robots asesinos podrían causar atrocidades masivas


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Los robots se utilizarán como soldados en el futuro. De hecho, algunos robots y drones ya están siendo desplegados por los militares. Los robots inteligentes y autónomos programados por humanos para apuntar y matar podrían cometer delitos en el futuro. A menos que exista un tratado para que la robótica y la inteligencia artificial (IA) se utilicen de manera responsable.

Tener disponible la tecnología que puede construir robots que matan no significa que tengamos que usarla. Como dijo una vez el tío de Spiderman, "un gran poder conlleva una gran responsabilidad".

Los expertos en aprendizaje automático y tecnología militar dicen que sería tecnológicamente posible construir robots que tomen decisiones sobre a quién apuntar y matar sin tener un controlador humano involucrado. Debido a que los algoritmos de reconocimiento facial y toma de decisiones son cada vez más poderosos, lograr la creación de este tipo de robots sería más fácil.

Los riesgos de los robots asesinos

Los investigadores en inteligencia artificial y políticas públicas están tratando de argumentar que los robots asesinos son una mala idea en la vida real. La creación de armas totalmente autónomas traería consigo nuevos dilemas técnicos y morales.

Los científicos y activistas, por esta razón, han presionado a las Naciones Unidas y a los gobiernos del mundo para que reconozcan el problema y consideren una prohibición preventiva.

¿Se puede usar la IA como arma?

La respuesta corta es sí. Al igual que cualquier otra tecnología existente, la Inteligencia Artificial se puede utilizar para el bien, pero también para matar. El reconocimiento facial y el reconocimiento de objetos son tecnologías que han mejorado durante los últimos años. Podríamos decir que se han vuelto mucho más precisos, sin embargo, están lejos de ser perfectos.

El reconocimiento facial y el reconocimiento de objetos son habilidades que probablemente se volverán esenciales como parte de un conjunto de herramientas para armas autónomas letales (LAWS). Sin embargo, también es bastante fácil engañar a estas tecnologías, si realmente se quiere engañarlas.

Robots militares: Presente y futuro

Los robots militares son robots autónomos o drones controlados a distancia que han sido diseñados para aplicaciones militares. Los robots militares se pueden utilizar para el transporte, la búsqueda y el rescate, y también para el ataque, con la implicación de matar humanos e incluso destruir ciudades.

Algunos de estos sistemas se están implementando actualmente y otros están en desarrollo. Algunos robots militares se desarrollan bajo estricto secreto para evitar que otros se enteren de su existencia.

Estados Unidos ya vuela drones militares sobre áreas donde Estados Unidos está en guerra o participa en operaciones militares. Hasta ahora, los controladores humanos deciden cuándo dispararán estos drones.

Aunque las armas autónomas letales (LAWS) aún no existen, o eso es lo que pensamos, la tecnología para reemplazar los controladores humanos con un algoritmo que toma la decisión de cuándo y qué disparar sí existe, de hecho. Algunos investigadores de IA creen que los LAWS, en forma de pequeños drones, podrían usarse como armas en menos de dos años.

Si bien los drones de hoy transmiten una retroalimentación en video a una base militar, donde un soldado humano toma la decisión de si el dron debe disparar al objetivo o no, con un arma totalmente autónoma el soldado ya no tomará esa decisión. En su lugar, un algoritmo tomaría la decisión.

Armas autónomas letales (LAWS): ¿Están los humanos en riesgo?

La era de la guerra impulsada por máquinas no está demasiado lejos en el futuro. El ejército ha estado experimentando con robots que pueden ser parte del campo de batalla y usarse como armas asesinas. Las guerras del futuro pueden entonces estar más imbuidas de alta tecnología y menos humanas. ¿Qué consecuencias traería esto para la humanidad?

El riesgo que plantean las armas autónomas letales (LAWS), también conocidas como robots asesinos, es real. Algunos investigadores de inteligencia artificial (IA) tienen muchas razones para apoyar su consenso de que el mundo debería prohibir el desarrollo y despliegue de armas autónomas letales.

La razón es bastante simple, los poderes militares podrían producir en masa un ejército de robots asesinos a un precio bastante bajo. Sin embargo, la humanidad podría pagar un alto precio; la fabricación y activación de robots asesinos aumentaría la probabilidad de proliferación y matanza masiva.

Robots asesinos: un ser humano siempre es responsable de cualquier acción que realice un robot.

En este punto, surge la pregunta, ¿quién debería ser responsable de las acciones de un robot? Y, ¿qué roboética debería aplicarse a los robots autónomos letales? Durante una guerra, o incluso durante un conflicto menor, las cosas pueden salirse de control. ¿Deberían los robots asesinos asumir el control total?

Los robots que están destinados a ser utilizados en un conflicto de guerra como armas mecánicas integradas con Inteligencia Artificial y Aprendizaje Automático deben tener algún tipo de interruptor de encendido / apagado.

Hoy, las Tres leyes de la robótica de Isaac Asimov representan más problemas y conflictos para los roboticistas de los que resuelven.

Roboticistas, filósofos e ingenieros están viendo un debate en curso sobre la ética de las máquinas. La ética de las máquinas, o roboética, es una propuesta práctica sobre cómo diseñar y proporcionar sanciones éticas a los robots simultáneamente.

Roboethics trata sobre el código de conducta que los ingenieros diseñadores robóticos deben implementar en la Inteligencia Artificial de un robot. ¿Quién o qué será responsable cuando o si un sistema autónomo funciona mal o daña a los humanos?

Las tres leyes de la robótica: ¿deberían aplicarse a los robots asesinos?

En 1942, el escritor de ciencia ficción Isaac Asimov introdujo las Tres Leyes de la Robótica, también conocidas como Leyes de Asimov, en su cuento. Corre alrededor. A pesar de que las Tres leyes de la robótica de Asimov eran parte de un mundo ficticio, podrían ser un buen punto de partida para la programación de robots en la actualidad.

Antes y si los gobiernos despliegan armas autónomas letales, deben asegurarse de que pueden evitar que los robots asesinos diseñados para ser desplegados en zonas de guerra inicien una guerra por sí mismos o causen atrocidades masivas como matar civiles.

Algunos pueden pensar que las siguientes leyes de robótica van en contra de lo que debería hacer un soldado. Quizás ese sea el punto principal después de todo. En otras palabras, quizás un humano no debería dar el trabajo sucio a una máquina que aún no es capaz de individualizar situaciones y emitir un juicio.

  • Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.

  • Un robot debe obedecer las órdenes dadas por seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.

  • Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Detener a los robots asesinos

Hay una campaña para Stop Killer Robots, una coalición de organizaciones no gubernamentales que buscan prohibir preventivamente las armas letales autónomas (LAWS).

El secretario general de las Naciones Unidas (ONU) ha instado a los estados a actuar rápidamente para abordar las preocupaciones sobre los sistemas de armas autónomas letales en su Informe 2020 sobre la protección de civiles en conflictos armados. Este es el primer informe de la ONU sobre protección de civiles desde 2013 que destaca las preocupaciones generales sobre los robots asesinos.

En el informe de 2020, el secretario general António Guterres concluye que "todas las partes parecen estar de acuerdo en que, como mínimo, es necesario mantener el control humano o el juicio sobre el uso de la fuerza". También señala que "un número creciente de Estados miembros ha pedido la prohibición de los LAWS". Desde noviembre de 2018, el secretario general de la ONU ha expresado repetidamente su deseo de un nuevo tratado internacional para prohibir los robots asesinos.

La campaña Stop Killer Robots elogia a las Naciones Unidas para instar a los estados a acordar "las limitaciones y obligaciones que deberían aplicarse a la autonomía en las armas". Los Estados deberían iniciar negociaciones ahora sobre un nuevo tratado internacional para prohibir las armas totalmente autónomas, manteniendo al mismo tiempo un control humano significativo sobre el uso de la fuerza.

Cómo matar a un robot

Lo más probable es que los fabricantes de robots autónomos letales envíen sus robots asesinos con un manual de instrucciones donde hay una opción para insertar de forma remota un código de seguridad para desactivar un robot asesino.

Si esa no es una opción, una forma confiable de matar a un robot sería mediante el uso de un pulso electromagnético (EMP) para inducir una corriente alta que quemará los circuitos del robot. Por supuesto, esto supone que el robot asesino no está protegido por una jaula de Faraday.


Ver el vídeo: Los robots asesinos ya están aquí (Diciembre 2022).