Fragmentos

La verdadera locura quizá no sea otra cosa que la sabiduría misma que, cansada de descubrir la vergüenza del mundo, ha tomado la inteligente resolución de volverse loca.
(Enrique Heine)

El pasado es un inmenso pedregal que a muchos les gustaría recorrer como si de una autopista se tratara, mientras otros, pacientemente, van de piedra en piedra, y las levantan, porque necesitan saber qué hay debajo de ellas.
(José Saramago. El viaje del elefante.)

Tengo 47 años, ¿y sabes cómo me he matenido vivo tanto tiempo, todos estos años? Miedo... el espectáculo de actos terribles. Si alguien me roba, le corto las manos; si me insulta, le corto la lengua; si se rebela contra mí, clavo su cabeza en una estaca, y la pongo bien alta, para que puedan verla todos. Eso es lo que mantiene vivo el orden de las cosas: el miedo.
(Gans of New York)


"He visto un caracol, se deslizaba por el filo de una navaja, ese es mi sueño, más bien mi pesadilla, arrastrarme, deslizarme por todo el filo de una navaja de afeitar, y sobrevivir."
(Apocalypse Now)



Cuando la robótica es un asunto de ética.

  1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

Hace 73 años que Asimov propuso estas tres leyes como principios fundamentales de los robots.
Actualmente salen muchas noticias de robótica en los diarios, en las webs y en los programas radiofónicos. El nombre Isaac Asimov se menciona con asiduidad, pues su libros de ciencia ficción están cada vez más lejos de ser pura ficción.
Un estudio reali
zado por la universidad de San Luis quiso mostrar las diferencias existentes entre el trato que las personas le daban a un aimbot (famoso perro robot) en contraste con otro perro real. El perro-robot acompañaba a un grupo de personas dependientes que se encontraban en centros residenciales. El resultado es que el trato y el beneficio que le producía el tener compañía, alguien a quién querer y a quién cuidar, era el mismo, fuera robot o fuera un ser vivo.

Hasta aquí todo va bien. Pero cuando empieza a meterse la ética en medio ya está el lío montado. Noel Sharkey, profesor de la Universidad de Sheffield en el Reino Unido, y reconocido experto en materia de inteligencia artificial, nos ha puesto en alerta del peligro que supondría el transladar a los robots al campo de batalla, y generar así una carrera de armas robóticas, conduciénonos a un final difícil de calibrar pero con muy mal augurio. Este profesor habló frente a los investigadores en temas de defensa reunidos en el Royal United Services Institute en Londres sobre las repercusio
nes éticas de estas armas. Para el ejército que utiliza robots en un conflicto, es una manera de bajar el daño o el riesgo propio. Para las personas que sufren el conflicto, si el robot está armado, es una manera de morir con más facilidad que si te dispara una persona. El motivo es bien claro, como apunta Noel Sharkey, pues un robot no es capaz de distinguir entre quién es un combatiente y quién no.
Pero es que ahora viene lo más escalofriante, y es que cuando en la entrevista se le pregunta al experto cuándo se comenzarán a utilizar máquinas autónomas en un combate en el mundo, la respuesta es, cuanto menos, incómoda:

Tendemos a pensar en la proliferación de armas robóticas como algo que ocurrirá en el futuro, pero ya se están usando los robots en los conflictos bélicos. ¿Cierto?

Hay muchos robots que se están usando con fines militares estos momentos en tierra y aire.
Hay 4.000 robots en Irak y Afganistán. Pero todos ellos son controlados por seres humanos.
Una persona decide, por ejemplo, cuándo los (aviones) Predators o Rippers van a lanzar un misil Hellfire de fuerza letal.
En tierra se les usa para actividades como desactivación de municiones y artefactos explosivos y recoger soldados heridos.
Los primeros robots armados fueron enviados a Irak en diciembre, pero no he escuchado si ya han sido desplegados o no.


¿Qué características tienen estos robots?

Los robots están equipados con lanzagranadas, lanzacohetes, ametralladoras.
Son pequeños tanques en realidad. Tele-operados por soldados, manejados por control remoto.


¿Ve como una tendencia futura el uso de robots combatiendo entre ellos?

Sí, es el futuro. La iniciativa de combates de Estados Unidos cuenta con US$240.000 millones para desarrollar un sistema de combate.
US$4.000 se destinaron al desarrollo de vehículos no tripulados para 2010.
El programa de las fuerzas armadas de Estados Unidos para los próximos 20 años establece claramente que desea un sistema autónomo lo antes posible.
El Congreso aprobó una ley en 2001 la cual establece que una tercera parte de los vehículos en el terreno serán vehículos no tripulados para 2010, y se está logrando.

¿Qué implicaciones éticas tiene todo esto?

Lo que a mí me preocupa es el respeto a la ley fundamental de la guerra.
Los tratados y la Convención de Ginebra establece, como base fundamental, una distinción entre combatientes y no combatientes, antes de saber qué trato darle a los combatienes, lo primero es distinguir.. Yo no creo que estos robots puedan hacer esta distinción. Particularmente en ambientes urbanos donde las condiciones no están del todo claro y hay un número de circunstancias que se pueden dar.
Además, el uso de la fuerza debe ser proporcionar al avance militar y así es como se controla el daño colateral.
No hay robot o inteligencia artificial que pueda tener el control en una situación como esa.


Si los robots son utilizados para esto, rompe automáticamente con la primera ley de Asimov.
Empezamos con muy mal pie.

La similitud entre los Goliath, robots usados por los alemanes en la II Guerra Mundial, (que eran en realidad minas móviles) y los usados actualmente en Afganistan es muy patente, pues consiste en utilizar instrumentos metálicos a distancia que puedan comportarse de manera autónoma para evitar riesgos a soldados propios. Pero los usados en Irak son además plataformas de armas móviles, por lo que si algún día eso se automatiza completamente, quién es el que le dice a un robot que no puede disparar a un niño o a una persona desarmada.


Para saber más:

http://www.belt.es/noticias/2005/enero/31/robot.htm

http://www.neoteo.com/tabid/54/ID/5409/Default.aspx




5 comentarios:

Miguel dijo...

Enlaces de noticias actuales sobre robots.

Futura IA (como arma de guerra)

Enjambre robótico (Colonia-organismo)

Hormigas como ejemplo - Punset

Uso espacial

Humanoides para compañía.

*******************
Teorías:

1º El mayor miedo es el uso de robots para someter humanos a la voluntad del dueño o dueños de los primeros.

2º El segundo mayor miedo es el sometimiento de la humanidad a la voluntad de los robots.

No habrá segundo sin primero a no ser que un fabricante o experto se salte las reglas.

Pero como todos sabemos, la mente humana es muy frágil. Una persona o un equipo de personas pueden llegar a poseer los conocimientos necesarios y los medios a su alcance, pero no deben dejarse llevar por sentimientos que atenten contra los demás, ya sea contra la libertad o contra la vida del resto.

Habría que vivir para verlo e impedir el mal, mas no podemos evitar el que en estos momentos se da, menos el que en un futuro tendrá lugar con más facilidades y menos uso de la razón.

Soy bastante pesimista, pues en estos momentos, una gran parte de la humanidad no es digna de la capacidad que tiene para interaccionar en la vida de los demás. En un futuro, en el que los pueblos del mundo formen una red globalizada tanto económica como judicialmente; se formarán mayor número de cúmulos/grupos en contra del sistema, y éste peligrará aún más.

Un día de estos razono mis teorías de forma más pausada y las pongo en mi blog.

Bico pelirroja.

magofez dijo...

Quizás era un visionario, pero yo es que discrepo tanto con él.

No fue nada personal, si individual.

Bicos!

Azhaag dijo...

Un tema peliagudo... dotar de conciencia a un robot sera el ultimo escalon, uno casi utopico. No sabemos practicamente nada del funcionamiento de nuestra mente, por lo que se me antoja harto complicado simular una conciencia dentro de una maquina. Se ha mencionado la palabra etica en el articulo ¿es etico disparar a un soldado enemigo que se encuentra desarmado? Por mucho que avance la ciencia, dilemas como este no se podran extrapolar a un sistema frio y numerico que viene a ser el genoma que constituye todo lo robotico. Las guerras seguiran librandolas los hombres por espacio de muchos muchos años, no me cabe duda.

Un beso.

Azhaag

Hibris. dijo...

Buenos enlaces nameless, gracias por tu aportación.
Comparto tu opinión en casi todo lo que has dicho, pero no he entendido lo que quieres decir con las siguientes palabras:
"Soy bastante pesimista, pues en estos momentos, una gran parte de la humanidad no es digna de la capacidad que tiene para interaccionar en la vida de los demás."
Y,por cierto, la frase que continúa a ese fragmento me ha dado auténtico pánico: "En un futuro, en el que los pueblos del mundo formen una red globalizada tanto económica como judicialmente."
Ojalá estés totalmente equivocado en este aspecto.

¿Con quién discrepas Wilde¿ ¿Con Noel Sharkey?
Un gusto verte por aquí de nuevo.

Es ético, Azhaag, que los robots facilititen o mejores nuestra vida, como el caso del aimbot que ayuda a las personas mayores que no tiene posibilidades de tener y cuidar a un perro "real". Pero el hecho de que los robots sean usados en la guerra, para matar, deja de ser ético. He aquí el problema. ¿Es ético que una persona mate a otra? ¿Es ética una guerra? Si el ser humano considera que sí, entonces crea máquinas que hagan por él el trabajo, aunque esas máquinas no sean capaces de diferenciar entre un sujeto desarmado o un niño.


Gracias por vuestros comentarios, saludo :)

magofez dijo...

Con las tres leyes de Asimov.

ps. ser invisible no está de moda, lo sé, pero también se puede.

Bicos!