Las 3 Leyes + 0 [Asimov] & Las premisas EPSRC – AHRC

Asimov

-Asimov-

Las tres leyes de la robótica que Isaac Asimov desarrollo en el relato Circulo Vicioso [Runaround, 1942] son útiles en una gran variedad de campos de estudios. Son útiles para estudiar la psique del ser humano, lo que Asimov denominaba el complejo de Frankenstein. Son útiles como “guía” de programación de pequeñas máquinas autónomas. Son imprescindibles si queremos trazar una línea en la historia entre un punto A y un punto B en la evolución del “robot” desde su concepto en 1921 y su posterior evolución hasta nuestros días.Y con el tiempo la misma concepción y conjeturas con estas leyes pueden archivarse casi como un vestigio evolutivo, un rabo de mono.

–Su punto fuerte es al tiempo su debilidad, y esta radica en su simpleza:

  1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Y por supuesto ¿que sería un robot sin una actualización?

     robot-pensante0. Un robot no puede realizar ninguna acción, ni por inacción permitir que nadie la realice, que resulte perjudicial para la humanidad, aun cuando ello entre en conflicto con las otras leyes. [Esto conduce a su vez a que la L1 no debe entrar en conflicto con la L0].

Su defecto está en su propia concepción, en la analogía de que esas tres leyes interfieran en el sujeto como una correa invisible a la que atásemos un esclavo. ¿Va usted a ponerse humanista? Nada mas lejos de mi intención, sigamos el siguiente razonamiento: El objetivo primario es la obtención de un autómata autosuficiente capaz de compartir la realidad tal y como nosotros la percibimos y de actuar en consecuencia bajo nuestros conceptos de ética social. Que realice el trabajo más peligroso sin miedo y que se encargue de nuestra seguridad aun a riesgo a su propia existencia. En definitiva queremos un esclavo color metal –para autoconvencernos de que no somos racistas–, tonto, de veinticinco años, metro ochenta y que hable idiomas. Y lo mejor de todo, que podamos llegar a considerarlo un amigo, pero en propiedad y que se deje matar por nosotros de vez en cuando.

¿Que queremos?: Un robot que alcance la conciencia humana y que se comporte como si no la tuviera. Dos conceptos que parten de concepciones antagónicas. Cualquier robot en que programes las tres leyes de la robótica se convertirá irremediablemente en una máquina no autoconsciente. Y la autoconciencia no viene determinada por el libre albedrío, el instinto de supervivencia o la necesidad biológica del deseo. Precisa de un conjunto que actúe como un todo de razonamiento independiente. Algo que no toma sus propias decisiones, no piensa, por lo que no puede determinar los parámetros adecuados para adaptarse y cumplir las leyes. Por contra algo que piensa no puede verse limitado en modo alguno en su sinapsis de razonamiento. Y vuelta a empezar.

C3PO_EP3

C3PO – relaciones cibernéticas-humanas-

En conclusión, las tres leyes son perfectamente válidas en un una psique mecánica y matemática, una máquina, un computador. Pero nunca un robot o androide, porque violarían la finalidad última de los mismos. En particular me gusta emplear a C-3PO de Star Wars como un buen ejemplo de un androide autoconciente que puede desear tu muerte todo lo que le plazca, ya que apenas puede mantener su propio equilibrio, no posee potencia hidráulica alguna y su fisonomía no le permite doblar una sola de las articulaciones.

Mención aparte, en 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas [EPSRC por sus siglas en inglés] y el Consejo de Investigación de Artes y Humanidades [AHRC] británicos publicaron conjuntamente una serie de principios éticos a seguir en el ámbito de la robótica que en la sombra venían no a sustituir las anticuadas leyes, sino a imponer una serie de “reglas éticas”, estas eran:

  1. Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
  2. Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
  3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
  4. Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
  5. Siempre debe ser posible averiguar quién es el responsable legal de un robot.

Las opiniones expresadas a continuación pertenecen al autor y como tal no expresan más que una opinión personal y apócrifa:

  • Las premisas nº1 y nº4 no se respetan en la actualidad.
  • La premisa nº2 carga con una serie de controversias que ya han sido tratadas con anterioridad en infinidad de novelas. Esto da siempre a lugar a fallos y trabas en la interpretación de las responsabilidad adjuntas que se atribuyen al creador y/o propietario.
  • La premisa nº5 no implica nada mas allá del ruego o el deseo.robots2

A continuación dichos Consejos de Investigación añadieron una serie de mensajes cívicos:

  1. Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigación del robot responsable.
  2. La mala práctica nos perjudica a todos.
  3. Abordar las inquietudes obvias del público nos ayudará a todos avanzar.
  4. Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares posibles de la práctica.
  5. Para entender el contexto y las consecuencias de nuestra investigación, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofía y las artes.
  6. Debemos tener en cuenta la ética de la transparencia: hay límites que deben ser accesibles.
  7. Cuando vemos las cuentas erróneas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.

*Lejos de mi intención emitir juicios de valores personales, junto a lo anteriormente tratado, toda esta ética en la robótica se asemeja mucho el perro de hortelano, que ni come ni deja comer.

Mockumentary de 28 segundos en los que se visualiza lo que sucede cuando las tres leyes de la robótica localizan la autoconciencia.

Anuncios

La humanidad de Asimo

Asimo sabe saludar.

¿Porqué es Asimo el robot/cyborg/androide más mainstream de los últimos diez años? Bueno, tal vez habría que empezar mencionando el buen hacer de la compañía Honda. Que no se limita a soltar millones en investigación sino que suele contar con un plan de marketing para cada uno de sus prototipos, desplazándolo a conferencias, universidades y ferias tecnológicas por todo el globo. Pero al margen de que no pasen 365 días sin contemplarlo en nuestro televisor, su fama se la ha forjado el solito.

No es en absoluto sencillo ser considerado “el robot mas guay” –y menos años tras año cuando dicha grandeza no radica en el termino “guay” sino en que empleamos el determinante “él”–. La competencia en la tierra es feroz. En Suiza tienen un brazo biótico que es capaz de interceptar y coger en vuelo y a altas velocidades, un objeto en un margen de cinco centésimas de segundo. En Alemania reproducen robots que simulan la fisonomía de animales específicos para estudios de ingeniería y eficiencia energética –un canguro memorable–. E incluso echando la vista atrás aun persisten viejos luchadores como el mítico Wheelbarrow y sus descendientes EOD de madres distintas, especializados en la desactivación y detonación de explosivos.

A medida que nos alejamos de la tierra la competencia se vuelve más encarnizada. Los Curiossity, Opportunity o el afamado Pathfinder rascan la superficie de Marte. El futuro Valkyrie viajará 150 millones de kilómetros hasta Júpiter. Se posará sobre la superficie helada de la luna Europa. Perforará una capa de hielo de entre 15 y 30 kilómetros de espesor. Se sumergirá en busca de vida y regresará a su punto de origen para contarnos lo que encuentre. Algo digno de mención, pero no puede evitar parecer un cubo de basura.

Whellbarrow 1972

Un cubo de basura, un brazo, un canguro, una serie de monopatines marcianos… Asimo parte con la ventaja de contar con un nombre humano y análogo –al margen de la negación oficial de Honda– a la figura del prolífico escritor de Ci-Fi con connotaciones robóticas Isaac Asimov. Tiene aspecto humano –en su último modelo se asemeja a un niño dentro de un traje de astronauta–. Y lo más importante de todo, evoluciona. Asimo puede echar la vista atrás y retroceder hasta once veces en su árbol geneatrónico, algo que la mayoría de occidente ya no somos capaces de hacer.

Su estirpe se remonta a 1989 al departamento de ingeniería de Honda, donde buscaban crear un robot de ayuda doméstica para gente mayor o con dificultades motrices. Veinticinco años de paciente evolución son algo dignos de reconocer a sus ingenieros, aunque cabe suponer que el sueño de la cúpula de Honda no sea otro que el meter un robot en cada casa del planeta para justificar los gastos de las últimas décadas, pero ese es otro tema.

El “Asimo” primigenio, el E1, medía 188cm y pesaba 175kg. Era básicamente un simulador de paseo, y no lo hacía muy bien. El Asimo presentado este año mide 130cm y pesa 54kg. Identifica, agarra, entiende y responde a preguntas orales. Reconoce caras pre-archivadas, corre a 9km/h, sube y baja escaleras de manera coordinara y elegante, esquiva objetos. Destapa una botella y te vierte su contenido en un baso. Y lo más importante para ser el robot más famosos del mundo, jugó al fútbol con Barak Obama. Todo con solo un pack de baterías de 38 voltios y 10 amperios.

Asimo vs Obama

Asimo vs Obama

Y nada de todo eso importa por separado, la grandeza de Asimo radica en su “humanidad”, su capacidad para tener cientos de miles de pequeñas partes que se necesitan para hacer determinadas actividades, la mejora progresiva de esas partes y los añadidos en su “cerebro” que se centran hoy en día en intentar que la máquina obtenga varias resoluciones distintas y se vea obligada sin intervención humana a tomar una decisión al respecto–correcta o incorrecta– en base a su propio criterio. Podemos decir que le hemos visto nacer y crecer despacio, que le damos la oportunidad de sufrir “mutaciones” o de que surjan “vestigios evolutivos” imprevistos en su programación. No es que sea el mejor tomando decisiones. Por ejemplo hace unos años el Instituto Tecnológico de Korea creo el software SOINN, un algoritmo que permite a los robots que lo llevan implementado aprender de situaciones ya experimentadas o de “entablar una conversación” con otro robot con el propósito de obtener aprendizaje sobre materias concretas. Y hay más ejemplos, pero no se trata de eso porque para Asimo aprender no es importante. Para Asimo solo el tiempo es importante.

Asimo pasa de nosotros.

Asimo se despide hasta el año que viene.