Ojo con los ojos Disney

Los ojos –si ¡los ojos!– Son un punto de controversia en el mundo de la robótica. O por lo menos el punto ojos2de controversia de moda, si lo prefieren. ¿Que le pasa a los ojos de un robot? Que al igual que para el hombre componen su principal “puerto de entrada” a la hora de obtener información del entorno. Con anterioridad, esta controversia la acaparaba el equilibrio [Aquellos andares de los  E2, E3… era sin duda auténticos quebraderos de cabeza, y aun con todo eran los mejores de su tiempo] ahora los robots cuentan con ese equilibrio y con el software necesario para llevar a cabo una gran cantidad de premisas preprogramadas, pero todas esas habilidades pasan porque el prototipo sea capaz de discernir la realidad que se le presenta e interpretarla correctamente.

¡Ah! ¿Los expertos tienen problemas para hacer comprender o enseñar que son determinados objetos y sus distancias al cerebro del robot? Si como no, pero lo que de verdad rompe los esquemas del asunto es que eso parece ser un tema “secundario” [esas comillas van en mayúsculas] al lado del apartado estético. ¿Imposible? Como hemos dicho el software esta bastante avanzado en ese aspecto, ejemplos como los prototipos de percepción mejorada del entorno de Industrial Perceptión, las cámaras bifocales del Asimo o los ojos compuestos de visión panorámica del proyecto Curvace [pequeños objetos cilíndricos con un diámetro de 12’8 mm y un peso estimado de 1’75 gramos, formados por 630 unidades de base –omatidios–, dispuestas en 42 columnas con 15 sensores en cada una de ellas. Cada omatidio está formado a su vez por 172 micrones –lentes/pantallas– con visión panorámica de 180ºx60º + variabilidad en condiciones de iluminación] Si tenemos en consideración que hace veinte años estos mismos ojos eran pequeños LED que simulaban los fotoreceptores de las criaturas primitivas parece que todo va bien encaminado.

¿Entonces? Entonces parecen monstruos, aunque pasa siempre y eso termina ojos de robotcorrigiéndose con el paso tiempo, pero cuando hablamos de la mirada ese tiempo se reduce. Para el ser humano los ojos componen “la entrada del alma”. Acudimos a los ojos en busca de microgestos que no percibimos de manera consciente pero que nos son imprescindibles a la hora de tomar una decisión al respecto de si podemos confiar en un determinado sujeto que tenemos enfrente. Multiplica su importancia si hablamos de algo no humano. ¿Y que podemos hacer para solucionarlo? Bueno yo nada, y tampoco es algo que quite el sueño a los ingenieros, pero en la “fábrica de sueños” [otras dos comillas que deberían ir en mayúsculas] Disney, ya han cogido los ojos por los cuernos.

ojos 3¿Disney? Disney si. Ha creado el proyecto Papillón –significa mariposa, no es que pretendan clonar a Steve Mcqueen– con la idea de dar un salto desde los ojos reflectantes y metálicos para dar paso a las impresoras 3D y el modelado de ojos en fibra y plástico. ¿Pura estética? No se le escapa a usted una. En efecto, el interés de la compañía animada está en dotar de mayor emotividad [¿robosonalidad?/¿personalidad?] a sus creaciones virtuales. Pero afortunadamente también trae importantes mejores en la conducción de la luz a los lugares indicados gracias a la capacidad de la fibra óptica para ser facilmente moldeada a distintas microescalas. Esto se traduce en una considerable mejora frente a la tecnología OLED empleada en la robótica actual y un gran avance en una plausible recreación de prótesis para el ser humano.Beep3000 Disney Pittsburgh

Aquí un vídeo explicativo en ingles [lvl.E.S.O] [3:18]

Aquí un vídeo que quita el hipo [2:30]

Anuncios

Las 3 Leyes + 0 [Asimov] & Las premisas EPSRC – AHRC

Asimov

-Asimov-

Las tres leyes de la robótica que Isaac Asimov desarrollo en el relato Circulo Vicioso [Runaround, 1942] son útiles en una gran variedad de campos de estudios. Son útiles para estudiar la psique del ser humano, lo que Asimov denominaba el complejo de Frankenstein. Son útiles como “guía” de programación de pequeñas máquinas autónomas. Son imprescindibles si queremos trazar una línea en la historia entre un punto A y un punto B en la evolución del “robot” desde su concepto en 1921 y su posterior evolución hasta nuestros días.Y con el tiempo la misma concepción y conjeturas con estas leyes pueden archivarse casi como un vestigio evolutivo, un rabo de mono.

–Su punto fuerte es al tiempo su debilidad, y esta radica en su simpleza:

  1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Y por supuesto ¿que sería un robot sin una actualización?

     robot-pensante0. Un robot no puede realizar ninguna acción, ni por inacción permitir que nadie la realice, que resulte perjudicial para la humanidad, aun cuando ello entre en conflicto con las otras leyes. [Esto conduce a su vez a que la L1 no debe entrar en conflicto con la L0].

Su defecto está en su propia concepción, en la analogía de que esas tres leyes interfieran en el sujeto como una correa invisible a la que atásemos un esclavo. ¿Va usted a ponerse humanista? Nada mas lejos de mi intención, sigamos el siguiente razonamiento: El objetivo primario es la obtención de un autómata autosuficiente capaz de compartir la realidad tal y como nosotros la percibimos y de actuar en consecuencia bajo nuestros conceptos de ética social. Que realice el trabajo más peligroso sin miedo y que se encargue de nuestra seguridad aun a riesgo a su propia existencia. En definitiva queremos un esclavo color metal –para autoconvencernos de que no somos racistas–, tonto, de veinticinco años, metro ochenta y que hable idiomas. Y lo mejor de todo, que podamos llegar a considerarlo un amigo, pero en propiedad y que se deje matar por nosotros de vez en cuando.

¿Que queremos?: Un robot que alcance la conciencia humana y que se comporte como si no la tuviera. Dos conceptos que parten de concepciones antagónicas. Cualquier robot en que programes las tres leyes de la robótica se convertirá irremediablemente en una máquina no autoconsciente. Y la autoconciencia no viene determinada por el libre albedrío, el instinto de supervivencia o la necesidad biológica del deseo. Precisa de un conjunto que actúe como un todo de razonamiento independiente. Algo que no toma sus propias decisiones, no piensa, por lo que no puede determinar los parámetros adecuados para adaptarse y cumplir las leyes. Por contra algo que piensa no puede verse limitado en modo alguno en su sinapsis de razonamiento. Y vuelta a empezar.

C3PO_EP3

C3PO – relaciones cibernéticas-humanas-

En conclusión, las tres leyes son perfectamente válidas en un una psique mecánica y matemática, una máquina, un computador. Pero nunca un robot o androide, porque violarían la finalidad última de los mismos. En particular me gusta emplear a C-3PO de Star Wars como un buen ejemplo de un androide autoconciente que puede desear tu muerte todo lo que le plazca, ya que apenas puede mantener su propio equilibrio, no posee potencia hidráulica alguna y su fisonomía no le permite doblar una sola de las articulaciones.

Mención aparte, en 2011, el Consejo de Investigación de Ingeniería y Ciencias Físicas [EPSRC por sus siglas en inglés] y el Consejo de Investigación de Artes y Humanidades [AHRC] británicos publicaron conjuntamente una serie de principios éticos a seguir en el ámbito de la robótica que en la sombra venían no a sustituir las anticuadas leyes, sino a imponer una serie de “reglas éticas”, estas eran:

  1. Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar a los humanos.
  2. Los seres humanos, no los robots, son los agentes responsables. Los robots son herramientas diseñadas para lograr los objetivos humanos.
  3. Los robots deben ser diseñados de forma que aseguren su protección y seguridad.
  4. Los robots son objetos, no deben ser diseñados para aprovecharse de los usuarios vulnerables al evocar una respuesta emocional o dependencia. Siempre debe ser posible distinguir a un robot de un ser humano.
  5. Siempre debe ser posible averiguar quién es el responsable legal de un robot.

Las opiniones expresadas a continuación pertenecen al autor y como tal no expresan más que una opinión personal y apócrifa:

  • Las premisas nº1 y nº4 no se respetan en la actualidad.
  • La premisa nº2 carga con una serie de controversias que ya han sido tratadas con anterioridad en infinidad de novelas. Esto da siempre a lugar a fallos y trabas en la interpretación de las responsabilidad adjuntas que se atribuyen al creador y/o propietario.
  • La premisa nº5 no implica nada mas allá del ruego o el deseo.robots2

A continuación dichos Consejos de Investigación añadieron una serie de mensajes cívicos:

  1. Creemos que los robots tienen el potencial de proporcionar impacto positivo inmenso para la sociedad. Queremos animar a la investigación del robot responsable.
  2. La mala práctica nos perjudica a todos.
  3. Abordar las inquietudes obvias del público nos ayudará a todos avanzar.
  4. Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares posibles de la práctica.
  5. Para entender el contexto y las consecuencias de nuestra investigación, debe trabajar con expertos de otras disciplinas tales como: ciencias sociales, derecho, filosofía y las artes.
  6. Debemos tener en cuenta la ética de la transparencia: hay límites que deben ser accesibles.
  7. Cuando vemos las cuentas erróneas en la prensa, nos comprometemos a tomar el tiempo para ponerse en contacto con los periodistas.

*Lejos de mi intención emitir juicios de valores personales, junto a lo anteriormente tratado, toda esta ética en la robótica se asemeja mucho el perro de hortelano, que ni come ni deja comer.

Mockumentary de 28 segundos en los que se visualiza lo que sucede cuando las tres leyes de la robótica localizan la autoconciencia.

La humanidad de Asimo

Asimo sabe saludar.

¿Porqué es Asimo el robot/cyborg/androide más mainstream de los últimos diez años? Bueno, tal vez habría que empezar mencionando el buen hacer de la compañía Honda. Que no se limita a soltar millones en investigación sino que suele contar con un plan de marketing para cada uno de sus prototipos, desplazándolo a conferencias, universidades y ferias tecnológicas por todo el globo. Pero al margen de que no pasen 365 días sin contemplarlo en nuestro televisor, su fama se la ha forjado el solito.

No es en absoluto sencillo ser considerado “el robot mas guay” –y menos años tras año cuando dicha grandeza no radica en el termino “guay” sino en que empleamos el determinante “él”–. La competencia en la tierra es feroz. En Suiza tienen un brazo biótico que es capaz de interceptar y coger en vuelo y a altas velocidades, un objeto en un margen de cinco centésimas de segundo. En Alemania reproducen robots que simulan la fisonomía de animales específicos para estudios de ingeniería y eficiencia energética –un canguro memorable–. E incluso echando la vista atrás aun persisten viejos luchadores como el mítico Wheelbarrow y sus descendientes EOD de madres distintas, especializados en la desactivación y detonación de explosivos.

A medida que nos alejamos de la tierra la competencia se vuelve más encarnizada. Los Curiossity, Opportunity o el afamado Pathfinder rascan la superficie de Marte. El futuro Valkyrie viajará 150 millones de kilómetros hasta Júpiter. Se posará sobre la superficie helada de la luna Europa. Perforará una capa de hielo de entre 15 y 30 kilómetros de espesor. Se sumergirá en busca de vida y regresará a su punto de origen para contarnos lo que encuentre. Algo digno de mención, pero no puede evitar parecer un cubo de basura.

Whellbarrow 1972

Un cubo de basura, un brazo, un canguro, una serie de monopatines marcianos… Asimo parte con la ventaja de contar con un nombre humano y análogo –al margen de la negación oficial de Honda– a la figura del prolífico escritor de Ci-Fi con connotaciones robóticas Isaac Asimov. Tiene aspecto humano –en su último modelo se asemeja a un niño dentro de un traje de astronauta–. Y lo más importante de todo, evoluciona. Asimo puede echar la vista atrás y retroceder hasta once veces en su árbol geneatrónico, algo que la mayoría de occidente ya no somos capaces de hacer.

Su estirpe se remonta a 1989 al departamento de ingeniería de Honda, donde buscaban crear un robot de ayuda doméstica para gente mayor o con dificultades motrices. Veinticinco años de paciente evolución son algo dignos de reconocer a sus ingenieros, aunque cabe suponer que el sueño de la cúpula de Honda no sea otro que el meter un robot en cada casa del planeta para justificar los gastos de las últimas décadas, pero ese es otro tema.

El “Asimo” primigenio, el E1, medía 188cm y pesaba 175kg. Era básicamente un simulador de paseo, y no lo hacía muy bien. El Asimo presentado este año mide 130cm y pesa 54kg. Identifica, agarra, entiende y responde a preguntas orales. Reconoce caras pre-archivadas, corre a 9km/h, sube y baja escaleras de manera coordinara y elegante, esquiva objetos. Destapa una botella y te vierte su contenido en un baso. Y lo más importante para ser el robot más famosos del mundo, jugó al fútbol con Barak Obama. Todo con solo un pack de baterías de 38 voltios y 10 amperios.

Asimo vs Obama

Asimo vs Obama

Y nada de todo eso importa por separado, la grandeza de Asimo radica en su “humanidad”, su capacidad para tener cientos de miles de pequeñas partes que se necesitan para hacer determinadas actividades, la mejora progresiva de esas partes y los añadidos en su “cerebro” que se centran hoy en día en intentar que la máquina obtenga varias resoluciones distintas y se vea obligada sin intervención humana a tomar una decisión al respecto–correcta o incorrecta– en base a su propio criterio. Podemos decir que le hemos visto nacer y crecer despacio, que le damos la oportunidad de sufrir “mutaciones” o de que surjan “vestigios evolutivos” imprevistos en su programación. No es que sea el mejor tomando decisiones. Por ejemplo hace unos años el Instituto Tecnológico de Korea creo el software SOINN, un algoritmo que permite a los robots que lo llevan implementado aprender de situaciones ya experimentadas o de “entablar una conversación” con otro robot con el propósito de obtener aprendizaje sobre materias concretas. Y hay más ejemplos, pero no se trata de eso porque para Asimo aprender no es importante. Para Asimo solo el tiempo es importante.

Asimo pasa de nosotros.

Asimo se despide hasta el año que viene.

S.A.I.N.T / Prototipo “Jhonny Mac” Nº 5

Prototipo Nº1

Prototipo Nº1

Transporte Nuclear de Inteligencia Artificial Estratégico (S.A.I.N.T en sus siglas en inglés) El sueño de los militares en los 60, los 70, los 80 y los 90. Un autómata independiente con un software configurado a partir de un sistema autónomo microcomputerizado con quiristores volumétricos. Si usted nunca ha oído hablar de los quiristores se debe a que su patente es el secreto mejor guardado de la división robótica de los Laboratorios Nova (Oregón) Consistiendo dichos elementos en una serie de sofisticados circuitos instalados en prototipos de máquinas de combate capaces de reconocen voces y órdenes gracias a sus 500 punteros megabites.

Cinco de estos prototipos S.A.I.N.T fueron creados con la intención de que actuaran como carros de combate ligeros. Con tracción de oruga en el eje delantero y un sistema de ruedas traseras que giran 360º. Su velocidad máxima fue estimada en 50km/h y una sorprendente capacidad de salto desde un punto fijo aproximada de un metro. Acoplado a su espalda llevaban oculto un cortador de plasma con capacidad suficiente para atravesar aleaciones de acero de 45cm de grosor. Contaba (como elemento disuasorio) de un cañón acoplado a su hombro diestro que emitía una descarga láser con la increíble cualidad de implosionar al entrar en contacto con la materia. Podemos suponer que esto era gracias a su batería nuclear de 25 megatones (veinticinco mil veces la potencia de la bomba soltada en Nagasaki)

Se comprobó su eficacia en unos juegos de guerra en los que los cinco prototipos construidos hasta aquel momento y escondidos en una serie de bunkers, fueron capaces de frenar un convoy militar por completo. Por desgracia para Laboratorios Nova estos mismos prototipos no llegaron finalmente a la cadena de montaje. Creados para las inclemencias de selvas, desiertos y el ártico, fueron tristemente famosos entre los años 1986 y 1988 a causa de una serie de fallas que surgieron en el sistema quistor en base a un accidente relacionado con un rayo proveniente de una tormenta eléctrica que, según informes posteriores, impactó en una torre eléctrica y de allí saltó a un generador de energía al que estaba conectado el prototipo número 5. La incomprensible falla en sus circuitos, unido a los asombrosos avances en el campo de los fusibles que evito que el rayo en el peor de los casos no hubiese frito el circuito eléctrico y abierto una fisura en una batería nuclear que habría acabado con el estado de Oregón (y la posterior vida del planeta tierra) dieron lugar a defectos en su programación que desató el pánico en los cuerpos de seguridad del laboratorio cuando el prototipo en cuestión salió del centro control donde estaba confinado.

A partir de este hecho la información relacionada con lo acontecido salieron a la luz con cuentagotas. En los mentideros se rumorea que la falla en los quistores no tuvo que ver en la decisión de retirarlos del mercado sino que este hecho esta relacionado con los acontecimientos que dieron lugar durante su persecución en la que se constato que los S.A.I.N.T eran vulnerables a las siguientes situaciones:

-Disparos desde diversos ángulos.

-Se les puede atropellar.

-Se les puede preparar una trampa con una cuerda y una rama.

-Se les puede lanzar barro a los ojos.

-No pueden girar bruscamente.

-Se les puede pegar con un palo.

-Se les caen los brazos con asiduidad.

-Necesita cinco segundos para disparar y que su objetivo este quieto.

Posteriormente, en todo lo que respecta a los rumores surgidos en 1988 a raíz de la producción en masa del prototipo del juguete “Jhonny 5” surgieron extraños avistamientos de un modelo que se asemejaba al original en una ciudad que nunca se llegó a determinar. Esta información debe ser estudiada con cuidado, pues la variedad de habilidades dispares que se llegó a afirmar que mostraba el sujeto en cuestión nunca aparecieron en sus especificaciones originales ni fueron comentadas en los informes ulteriores al accidente en 1986. Estas nuevas controversias eran: Una nueva batería de Litio y Argón líquido con capacidad para 500 horas de autonomía y sin bajadas de tensión. Memoria suplementaria. Control remoto multifrecuencia con capacidad para controlar a distancias emisoras de radio, juguetes y autobuses urbanos (algo que se creyó imposible hasta la crisis Skynet acontecida en 2003) Se le vio volar en un parapente portátil y hacer uso de un sistema lanza ventosas que llevaba acoplado. Preparaba Gin-Tonics. Amén de diversas modificaciones externas que no coinciden con el modelo original ni con los datos recabados antes de que surgieran dichos rumores. Por tanto, no podemos mas que asumir que en su mayoría todo lo relacionado a 1988 no son mas que un ejemplo de marketing viral por parte de una compañía juguetera con el fin de obtener publicidad gratis. Y desde aquí esperamos que así sea, pues no sería agradable dormir pensando que hay una batería de 25 megatones oxidandose poco a poco en algún lugar.

Imagen de Archivo

Imagen de Archivo