Etiqueta: robotica

  • No Hay que Temer a los Robots sino al Desgobierno

    No Hay que Temer a los Robots sino al Desgobierno

    El experto en mercados de capitales, Attila Rebak, acaba de publicar un artículo que anda por el mismo trillo que he tomado yo en torno a la llegada de IA los robots y tal. Y es que las veces que en alguna reunión familiar o de amistades cometo el error de abordar temas algo más robustos, en el sentido etimológico del vocablo “robusto” o “roble”; es decir, aquello que tiene más fibra, y abordo el tema de la Ai, los robots y tal, no falta quien o quienes entran en pánico, alegando que nos dejarán si trabajo. Lo curioso es que la etimología de “trabajo” viene de tripalium que era un aparejo de tortura compuesto por tres palos o tri-palium¸ relativo al sufrimiento o la carga, lo cual me lleva a preguntar: ¿por qué será que tantos defendemos la tortura?

    Bueno, veamos que de trabajos hay los que son tortura y otros, tal como el que yo tuve de piloto, no era sino el placer de andar como gallote paseando entre nubes. El asunto es que deberíamos celebrar la tecnología que no sólo haga los trabajos tortuosos, sino que ayude a reducir los costos de producción y otros más. En 1,900 en EE.UU. el 40% de la fuerza laboral estaba en el agro y mucho más en otros países, mientras que hoy en EE.UU. sólo entre 1.4 – 1.6%; con lo cual se abrió el camino para que nos dedicásemos a faenas más productivas que impulsaron el desarrollo humano.

    Lo importante en todo este tema de evolución tecnológica, sea relativo al trabajo, la mecánica, ciencia y tal, típicamente se nos escapa a casi todos. Me refiero al camino de la humanidad, el cual, quiera que no, tiene un destino. Podemos argüir o discutir ferozmente sobre el destino, pero… les aseguro que la respuesta la podemos ver cualquier noche, alejados de las luces de las ciudades, si miramos al firmamento. Nuestro destino lo podemos encontrar en el firmamento de nuestra imaginación.

    Lo ocurrido en el pasado no fue que los trabajos desaparecieron, sino que mutaron o emigraron hacia actividades más productivas que no sólo servían al trabajador sino al resto de la comunidad. Y es en este sentido que debemos ver el desarrollo de la IA, los robots y tal; lo cual, admito, no es fácil, ya que el reto está en divisar un mañana que nos deslumbra, tal como deslumbra mirar las estrellas en la noche e imaginar que para allá vamos.

    ¿Cuántos hoy entienden que el secreto de una economía robusta de desarrollo humano descansa sobre las capacidades productivas de cada persona? Como bien señala Attila Rebak, los que antes sacaban yuca y ñame del suelo hoy son médicos, enfermeras, pilotos y tal; y mañana serán… ¡vaya usted a saber! Y todo ello me regresa al desgobierno MEDUCA que se quedó varado en un pasado caduco en infértil.

    Pero lo más grave de todo este asunto lo tenemos en los gobiernos; si es que podemos llamarles así. En EE.UU., en Panamá o por todas partes, los gobiernos se han quedado en el lodazar del ayer caduco; y ello en tantas maneras que no alcanza para enfocarlo aquí. Tan sólo les señalo que en Panamá el sector formal languidece o se apachurra, mientras el informal aumenta; lo cual, en cierto sentido es bueno, pero no suficiente.

    En resumen, la AI es una máquina y punto; el tema es que hacemos los humanos con nuestras máquinas. Todas nuestras actividades requieren constante renovación, sea la educación, salud, transporte, y todo lo demás.

  • Legado Asimov: La ‘Constitución de Robots’ de Google y la Seguridad en la IA

    La evolución de la inteligencia artificial avanza hacia un territorio donde la interacción entre humanos y robots se vuelve más segura y colaborativa. Google, a través de su equipo de robótica DeepMind, ha dado pasos significativos en esta dirección. Tres nuevos avances presentados prometen dotar a los robots de la capacidad de tomar decisiones más rápidas, precisas y seguras en entornos dinámicos y cambiantes. Uno incluye un sistema para recopilar datos de entrenamiento con una “Constitución de robots”.

    Este avance es el sistema de recopilación de datos AutoRT, respaldado por un modelo de lenguaje visual (VLM) y un modelo de lenguaje extenso (LLM). Este sistema incorpora lo que ha sido denominado la «Constitución de Robots», inspirada por las célebres «Tres Leyes de la Robótica» concebidas por Isaac Asimov. Esta constitución se presenta como un conjunto de directrices centradas en la seguridad, orientando al LLM para evitar tareas que involucren interacciones con humanos, animales, objetos afilados o dispositivos eléctricos, asegurando así una convivencia más segura entre humanos y máquinas.

    La implementación de este sistema no solo se queda en la teoría, sino que se ha llevado a la práctica con pruebas intensivas durante siete meses, desplegando 53 robots AutoRT en cuatro edificios de oficinas. Estos robots fueron sometidos a más de 77,000 pruebas, algunas de las cuales fueron controladas remotamente por operadores humanos, mientras que otros actuaron según guiones predefinidos o de forma completamente autónoma a través del modelo de aprendizaje de inteligencia artificial Robotic Transformer (RT-2) de Google.

    La apariencia de estos robots no apunta a la espectacularidad, sino a la funcionalidad, compuestos por una cámara, un brazo robótico y una base móvil. Cada uno de ellos utiliza el VLM para entender su entorno y los objetos circundantes, luego el LLM sugiere una lista de tareas creativas que el robot podría llevar a cabo, siendo este último el encargado de seleccionar la tarea más apropiada para ejecutar.

    Pero la seguridad no es el único ámbito en el que se han dado avances. DeepMind ha presentado otras innovaciones, como SARA-RT, una arquitectura de red neuronal diseñada para mejorar la precisión y velocidad del Robotic Transformer RT-2, así como RT-Trajectory, que agrega contornos en 2D para ayudar a los robots a ejecutar tareas físicas específicas con mayor eficacia, como limpiar una mesa.

    Aunque aún nos encontramos lejos de contar con robots que puedan preparar bebidas o acomodar almohadas de manera autónoma, estos avances representan un paso significativo hacia un futuro donde la colaboración entre humanos y robots se vuelva más segura y eficiente. Los aprendizajes obtenidos de sistemas como AutoRT podrían ser la base para una nueva generación de robots que convivan y trabajen de manera armoniosa con los humanos.

  • Los secretos de Tefi, el perro robot para invidentes

    Tefi, el perro robot pensado para invidentes, no ha nacido de la nada. Para su desarrollo, antes ha sido necesario desvelar los muchos secretos que albergan los robots que caminan.

    En el año 1989, en el MITLegLaboratory, Marc H. Raibert y otros autores presentaron el informe Dynamically Stable Legged Locomotion. Aquel trabajo fundamental revelaba esos secretos, las bases de la locomoción de los robots con patas. El informe incluía una serie de ecuaciones dinámicas y de control que supusieron el origen de robots como Tefi, los robots cuadrúpedos que caminan.

    Desde aquel momento hasta el nacimiento de Tefi, el primer perro robot guía para invidentes, han transcurrido cuatro décadas de avances y conocimiento.

    De una pata a subir escaleras

    Todo empezó con el control de un robot saltarín de una sola pata, que evolucionó a dos y finalmente a cuatro. Con él, había nacido el perro robot.

    El 23 de junio del 2016 Boston Dynamics presentó el robot Spot Mini, el primero a la venta, pero con un precio prohibitivo de 74 500 dólares.

    Spot robot cuadrúpedo de Boston Dynamics.
    Boston Dynamics

    Era una buena noticia, pero su elevado precio solo lo hacía accesible a empresas y a la industria militar.

    A partir de 2020, conocidos los secretos básicos para hacer andar a un robot de cuatro patas, la investigación aumentó de tal manera que se optimizaron los diseños y disminuyó el coste de una manera significativa.

    Los primeros robots cuadrúpedos de bajo precio los presentó Unitree. Su modelo Go1 se vende por 2 500 dólares. Xiaomi bajó aún más los precios con su perro robot Cyberdog, que puede comprarse por menos de 1 500 euros, de momento solo en China y para desarrolladores.

    Hasta el año 2022 la tendencia del uso de estos robots seguía siendo industrial y militar, despertando en este caso, temor en la sociedad, y alimentando el estigma negativo de la robótica.

    Más barato que un perro entrenado

    Conocedores de las tripas y engranajes de los perros robot, desde el Instituto de Tecnologías Físicas y de la Información (ITEFI) nos planteamos darles un uso social e inclusivo.

    Inspirados en los perros guía para invidentes, y pensando en personas dependientes, propusimos desarrollar un robot cuadrúpedo de características similares a un perro, lo que le permite tener una gran movilidad en terrenos complejos, subir escaleras, caminar por superficies accidentadas, etc.

    La forma cuadrúpeda de un robot facilita que se mueva en la ciudad, con la diversidad de obstáculos que presenta.

    La idea siguió adelante teniendo en cuenta que el precio de un perro guía entrenado supera los 30 mil euros y la persona que lo solicita ha de esperar un tiempo hasta que se lo asignan. Además, un perro requiere cuidados constantes por parte de su dueño y su tiempo de servicio no va más allá de 7 a 10 años. El precio de un perro robótico como Tefi no superaría los 5 000 euros.

    Tefi, el perro-robot para guiar a personas dependientes o con discapacidad / ITEFI-CSIC.

    El nacimiento de Tefi

    Así nació Tefi, un perro robot de color plateado y dotado de inteligencia artificial cuyo nombre hace referencia al instituto en el que nació, el ITEFI.

    Tefi está programado para acompañar y guiar a personas dependientes e invidentes. Se ha desarrollado en base a una plataforma robótica comercial a partir de la que se han hecho modificaciones tanto en hardware como en software.

    Para mejorar su autonomía e inteligencia, se mejoraron aspectos como cámaras, micrófonos, gps-rtk, altavoces, LIDAR, diversos sensores ambientales y un procesador capaz de soportar tanto el sistema de control como los modelos de inteligencia artificial que se ejecutan en paralelo.

    Tefi trabaja con diferentes modelos de inteligencia artificial, entre ellos el reconocimiento de voz, para que la persona pueda interactuar con el robot mediante comandos. Su dueño podrá pedirle lo que quiera que haga sin ningún interfaz, solo con la voz. También cuenta con un sistema de navegación automática para guiar a las personas tanto en el interior de un local como en el ambiente dinámico de las calles.

    “Tefi, llévame a la oficina”

    Tefi realiza un mapa preciso de los lugares que frecuenta. Una vez que ha ubicado en su mapa la casa, la oficina o la cafetería habitual, la persona solo tiene que darle un orden: “Tefi llévame a la oficina”, y el perro guía llevará a su dueño a la oficina, creando la ruta óptima y esquivando los obstáculos.

    En el exterior puede hacer uso de Google Maps para encontrar la ruta a destinos que no estén recogidos en su mapa.

    Mapa generado por TEFI.

    Otros aspecto que consideramos de importancia vital es que Tefi pudiera hacer llamadas o enviar mensajes a amigos, familiares e incluso a hospitales si se trata de una emergencia. El pequeño perro robot también cumple funciones sanitarias: sus sensores le permiten evaluar en tiempo real la acumulación de dióxido de carbono, temperatura ambiente, incluso la presión arterial de su dueño.

    Esto es un coche y no una zapatilla

    Entre los muchos modelos de inteligencia artificial integrados en Tefi, destaca el que le permite reconocer objetos. Puede identificar coches, mesas, sillas, etc, incluso personas. Así puede informar a su dueño sobre lo que está viendo, acercarle a una silla si es lo que le han pedido, o a las zapatillas.

    También queríamos que Tefi captara información del exterior, como los letreros de la calle. Por esto tiene capacidad para leer códigos QR y otros derivados que le permiten recoger información relevante como el cierre de un local, cambio de ruta en los autobuses, el corte de calles por obras, etc.

    Visión artificial de TEFI.

    Tefi aún tiene mucho desarrollo por delante, pero antes de salir a la calle ya anuncia el prometedor uso de la robótica en la sociedad, y que muy pronto Tefi y los suyos formarán parte de nuestra vida cotidiana.The Conversation

    Gerado Portilla, Doctor en Robótica, Universidad Politécnica de Madrid (UPM)

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • AARON, vida y obra de la primera inteligencia artificial creativa

    Su nombre es AARON y pintaba bodegones, series de atletas y paisajes surrealistas, entre otras muchas cosas, cincuenta años antes de que DALL-E, BOTTO, Midjourney y toda una saga de inteligencias artificiales recién nacidas estén poniendo en jaque al universo de la pintura y la creatividad.

    El desarrollo de AARON se inició en 1973, en la década en la que la tecnología comenzaba a permear los lienzos, y funcionaba con 1,5 megabytes de código LISP (uno de los lenguajes de programación más antiguos todavía en uso). Nació de la mano de un artista británico llamado Harold Cohen, que exploró los algoritmos como pinceles. Las obras de AARON se expusieron en grandes galerías de arte.

    ¿Soy yo el artista?

    “¿Soy yo el artista o es AARON el artista?” Harold Cohen, creador del robot pintor AARON, dijo no saber responder a esa pregunta.

    Cohen fue un pintor pionero en el arte computacional, y estableció un puente entre el arte y la computación con la creación de AARON, uno de los sistemas inteligentes creativos más longevos.

    Cohen definió el primer marco computacional para la generación de arte, formalizando el proceso creativo y reduciéndolo a una serie de reglas y cierta aleatoriedad. Esta formalización cobró vida en un sistema experto que modelaba el hacer de un artista. Su nombre comienza por A porque Cohen estimaba que sería el primero de varios programas creativos. Sin embargo, dedicó su vida entera solo a AARON.

    La mano humana

    Cohen nació en Gran Bretaña en 1928, pero se marchó a EE UU donde se convirtió en artista y profesor en la Universidad de California. Comenzó a trabajar en AARON en la década de los años 70 en su intento de responder a la cuestión “¿cuál es la mínima condición para que una serie de marcas se consideren una imagen?”. Según Cohen, se requería que el espectador creyera que las marcas habían sido creadas en un acto humano o similar. Así surge la idea de crear a AARON, inteligencia computacional que exhibió capacidades cognitivas como las de los humanos para crear imágenes.

    A lo largo de su niñez, partiendo de representaciones sencillas del conocimiento de su creador, AARON sólo podía distinguir entre formas cerradas o abiertas, y realizar simples manipulaciones con las mismas.

    AARON aprendió a pintar como los niños

    Un punto de inflexión tiene lugar en 1980, cuando Cohen observa cómo los niños pintan sus primeros garabatos buscando una pista para mejorar a AARON. Algo tan sencillo como trabajar con formas que se conectan entre sí, con unas reglas que modelan las articulaciones, permite que AARON comience a dibujar sus primeros garabatos.

    En 1985 pinta unas figuras que evocan a la Estatua de La Libertad, y progresa con creaciones cada vez más complejas, como pinturas de atletas o pinturas que incluyen vegetaciones.

    AARON no era capaz de proporcionar una perspectiva tridimensional, aunque los objetos se superpusieran correctamente en el espacio. Por ello, a mediados de los años 80, Cohen incorpora en AARON representaciones sofisticadas codificadas por muchos más puntos.

    AARON comienza así a generar figuras más realistas, proyectando una representación del mundo tridimensional en un cuadro bidimensional.

    La obra:

    Harold Cohen Art Main Gallery.

    AARON aprende a pintar en color

    En 1992 AARON comienza a pintar con colores. La complejidad de modelar cómo trabajan los pintores con los colores había llevado a Cohen a posponer esta faceta.

    Como a Cohen no le gustaban mucho las imágenes electrónicas, ingeniaba grandes máquinas impresoras que AARON utilizaba para plasmar sus cuadros, usando pinceles y pinturas reales. Además de almacenar información sobre objetos y sus relaciones, almacenaba normas relativas al uso de pinceles, teoría de colores, composición, etc. Más aún, el robot aprendía de lo pintado previamente, y tenía como norma no repetir lo anteriormente creado, generando siempre obras únicas.

    Si bien es cierto que esto le dotaba de gran capacidad de creación, se veía limitado por el hecho de que se rigiera por un conocimiento establecido inviolable, por ejemplo, nunca pintaría personas con dos cabezas o una sola pierna.

    AARON fue creciendo hasta el fallecimiento de Cohen en 2016. Sus obras han sido expuestas en muchos museos y el propio AARON ha sido objeto del fascinante debate sobre si las máquinas pueden ser creativas.

    La discusión sobre la creatividad

    La creatividad implica que existe un pensamiento que produce un resultado novedoso y de valor. Este valor puede venir dado porque sea útil, interesante o simplemente bonito, como puede ser una obra de AARON. La novedad puede darse respecto al propio individuo o desde un punto de vista histórico. Los niños pueden ser creativos en sus dibujos (novedad respecto al individuo), sin necesidad de hacer obras de arte (novedad respecto a la historia).

    AARON es creativo en ambos sentidos, innovando en cada uno de sus cuadros que son admirados en museos y galerías de arte.

    Por otra parte, para que una obra sea creativa, el pensamiento que la produce no debe ser convencional. En este sentido, algunos argumentan que AARON al fin y al cabo sólo sigue las reglas introducidas por Cohen, pero éste responde “el programa se compone de las reglas pero, independientemente del origen de dichas reglas, el programa genera un material que yo nunca hubiera generado por mí mismo ni imaginado”.

    Retomando la pregunta planteada por Cohen sobre quién es el artista, sin duda Cohen es un artista y AARON es arte. ¿Pero es AARON también un artista? AARON es un reflejo pictórico del arte de Cohen pero crea de forma autónoma y, tal y como expone Cohen, “Si lo que hace AARON no es arte, ¿qué es exactamente, y en qué maneras, al margen de sus orígenes, se diferencia de «lo real”?“.The Conversation

    Elena Verdú Pérez, Profesora Titular de Universidad – Área de Ciencias de la Computación y Tecnología, UNIR – Universidad Internacional de La Rioja

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Ameca, el robot humanoide que nos señala el futuro

    Ameca, la cara del futuro de la robótica

    Los desarrollos de la inteligencia artificial y la robótica tienen como propósito recrear a los humanos de pies a cabeza. Aunque los prototipos todavía son lentos, sorprende la rapidez con la que avanzan por imitar la realidad. Es el caso de Ameca, el robot humanoide que ha logrado conquistar las redes sociales por sus movimientos y gestos consiguiendo impresionar a tanta gente que se ha convertido en un fenómeno viral.

    Su fabricante, Engineered Arts, con sede en Reino Unido, lo describe como «el robot con forma humana más avanzado del mundo que representa la vanguardia de la tecnología robótica humana» y añadió que es «una plataforma para desarrollar IA» y está permitiendo que otros desarrollen los algoritmos de aprendizaje automático necesarios.

    La empresa diseña y fabrica robots de entretenimiento con apariencia humana para centros científicos, parques temáticos y empresas. Para ello, han ido creando una serie de robots con expresiones cada vez más realistas. Sus modelos anteriores, Mesmer y RoboThespian, son capaces de demostrar una amplia gama de emociones.

    Este androide ha sido diseñado como una plataforma robótica: los clientes que la compran pueden agregar IA y otro software para darle al robot las habilidades deseadas. El software con el que viene está diseñado para crear expresiones realistas.

    Si bien, este robot humanoide mantiene una esencia bastante robótica en su estructura corporal además de su cara grisácea, se puede notar la particularidad de su rostro. Los videos que ofrecen un primer vistazo a Ameca muestran al robot que parece despertarse, aflojar sus articulaciones y mirar con asombro el mundo que lo rodea. Las expresiones y gestos son increíblemente naturales. El robot Ameca tiene la piel de color gris, con características deliberadas de género y raza neutrales.

    Cada robot está diseñado y construido a partir de escaneos internos en 3D de personas reales. Lo que permite imitar la estructura ósea humana, la textura de la piel y cabello y las expresiones de manera convincente. Parece tener una cabeza, cara, cuello, hombros, brazos y manos completamente articulados, pero Engineered Arts señala que ninguno de sus robots puede caminar, aunque la compañía está estudiando esa capacidad.

    Engineered Arts utiliza motores «potentes, silenciosos y de alto par» para impulsar los movimientos del cuerpo y la cabeza, con todo diseñado desde cero para trabajar en conjunto a la perfección. También utiliza sensores como cámaras, sensores de profundidad, LiDAR y micrófonos. Para controlar los movimientos, ha desarrollado un software basado en navegador que funciona con muchas aplicaciones 3D utilizadas para efectos visuales o animación de juegos.

    Will Jackson, fundador de Engineered Arts, afirmó que las habilidades de Ameca y los robots anteriores de la compañía son el resultado de más de 15 años de investigación y desarrollo, declarando que el objetivo de la empresa sigue siendo el mismo: desarrollar robots que sean capaces de interactuar de manera similar a los humanos y establecer rápidamente una relación con cualquier persona, cerrando la brecha entre los humanos y el mundo digital. Su precio supera los $ 133,000.

  • Smellicopter, los drones que podrián «oler explosivos» gracias a la antena de una polilla

    Se ha utilizado una antena de polilla para crear Smellicopter, un pequeño dron autónomo diseñado para detectar firmas químicas que indican explosivos sin detonar o personas atrapadas en lugares de difícil acceso después de un desastre natural.

    La mayoría de los sensores creados hasta ahora por personas no son lo suficientemente sensibles o rápidos como para poder encontrar y procesar olores específicos. En este caso, el drone capta los olores gracias a la polilla Halcón Manduca sexta, que tiene un olfato extremadamente sensible.

    “La naturaleza realmente saca del agua nuestros sensores de olores hechos por humanos”, dijo la autora principal Melanie Anderson, estudiante de doctorado en ingeniería mecánica de la Universidad de Washington. «Al usar una antena de polilla real con Smellicopter, podemos obtener lo mejor de ambos mundos: la sensibilidad de un organismo biológico en una plataforma robótica donde podemos controlar su movimiento». La polilla usa sus antenas para detectar sustancias químicas en su entorno y navegar hacia fuentes de alimento o posibles parejas.

    «Las células en una antena de polilla amplifican las señales químicas», dijo el coautor Thomas Daniel, profesor de biología de la Universidad de Washington que codirige la investigación doctoral. “Las polillas lo hacen de manera realmente eficiente: una molécula de olor puede desencadenar muchas respuestas celulares, y ese es el truco. Este proceso es súper eficiente, específico y rápido».

    Los investigadores colocaron polillas en un refrigerador para anestesiarlas antes de quitarles una antena. Una vez separada de la polilla viva, la antena permanece biológica y químicamente activa hasta por cuatro horas. Al agregar cables en cada extremo de la antena, los investigadores pudieron conectarlo a un circuito eléctrico y medir la señal promedio de todas las celdas de la antena. Luego, el equipo lo comparó con un sensor típico hecho por humanos colocando ambos en un extremo de un túnel de viento y emanando olores, un aroma floral y etanol, a los que ambos sensores responderían.

    «Desde la perspectiva de la robótica, esto es genial», dijo el coautor y co-asesor Sawyer Fuller, profesor asistente de ingeniería mecánica de la Universidad de Washington. “El enfoque clásico en robótica es agregar más sensores y tal vez construir un algoritmo elegante o usar el aprendizaje automático para estimar la dirección del viento. Resulta que todo lo que necesitas es agregar una aleta».

    El equipo creó un protocolo de «lanzamiento y aumento» para el dron que imita cómo las polillas buscan olores. Smellicopter comienza su búsqueda moviéndose hacia la izquierda una distancia específica. Si nada pasa un umbral de olor específico, Smellicopter se mueve hacia la derecha por la misma distancia. Una vez que detecta un olor, cambia su patrón de vuelo para dirigirse hacia él.

    Cuatro sensores infrarrojos ayudan a Smellicopter a evitar obstáculos; si algo se acerca a unos 20 cm del dron, cambia de dirección pasando a la siguiente etapa de su protocolo. En lugar de GPS, Smellicopter usa una cámara para inspeccionar su entorno, lo que hace que el dron sea adecuado para explorar espacios interiores o subterráneos como minas o tuberías.

    Hasta ahora, el Smellicopter ha logrado alcanzar con éxito la fuente de un olor en el 100% de los casos y no solo eso, sino que el dispositivo puede detectar sustancias químicas potencialmente peligrosas en el aire, especialmente en circunstancias en las que los humanos no son lo suficientemente sensibles o lo suficientemente rápidos para ubicarlos.

    En general, esto hace que los drones cyborg sean ideales para los casos en los que se requiere que los dispositivos naveguen fácilmente por áreas que se consideran demasiado pequeñas, peligrosas o inseguras para los humanos, como edificios inestables, zonas donde pueden haber explosivos o estructuras dañadas por desastres naturales.

     

  • Delfines animatrónicos reemplazarán a los animales en los parques temáticos en el futuro

    A medida que los estudios cinematográficos recurren cada vez más a imágenes generadas por computadora para sus animales en pantalla, los especialistas en animatrónica han cambiado su enfoque para emplear sus diseños en parques temáticos.

    Este “mamífero mecánico” diseñado por Edge Innovations, puede asentir, nadar en acuarios y soportar el contacto cercano con los humanos. Según sus desarrolladores, es casi idéntico a un animal vivo. ¿La gran diferencia? Además de su cableado robótico, este delfín puede ofrecer a los parques marinos una alternativa libre de crueldad a la cría de animales vivos.

    Durante las últimas tres décadas, los amantes de los animales se han vuelto cada vez más conscientes del impacto negativo de tener animales reales en los parques marinos. A raíz de la película Blackfish de 2013, que expuso las controvertidas condiciones de vida de Tilikum, una orca del parque marino estadounidense SeaWorld, países como Canadá han llegado a prohibir el cautiverio de ballenas y delfines debido al intenso estrés que se ejerce sobre los mamíferos acuáticos.

    Pero hasta ahora, no había existido una alternativa viable a la industria altamente rentable. «Es sorprendente que haya 3.000 delfines actualmente en cautiverio para generar varios miles de millones de dólares solo para experiencias con delfines», dijo Walt Conti, fundador y director ejecutivo de la compañía detrás del robot.

    La respuesta de Edge Innovations ha sido reemplazar la captura, reproducción y entrenamiento de los animales mediante la creación de un reemplazo robótico. Su mamífero mecánico de 250 kilogramos tiene una piel de silicona de grado médico y fue hecho con la ayuda de biólogos marinos, quienes utilizaron la fisiología de delfines reales para ayudar a replicar los movimientos de los animales. Además del delicado esqueleto, hay una capa realista de piel, por lo que nadie que esté nadando junto al robot y tocándolo, podrá darse cuenta de que no es real. Los dientes del robot están ligeramente amarillentos y puede chirriar y mover la cabeza para imitar los gestos de un delfín marino.

    Edge Oceanarium Trailer from Edge Innovations on Vimeo.

    «Todos quieren saber si usar un delfín animatrónico es diferente de usar un delfín real», dijo el director creativo de la compañía, Roger Holzberg. «La verdad es que en muchos sentidos son iguales. Si quieres diseñar un espectáculo que utilice delfines reales, tienes que capturar delfines reales, entrenarlos y hacer que hagan ese espectáculo. Con la creación de robots tienes que hacer exactamente lo mismo: la diferencia es que no tienes que tener programas de reproducción, preocuparte por la seguridad de los seres humanos…etc».

    Los delfines digitales también podrían reducir gastos como alimentos, atención veterinaria y recintos gigantes de agua salada para parques de atracciones. Sin embargo, los delfines no son baratos. Tienen un precio de alrededor de $3 millones cada uno, un obstáculo potencial. Pero la compañía ya ha encontrado hogares para los delfines robot en parques marinos que se están construyendo en China, donde prevé vender hasta 150 de ellos en los próximos 3 años.

    «En términos de un período operativo comercial de 10 años y una capacidad anual de visitantes de 2 millones, los costos totales de inversión y mantenimiento de una cartera de entretenimiento móvil representan solo una cuarta parte o no más de una tercera parte», afirmó Li Wang, de Edge Innovation. Un acuario tradicional lo gasta.”

    Esta tecnología abre las puertas para que las personas tengan experiencias casi reales con animales desde grandes tiburones blancos hasta criaturas marinas de la era de los dinosaurios que se extinguieron hace millones de años, con un “Jurassic World terrestre” o experiencias de safari mejoradas, siendo además la respuesta perfecta a la caída de los ingresos en los parques marinos, que han estado bajo una creciente presión para eliminar las exhibiciones de ballenas y delfines debido a obvias preocupaciones éticas.

  • Cómo la impresión en 3D podría revolucionar la industria de la construcción

    A medida que crece la preocupación por la sostenibilidad del sector de la construcción, las empresas de alto perfil se están interesando en empresas que ofrecen soluciones impulsadas por la tecnología para el entorno construido. Los innovadores de todo el mundo están trabajando arduamente para cambiar la forma en que diseñamos, construimos y producimos nuestras casas, y todo esto dará como resultado un cambio masivo en el status quo de la vivienda.

    Un área que ha generado un gran interés en los últimos años es la impresión 3D. Es un proceso que ya ha transformado la forma en que producimos todo. Fabricar un modelo tridimensional, o prototipo, a partir de un diseño asistido por computadora mediante la adición de capas sucesivas de material, es ahora una práctica estándar en muchas industrias, que van desde la aeroespacial y la arquitectura, hasta la medicina y la fabricación de alta gama.

    Aprovechando el poder revolucionario de esta tecnología, empresas desde Rusia hasta China, EE.UU., Países Bajos o Emiratos Árabes ya han demostrado que no solo se puede imprimir una casa en 3D, sino que se puede hacer de forma económica, eficiente y sencilla. La impresión 3D o fabricación aditiva, en sí misma no es una tecnología nueva y se remonta a la década de 1980. Se estima que hasta el momento, se han construido 20 edificios comerciales en todo el mundo utilizando impresión 3D.

    El primer proyecto de estas características fue desarrollado a principios de 2015 por la empresa con base en Shangai, WinSun Decoration Design Engineering, la cual construyó 10 casas en 3D en menos de 24 horas. Según su informe, la construcción de cada casa costó unos 5000$. Además, una empresa rusa, Apis Cor, construyó una estructura similar. Consiguieron realizar esta hazaña utilizando impresoras 3D gigantes que aplicaban un spray consistente en una mezcla de materias primas recicladas y cemento de secado rápido.

    En 2018, Arup y CLS Architetti, firma italiana, participaron en un proyecto que utilizaba una impresora 3D para construir una casa de hormigón en la ciudad de Milán. Según Arup, se necesitaron solo 48 horas para imprimir la estructura. Además de permitir un proceso de construcción rápido, el uso de la impresión 3D también reduce el desperdicio. Arup agrega que la precisión del proceso “garantiza que se utilice cada centímetro de material, lo que hace que sea mucho más fácil calcular cuánto se necesitará en primer lugar”. Específicamente, los expertos de la industria identifican la producción perfecta de objetos a partir de un diseño numérico y el acceso a una amplia gama de geometrías para el objeto final, incluso las más imposibles o costosas de realizar con técnicas de procesamiento tradicionales.

    Actualmente, Dubai es pionera en el uso de la impresión 3D en un esfuerzo por impulsar las ventas de propiedades y ahorros significativos, lo que podría marcar el comienzo de su adopción a nivel mundial. La región aspira a la construcción de una cuarta parte de todos los edificios nuevos mediante impresión 3D para el año 2030. Emaar, uno de los principales promotores inmobiliarios del Golfo Pérsico, anuncia que su naciente proyecto residencial Arabian Ranches III ofrecerá la primera vivienda de este tipo en Dubái.

    Aunque  el mundo de la construcción todavía no ha visto las mejores aplicaciones de la impresión 3D, se espera como vemos, que en los próximos años se utilice esta tecnología a gran escala, mediante una entrega acelerada, mayor flexibilidad en el diseño, menor costo de construcción, uso más eficiente de materiales y mayores niveles de sustentabilidad al reducir los residuos propios de la construcción, e incluso una menor contaminación acústica.

  • Estamos listos para ser inyectados con robots microscópicos que ejecuten tareas médicas?

    En 1966, en el marco de la Guerra fría entre La Unión Soviética y los Estados Unidos, se estrena la película de ciencia ficción con el título español «Viaje Fantástico»; el argumento supone que ambos países han desarrollado la tecnología necesaria para disminuir los objetos de tamaño.

    El científico Jan Benes, parte del proyecto según el argumento de la película, en un intento de asesinato, queda en situación de coma por un hematoma cerebral y para salvar su vida, se conforma un equipo para tripular un submarino e ir en su ayuda dentro de su cuerpo; submarino y tripulación son reducidos de tamaño e introducidos en el torrente sanguíneo de Jan Benes, para que en una hora puedan alcanzar los tejidos dañados del cerebro y lograr su curación antes de volver a su tamaño natural.

    Debido al éxito de la película, que incluso dio pie a un cuadro de Dalí e inspiró una novela de Isaac Asimov, un similar argumento de ciencia ficción vuelve a repetirse en una nueva película a mediados de los 80s, conocida como «Viaje Insólito». Esta última, nominada a varios Oscar, se alza finalmente con el de Efectos Especiales. Ambas películas mostraban cómo la idea de ingresar al cuerpo humano, era algo de ciencia ficción hasta hace poco tiempo relativamente atrás.

    Hasta ahora.

    Cincuenta años de escalamiento de la ley de Moore en microelectrónica han brindado oportunidades notables para el campo en rápida evolución de la robótica microscópica. Los sistemas electrónicos, magnéticos y ópticos ofrecen ahora una combinación sin precedentes de complejidad, tamaño pequeño y bajo costo, y podrían ser fácilmente adecuados para robots que son más pequeños que el límite de resolución de la visión humana (menos de cien micrómetros).

    Debido a ello, los científicos han creado robots microscópicos que en poco tiempo podrían inyectarse en cuerpos humanos para realizar una cirugía.

    Son los primeros robots microscópicos hechos de componentes semiconductores, según sus creadores de la Universidad de Cornell. Esto significa que se les puede hacer caminar utilizando señales electrónicas estándar. Cada robot tiene cuatro patas compuestas por pequeños transmisores, que están conectados a parches de células solares en el chasis del dispositivo. Cuando se iluminan estos parches con rayos láser, las piernas se doblan para que el robot camine.

    Los robots también son extremadamente pequeños: alrededor de 5 micrones de grosor (0,005 cms), 40 micrones de ancho y entre 40 y 70 micrones de largo. En las pruebas, los investigadores manejaron más de un millón de bots desde una oblea de silicio de cuatro pulgadas.

    «Controlar un pequeño robot es quizás lo más cercano a encogerse», dijo el autor principal del estudio, Marc Miskin, ex investigador postdoctoral en Cornell. «Creo que máquinas como éstas nos llevarán a todo tipo de mundos asombrosos que son demasiado pequeños para ver».

    Los robots son lo suficientemente pequeños como para que enjambres de ellos puedan inyectarse a través de una aguja en un cuerpo. Luego, podrían viajar a través del tejido y la sangre en su camino, coser los vasos sanguíneos o sondear la vena humana.

    Sin embargo, todavía hay que controlarlos desde el exterior, por ahora. Pero algún día podrían estar equipados con ‘cerebros’ artificiales y baterías que les permitan deambular de forma autónoma.

    Ahora imagine querido lector, cómo podrá esto cambiar la forma cómo planificamos nuestros riesgos, cómo cambiarán las compañías de seguros, cómo en definitiva cambiará la forma en cómo definimos la salud y la medicina. Y como siempre se crearán nuevos trabajos, como operador de robots quirúrgicos, para ir avisándoles a los sindicatos también.

    Puede leer más sobre la investigación en la revista Nature.

  • ¿Sabían que la automatización de tiendas lleva más de 122 años de historia?

    Llevamos tiempo viendo la automatización en el proceso de venta en retail como si fuera una nueva tendencia, pero lo que muchos no saben es que llevamos aproximadamente 122 años intentando ‘futurizar’ nuestras tiendas y además si analizamos su evolución en todo el mundo, éstas no han cambiado tanto con el paso de los años. Como nos comenta el autor de un artículo sobre este tema, Laureano Turienzo, escribir sobre la automatización de las tiendas como si fuera una ‘nueva tendencia’ es no conocer la historia del retail.

    Remontándonos a la Alemania de 1895, abre sus puertas Quisisana, el primer restaurante automático del mundo, fabricando hasta sus propios equipos y máquinas. Los periódicos en esa época ya hablaban de una nueva corriente de automatización de los restaurantes y del fin del trabajo poco cualificado y desplome de salarios. Hace dos siglos, los artesanos ingleses incluso quemaban máquinas de hilar en los principios de la Revolución Industrial para que no acabaran con sus puestos de trabajo. Hoy en día, los países más automatizados del mundo son paradójicamente los que tienen una menor tasa de desempleo, como Singapur, Corea del sur, Dinamarca, Taiwan o EEUU.

    Unos años más tarde, en 1902, se abre en EEUU el primer restaurante-cafetería autónomo: Horn & Hardart, usando equipos Quisisana y replicando su concepto de tienda, moderna, cosmopolita y atractiva. No se trataba de precio, aunque también era bastante asequible; era cuestión de ser diferente. Siempre estaban lleno: los clientes introducían sus fichas en máquinas expendedoras, y aparecía milagrosamente su pedido de comida. Detrás de eso, alguien cocinaba y las servía. O si querías café, echabas otra moneda a otra máquina y se vertía sobre tu vaso. Compra inteligente, ahorro de tiempo, conveniencia y valor diferencial eran sus lemas.

    Horn & Hardart fue un éxito absoluto, y en pocos años, sus creadores, Joseph Horn y Frank Hardart abrieron más de 100 nuevos restaurantes. Habían muerto las esperas. Eran los disruptores de su época, que marcó el inicio de la era de la comida rápida. El modelo era eficiente y ahorraba en costes estructurales, ya que se necesitaba mucho menos personal. Los clientes lo vieron además como algo positivo y novedoso. Era parte del “american way of life”, y se convirtió en la cadena de restaurantes más grande del mundo, alimentando cada día a unas 800,000 personas, el ícono del retail de todos los tiempos y el primer intento de la industria de restaurantes de emular las líneas de montaje de la industria pesada.

    The world’s first automat, Quisisana at 13 Leipziger strasse in Berlin Germany. Image taken in 1897.

    Además, en Horn & Hardart Automats eran muy estrictos con los controles de calidad y con su política de alimentos frescos. Después de la hora de cierre, todos los días, sus camiones llevaban la comida excedente a las tiendas de “One day“, ubicadas en vecindarios de bajos ingresos, que vendían estos artículos a precios reducidos. También en eso fueron pioneros; segundas marcas para rentabilizar el negocio y dar salida a los excedentes que no cumplían los estándares de primera.

    Por otra parte, la búsqueda de la automatización también en las formas de pago es más viejo de lo que pensamos. Horn & Hardart se perfeccionó en la década de 1940, simplificando el sistema de pago: hasta ese momento los clientes tenían que cambiar sus billetes por fichas de plástico, ahora los clientes seleccionaban las comidas que deseaban, introducían el dinero, presionaban un botón y recibían su producto. El sistema de pago se integró en la experiencia de compra, como pasa actualmente con servicios como Uber.

    El primer sistema de autopago fue instalado en un supermercado en 1992 en Price Chopper Supermarkets en Nueva York, hace más de un cuarto de siglo. Pero mucho antes, en 1954, hace más de 6 décadas, los supermercados Meijer hacían también historia en el mundo del retail e incorporaban en sus líneas de cajas registradoras, cintas transportadoras automáticas para que los clientes pusieran los productos y todo fuera más rápido.

    Pero lamentablemente, el modelo de Horn & Hardart se agotó. De nuevo, los procesos de destrucción creativa: nuevos modelos de negocios que destruyen otros ya existentes y dominantes en el mercado. Pasó y seguirá pasando, incluso con Amazon, Alibaba o Apple. En los sesenta aparecieron las grandes cadenas de hamburgueserías, y Horn & Hardart fue decayendo y acabó cerrando en 1991 su último local en Nueva York.

    El hecho es que, aunque hoy hablamos de la automatización de las tiendas como algo ultramoderno, en realidad es algo que existe hace más de un siglo, y además de éstas, probablemente seguirán existiendo las tiendas de barrio de toda la vida, y al final el que decidirá es el consumidor.