Categoría: Innovación

  • Roomba: cuando el mercado compite y el regulador decide

    Durante años, Roomba fue sinónimo de “la aspiradora robot”. No era solo un producto exitoso: era una pequeña promesa de futuro doméstico, de esa automatización cotidiana que el capitalismo suele entregar cuando la tecnología se vuelve masiva y el consumidor premia la utilidad. Y, sin embargo, iRobot —la empresa detrás de Roomba— terminó en bancarrota (Chapter 11) a mediados de diciembre de 2025, en un proceso “preempaquetado” que busca culminar en febrero de 2026 y que la deja, de facto, en manos de su principal fabricante, Picea Robotics.

    Esta historia tiene algo de manual: innovación real, competencia feroz, presión de precios y, al final, una lección amarga sobre cómo la intervención regulatoria puede alterar el desenlace natural de una empresa en problemas.


    1) El origen: MIT, robótica útil y una marca que creó categoría

    iRobot nació en 1990, fundada por ingenieros vinculados al MIT con una ambición clara: construir robots prácticos para el mundo real. Con el tiempo, la compañía se hizo conocida por desarrollar robótica en múltiples ámbitos, y en 2002 lanzó el producto que la convertiría en icono: Roomba, uno de los primeros robots domésticos exitosos a escala masiva.

    Roomba no solo vendía: educaba al consumidor. Convertía un artefacto de nicho en un electrodoméstico deseable. Ese es uno de los superpoderes del mercado: si aciertas con producto, precio y distribución, puedes crear una categoría y cosechar durante años.


    2) La caída: competencia, commoditización y el “efecto plataforma”

    Pero el capitalismo no es un concurso de popularidad permanente. Es un proceso de descubrimiento… y de demolición creativa.

    Con el tiempo, el mercado de aspiradoras robot se pobló de rivales con propuestas sólidas y, sobre todo, con precios más bajos. En 2025, Reuters resumía el golpe: iRobot quedó atrapada entre presión competitiva de marcas de menor costo (incluidas chinas), costos adicionales por aranceles, y una estructura financiera más frágil tras años difíciles.

    El resultado fue un deterioro financiero visible: en marzo de 2025 la empresa llegó a emitir una advertencia de “going concern” (duda sustancial sobre su capacidad de seguir operando), en medio de recortes y revisión estratégica.

    Esto también es capitalismo: cuando el producto se “comoditiza”, la ventaja del pionero se reduce. Y si no tienes escala, márgenes, o una plataforma de distribución que te sostenga, sobreviven los más eficientes.


    3) La “salida” que pudo ser: Amazon, la compra frustrada y el regulador como protagonista

    En ese contexto, la posible adquisición por Amazon aparecía como un salvavidas: capital, distribución, integración con hogar inteligente y músculo comercial. Sin embargo, el acuerdo se rompió a finales de enero de 2024, porque —según las propias partes— no veían “camino” para lograr aprobación regulatoria en la Unión Europea.

    La Comisión Europea había comunicado una “visión preliminar” de que la compra podría restringir competencia: el temor central era que Amazon pudiera favorecer a iRobot y degradar el acceso/visibilidad de rivales en su tienda, elevando barreras y reduciendo opciones.  En Estados Unidos, la FTC celebró la terminación del acuerdo y expresó preocupaciones sobre posibles efectos en competencia e incentivos de la plataforma.

    Aquí emerge la tensión ideológica: el regulador actuó bajo una teoría clásica de “foreclosure” (exclusión en plataforma). Pero para un lente liberal, también cabe la pregunta incómoda: ¿y si esa operación era precisamente el mecanismo de mercado que reasignaba activos para salvar valor y competir mejor?

    Cuando una empresa está en la cuerda floja, una adquisición puede ser la forma menos destructiva de reestructurar: conserva marca, empleos, soporte a clientes y continuidad tecnológica. Bloquear ese desenlace no crea competencia por arte de magia; a veces, solo pospone o empeora el ajuste.


    4) El desenlace: Chapter 11 y venta al fabricante (Picea)

    En diciembre de 2025, iRobot entró formalmente en Chapter 11 con un plan para ser adquirida por Picea, su fabricante principal. El propio comunicado corporativo indica que el proceso busca “desapalancar” el balance y continuar operando normalmente.  Reuters describió la operación: el plan contempla que Picea se quede con el 100% del equity y se cancelen obligaciones relevantes asociadas a préstamos y acuerdos de manufactura. Medios como AP también reportaron que la compañía esperaba mantener servicios y soporte sin interrupción durante la reestructuración.

    El simbolismo es potente: la empresa que creó la categoría termina absorbida por la cadena de suministro. No por un gran jugador tecnológico occidental (Amazon), sino por quien produce a escala. En mercados maduros, la ventaja muchas veces migra hacia eficiencia, costos y fabricación.


    5) Qué significa esto para el capitalismo y la “sana competencia”

    Una lectura liberal no debería romantizar a iRobot: si perdió competitividad, el mercado la corrigió. Eso es sano. La parte incómoda es otra: cuando el regulador bloquea una salida privada, cambia la trayectoria. La competencia “sana” no es garantizar que haya muchos jugadores vivos a cualquier precio, sino permitir que el capital fluya hacia estructuras más viables, ya sea por quiebra ordenada, fusión, venta o liquidación.

    La ironía es que, tras frustrarse la compra por Amazon, iRobot no se convirtió en un campeón independiente revitalizado: terminó en Chapter 11 y en manos de su fabricante. Eso no demuestra automáticamente que el regulador “se equivocó” (la contrafactual nunca es perfecta), pero sí deja una advertencia: la regulación antimonopolio no opera en el vacío. Tiene costos, demora, incertidumbre y, a veces, efectos finales que lucen exactamente como lo que decía evitar: menos opciones “premium” occidentales y más peso de productores de bajo costo.

    En un mercado dinámico, el peor rol del regulador no es vigilar; es creer que puede diseñar el resultado correcto. Y Roomba, que alguna vez pareció el futuro, hoy queda como recordatorio de que el capitalismo innova… pero también castiga, y que la mano que pretende “ordenar” la competencia puede terminar decidiendo, fatalmente, quién llega vivo al siguiente ciclo.

  • “Pequeñas” cosas que debemos a Albert Einstein

    Si preguntásemos a pie de calle por el nombre de un científico, las respuestas se repartirían mayoritariamente entre Albert Einstein, Marie Curie, Isaac Newton, Stephen Hawking y científicos locales, como Santiago Ramón y Cajal, o aparecidos en el cine, como Robert Oppenheimer.Según algunas encuestas, los cuatro primeros se quedarían con aproximadamente entre el 60 % y el 90 % de las respuestas y Albert Einstein saldría ganador, por goleada.

    Albert Einstein
    Retrato de Marie Skłodowska-Curie (1867 – 1934).
    Wikimedia Commons.

    Ahora bien, si preguntásemos a continuación por qué conocen a Einstein, la inmensa mayoría de los encuestados responderían ¡la teoría de la relatividad!, aunque no supieran de que trata tal teoría… Estaremos de acuerdo en que Einstein contribuyó al progreso de la ciencia con este logro, aunque también lo hizo en otros ámbitos, menos conocidos y de gran importancia en nuestro día a día.

    Cuatro artículos pioneros

    En 1905, antes de dar a conocer su teoría más reconocida, Albert Einstein publicó cuatro artículos merecedores, cada uno de ellos, del premio Nobel:

    Albert Einstein
    Efecto fotoeléctrico: emisión de electrones (en rojo) de una placa metálica al recibir suficiente energía transferida desde los fotones incidentes (líneas onduladas).
    Wikimedia Commons., CC BY
    • Sobre el movimiento de pequeñas partículas suspendidas en un líquido estacionario, según lo requiere la teoría cinética molecular del calor, en el que proporcionó evidencia empírica de la realidad del átomo y dio crédito a la mecánica estadística, una rama de la física relegada por aquel entonces.
    • Sobre la electrodinámica de los cuerpos en movimiento, avanzadilla de su gran teoría, en el que Einstein concilió las ecuaciones de Maxwell del electromagnetismo y las leyes de la mecánica clásica: propuso la velocidad de la luz como la máxima velocidad alcanzable, sólo accesible para los fotones.
    • ¿Depende la inercia de un cuerpo de su contenido de energía?, en el que Einstein dedujo la ecuación más famosa de todos los tiempos o, al menos, la más reproducida en camisetas y tazas de desayuno. La equivalencia entre la masa de un cuerpo en reposo y la energía en que puede convertirse: E=mc².

    Parecen resultados importantes y lo son. ¿Pero de qué nos sirve todo esto a la gente de a pie?

    Sincronización de relojes

    Cada vez que alguien abre Google Maps o el navegador del coche, el buen funcionamiento del GPS depende directamente de la teoría de la relatividad de Einstein.

    Los satélites que forman el sistema GPS se mueven muy deprisa y se encuentran lejos de la superficie terrestre, donde la influencia gravitatoria de la Tierra es menor. Einstein descubrió que el tiempo no avanza al mismo ritmo en cualquier circunstancia: la gravedad y la velocidad del objeto lo modifican. Los relojes de los satélites, por tanto, tienden a adelantarse o retrasarse respecto a los que hay en la superficie de la Tierra.

    Albert Einstein
    Telstar, el primer satélite de comunicaciones lanzado al espacio, en 1962.
    NASA.

    El sistema GPS corrige este efecto aplicando las ecuaciones de la relatividad especial y general. Si no lo hiciera, el posicionamiento tendría errores de varios kilómetros al cabo de un solo día.
    Del mismo modo, la infraestructura de internet y de las telecomunicaciones modernas depende de una sincronización extremadamente precisa entre relojes distribuidos por todo el planeta, muchos de ellos también en satélites.

    Si no se corrigieran dichos relojes acorde con la relatividad general, las redes eléctricas, los pagos electrónicos, la navegación aérea y el propio internet sufrirían fallos importantes.

    Cada conexión, cada videollamada y cada transacción bancaria se beneficia, sin que lo notemos, del modo en que Einstein cambió nuestra comprensión del tiempo y de la gravedad.

    Paneles solares: cuestión de fotones

    Los paneles solares modernos funcionan gracias al efecto fotoeléctrico, que fue explicado por Einstein en 1905 –fue este mérito lo que se premió con el Nobel en 1921–.

    Planteó que la luz está formada por paquetes de energía llamados fotones y que, cuando un fotón con suficiente energía golpea ciertos materiales, puede arrancar un electrón de su superficie. Esa expulsión de electrones es lo que genera corriente eléctrica en una célula solar.

    Todo panel fotovoltaico doméstico, toda farola solar y cada pequeño cargador solar portátil se basan exactamente en el proceso que este científico describió: luz que libera electrones y electrones que generan electricidad.

    Videollamadas y pantallas digitales

    La fotografía digital, las cámaras de los móviles, las webcams y prácticamente cualquier sistema moderno de captura de imágenes funcionan también gracias al mismo efecto. En los sensores CCD y CMOS, que sustituyen a la película fotográfica clásica, cada punto de la imagen es una minúscula celda que libera electrones cuando recibe luz.

    Esa liberación es medida electrónicamente y convertida en una imagen digital. El principio físico detrás de cada foto, vídeo o videollamada cotidiana es exactamente el que Einstein describió en 1905.

    Láseres grandes y pequeños

    Los láseres, que hoy en día aparecen en muy diversas aplicaciones, funcionan siguiendo un mecanismo que predijo Einstein: la emisión estimulada. En un artículo de 1917, aventuró que un átomo podía ser “forzado” a emitir luz idéntica a la que recibía, creando un haz de luz extremadamente puro, concentrado y ópticamente coherente.

    Décadas después, esta predicción se convirtió en el principio de funcionamiento del láser. Hoy en día, encontramos láseres en lectores de códigos de barras en el supermercado, en ratones ópticos, en impresoras láser, en reproductores de CD, en fibra óptica para internet y en algunos procedimientos médicos.

    Albert Einstein
    Láseres de estado sólido emitiendo en distintos colores. (Wikipedia)
    CC BY-SA

    Medicina nuclear

    La energía nuclear y varias técnicas médicas modernas dependen de la ecuación E=mc². Esa relación establece que una pequeña cantidad de masa encierra una enorme cantidad de energía.

    La comprensión de este vínculo permitió explicar el funcionamiento de los núcleos atómicos y abrió el camino a los reactores nucleares, pero también a usos médicos esenciales, como la radioterapia o las exploraciones PET (tomografía por emisión de positrones), que permiten diagnosticar enfermedades detectando pequeñas cantidades de radiación procedente de desintegraciones atómicas.

    Aunque no sea algo que una persona use directamente cada día, sí afecta profundamente a la salud pública y al tratamiento de millones de pacientes alrededor del globo.

    En definitiva, cada vez que alguien recibe un radiodiagnóstico o un tratamiento basado en física nuclear, consulta un trayecto en su GPS o carga su teléfono móvil con un panel solar, está aprovechando de algún modo una de las ideas de Albert Einstein.The Conversation

    Francisco José Torcal Milla, Profesor Titular. Departamento de Física Aplicada. Centro: EINA. Instituto: I3A, Universidad de Zaragoza

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • El colapso de Cloudflare: Una advertencia contra la centralización digital

    El 18 de noviembre de 2025 quedará marcado en el calendario como una bandera roja sobre la fragilidad de nuestra infraestructura digital. Cloudflare experimentó una interrupción generalizada que afectó a múltiples sitios web durante la mañana, dejando inaccesibles plataformas como X (anteriormente Twitter), Letterboxd y servicios de OpenAI. La causa fue un error en los permisos de uno de sus sistemas de base de datos que duplicó el tamaño de un archivo crítico utilizado por su sistema de gestión de bots. Un simple cambio técnico bastó para paralizar sectores enteros de Internet.

    Esta no es una anécdota menor en la historia de las telecomunicaciones. Es una evidencia contundente de los riesgos sistémicos inherentes a la arquitectura centralizada que domina la infraestructura digital contemporánea. Cloudflare, como muchos otros proveedores de servicios en la nube, opera bajo un modelo donde millones de sitios web y aplicaciones dependen de un único punto de falla. Cuando ese punto colapsa, el efecto dominó es inevitable y devastador.

    La tecnocracia digital y sus puntos ciegos

    Desde una perspectiva crítica, este incidente expone las limitaciones estructurales del modelo tecnocrático que ha gobernado el desarrollo de Internet durante las últimas dos décadas. La concentración de poder en manos de unas pocas corporaciones tecnológicas no solo representa un riesgo técnico, sino una amenaza a la libertad digital y a la soberanía individual.

    La Red Global de Cloudflare es una infraestructura distribuida de servidores y centros de datos ubicados en más de 330 ciudades en más de 120 países, pero esta distribución geográfica no equivale a descentralización real. El control permanece centralizado en una única entidad corporativa que puede, voluntaria o involuntariamente, interrumpir el acceso a la información de millones de usuarios simultáneamente.

    Esta arquitectura centralizada crea puntos de control que pueden ser explotados no solo por fallos técnicos, sino también por presiones políticas, regulatorias o económicas. La historia reciente ha demostrado cómo gobiernos y corporaciones pueden ejercer censura o vigilancia masiva aprovechando estos cuellos de botella infraestructurales. La concentración de poder informático facilita el totalitarismo digital, donde el acceso a la información queda condicionado por decisiones unilaterales de entidades privadas o estatales.

    La respuesta descentralizada: Filecoin Onchain Cloud

    En una ironía histórica de timing perfecto, el mismo 18 de noviembre se anunció el lanzamiento de Filecoin Onchain Cloud, una plataforma de nube descentralizada que ofrece almacenamiento verificable, recuperación rápida y pagos programables completamente en cadena. Este proyecto representa la antítesis filosófica y técnica del modelo centralizado que colapsó ese mismo día.

    Filecoin Onchain Cloud opera bajo un paradigma radicalmente diferente. En lugar de concentrar el almacenamiento y procesamiento de datos en centros de datos controlados por una sola corporación, distribuye esta responsabilidad entre miles de nodos independientes en una red peer-to-peer. La plataforma señala que las recientes interrupciones en los principales proveedores de nube han dejado a Web3 fuera de línea, subrayando su dependencia de infraestructura centralizada.

    La propuesta de Filecoin no es meramente técnica, sino profundamente política. Al eliminar puntos únicos de falla y control centralizado, esta arquitectura descentralizada hace mucho más difícil la censura, la vigilancia masiva y la interrupción arbitraria de servicios. Los datos no residen en servidores de una corporación que puede cerrarlos, sino que están distribuidos criptográficamente en una red donde ningún actor individual tiene el poder de denegar el acceso.

    Arquitectura técnica de la resiliencia

    Desde el punto de vista técnico, las diferencias son fundamentales. Cloudflare, como proveedor centralizado, concentra el enrutamiento del tráfico, la gestión de DNS y la seguridad en su infraestructura. Cuando esta infraestructura falla —como ocurrió ayer— no existe plan de contingencia para los usuarios finales. Simplemente deben esperar a que el proveedor resuelva el problema internamente.

    Filecoin Onchain Cloud, por el contrario, implementa redundancia estructural mediante fragmentación y replicación de datos. El almacenamiento cálido mantiene los datos en línea con pruebas en cadena, Filecoin Pay automatiza pagos basados en uso, y Filecoin Beam soporta recuperaciones medidas e incentivadas. Si múltiples nodos fallan simultáneamente, el sistema continúa operando porque los datos permanecen accesibles desde otros nodos de la red.

    Esta arquitectura no solo mejora la resiliencia técnica, sino que también introduce verificabilidad criptográfica. Los usuarios pueden auditar independientemente que sus datos están almacenados correctamente mediante pruebas criptográficas, sin necesidad de confiar ciegamente en un proveedor centralizado.

    Implicaciones para la libertad digital

    Más allá de las consideraciones técnicas, la disyuntiva entre centralización y descentralización tiene profundas implicaciones para las libertades civiles en la era digital. Un Internet controlado por un puñado de corporaciones gigantescas facilita la implementación de sistemas de control social, vigilancia y censura a escala nunca antes vista en la historia humana.

    La descentralización, implementada mediante protocolos como Filecoin, devuelve el control a los individuos. Permite la construcción de sistemas resistentes a la censura donde la información no puede ser borrada unilateralmente por gobiernos o corporaciones. Crea mercados abiertos para servicios de infraestructura donde la competencia reemplaza al monopolio.

    La necesidad urgente de alternativas descentralizadas

    El colapso de Cloudflare del 18 de noviembre no es un incidente aislado, sino un síntoma de un problema estructural en la arquitectura de Internet. Este es un ejemplo más de cómo gran parte de la web está sostenida por un puñado de servicios bien intencionados. La concentración de infraestructura crítica en pocas manos corporativas crea vulnerabilidades sistémicas inaceptables para una sociedad que depende cada vez más de sistemas digitales.

    La emergencia simultánea de Filecoin Onchain Cloud ofrece una visión alternativa: un Internet descentralizado, resiliente y resistente a la censura. Esta no es solo una cuestión de eficiencia técnica o redundancia operacional, sino una batalla por la libertad digital en el siglo XXI.

    La elección es clara. Podemos continuar construyendo sobre fundamentos centralizados, aceptando interrupciones periódicas y la posibilidad siempre presente de control autoritario. O podemos adoptar arquitecturas descentralizadas que, aunque técnicamente más complejas, ofrecen garantías fundamentales de disponibilidad, privacidad y libertad.

    El colapso de ayer fue una advertencia. La pregunta es si estaremos dispuestos a escucharla.

  • Detección de mentiras y neurotecnologías: ¿más cerca de la “verdad”?

    En los últimos años, han proliferado estudios empíricos basados en la medición de la actividad cerebral para leer la mente. A través de las neurotecnologías –sistemas de inteligencia artificial alimentados con datos cerebrales–, se anuncia la posibilidad de acceder a los pensamientos, las intenciones o, incluso, las memorias de las personas. Una promesa que, aunque todavía se mueve entre la ciencia y la ficción, plantea desafíos profundos para el ámbito jurídico.

    Usando el polígrafo en un caso judicial de 1937.
    Biblioteca Nacional de Francia.

    Esta posibilidad no ha pasado desapercibida en el mundo del derecho. Desde hace siglos, la justicia ha buscado herramientas que permitan saber si alguien miente en un juicio. Las antiguas ordalías –prueba ritual medieval en que se invocaba el juicio de Dios–, el polígrafo o el análisis del lenguaje no verbal son solo algunos ejemplos de esa ambición persistente por descubrir la verdad a través de medios externos. Ninguna de estas técnicas, sin embargo, ha contado con un respaldo empírico sólido que garantice su validez o fiabilidad.

    Una forma de leer la mente

    Sin embargo, las técnicas neurocientíficas parecen abrir una vía prometedora, al estar en condiciones de superar los límites y falibilidades de otros sistemas que han ido apareciendo a lo largo de la historia. La clave radica en que la fuente de medición se sitúa lo más próxima posible a la información que se desea obtener. Dicho de otra forma: ya no se trata de medir si alguien suda, se sonroja o se muestra nervioso, sino de observar la actividad neuronal que podría reflejar lo que sabe o recuerda. Algo que, de confirmarse, sería extraordinario.

    Con un método así, los declarantes en un proceso judicial no podrían ocultar, distorsionar o falsear lo que cuentan. La aplicación de esta tecnología permitiría reconstruir con más precisión los hechos y, así, conocer lo que realmente ocurrió. Este es uno de los principales objetivos del proceso judicial y, en particular, de la actividad probatoria.

    El antecedente de la prueba P300

    Aunque pueda parecer futurista, la aplicación de técnicas basadas en la actividad cerebral no es completamente nueva en el ámbito judicial español. Desde 2014, algunos jueces admitieron la práctica de la denominada prueba P300, que registra las señales eléctricas del cerebro mediante electroencefalografía. Se basa en el hecho de que el cerebro modifica dichas señales eléctricas cuando se enfrenta a un estímulo visual que le evoca un recuerdo.

    El método consiste en mostrar a los investigados imágenes o palabras relacionadas con un hecho delictivo. Si el cerebro reacciona con una señal eléctrica concreta –la llamada “onda P300”–, se interpreta que el sujeto reconoce la información presentada.

    En varios casos, esta técnica se empleó para intentar localizar los cuerpos de víctimas desaparecidas, como Marta del Castillo. Sin embargo, los resultados alcanzados en los procesos judiciales no fueron concluyentes. Al contrario, pesan sobre esa prueba muchas dudas sobre su validez y fiabilidad.

    ¿Se puede detectar la mentira desde la memoria?

    Precisamente, para evitar que técnicas sin un respaldo empírico sólido influyan en decisiones judiciales –y puedan conducir a condenas erróneas–, resulta fundamental analizar con detenimiento qué pueden medir realmente estas tecnologías.

    Una de las cuestiones relevantes, si se pretende utilizar este instrumento en los tribunales de justicia, es si puede conocerse la verdad de unos hechos mediante el análisis de las memorias de sus testigos. Actualmente, sabemos que la memoria humana no funciona como una cámara de vídeo, no es una copia fiel de la realidad. Y es que los recuerdos son maleables: pueden alterarse (contaminarse) con el paso del tiempo, por la influencia de los medios, por preguntas sugestivas o, simplemente, por volver a contar (o rememorar internamente) lo sucedido varias veces.

    Esta permeabilidad característica de la memoria puede dar lugar a falsos recuerdos, que combinan experiencias auténticas con información adquirida después, que puede no corresponderse con la realidad.

    Lo más preocupante es que los falsos recuerdos pueden ser indistinguibles de los verdaderos, tanto para quien los tiene como para quien los evalúa. Hasta ahora, la neurociencia no ha identificado un marcador cerebral capaz de diferenciarlos de manera concluyente.

    Entonces ¿qué detectan estas pruebas?

    Si no se puede distinguir entre recuerdos reales y falsos, ¿qué mide exactamente la neurotecnología?

    Los experimentos se basan en una idea sencilla: mentir exige un mayor esfuerzo cognitivo que decir la verdad. Implica suprimir una respuesta espontánea, inventar otra en su lugar y controlar la reacción con el interlocutor a fin de que no se dé cuenta de la mentira (engaño motivado). En teoría, ese esfuerzo extra se refleja en el cerebro.

    Así, las técnicas empleadas con tal propósito no se basan el análisis del contenido de la memoria, sino en los patrones cerebrales asociados al esfuerzo de mentir. El problema es que este modelo tiene limitaciones: por ejemplo, si una persona está muy acostumbrada a mentir, dicho esfuerzo se reduce y la técnica deja de ser fiable.

    Más que leer la mente, estas herramientas trabajan con una representación muy limitada de lo que significa mentir –engañar–. Su interpretación, por tanto, requiere una gran prudencia. La aparente objetividad de los datos neurocientíficos puede inducir a una “ilusión de certeza” peligrosa en el contexto judicial, donde las consecuencias de un error pueden ser irreversibles.

    Aunque los titulares sobre la posibilidad de “detectar mentiras en el cerebro” resulten cautivadores, la realidad científica es mucho más compleja. Los expertos coinciden en que aún estamos lejos de poder acceder a los pensamientos de una persona o determinar con precisión si dice la verdad o no.

    Así que, por ahora, la justicia sigue sin disponer de un método fiable para leer la mente o para descubrir la falsedad en los tribunales. Después de todo, seguimos donde estábamos: frente a la eterna dificultad de conocer con certeza qué es verdad y qué no dentro de la mente humana.The Conversation

    Miquel Julià-Pijoan, Profesor de Derecho Procesal, UNED – Universidad Nacional de Educación a Distancia

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Museos contra la fugacidad: cómo el arte intenta detener el tiempo

    El siglo XXI ha convertido la atención en un bien escaso. En un mundo donde las pantallas capturan cada segundo de distracción y el pulgar decide con un gesto el destino de miles de imágenes, los museos enfrentan un desafío inédito: lograr que el visitante mire, sienta y recuerde. No se trata solo de conservar obras, sino de conservar experiencias.

    El Museo del Prado y el Reina Sofía, dos de las grandes instituciones españolas, han asumido esta batalla con estrategias que mezclan arte, ciencia y psicología de la percepción. En el Prado, el cambio de color de las paredes de su Galería Central —del tradicional verde grisáceo a un azul oscuro profundo— no es un mero capricho estético. Como explicó su director, Miguel Falomir, el azul aumenta el contraste óptico y realza los tonos de maestros como Veronese o Rubens. Pero, sobre todo, pretende generar una atmósfera que invite a la contemplación.

    La idea es sencilla y revolucionaria a la vez: condicionar el entorno para ralentizar el ritmo de observación. “Utilizamos elementos apenas perceptibles que permiten que la experiencia sea memorable”, afirma Alfonso Palacio, director adjunto de conservación del Prado. La disposición de las esculturas, la iluminación o incluso el tipo de cartela (la placa o etiqueta informativa) son variables cuidadosamente pensadas para que el visitante deje de mirar el móvil y mire, simplemente, un poco más.

    No es casual. Estudios realizados en museos como el Metropolitan de Nueva York o el Art Institute de Chicago muestran que el tiempo medio frente a una obra ha caído de unos 30 segundos a menos de 10. La velocidad de consumo se ha colado también en el arte. Por eso, iniciativas como la del Prado apuntan a un objetivo más ambicioso: detener el tiempo.

    El Reina Sofía, por su parte, avanza en una renovación radical. Su director, Manuel Segade, ha declarado la guerra al “cubo blanco”, esa estética neutra y minimalista que dominó las salas del siglo XX. En su lugar, propone tonos grises, luz cálida y espacios segmentados que guíen la mirada y ofrezcan un respiro. “Se trata de ralentizar la experiencia —dice el artista y comisario Xabier Salaberria—, de evitar que el visitante entre y salga de una exposición como si fuera un supermercado”.

    Esa necesidad de pausa no es solo física, sino cultural. El crítico y curador Paco Barragán habla de una “crisis de atención” que redefine la relación entre el público y las obras. Hoy la visita a un museo es, para muchos, la oportunidad de subir un selfie a Instagram. El arte compite con su propia viralidad, y los museos lo saben. Permitir que el público vuelva a fotografiar el Guernica en el Reina Sofía no es una concesión al exhibicionismo digital, sino un intento de integrar esa cultura visual en la experiencia artística.

    El reto, sin embargo, va más allá del color o de las redes sociales. Se trata de reinventar el papel del museo como espacio emocional, donde la contemplación recupere su lugar frente al consumo instantáneo. Gabriel Alonso, del Institute for Postnatural Studies, lo resume bien: “El arte no escapa a la fugacidad del consumo, pero podemos condicionarla”.

    El museo contemporáneo ya no es solo un contenedor de obras, sino un ecosistema sensorial. Las paredes, la luz, los recorridos y hasta las zonas de descanso son parte del discurso. La misión es hacer que el visitante habite el museo, no que lo consuma.

    Quizá esa sea la paradoja más hermosa de nuestro tiempo: mientras la tecnología acelera cada experiencia, los museos intentan recordarnos la lentitud. No buscan competir con la inmediatez del scroll, sino ofrecer un refugio frente a ella. Que alguien, por un instante, deje el móvil en el bolsillo y mire —de verdad— un cuadro.

    Detener el tiempo, en el fondo, sigue siendo una forma de arte.

  • Google rompe la barrera cuántica: el primer algoritmo verificable

    Google ha anunciado hoy un avance que podría marcar un antes y un después en la historia de la computación cuántica: ha creado un algoritmo denominado Quantum Echoes, que ejecutado en su procesador cuántico Willow logra una velocidad hasta 13.000 veces superior a la del mejor superordenador clásico para una tarea específica, y –lo más llamativo– es verificable.

    ¿Qué significa “verificable” en este contexto?

    Uno de los grandes desafíos de la computación cuántica ha sido demostrar que los resultados obtenidos no son errores, sino que efectivamente superan lo que una computadora clásica podría replicar. Lo que hace diferente a «Quantum Echoes» es que su resultado puede reproducirse en otro sistema cuántico con iguales características, o compararse con experimentos físicos, de modo que la validez del dato no quede solo en manos de quien lo ejecutó. Esa “verificabilidad” es algo que muchos algoritmos cuánticos anteriores no tenían o tenían de forma poco práctica.

    Según uno de los investigadores de Google: “Si no te puedo demostrar que el dato es correcto, ¿cómo puedo hacer algo con él?” Este énfasis es clave: la diferencia entre “supremacía cuántica” o “ventaja cuántica” y “ventaja cuántica práctica” pasa, en buena parte, por que los resultados puedan validarse con confianza.

    ¿Cuál fue la tarea que hizo 13.000 veces más rápido?

    El equipo usó 65 qubits del chip Willow para ejecutar lo que se llama un correlador fuera de orden temporal (OTOC, del inglés out-of-time-order correlator). En términos simples, consistió en aplicar una secuencia de operaciones cuánticas hacia adelante, perturbar un qubit, y luego revertir esas operaciones con la intención de “escuchar un eco” cuántico. Esa señal revela cómo la perturbación se “propaga” o se “mezcla” dentro del sistema — un proceso difícil de simular clásicamente debido al crecimiento exponencial del estado cuántico.

    Google estima que replicar esos cálculos en la supercomputadora Frontier requeriría varios años continuos, mientras que su chip cuántico lo hizo en horas. Esa diferencia de escalas es lo que permite decir “13.000 veces más rápido”.

    También hicieron una prueba secundaria: usaron datos de resonancia magnética nuclear (NMR) para comparar resultados, aplicando la técnica como una especie de “regla molecular”. Esto apunta a conectar la teoría cuántica con experimentos del mundo real.

    Impactos potenciales y advertencias

    El avance ha sido celebrado como un hito: Google afirma que se trata del primer algoritmo cuántico verificable en hardware que supera las capacidades clásicas.  Se espera que este tipo de algoritmos puedan usarse en campos como la química cuántica, descubrimiento de fármacos, ciencia de materiales, y simulaciones moleculares que hoy están fuera del alcance.

    Pero varios expertos advierten que esto no es aún un “computador cuántico universal práctico”. Uno de los comentarios recurrentes es que el resultado es “estrecho en alcance” y aún queda un largo camino para lograr máquinas con millones de qubits (y corrección de errores robusta).

    Por ejemplo, Winfried Hensinger (University of Sussex) señala que aunque es un paso convincente, no garantiza que todos los problemas reales puedan tratarse cuánticamente de forma fiable. Y otros comentaristas mencionan que en ocasiones avances similares han sido revertidos o relativizados por mejoras en métodos clásicos.

    Otro punto es la escalabilidad: mantener la estabilidad (bajas tasas de error, aislamiento cuántico) con más qubits es muy desafiante.

    Qué representa este anuncio de Google?

    Este anuncio de Google representa una frontera técnica: no solo acelerar un cálculo, sino hacerlo de una forma verificable, reproducible y significativa. Es un paso hacia la visión de que los ordenadores cuánticos no sean solo curiosidades, sino herramientas utilizadas en ciencia, industria y tecnología.

    Pero todavía no es el final del camino: queda demostrar estabilidad a gran escala, reducir errores, ampliar la cantidad de qubits y desarrollar algoritmos aplicables a problemas útiles. Aun así, hoy google marcó una línea simbólica importante: la transición de “teoría cuántica fascinante” hacia “instrumento cuántico creíble”.

  • Panamá y su revolución en el café de especialidad: del terroir al podio mundial

    En los últimos años, Panamá ha logrado posicionarse como una de las referencias mundiales en el ámbito del café de especialidad. Ajustando su mirada hacia la calidad más que al volumen, el país centroamericano ha combinado condiciones naturales privilegiadas —altitudes, suelos volcánicos, microclimas— con innovación agronómica, trazabilidad y una cultura productiva colectiva que ha permitido escalar premios y récords internacionales.

    Un ecosistema único para el café premium

    Las regiones de Boquete, Tierras Altas, Renacimiento y Dolega, en la provincia de Chiriquí, constituyen el corazón del café de altura panameño. Allí, la confluencia de suelos ricos, altitudes entre 1 500 y más de 2 000 metros, lluvias bien distribuidas y brisas que suavizan las temperaturas crean un “terroir” difícil de replicar. Ese entorno natural, mediado por productores con alta especialización, da como resultado cafés con perfiles aromáticos florales, notas frutales delicadas, vivacidad en acidez y una claridad inusual en taza.

    Pero el mérito no es solo del entorno natural: muchos caficultores han profesionalizado su labor, dominando catación, procesos de fermentación controlada, secado de precisión y trazabilidad genética. Esta atención milimétrica permite que sus lotes logren puntajes superiores a los 90 puntos —umbral para considerarse “de especialidad”— con frecuencia sostenida en competencias internacionales.

    “Best of Panama”: plataforma de excelencia y subastas globales

    La puerta de entrada del café panameño al mundo es, sin duda, el concurso Best of Panama (BOP), organizado por la Asociación de Cafés Especiales de Panamá (SCAP). Cada año, los mejores lotes de diferentes categorías —Geisha (lavado y natural), Pacamara, tradicionales, varietales— compiten en rigurosas catas evaluadas por jueces locales e internacionales. Los ganadores luego se subastan mundialmente, atrayendo compradores de Europa, Asia, Oriente Medio y América.

    La fama de Panamá se ha cimentado en esas subastas. En la edición de 2025, por ejemplo, un lote de Geisha Washed de la Hacienda La Esmeralda fue vendido por 30 204 dólares por kilogramo, estableciendo un nuevo récord global.  Esta cifra, jamás antes vista en la historia del café de especialidad, y no sólo en Panamá, ratifica cómo el mundo del café premium valora no sólo el origen, sino la narrativa, el control total de la cadena y la excelencia sensorial.

    De hecho, esa puja récord no es algo accidental: de los 50 lotes subastados en esa edición, 30 superaron los 1 000 USD por kilo. Y en otras versiones anteriores del BOP, lotes de Geisha han vendido por más de 1 000 USD la libra, haciendo de Panamá sinónimo de exclusividad cafetera.

    Innovación, colaboración y mirada al futuro

    Uno de los pilares del éxito de Panamá con el café de especialidad radica en el modelo colaborativo entre productores. A diferencia de otros países donde domina la competencia fragmentada, en Panamá se favorece el intercambio de conocimientos, la profesionalización colectiva, y la adhesión a estándares de calidad comunes. Además, existe un incentivo legal: cualquier persona puede convertirse en exportador incluso con pequeños volúmenes, lo que democratiza el acceso al mercado global.

    El 2025 también marcó otro hito: durante el BOP se anunció que Panamá será sede del World of Coffee 2026, el congreso internacional más importante del sector, y será la primera vez que se realice en Latinoamérica. Esta elección reafirma el protagonismo del país como epicentro global del café gourmet.

    Dentro del país, eventos como La Cosecha refuerzan la conexión entre el productor, el consumidor y el turista. En 2025, por primera vez, La Cosecha abrió su experiencia al público mediante paquetes turísticos, permitió visitar fincas emblemáticas y destacar la cultura cafetera como componente turístico-sensorial.

    Un camino de más que café

    El caso panameño trasciende la producción agrícola: es una historia de transformación cultural, científica y comercial. En apenas tres décadas, tras décadas de producción convencional, Panamá ha redefinido el café como lujo, cultura y obra artesanal. En ese trayecto, su especialidad (con el Geisha como emblema) ha servido para guiar la evolución global del segmento premium del café.

    Hoy, cada taza panameña que se consume en Europa, Asia o Norteamérica lleva consigo una narrativa de altura, de trazabilidad, de pasión y de un pequeño país que apostó por calidad en lugar de escala. Esa apuesta, respaldada por premios, récords y reconocimiento, inspira no solo a baristas y tostadores, sino también a productores de otras latitudes que sueñan con elevar su café más allá del convencional.

  • Innovación, libertad y la vigencia de la destrucción creativa: lecciones del Nobel de Economía 2025

    El reciente anuncio del Premio Nobel de Economía 2025 —otorgado a Joel Mokyr, Philippe Aghion y Peter Howitt— es más que un reconocimiento académico: es una reivindicación intelectual de la libertad creativa como motor del progreso humano. El fallo de la Real Academia Sueca distingue a Mokyr “por haber identificado los prerrequisitos del crecimiento sostenido mediante el progreso tecnológico”, y a Aghion y Howitt “por la teoría del crecimiento impulsado por la destrucción creativa”.

    El mensaje de fondo es nítido: las economías prosperan cuando las instituciones y los valores sociales permiten innovar, competir y aprender. El crecimiento no se impone por decreto ni por redistribución, sino por la acumulación de conocimiento útil y la valentía de destruir lo viejo para crear lo nuevo.

    Desde una óptica liberal, el galardón rinde homenaje a una línea de pensamiento que conecta a Schumpeter con la economía moderna del conocimiento. Aghion y Howitt formalizaron en los años noventa la intuición schumpeteriana de la “destrucción creativa”: el proceso mediante el cual las innovaciones reemplazan tecnologías obsoletas, generando incrementos sostenidos de productividad. Su modelo mostró que la competencia no destruye el capitalismo, sino que lo renueva constantemente.

    Mokyr, por su parte, aportó la mirada histórica y cultural. En The Lever of Riches y A Culture of Growth, demostró que la Revolución Industrial no fue un accidente geográfico, sino el resultado de una cultura de la curiosidad y del intercambio intelectual. Las sociedades que valoran el conocimiento práctico, la libre experimentación y la crítica abierta son las que logran innovar de forma sostenida. En otras palabras, la libertad —en el pensamiento, en el comercio y en la investigación— es condición necesaria del progreso.

    Economistas liberales como Peter Boettke han celebrado el premio precisamente por esa reafirmación del rol de las instituciones abiertas. Boettke recuerda que el capitalismo de libre entrada y competencia es el mejor marco para que la innovación florezca sin depender de planificadores ni burócratas. El mérito de Aghion, Howitt y Mokyr es haber ofrecido, cada uno a su modo, evidencia teórica e histórica de esa premisa: la prosperidad surge cuando las reglas del juego premian la creatividad, no la captura de rentas.

    También resuena aquí el eco de Deirdre McCloskey, quien ha insistido en que la “gran enriquecedora” moderna fue, ante todo, un cambio de actitudes hacia el comercio y la innovación. Su noción de “dignidad burguesa” complementa la teoría de la destrucción creativa: no hay progreso material sin una cultura que legitime al innovador y al empresario como agentes de mejora social.

    La coincidencia entre estos enfoques no es casual. En todos, la libertad ocupa el centro del escenario. El mercado competitivo —con sus imperfecciones y sobresaltos— sigue siendo el entorno más fértil para que surjan ideas nuevas. La intervención estatal, cuando busca “proteger” sectores obsoletos o dirigir la innovación hacia fines políticos, suele congelar justamente ese dinamismo que Schumpeter consideraba esencial para la vitalidad capitalista.

    Sin embargo, el premio también invita a una autocrítica liberal: la innovación sin competencia real degenera en monopolio, y el capitalismo sin virtud puede derivar en captura política. De ahí la necesidad de preservar instituciones que mantengan abiertos los canales de entrada, difundan el conocimiento y reduzcan los privilegios. La destrucción creativa no debe convertirse en destrucción concentrada.

    El Nobel de 2025, en definitiva, no celebra una moda académica, sino un principio civilizatorio: el progreso sostenido depende de la libertad de innovar. Mokyr, Aghion y Howitt nos recuerdan que el crecimiento económico no nace del control, sino de la confianza en la mente humana cuando se le permite crear, competir y equivocarse. Ese sigue siendo el fundamento moral y práctico del liberalismo económico.

  • Sora 2 y la nueva frontera de los videos generados por IA

    OpenAI ha presentado Sora 2, una aplicación que permite generar videos realistas a partir de descripciones, incorporando a una persona real dentro de escenas ficticias con una calidad técnica que impresiona: sincronización de diálogos, sonidos, físicas realistas, iluminación, efectos visuales.

    La versión social de la app permite “cameos”: un usuario puede subir su imagen para integrarse en escenarios generados por la IA. OpenAI afirma que el usuario mantiene control sobre su imagen, puede revocar permisos o borrar videos que lo incluyan.

    Este salto tecnológico plantea interrogantes técnicos, legales y normativos: ¿cómo cambiará el panorama de los medios tradicionales? ¿cuál será la responsabilidad sobre falsificaciones visuales? ¿qué límites marcar para proteger identidad y derechos?

    Aspectos técnicos y capacidades nuevas

    1. Mejora en controlabilidad y seguimiento de instrucciones complejas
      Sora 2 promete seguir indicaciones “multitoma”, escenas complejas, animaciones coherentes en diferentes planos. Esto genera contenidos más sofisticados, menos “artificiales”.
    2. Simulación de leyes físicas realistas
      No sólo rostros o gestos, sino objetos en interacción (rebotes, colisiones, gravedad). Eso hace que el contenido no parezca un “pegote” digital sino una escena plausible.
    3. Recomendaciones personalizadas y control de consumo
      OpenAI integra algoritmos que ajustan el “feed” mediante lenguaje natural, con mecanismos para sondear el bienestar del usuario y limitar el consumo excesivo.
    4. Controles para menores y aparición en cameos
      Se establecen límites de creación y visualización para adolescentes, y restricciones para los cameos. Este control es esencial para mitigar abusos.

    Estas características técnicas permiten que las falsas “actuaciones” con personas reales resulten cada vez más creíbles, lo que hace que la línea entre contenido legítimo y manipulación digital se vuelva borrosa.

    Impacto en medios tradicionales y redes sociales

    Los medios de comunicación —que han confiado por décadas en cámaras, reportajes, imágenes verificadas— ahora enfrentan una competencia donde los “videos reales” pueden ser fabricados sin rodaje físico alguno. Un medio tradicional que difunde un video debe cuestionarse su autenticidad.

    Redes sociales y plataformas de video se enfrentarán a mayores exigencias de moderación y verificación: detectar deepfakes en video será tan necesario como detectar noticias falsas de texto.

    Además, el modelo de consumo cambia: alguien podría protagonizar anuncios, discursos o escenas ficticias sin su consentimiento. La reputación, la propaganda política, la difamación, todo eso entra en un terreno más riesgoso.

    Riesgos, regulaciones y desafíos

    • Derechos de imagen e identidad
      Aunque OpenAI promete control del usuario sobre su imagen, la aplicación real de esas promesas es lo que importa. ¿Quién supervisa que la revocación funcione? ¿Cómo se sanciona el uso indebido?
    • Responsabilidad y atribución
      Si un video generó daños (difamación, manipulación), ¿quién es responsable: quien lo generó, la plataforma, la IA? Las leyes vigentes no están preparadas para esto.
    • Regulación ética y técnica
      Se requieren normas específicas para IA de generación de video: identificación implícita de que es IA, marcas de agua, registros verificables de origen.
    • Riesgo de saturación y escepticismo
      Si todo video puede ser falso, la credibilidad colapsa. La gente podría dejar de creer en lo que ve, lo que socava medios legítimos.

    Ver y no creer

    Sora 2 representa un punto de inflexión: pasamos de imágenes generadas estáticas a videos generados por IA casi indistinguibles de los reales. Desde el punto de vista técnico, el salto es enorme; desde el punto de vista social, supone un reto: revalidar la confianza, redefinir responsabilidad, inventar nuevos métodos de verificación.

    Los medios tradicionales ya no pueden asumir que lo que llega ante sus ojos es auténtico. Las leyes deben adaptarse, y los usuarios deben ganar herramientas de defensa. En esta nueva era, “ver” ya no es creer: debemos saber cómo y quién lo hizo.

  • Stablecoins, Visa y el futuro de los pagos transfronterizos: ¿una oportunidad para Panamá?

    El anuncio de Visa sobre su programa piloto con stablecoins para pagos transfronterizos marca un posible punto de inflexión en la infraestructura de pagos globales. La iniciativa, que permite a bancos y entidades financieras usar monedas estables como USDC o EURC para prefinanciar transferencias internacionales, abre la puerta a un sistema más ágil, menos costoso y con menor dependencia de intermediarios tradicionales. Para países como Panamá, que dependen casi por completo de la banca corresponsal estadounidense, el impacto potencial puede ser significativo.

    El sistema legacy: SWIFT y la banca corresponsal

    Hoy en día, la gran mayoría de las transferencias internacionales se liquidan a través de SWIFT y de la red de banca corresponsal. Este mecanismo, vigente desde hace décadas, implica que los bancos de un país deben mantener cuentas prefondeadas en bancos de otro país para procesar pagos en diferentes monedas.

    El modelo funciona, pero con costos:

    • Altos tiempos de liquidación, que pueden ir de uno a tres días hábiles.
    • Comisiones elevadas, que en muchos casos se trasladan al usuario final.
    • Dependencia política y regulatoria: países como Panamá, dolarizados y sin banco central propio, dependen de bancos corresponsales en Nueva York para mover dólares hacia el exterior. Esto los hace vulnerables al “de-risking” (cuando bancos internacionales cierran relaciones por riesgo reputacional o regulatorio) y a presiones externas.

    Qué propone Visa con las stablecoins

    El piloto de Visa busca desintermediar parcialmente ese sistema. En lugar de tener que mantener cuentas prefondeadas en múltiples jurisdicciones, las entidades financieras podrían:

    • Usar stablecoins para liquidar pagos casi instantáneamente, 24/7.
    • Reducir los costos operativos y de intermediación.
    • Minimizar la exposición cambiaria al trabajar con monedas digitales ligadas al dólar o al euro.

    En términos simples, Visa crea una capa alternativa de pagos globales donde las stablecoins funcionan como “efectivo digital” para las transferencias internacionales.

    Impacto sobre la banca corresponsal

    No significa la desaparición inmediata de la banca corresponsal, pero sí un cambio en las reglas de juego. Con stablecoins, los bancos locales pueden reducir su dependencia de corresponsales para ciertos flujos, obligando a los actores tradicionales a modernizarse o a abaratar costos.

    Para SWIFT y la red legacy, este tipo de iniciativas son una competencia directa en velocidad, eficiencia y disponibilidad horaria.

    Panamá: ¿riesgo o oportunidad?

    El caso panameño es paradigmático. Al no tener banco central ni moneda nacional, el país depende enteramente de bancos corresponsales en EE. UU. para cursar pagos internacionales en dólares. Eso implica:

    • Altos costos de operación.
    • Riesgo de exclusión financiera internacional, si corresponsales reducen su exposición.
    • Limitada autonomía en la gestión de flujos financieros.

    La adopción de sistemas como el de Visa podría brindar a Panamá:

    • Mayor autonomía operativa en pagos internacionales.
    • Menores costos para comercio, banca local y remesas.
    • Una vía de escape parcial a la dependencia casi absoluta de bancos en Nueva York.

    No obstante, los riesgos son reales:

    • Se necesita un marco regulatorio claro sobre stablecoins y prevención de lavado.
    • La confianza en los emisores de stablecoins aún no está consolidada, con antecedentes de colapsos.
    • Una adopción apresurada podría tensionar la relación con corresponsales tradicionales.

    El piloto de Visa con stablecoins no elimina de inmediato el sistema tradicional, pero sí abre una alternativa concreta a décadas de dependencia en la banca corresponsal. Para Panamá, que vive en la intersección de la dolarización y el comercio internacional, esta puede ser una oportunidad histórica para diversificar su infraestructura de pagos y ganar autonomía.

    La cuestión no es si las stablecoins impactarán los pagos globales, sino cuándo y bajo qué reglas. El reto para Panamá será adelantarse, con regulación y estrategia, para convertir este cambio en una ventaja competitiva y no en una fuente de vulnerabilidad.