Categoría: Tecnología

  • El ciclo de cuatro años de Bitcoin sigue vivo, pero ahora lo marcan la política y la liquidez

    Durante años, los analistas y entusiastas de Bitcoin han hablado de un patrón repetitivo que surge aproximadamente cada cuatro años, un ciclo tradicionalmente ligado al evento de halving —la reducción programada a la mitad de la recompensa minera que limita la emisión de nuevos BTC— y que históricamente ha coincidido con mercados alcistas de alta intensidad. Sin embargo, según Markus Thielen, director de investigación en 10x Research, ese patrón no ha desaparecido: continúa presente, aunque ahora está siendo impulsado por factores externos como la política monetaria, los ciclos electorales y la disponibilidad de liquidez en los mercados globales, más que por el propio halving.

    En una reciente aparición en The Wolf Of All Streets Podcast, Thielen destacó que muchos observadores han llegado a la conclusión errónea de que el ciclo de cuatro años de Bitcoin estaría “roto” o extinto. Para él, no es así: el ciclo sigue intacto, pero su dinámica subyacente ha evolucionado. Mientras que en el pasado el halving jugaba un papel central en la formación de tendencias alcistas, hoy este rol lo desempeñan elementos vinculados al entorno macroeconómico y político.

    Uno de los argumentos más llamativos se basa en el alineamiento de máximos históricos anteriores: 2013, 2017 y 2021, que coincidieron con trimestres finales del año en momentos de incertidumbre política o cerca de elecciones presidenciales en Estados Unidos. Esto sugiere, según Thielen, que las expectativas y decisiones políticas —como cambios de administración, debates fiscales o resultados electorales— están influyendo más en el comportamiento del mercado que los eventos técnicos programados de Bitcoin.

    Este cambio de énfasis a los factores macro también se observa en el impacto de las decisiones de los bancos centrales, especialmente la Reserva Federal de Estados Unidos. Aunque históricamente los recortes de tasas de interés han apoyado el apetito por activos de riesgo —incluyendo criptomonedas—, en el entorno actual ese efecto no ha sido tan claro. Aunque la Fed ha recortado tasas recientemente, Bitcoin no ha mostrado un fuerte impulso alcista inmediato. La razón, según el análisis de 10x Research, es que inversores institucionales, ahora dominantes en los mercados cripto, están siendo más cautelosos, y las señales ambiguas de política monetaria junto con condiciones de liquidez relativamente ajustadas han ralentizado las entradas de capital necesarias para una ruptura parabolica de precios.

    Este enfoque en la liquidez no es exclusivo de Thielen. Otros analistas han señalado que los mercados de Bitcoin y criptomonedas en general son particularmente sensibles al flujo global de liquidez, y que los eventos de halving han sido más correlativos que causales para los ciclos de mercado. Es decir, las subidas generales de liquidez en el sistema financiero global tienden a coincidir con rallys de Bitcoin, independientemente del calendario de reducciones de emisión.

    La conclusión es que los inversores podrían necesitar replantear cómo piensan sobre el ciclo de Bitcoin. En lugar de enfocarse ciegamente en fechas fijas como el halving, podría ser más útil prestar atención a catalizadores macroeconómicos y geopolíticos: elecciones presidenciales en mercados clave, debates sobre deuda fiscal, cambios de política monetaria en economías avanzadas y variaciones en la liquidez global. Todos estos factores pueden actuar como disparadores tanto para periodos de euforia como de consolidación.

    Por ahora, Bitcoin parece estar en una fase de consolidación dentro de un rango, con la falta de liquidez impulsando menos volatilidad direccional. Esto no significa que los ciclos hayan desaparecido, sino que su naturaleza ha evolucionado. Los participantes del mercado que comprendan esta nueva dinámica —donde la política y la liquidez global pesan tanto como los fundamentos técnicos del propio Bitcoin— probablemente estarán mejor posicionados para anticipar los próximos movimientos significativos del activo.

  • Palantir y el espejismo de la seguridad: una advertencia desde la frontera orwelliana

    Hay nombres de empresas que parecen concebidos en una novela de ciencia ficción. Palantir es uno de ellos. En la obra de Tolkien, los palantiri eran piedras de visión: artefactos que permitían ver cualquier rincón del mundo, pero siempre a riesgo de perder la voluntad frente a quien controlara el cristal.
    En nuestra realidad, Palantir Technologies cumple un papel inquietantemente parecido.

    Durante años, esta compañía se ha presentado como una constructora de “software para decisiones complejas”. No recopilan datos —dicen—, solo proporcionan la infraestructura para que otros lo hagan mejor. A simple vista, parece una promesa de eficiencia. Pero en el trasfondo, se perfila un cambio profundo en la relación entre ciudadanos, gobiernos y empresas tecnológicas: un desplazamiento silencioso hacia un modelo donde la vigilancia deja de ser excepcional y se convierte en arquitectura.

    Cuando todos los datos conversan entre sí

    Palantir se especializa en integrar información dispersa: bases de datos policiales, registros migratorios, historiales médicos, cuentas fiscales, patrones de consumo, contactos, ubicaciones. Lo que antes eran islas, su software lo convierte en un archipiélago perfectamente conectado.
    Y cuando todos los datos “hablan”, lo hacen sobre nosotros.

    El problema no es solo tecnológico. Es político, ético y, sobre todo, humano. La posibilidad de correlacionar cada movimiento, cada decisión, cada vulnerabilidad individual configura un poder que ningún Estado democrático debería delegar —y mucho menos sin supervisión transparente. Las herramientas que prometen revelar terroristas también pueden identificar manifestantes, periodistas incómodos o comunidades enteras consideradas “de riesgo” por algoritmos sin rostro.

    Un sistema capaz de verlo todo no es neutral. Es una tentación.

    El matrimonio peligroso entre gobiernos y corporaciones

    Las asociaciones público-privadas que impulsan este tipo de tecnología han sido vendidas como alianzas pragmáticas: el Estado obtiene herramientas de última generación, la empresa obtiene contratos millonarios.
    Pero ¿quién protege al ciudadano en medio de esa negociación?

    Cuando un gobierno externaliza su capacidad de vigilancia a un actor privado, ocurre algo preocupante: la soberanía se terceriza. Los contratos son opacos, las auditorías escasas, el escrutinio público casi nulo. El poder se desplaza hacia quienes controlan la tecnología, no hacia quienes controlan el voto.

    Las democracias modernas se construyen sobre equilibrios delicados: separación de poderes, transparencia, control judicial, prensa libre. La introducción de plataformas de análisis masivo de datos puede romper ese equilibrio sin ruido, sin violencia, sin que la ciudadanía siquiera note que se ha cruzado un umbral.

    Porque la vigilancia del siglo XXI no grita. Apenas susurra.

    El retrovisor orwelliano

    En 1984, Orwell imaginó un mundo donde la vigilancia era total y explícita: cámaras, micrófonos, pantallas omnipresentes. Lo inquietante de nuestra época es que no hace falta esa teatralidad. Basta con que los datos se acumulen, se integren y se procesen bajo lógicas que nadie comprende del todo.

    El Gran Hermano ya no necesita mirar: basta con que los sistemas predigan.

    ¿Quién decide qué es sospechoso? ¿Quién corrige los errores del algoritmo? ¿Quién garantiza que un perfil de riesgo no se convierta en sentencia antes del juicio? ¿Quién se responsabiliza cuando una vida es condicionada por datos mal interpretados?

    La respuesta, demasiadas veces, es: nadie en particular.

    La última línea de defensa

    Quizá el mayor peligro no sea Palantir como empresa, sino nuestra complacencia colectiva: la aceptación pasiva de que la seguridad justifica cualquier intromisión, de que la eficiencia es más importante que la libertad, de que “si no tienes nada que ocultar, no tienes nada que temer”.

    Ese es el primer paso hacia la erosión de derechos que costaron siglos de lucha.

    La tecnología no es el enemigo. La opacidad sí. La ausencia de límites legales también.
    La idea de que “el fin justifica los medios”, aplicada al manejo de datos, es una pendiente resbaladiza hacia un futuro donde la privacidad es un recuerdo.

    Por eso es indispensable exigir transparencia total en los contratos, auditorías independientes, evaluación de impacto en derechos humanos y un debate público real sobre qué tipo de sociedad queremos construir.

    El dilema no es técnico. Es moral.

    Porque si permitimos que la infraestructura de vigilancia crezca sin control, llegará el día en que miremos atrás y descubramos que la línea entre democracia y distopía se cruzó sin que nos diéramos cuenta.

  • Linux: cuando la generosidad de un programador cambió el mundo

    En agosto de 1991, un mensaje pasó casi desapercibido en un foro de informática. Su autor, un joven estudiante finlandés de 21 años, escribió: “Estoy haciendo un sistema operativo gratuito (solo un hobby, no será grande ni profesional como GNU) para clones 386(486) AT”. Se llamaba Linus Torvalds, y su modestia resultó histórica: ese “hobby” terminaría convirtiéndose en Linux, el corazón silencioso del mundo digital moderno.

    La historia de Linux nace, como tantas innovaciones, de la frustración. Torvalds usaba MINIX, un sistema operativo educativo diseñado por Andrew Tanenbaum. MINIX funcionaba, pero era limitado: estaba hecho para enseñar, no para aprovechar el potencial real de las nuevas computadoras personales. Linus quería algo más potente, flexible y útil. Así, desde su pequeño departamento en Helsinki, comenzó a escribir su propio kernel: el núcleo que gestiona los recursos de un equipo y permite que el software dialogue con el hardware.

    En septiembre de 1991 publicó la versión 0.01: apenas 10.239 líneas de código, suficientes para arrancar una máquina, ejecutar un intérprete de comandos y realizar operaciones básicas. Lo verdaderamente revolucionario no fue su tamaño, sino su licencia. Linus lo liberó gratuitamente en Internet e invitó a otros programadores a examinarlo, modificarlo y mejorarlo. En una época en la que el software era sinónimo de control corporativo —código cerrado, licencias caras y acceso restringido—, el gesto de Torvalds fue casi contracultural.

    Ese acto de generosidad encendió una chispa. Poco a poco, desarrolladores de todo el mundo comenzaron a colaborar: corregían errores, añadían funciones, adaptaban el kernel a nuevas arquitecturas. En 1992, Linus adoptó la licencia GPL creada por la Free Software Foundation, que garantizaba que cualquier mejora realizada por cualquier persona o empresa debía mantenerse libre. Ese detalle legal impulsó una de las mayores colaboraciones tecnológicas de la historia.

    Para mediados de los años 90, Linux dejó de ser “un hobby” y se convirtió en un sistema operativo robusto, estable y capaz de competir con gigantes. Las empresas pronto lo adoptaron: era gratuito, seguro y perfecto para servidores. Con la explosión de Internet, Linux se volvió el motor del mundo digital. Y más tarde, con la llegada de Android en 2008, pasó a vivir en los bolsillos de miles de millones de personas.

    Hoy, Linux domina territorios invisibles pero fundamentales:

    • Más del 96% de los grandes servidores web.
    • Los 500 supercomputadores más veloces del planeta.
    • La infraestructura de nubes como AWS, Google Cloud y Azure.
    • Sistemas críticos de telecomunicaciones, banca, aviación y ciencia.
    • La exploración espacial: desde rovers en Marte hasta la Estación Espacial Internacional.

    El kernel supera los 27 millones de líneas de código, con aportes de más de 19.000 desarrolladores y 1.400 empresas. Es, en esencia, el mayor proyecto colaborativo en la historia de la humanidad.

    Pero la verdadera revolución de Linux no fue tecnológica, sino cultural. Demostró que la apertura puede superar al secreto, que la colaboración puede competir con la propiedad exclusiva, y que un programador que regala su trabajo puede terminar creando la base del mundo digital.

    Linus Torvalds no solo escribió código brillante. Demostró que la generosidad también es una arquitectura viable, capaz de sostener internet, la ciencia, la industria y miles de millones de dispositivos.

    Linux no solo cambió la informática: cambió lo que creemos posible cuando la libertad y la colaboración se ponen al servicio del mundo.

  • Una novela que explora la libertad desde una mirada íntima, humana y profundamente contemporánea

    Este domingo 7 de diciembre estará disponible en Amazon una novela que promete convertirse en una lectura imprescindible para quienes buscan historias que mezclen emoción, pensamiento y una reflexión honesta sobre la vida y la libertad en tiempos hiperconectados. Escrita por una autora perteneciente a la Generación X —aunque, según ella misma aclara, “con el software siempre actualizado”—, el libro combina viaje, filosofía, romance y tecnología en un relato que interpela tanto a jóvenes lectores como a adultos curiosos.

    La autora, formada como abogada y economista, reconoce desconfiar de las leyes cuando se alejan de la ética. Cree en la libertad no como consigna política, sino como un ejercicio cotidiano; ama la tecnología cuando libera, no cuando vigila.

    Una novela que viaja, ama y piensa

    Lejos de encasillarse, la novela » 33 días en busca de la libertad», combina tres dimensiones: una historia de amor, un viaje europeo y una exploración profunda —pero accesible— de la libertad individual. Los protagonistas recorren ciudades, trenes, aeropuertos y cafés que funcionan como escenarios de conversaciones incómodas, necesarias y reveladoras.

    La obra no se limita a narrar encuentros y decisiones compartidas. Se atreve a preguntar qué significa ser verdaderamente libres en un mundo que rastrea cada movimiento, registra cada dato y condiciona cada elección. Y lo hace sin tecnicismos ni solemnidad: basta con tener curiosidad.

    Una invitación para nuevas lectoras y viejos buscadores

    En su prefacio, la autora explica el origen del proyecto: en medio del ruido político y la banalización del concepto de libertad, imaginó un puente distinto. Un lenguaje más cálido, más narrativo, capaz de acercar ideas profundas a quienes prefieren las novelas antes que los ensayos. Pensó especialmente en mujeres jóvenes, lectoras de historias de amor y viajes, que pudieran encontrarse —casi sin proponérselo— con ideas sobre autonomía, soberanía personal, responsabilidad individual y resistencia digital.

    La novela, dice la autora, “siembra preguntas en terreno fértil”, evitando la confrontación y priorizando la reflexión íntima.

    Un prólogo que abre la puerta a una revolución silenciosa

    El libro parte de una premisa clara: la libertad no es un lema, sino una batalla cotidiana. A través de dos adultos jóvenes que enfrentan dilemas personales y políticos en un mundo cada vez más vigilado, la historia aborda temas como el anonimato digital, la ética de la autodeterminación, el rol de Bitcoin y Monero en la soberanía financiera, y la tensión entre amor e independencia.

    Desde Praga hasta Tallin, de Berlín a Londres, cada paso del viaje desafía no solo a los personajes, sino también al lector.

    Un lanzamiento pensado para lectores globales

    El libro estará disponible este domingo 7 de diciembre en Amazon, en formato digital y físico. Es una invitación a quienes desean historias que conmuevan y, al mismo tiempo, cuestionen las certezas más profundas.

    Una novela para leer en movimiento —como su autora— y para pensar sin pedir permiso.

  • Tether: una reserva global privada en oro?

    Recientemente, según un informe de Cointelegraph, Tether compró 26 toneladas de oro durante el tercer trimestre de 2025 —una cantidad superior a la adquirida ese trimestre por cualquier banco central que publicó sus datos.  Con ese paso, sus reservas totales de oro ascendieron a unas 116 toneladas, lo que la coloca entre los 30 mayores poseedores de oro del mundo —un lugar típicamente reservado a entidades soberanas.

    Este giro marca un fenómeno inédito: una empresa privada, emisora de criptomonedas, rivaliza en acumulación de oro con naciones. ¿Qué significa esto para el mercado, para Tether, y para quienes operan con criptomonedas?

    ¿Por qué Tether compra tanto oro?

    Según Cointelegraph, la estrategia de Tether combina varios objetivos:

    • Diversificación de reservas: en un contexto global de incertidumbre, inflación creciente y dudas sobre las monedas fiat, el oro vuelve a ser visto como refugio. Tether parece querer reforzar su estabilidad financiera, alejándose de la dependencia exclusiva del dólar u otros activos financieros.
    • Respaldo de sus stablecoins / criptoactivos respaldados: parte del oro podría servir de colateral para sus productos, incluidos tokens respaldados por metales, como XAUt —el token “oro-tokenizado” de Tether.
    • Convertirse en un actor institucional “entre bancos”: al acumular activos tradicionalmente reservados a bancos centrales, Tether está redefiniendo su rol: ya no es solo un emisor cripto, sino un jugador en los mercados globales de reservas.

    Para muchos inversores y actores del mercado, estos movimientos podrían fortalecer la confianza en Tether: un respaldo tangible, diversificado, menos dependiente de políticas monetarias, y con oro —un activo históricamente reconocido.

    ¿Qué señales da este cambio de paradigma?

    1. Un nuevo tipo de “reserva global” privada

    Tether pone en evidencia que no solo los estados pueden acumular metal precioso como reserva. Las grandes firmas privadas, con respaldo cripto, ahora compiten en igual de condiciones. Esto reconfigura la idea de reserva de valor: ya no es patrimonio exclusivo nacional.

    2. Hibridización del mundo cripto y los mercados tradicionales

    Con este enfoque, Tether mezcla lo tradicional (oro, reservas, colaterales tangibles) con lo nuevo (blockchain, stablecoins, tokenización). Esa hibridización podría convencer a quienes dudaban del cripto: ofrece una puerta de entrada al mundo digital con respaldo tangible.

    3. Presión al sistema monetario tradicional y rol de los bancos centrales

    Si más entidades privadas siguen este camino, los bancos centrales podrían ver erosionada su hegemonía sobre las reservas de valor. En un contexto de crisis monetarias o inflación alta, el oro privado-tokenizado puede competir con monedas nacionales —con las consecuencias estructurales que eso implica.

    Riesgos y dudas que permanecen

    Pero no todo es optimismo: este movimiento trae consigo advertencias importantes:

    • Aunque Tether declara que sus compras provienen de beneficios, la concentración de gran parte del oro en una firma privada plantea riesgos de centralización, opacidad y vulnerabilidad ante decisiones corporativas arbitrarias.
    • Que una empresa privada acumule tanto oro puede generar presión especulativa sobre los precios del metal, vinculando el mercado del oro a la volatilidad del mundo cripto —algo inusual para un refugio tradicional.
    • A largo plazo, la correlación creciente entre criptoactivos, tokens respaldados y metales preciosos puede alterar la función histórica del oro como reserva estable y refugio, transformándolo en un activo financiero más, sujeto a ciclos de confianza tan volátiles como cualquier otro.

    Un giro paradigmático —con oportunidades y riesgos

    La estrategia de Tether de comprar más oro que muchos bancos centrales es —sin duda— un punto de inflexión. Revela que el mapa global de reservas ya no pertenece únicamente a los estados. Las firmas cripto pueden acumular metal, tokenizarlo y ofrecerlo como respaldo, reconfigurando el equilibrio entre finanzas tradicionales y digitalización.

    Para quienes buscan alternativas al sistema tradicional, esto puede representar una oportunidad real: diversificación, respaldo tangible, menor dependencia del dólar o del sistema bancario. Pero al mismo tiempo, abre interrogantes profundos sobre soberanía monetaria, riesgos de concentración, estabilidad del mercado del oro, y la naturaleza misma de lo que consideramos “seguro”.

    El movimiento de Tether no es simplemente un dato más —es una señal de que el mundo financiero podría estar entrando en una fase de transformación estructural, en la que criptomonedas y oro coexisten, redefinen reservas y desafían modelos históricos. Y como toda transformación, traerá consigo beneficios, riesgos, experimentos, y un margen de incertidumbre considerable.

  • Soberanía individual frente al control estatal: la adhesión de Panamá a los nuevos acuerdos globales sobre criptoactivos

    La reciente decisión del gobierno panameño de adherirse a los acuerdos multilaterales CARF MCAA y CRS MCAA —instrumentos globales que obligan a intercambiar automáticamente información sobre criptoactivos y cuentas financieras— se presenta como un paso hacia la “transparencia” y la lucha contra la evasión fiscal. Sin embargo, desde una perspectiva libertaria, esta medida es profundamente problemática. Más que promover un sistema financiero justo, consolida un modelo de vigilancia masiva que erosiona la privacidad, la soberanía individual, desalienta la innovación y limita la libertad económica de las personas.

    Las criptomonedas surgieron como respuesta a un sistema financiero dominado por intermediarios e instituciones estatales que han demostrado repetidamente su incapacidad para garantizar estabilidad, privacidad y equidad. Frente a ello, los criptoactivos ofrecen soberanía individual, descentralización y autonomía. Pero los gobiernos —temerosos de perder control— han encontrado en el discurso de la “evasión fiscal” una excusa perfecta para imponer regulaciones que nada tienen que ver con proteger a la ciudadanía y sí mucho con preservar el poder recaudatorio.

    El falso dilema: “regulación o evasión”

    El gobierno panameño sostiene que al unirse a estos acuerdos internacionales está reforzando su capacidad para combatir la evasión fiscal, el lavado de dinero y el uso ilícito de estructuras financieras digitales. Este argumento plantea un falso dilema: o aceptamos la vigilancia estatal masiva o permitimos la ilegalidad. Esa lógica es engañosa y peligrosa.

    Desde el punto de vista libertario, el Estado tiene la función de castigar delitos reales, no de fiscalizar preventivamente a toda la población bajo la presunción de culpabilidad. La evasión fiscal no se combate invadiendo la privacidad financiera de millones de usuarios, sino reduciendo la complejidad tributaria, eliminando incentivos perversos y estableciendo sistemas legales transparentes que no empujen a los individuos a buscar refugio ante la voracidad fiscal.

    Equiparar el uso legítimo de criptoactivos con actividades criminales es tan absurdo como decir que quien usa dinero en efectivo quiere lavar dinero. El efectivo no está en manos Estatales, y sin embargo no se prohíbe. El argumento sería igual de débil.

    Privacidad financiera: un derecho, no un privilegio

    Las criptomonedas permiten a las personas administrar su dinero sin depender de intermediarios y sin someter cada transacción al escrutinio estatal. Esta privacidad no es un lujo ni un subproducto accidental: es una garantía fundamental contra el abuso de poder.

    En países con crisis económicas, hiperinflación, congelamientos de cuentas o sistemas bancarios corruptos, la privacidad financiera ha sido la diferencia entre sobrevivir y perderlo todo. Obligar al intercambio automático de información financiera no solo es desproporcionado: mina la esencia misma de las criptomonedas como herramienta de soberanía individual.

    Muchos justifican estas medidas diciendo que “el ciudadano honesto no tiene nada que temer”. Esa frase históricamente ha servido para legitimar abusos. La privacidad no es una concesión estatal: es un derecho humano básico que limita el poder del gobierno, precisamente porque el poder sin límites se convierte inevitablemente en abuso.

    El caso de Nueva York: cómo la regulación excesiva destruye ecosistemas innovadores

    Un ejemplo histórico demuestra el riesgo de repetir errores: la BitLicense de Nueva York.

    En 2015, el Departamento de Servicios Financieros de Nueva York implementó una de las regulaciones más estrictas del mundo para empresas de criptomonedas: licencias costosas, auditorías invasivas, requisitos técnicos prohibitivos y barreras de entrada que solo las grandes corporaciones podían cumplir.

    ¿El resultado?

    • Emprendedores huyeron del estado.
    • Startups innovadoras cerraron o reubicaron sus operaciones.
    • Inversiones y talento migraron hacia jurisdicciones más abiertas.
    • El ecosistema cripto neoyorquino colapsó, dejando espacio únicamente para grandes instituciones financieras.

    Panamá, en ese momento, se benefició. Varios emprendedores tecnológicos y especialistas en finanzas digitales encontraron en el país un refugio más flexible, abierto y dinámico, donde experimentar sin la burocracia paralizante de Nueva York. Fue un ejemplo claro de cómo la regulación excesiva no protege al consumidor, sino que sofoca la innovación y expulsa talento.

    Hoy, con la firma de los acuerdos CARF y CRS, Panamá corre el riesgo de adoptar la misma filosofía restrictiva que llevó a Nueva York a destruir su propio ecosistema cripto emergente.

    Intercambio automático de información: vigilancia sin precedentes

    Los acuerdos firmados obligan a que toda la información relevante sobre criptoactivos manejada por empresas, intermediarios, exchanges o custodios sea reportada sistemáticamente a gobiernos extranjeros.

    En la práctica significa:

    • Monitoreo automático de transacciones.
    • Identificación obligatoria de usuarios.
    • Recolección centralizada de datos financieros sensibles.
    • Entrega de esa información sin necesidad de procesos judiciales.

    Esto equivale a una base de datos global del patrimonio privado de los ciudadanos. No solo es desproporcionado: es riesgoso. Los gobiernos fallan todo el tiempo en proteger datos; los hackeos a instituciones públicas se han vuelto rutinarios. La centralización siempre es un punto débil.

    La privacidad no debe ser tratada como sospechosa. Debe ser vista como una barrera legítima frente al poder, no como un obstáculo.

    El efecto sobre la innovación y la competitividad

    Un país que adopta regulaciones globalistas estrictas pierde competitividad automáticamente frente a aquellos que permiten mayor libertad. Las criptomonedas no reconocen fronteras: los emprendedores se van a donde haya menos barreras y más libertad.

    Panamá podría convertirse en un hub de innovación, pero difícilmente lo hará si se alinea con las jurisdicciones más conservadoras y reguladoras del mundo. La innovación florece donde el Estado se mantiene limitado y las personas pueden experimentar sin miedo a quedar atrapadas en laberintos burocráticos.

    Si Panamá sigue el camino de Nueva York, no solo expulsará talento: perderá la oportunidad histórica de posicionarse como un centro regional de libertad financiera.

    La libertad es mejor política pública que la vigilancia

    La adhesión de Panamá al CARF y al CRS representa una rendición ante un modelo global de vigilancia financiera. Se vende como “modernización” o “cooperación internacional”, pero en realidad es una pérdida significativa para la libertad de los ciudadanos.

    Desde una perspectiva libertaria, la lucha contra el delito no puede convertirse en excusa para restringir derechos fundamentales. Lo que Panamá necesita no es más vigilancia, sino más libertad, más competencia, más innovación y un sistema judicial eficaz que persiga delitos reales, no actividades voluntarias entre individuos soberanos.

    Repetir los errores regulatorios de Nueva York sería un golpe innecesario a la creatividad económica y al potencial del país. Panamá no debe aspirar a ser un engranaje más del aparato fiscalizador global, sino un faro de libertad financiera en la región.

  • Zcash en Ascenso: la moneda privada que conquistó noviembre

    Zcash nació en 2016 como una bifurcación del código de Bitcoin, modificada para incorporar mecanismos criptográficos avanzados orientados a la privacidad.

    La innovación central de Zcash radica en su sistema de “transacciones blindadas” (“shielded transactions”) basadas en pruebas de conocimiento cero, concretamente usando una técnica llamada zk-SNARK (Zero-Knowledge Succinct Non-Interactive Argument of Knowledge). Esto permite validar transacciones —es decir, comprobar que son legítimas y no fraudulentas— sin revelar públicamente quién envía, quién recibe, ni cuánto se envía.

    Así, Zcash permite dos tipos de direcciones/transacciones:

    • “Transparentes” (t-addresses), equivalentes a las direcciones tradicionales como las de Bitcoin, donde la información de transacción (origen, destino, monto) es pública.
    • “Blindadas” (z-addresses o shielded), donde gracias a zk-SNARK la información se oculta.

    Además, la red de Zcash emplea un mecanismo de consenso de Prueba de Trabajo (PoW), similar al de Bitcoin, y tiene un suministro máximo fijado en 21 millones de monedas.

    En versiones recientes, con actualizaciones del protocolo (por ejemplo, introducción del pool “shielded” Orchard), se ha buscado mejorar la usabilidad de las transacciones privadas, haciendo más amigable y eficiente su uso.

    No obstante, aunque técnicamente Zcash permite anonimato fuerte, su nivel real de privacidad depende de cuánta parte de la red usa las transacciones blindadas: si el volumen blindado es bajo, el anonimato global puede verse comprometido por “efecto de aislamiento”.

    Comparación con Monero y Bitcoin: enfoques distintos de privacidad

    Para entender dónde se ubica Zcash en el espectro de las criptomonedas, conviene ver qué ofrecen Monero y Bitcoin:

    • Bitcoin (BTC): es la criptomoneda original, con blockchain pública y totalmente transparente. Cada transacción, su origen, destino y monto quedan visibles para cualquiera que examine la cadena. No ofrece anonimato ni mecanismos de privacidad integrados. Esto tiene ventajas de auditabilidad y transparencia, pero es problemático para quien busca privacidad financiera.
    • Monero (XMR): a diferencia de Bitcoin, Monero fue diseñado desde un principio para la privacidad por defecto y obligatoria. Es decir: todas las transacciones en Monero están “ofuscadas”: el emisor se mezcla con un grupo de otras posibles fuentes mediante firmas de anillo (ring signatures), el receptor recibe mediante una dirección furtiva (stealth address), y el monto también se oculta mediante tecnología de transacciones confidenciales (RingCT).
      Gracias a esto, en Monero no hay distinción entre transacciones «públicas» o «privadas»: todas son privadas, lo que garantiza un anonimato sistemático y uniforme.
    • Zcash (ZEC): adopta un enfoque más flexible, u “opt-in”: los usuarios pueden elegir entre transacciones transparentes o blindadas.
      Esta flexibilidad puede facilitar el cumplimiento regulatorio, o la interoperabilidad —por ejemplo, cuando se requiere transparencia en ciertos contextos—.
      Sin embargo, esa misma flexibilidad atenúa el anonimato global: si pocas personas usan las transacciones blindadas, la “población de escondite” (el anonimity set) es pequeño, lo que reduce la protección.

    En síntesis: Bitcoin prioriza transparencia, Monero prioriza privacidad absoluta desde el diseño, y Zcash busca un equilibrio, ofreciendo privacidad cuando el usuario lo elige, con las ventajas y compensaciones que ello implica.

    El “boom” de noviembre 2025: ¿por qué Zcash repuntó?

    Según un reciente artículo de Cointelegraph, Zcash pasó en pocas semanas de ser “un token de perfil bajo” a convertirse en el activo más buscado en la plataforma Coinbase en noviembre de 2025.

    Algunos datos clave del repunte:

    • ZEC multiplicó —más de 10 veces— su valor en pocas semanas, lo que llevó momentáneamente su capitalización de mercado por encima de los 10 mil millones de dólares.
    • A mitad de noviembre, en Coinbase ZEC acumulaba unas 52.000 búsquedas, superando a monedas emblemáticas como Bitcoin y XRP.
    • Entre los factores que impulsaron este repunte, se destacan:
      • El halving de Zcash realizado en noviembre de 2024, que redujo la emisión diaria de nuevas monedas a la mitad. Esto reforzó la narrativa de ZEC como “dinero sano” con suministro limitado.
      • Un considerable aumento del uso de direcciones blindadas: según cifras recientes, el volumen de ZEC en pools blindados pasó de ~1.7 millones a unos 4.5 millones en el último año, con más de 1 millón de monedas trasladadas al pool blindado en apenas tres semanas.
      • La activación del nuevo modelo de gobernanza y financiamiento bajo la versión NU6.1 upgrade, que permite a los holders decidir cómo se usan fondos comunitarios, algo que mejoró la percepción de Zcash como proyecto maduro y sostenible.
      • El contexto general: una “revival” del interés por la privacidad en criptos, en un entorno de regulación más dura sobre flujos financieros y criptomonedas, lo que favorece monedas con opciones de privacidad robustas.

    Este conjunto de factores generó una narrativa convincente: Zcash pudo reposicionarse como una “moneda de privacidad responsable”, sin abandonar su flexibilidad, y atraer nuevamente la atención de inversores y usuarios.

    Algunos analistas ven este repunte como un “blow-off top” (una subida especulativa explosiva y efímera), mientras otros lo interpretan como un repricing estructural, basado en mejoras reales: mayor adopción de transacciones blindadas, recorte de emisión, gobernanza comunitaria.

    Por qué este ascenso de Zcash importa — y qué observar

    El resurgimiento de Zcash sugiere que el mercado de criptomonedas podría estar entrando en una nueva fase en la que la privacidad financiera vuelve a ser valorada —no sólo por unos pocos idealistas, sino por un segmento más amplio que busca soberanía, privacidad y resistencia a la vigilancia.

    Si las mejoras en usabilidad (carteras más amigables), gobernanza comunitaria, y la narrativa de «moneda saludable y privada» se consolidan, Zcash podría ganar un lugar relevante entre criptomonedas de gran escala.

    Pero hay riesgos: la privacidad real depende del uso masivo de transacciones blindadas. Si la mayoría de los usuarios siguen usando direcciones transparentes, la promesa de anonimato pierde fuerza. Además, regulaciones más estrictas podrían complicar la adopción en ciertos mercados.

  • Existe una burbuja de la inteligencia artificial y esto es lo que podría pasar si estallase

    Los auges y las crisis son una característica recurrente de la economía moderna, pero cuando el valor de un activo se infla en exceso, un auge se convierte rápidamente en una burbuja.

    Los dos episodios de este tipo más recientes fueron la burbuja puntocom en Estados Unidos (1996-2000) y las burbujas inmobiliarias que surgieron alrededor de 2006 en diferentes países. Ambas terminaron en recesión: la primera fue relativamente leve y la segunda, catastróficamente grave. Los recientes y vertiginosos aumentos en los precios de las acciones de las empresas relacionadas con la IA han llevado a muchos inversores a preguntarse: “¿Estamos presenciando otra burbuja de precios de activos?”.

    Es importante situar el actual auge de la IA en su contexto. El precio de las acciones de Nvidia, que fabrica muchos de los chips informáticos que alimentan la industria de la IA, se ha multiplicado por 13 desde principios de 2023. Las acciones de otras empresas relacionadas con la IA, como Microsoft y Alphabet, la empresa matriz de Google, se han multiplicado por 2,1 y 3,2, respectivamente. En comparación, el índice S&P 500, que sigue la evolución de las acciones de las empresas más importantes de Estados Unidos, solo se ha multiplicado por 1,8 en el mismo periodo.

    Es importante destacar que estas empresas relacionadas con la IA están incluidas en el S&P 500, lo que aumenta aún más la diferencia con las empresas no relacionadas con la IA. Por lo tanto, parece que existe una burbuja de IA, pero no tiene por qué acabar repitiéndose lo ocurrido en 2008.

    Cómo se forma una burbuja

    El precio de cualquier acción se puede desglosar en dos componentes: su valor fundamental y el valor inflado de la burbuja. Si el precio de la acción está por encima de su valor fundamental, existe una burbuja en su precio.

    El valor fundamental de un activo es la suma descontada de sus dividendos futuros esperados. La palabra clave aquí es “esperados”. Dado que nadie, ni siquiera ChatGPT, puede predecir el futuro, el valor fundamental depende de las expectativas subjetivas de cada inversor. Pueden ser optimistas o pesimistas; con el tiempo, algunos tendrán razón y otros se equivocarán.

    Los inversores optimistas esperan que la IA cambie el mundo y que los propietarios de esta tecnología obtengan beneficios (casi) infinitos. Al no saber qué empresa saldrá victoriosa, invierten en todas las empresas relacionadas con la IA.

    Por el contrario, los inversores pesimistas piensan que la IA es solo un programa informático complejo, en lugar de una tecnología verdaderamente innovadora, y ven burbujas por todas partes.

    Una tercera posibilidad son los inversores más sofisticados. Se trata de personas que piensan, o saben, que hay una burbuja, pero siguen invirtiendo con la esperanza de poder aprovechar la ola y salir antes de que sea demasiado tarde.

    La última de estas posibilidades recuerda la infame cita del director ejecutivo de Citigroup, Chuck Prince, antes de que estallara la burbuja inmobiliaria de 2008: “Mientras suene la música, hay que levantarse y bailar”.

    Como economista, puedo afirmar con seguridad que es imposible que todas las empresas relacionadas con la IA acaben dominando el mercado. Esto significa, sin lugar a dudas, que el valor de al menos algunas acciones relacionadas con la IA tiene un gran componente de burbuja.

    Escasez de activos

    Las burbujas de los precios de los activos pueden ser la respuesta natural del mercado a la escasez de activos. En un momento en el que la demanda de activos supera la oferta (especialmente en el caso de activos seguros como los bonos del Estado), hay margen para que surjan otros activos más nuevos.

    Este patrón explica la aparición, por ejemplo, de la burbuja puntocom de la década de 1990 y la posterior burbuja inmobiliaria de la década de 2000. En ese contexto, el papel cada vez más importante de China en los mercados financieros aumentó la demanda de activos en Occidente: el dinero se destinó primero a las empresas puntocom en la década de 1990 y, cuando estalló esa burbuja, a financiar la vivienda a través de valores respaldados por hipotecas.

    En el contexto actual, una combinación de factores ha allanado el camino para la burbuja de la IA: el entusiasmo por las nuevas tecnologías, los bajos tipos de interés (otro indicio de la escasez de activos) y las enormes cantidades de efectivo que fluyen hacia las grandes empresas.

    El estallido de la burbuja: escenarios buenos, malos y feos

    Como mínimo, parte del aumento vertiginoso del valor de las acciones relacionadas con la IA es una burbuja, y una burbuja no puede mantenerse inflada para siempre. Tiene que estallar por sí sola o, en el mejor de los casos, desinflarse cuidadosamente mediante medidas específicas del Gobierno o del Banco Central. La actual burbuja de la IA podría terminar en uno de estos tres escenarios: bueno, malo o feo.

    El bueno: auge, no burbuja

    Durante la burbuja puntocom, muchas empresas malas recibieron demasiado dinero; el ejemplo clásico fue Pets.com. Pero la burbuja también proporcionó financiación a empresas como Google, lo que (posiblemente) contribuyó a convertir internet en una tecnología que mejora la productividad.

    Algo similar podría ocurrir con la IA, ya que la actual avalancha de inversiones podría, a largo plazo, crear algo bueno: una tecnología que beneficie a la humanidad y que, con el tiempo, genere un retorno de la inversión. Sin los niveles de flujo de caja propios de una burbuja, no se financiaría.

    En este escenario optimista, la IA, aunque pueda desplazar algunos puestos de trabajo a corto plazo (como ocurre con la mayoría de las tecnologías), resultará positiva para los trabajadores. También supongo que, obviamente, no conducirá a la extinción de la humanidad. Para que esto sea así, los Gobiernos deben introducir regulaciones adecuadas y sólidas. También es importante destacar que no es necesario que los países inventen o inviertan en nuevas tecnologías, sino que deben adaptarlas y proporcionar aplicaciones para que sean útiles.

    El malo: un estallido suave

    Todas las burbujas acaban estallando. Tal y como están las cosas, no sabemos cuándo ocurrirá esto, ni el alcance de los posibles daños, pero probablemente se producirá una corrección del mercado cuando un número suficiente de inversores se dé cuenta de que muchas empresas están sobrevaloradas. Esta caída del mercado bursátil provocará inevitablemente una recesión.

    Esperemos que sea de corta duración, como la recesión de 2001 que siguió al estallido de la burbuja puntocom. Aunque ninguna recesión es indolora, esta fue relativamente leve y duró menos de un año en Estados Unidos.

    Sin embargo, el estallido de la burbuja de la IA puede ser más doloroso porque hay más hogares que participan (ya sea directamente o indirectamente a través de fondos de inversión) en el mercado de valores que hace 20 años.

    Aunque la función de los bancos centrales no es controlar los precios de los activos, es posible que tengan que plantearse subir los tipos de interés para desinflar la burbuja antes de que crezca demasiado. Cuanto más repentino sea el colapso, más profunda y costosa será la recesión posterior.

    El feo: colapso y caída

    El estallido de la burbuja de la IA sería grave si compartiera más características de las que imaginamos con la burbuja inmobiliaria de la década de 2000. En el lado positivo, las acciones de IA no son viviendas. Esto es bueno porque, cuando estallan las burbujas inmobiliarias, los efectos sobre la economía son mayores y más duraderos que con otros activos.

    La burbuja inmobiliaria no solo causó la crisis financiera de 2008: también provocó el colapso del sistema financiero mundial. Otra razón para ser optimistas es que el papel de los bancos comerciales en las finanzas de la IA es mucho menor que en la vivienda, ya que una gran cantidad del dinero de cada banco está perpetuamente inmovilizado en hipotecas.

    Sin embargo, una advertencia importante es que no sabemos cómo reaccionará el sistema financiero si estas grandes empresas de IA incumplen el pago de su deuda. Resulta alarmante que esta parezca ser la forma en que están financiando actualmente nuevas inversiones: un análisis reciente del Bank of America advirtió que las grandes empresas tecnológicas dependen en gran medida de la deuda para construir nuevos centros de datos, muchos de los cuales están destinados a cubrir una demanda que aún no existe.The Conversation

    Sergi Basco, Profesor Agregado de Economia, Universitat de Barcelona

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • El colapso de Cloudflare: Una advertencia contra la centralización digital

    El 18 de noviembre de 2025 quedará marcado en el calendario como una bandera roja sobre la fragilidad de nuestra infraestructura digital. Cloudflare experimentó una interrupción generalizada que afectó a múltiples sitios web durante la mañana, dejando inaccesibles plataformas como X (anteriormente Twitter), Letterboxd y servicios de OpenAI. La causa fue un error en los permisos de uno de sus sistemas de base de datos que duplicó el tamaño de un archivo crítico utilizado por su sistema de gestión de bots. Un simple cambio técnico bastó para paralizar sectores enteros de Internet.

    Esta no es una anécdota menor en la historia de las telecomunicaciones. Es una evidencia contundente de los riesgos sistémicos inherentes a la arquitectura centralizada que domina la infraestructura digital contemporánea. Cloudflare, como muchos otros proveedores de servicios en la nube, opera bajo un modelo donde millones de sitios web y aplicaciones dependen de un único punto de falla. Cuando ese punto colapsa, el efecto dominó es inevitable y devastador.

    La tecnocracia digital y sus puntos ciegos

    Desde una perspectiva crítica, este incidente expone las limitaciones estructurales del modelo tecnocrático que ha gobernado el desarrollo de Internet durante las últimas dos décadas. La concentración de poder en manos de unas pocas corporaciones tecnológicas no solo representa un riesgo técnico, sino una amenaza a la libertad digital y a la soberanía individual.

    La Red Global de Cloudflare es una infraestructura distribuida de servidores y centros de datos ubicados en más de 330 ciudades en más de 120 países, pero esta distribución geográfica no equivale a descentralización real. El control permanece centralizado en una única entidad corporativa que puede, voluntaria o involuntariamente, interrumpir el acceso a la información de millones de usuarios simultáneamente.

    Esta arquitectura centralizada crea puntos de control que pueden ser explotados no solo por fallos técnicos, sino también por presiones políticas, regulatorias o económicas. La historia reciente ha demostrado cómo gobiernos y corporaciones pueden ejercer censura o vigilancia masiva aprovechando estos cuellos de botella infraestructurales. La concentración de poder informático facilita el totalitarismo digital, donde el acceso a la información queda condicionado por decisiones unilaterales de entidades privadas o estatales.

    La respuesta descentralizada: Filecoin Onchain Cloud

    En una ironía histórica de timing perfecto, el mismo 18 de noviembre se anunció el lanzamiento de Filecoin Onchain Cloud, una plataforma de nube descentralizada que ofrece almacenamiento verificable, recuperación rápida y pagos programables completamente en cadena. Este proyecto representa la antítesis filosófica y técnica del modelo centralizado que colapsó ese mismo día.

    Filecoin Onchain Cloud opera bajo un paradigma radicalmente diferente. En lugar de concentrar el almacenamiento y procesamiento de datos en centros de datos controlados por una sola corporación, distribuye esta responsabilidad entre miles de nodos independientes en una red peer-to-peer. La plataforma señala que las recientes interrupciones en los principales proveedores de nube han dejado a Web3 fuera de línea, subrayando su dependencia de infraestructura centralizada.

    La propuesta de Filecoin no es meramente técnica, sino profundamente política. Al eliminar puntos únicos de falla y control centralizado, esta arquitectura descentralizada hace mucho más difícil la censura, la vigilancia masiva y la interrupción arbitraria de servicios. Los datos no residen en servidores de una corporación que puede cerrarlos, sino que están distribuidos criptográficamente en una red donde ningún actor individual tiene el poder de denegar el acceso.

    Arquitectura técnica de la resiliencia

    Desde el punto de vista técnico, las diferencias son fundamentales. Cloudflare, como proveedor centralizado, concentra el enrutamiento del tráfico, la gestión de DNS y la seguridad en su infraestructura. Cuando esta infraestructura falla —como ocurrió ayer— no existe plan de contingencia para los usuarios finales. Simplemente deben esperar a que el proveedor resuelva el problema internamente.

    Filecoin Onchain Cloud, por el contrario, implementa redundancia estructural mediante fragmentación y replicación de datos. El almacenamiento cálido mantiene los datos en línea con pruebas en cadena, Filecoin Pay automatiza pagos basados en uso, y Filecoin Beam soporta recuperaciones medidas e incentivadas. Si múltiples nodos fallan simultáneamente, el sistema continúa operando porque los datos permanecen accesibles desde otros nodos de la red.

    Esta arquitectura no solo mejora la resiliencia técnica, sino que también introduce verificabilidad criptográfica. Los usuarios pueden auditar independientemente que sus datos están almacenados correctamente mediante pruebas criptográficas, sin necesidad de confiar ciegamente en un proveedor centralizado.

    Implicaciones para la libertad digital

    Más allá de las consideraciones técnicas, la disyuntiva entre centralización y descentralización tiene profundas implicaciones para las libertades civiles en la era digital. Un Internet controlado por un puñado de corporaciones gigantescas facilita la implementación de sistemas de control social, vigilancia y censura a escala nunca antes vista en la historia humana.

    La descentralización, implementada mediante protocolos como Filecoin, devuelve el control a los individuos. Permite la construcción de sistemas resistentes a la censura donde la información no puede ser borrada unilateralmente por gobiernos o corporaciones. Crea mercados abiertos para servicios de infraestructura donde la competencia reemplaza al monopolio.

    La necesidad urgente de alternativas descentralizadas

    El colapso de Cloudflare del 18 de noviembre no es un incidente aislado, sino un síntoma de un problema estructural en la arquitectura de Internet. Este es un ejemplo más de cómo gran parte de la web está sostenida por un puñado de servicios bien intencionados. La concentración de infraestructura crítica en pocas manos corporativas crea vulnerabilidades sistémicas inaceptables para una sociedad que depende cada vez más de sistemas digitales.

    La emergencia simultánea de Filecoin Onchain Cloud ofrece una visión alternativa: un Internet descentralizado, resiliente y resistente a la censura. Esta no es solo una cuestión de eficiencia técnica o redundancia operacional, sino una batalla por la libertad digital en el siglo XXI.

    La elección es clara. Podemos continuar construyendo sobre fundamentos centralizados, aceptando interrupciones periódicas y la posibilidad siempre presente de control autoritario. O podemos adoptar arquitecturas descentralizadas que, aunque técnicamente más complejas, ofrecen garantías fundamentales de disponibilidad, privacidad y libertad.

    El colapso de ayer fue una advertencia. La pregunta es si estaremos dispuestos a escucharla.

  • Detección de mentiras y neurotecnologías: ¿más cerca de la “verdad”?

    En los últimos años, han proliferado estudios empíricos basados en la medición de la actividad cerebral para leer la mente. A través de las neurotecnologías –sistemas de inteligencia artificial alimentados con datos cerebrales–, se anuncia la posibilidad de acceder a los pensamientos, las intenciones o, incluso, las memorias de las personas. Una promesa que, aunque todavía se mueve entre la ciencia y la ficción, plantea desafíos profundos para el ámbito jurídico.

    Usando el polígrafo en un caso judicial de 1937.
    Biblioteca Nacional de Francia.

    Esta posibilidad no ha pasado desapercibida en el mundo del derecho. Desde hace siglos, la justicia ha buscado herramientas que permitan saber si alguien miente en un juicio. Las antiguas ordalías –prueba ritual medieval en que se invocaba el juicio de Dios–, el polígrafo o el análisis del lenguaje no verbal son solo algunos ejemplos de esa ambición persistente por descubrir la verdad a través de medios externos. Ninguna de estas técnicas, sin embargo, ha contado con un respaldo empírico sólido que garantice su validez o fiabilidad.

    Una forma de leer la mente

    Sin embargo, las técnicas neurocientíficas parecen abrir una vía prometedora, al estar en condiciones de superar los límites y falibilidades de otros sistemas que han ido apareciendo a lo largo de la historia. La clave radica en que la fuente de medición se sitúa lo más próxima posible a la información que se desea obtener. Dicho de otra forma: ya no se trata de medir si alguien suda, se sonroja o se muestra nervioso, sino de observar la actividad neuronal que podría reflejar lo que sabe o recuerda. Algo que, de confirmarse, sería extraordinario.

    Con un método así, los declarantes en un proceso judicial no podrían ocultar, distorsionar o falsear lo que cuentan. La aplicación de esta tecnología permitiría reconstruir con más precisión los hechos y, así, conocer lo que realmente ocurrió. Este es uno de los principales objetivos del proceso judicial y, en particular, de la actividad probatoria.

    El antecedente de la prueba P300

    Aunque pueda parecer futurista, la aplicación de técnicas basadas en la actividad cerebral no es completamente nueva en el ámbito judicial español. Desde 2014, algunos jueces admitieron la práctica de la denominada prueba P300, que registra las señales eléctricas del cerebro mediante electroencefalografía. Se basa en el hecho de que el cerebro modifica dichas señales eléctricas cuando se enfrenta a un estímulo visual que le evoca un recuerdo.

    El método consiste en mostrar a los investigados imágenes o palabras relacionadas con un hecho delictivo. Si el cerebro reacciona con una señal eléctrica concreta –la llamada “onda P300”–, se interpreta que el sujeto reconoce la información presentada.

    En varios casos, esta técnica se empleó para intentar localizar los cuerpos de víctimas desaparecidas, como Marta del Castillo. Sin embargo, los resultados alcanzados en los procesos judiciales no fueron concluyentes. Al contrario, pesan sobre esa prueba muchas dudas sobre su validez y fiabilidad.

    ¿Se puede detectar la mentira desde la memoria?

    Precisamente, para evitar que técnicas sin un respaldo empírico sólido influyan en decisiones judiciales –y puedan conducir a condenas erróneas–, resulta fundamental analizar con detenimiento qué pueden medir realmente estas tecnologías.

    Una de las cuestiones relevantes, si se pretende utilizar este instrumento en los tribunales de justicia, es si puede conocerse la verdad de unos hechos mediante el análisis de las memorias de sus testigos. Actualmente, sabemos que la memoria humana no funciona como una cámara de vídeo, no es una copia fiel de la realidad. Y es que los recuerdos son maleables: pueden alterarse (contaminarse) con el paso del tiempo, por la influencia de los medios, por preguntas sugestivas o, simplemente, por volver a contar (o rememorar internamente) lo sucedido varias veces.

    Esta permeabilidad característica de la memoria puede dar lugar a falsos recuerdos, que combinan experiencias auténticas con información adquirida después, que puede no corresponderse con la realidad.

    Lo más preocupante es que los falsos recuerdos pueden ser indistinguibles de los verdaderos, tanto para quien los tiene como para quien los evalúa. Hasta ahora, la neurociencia no ha identificado un marcador cerebral capaz de diferenciarlos de manera concluyente.

    Entonces ¿qué detectan estas pruebas?

    Si no se puede distinguir entre recuerdos reales y falsos, ¿qué mide exactamente la neurotecnología?

    Los experimentos se basan en una idea sencilla: mentir exige un mayor esfuerzo cognitivo que decir la verdad. Implica suprimir una respuesta espontánea, inventar otra en su lugar y controlar la reacción con el interlocutor a fin de que no se dé cuenta de la mentira (engaño motivado). En teoría, ese esfuerzo extra se refleja en el cerebro.

    Así, las técnicas empleadas con tal propósito no se basan el análisis del contenido de la memoria, sino en los patrones cerebrales asociados al esfuerzo de mentir. El problema es que este modelo tiene limitaciones: por ejemplo, si una persona está muy acostumbrada a mentir, dicho esfuerzo se reduce y la técnica deja de ser fiable.

    Más que leer la mente, estas herramientas trabajan con una representación muy limitada de lo que significa mentir –engañar–. Su interpretación, por tanto, requiere una gran prudencia. La aparente objetividad de los datos neurocientíficos puede inducir a una “ilusión de certeza” peligrosa en el contexto judicial, donde las consecuencias de un error pueden ser irreversibles.

    Aunque los titulares sobre la posibilidad de “detectar mentiras en el cerebro” resulten cautivadores, la realidad científica es mucho más compleja. Los expertos coinciden en que aún estamos lejos de poder acceder a los pensamientos de una persona o determinar con precisión si dice la verdad o no.

    Así que, por ahora, la justicia sigue sin disponer de un método fiable para leer la mente o para descubrir la falsedad en los tribunales. Después de todo, seguimos donde estábamos: frente a la eterna dificultad de conocer con certeza qué es verdad y qué no dentro de la mente humana.The Conversation

    Miquel Julià-Pijoan, Profesor de Derecho Procesal, UNED – Universidad Nacional de Educación a Distancia

    Este artículo fue publicado originalmente en The Conversation. Lea el original.