Autor: theconversation

  • Lecciones norteamericanas sobre la legalización del cannabis recreativo

    La legalización del cannabis recreativo (hablamos solo del uso lúdico, no del medicinal) es una realidad consolidada en parte de Norteamérica. Tanto Canadá como 24 estados de EE. UU. (además de tres territorios y el distrito de Columbia) permiten este tipo de consumo. Esta coexistencia ha creado un laboratorio natural que permite observar los efectos sociales, sanitarios y económicos de la legalización en contextos culturales muy semejantes.

    Aumento del consumo y sus consecuencias

    Uno de los aspectos observados tras la legalización es un aumento del uso de cannabis en algunos segmentos de la población, tanto de manera esporádica como frecuente. Este cambio pueden inferirse de encuestas de consumo, pero también de consecuencias derivadas del mismo. En Canadá, tras un periodo de contención inicial, las urgencias médicas y los ingresos hospitalarios relacionados con el cannabis y los brotes psicóticos inducidos por esta droga aumentaron. En parte podría explicarse por la disminución de la percepción de riesgo.

    Alteración en la percepción del riesgo

    Cuando un producto pasa de la ilegalidad a la venta regulada, la percepción social del riesgo tiende a disminuir y se produce un proceso de normalización que afecta especialmente a los jóvenes, favoreciendo la iniciación o el aumento del consumo. La legalización del cannabis no elimina sus efectos adversos, ampliamente documentados a nivel físico y mental, pero puede contribuir a ocultarlos bajo una apariencia de sustancia “segura” o “natural”. Así ocurrió históricamente con el alcohol y el tabaco, cuya integración en el mercado legal fue acompañada de estrategias que minimizaron sus riesgos.

    Cambios en el mercado legal

    Más allá del cambio en la percepción, la gran transformación está en el mercado. Sus principales consecuencias son tres:

    1. La legalización ha hecho más accesibles y visibles los lugares de venta.
    2. El porcentaje del compuesto del cannabis responsable de los efectos que busca el consumidor recreativo (THC) ha aumentado. Es decir, mismas cantidades tienen más efectos psicoactivos, aumentando los casos de intoxicación por su uso.
    3. La venta legal ha impulsado la aparición de una gran variedad de formas de administrar el cannabis: flores, aceites, comestibles, extractos y, quizá lo más preocupante, bebidas que empiezan a ser muy populares entre la población joven. Ya no solo se fuma y eso abre un nuevo horizonte a las empresas que lo comercializan. Es decir, se ha legalizado el cannabis recreativo en el contexto de sociedades de consumo.

    Persistencia del mercado negro

    Uno de los propósitos más importantes de la legalización era reducir el mercado negro. Aunque la comercialización legal supone muchas ventajas que veremos más adelante, no ha eliminado la venta ilegal. De hecho, en lugares como Nueva York, el cannabis más consumido se sigue consiguiendo de forma clandestina. Al no estar controlado con impuestos, el producto se vende más barato, haciendo que las ventajas de la legalización se diluyan. En Canadá, se estima que el porcentaje de consumo ilegal está en torno al 30 %.

    Buenas noticias

    Existen elementos positivos de la legalización. La evidencia es clara: se ha registrado una reducción de los delitos relacionados con el cannabis. Tanto en Canadá como en los estados de EE. UU. donde se ha aprobado, los arrestos y detenciones por delitos relacionados con el cannabis se han desplomado entre un 70 % y un 90 %, lo cual libera recursos para delitos de mayor gravedad, reduce la carga policial sobre sectores poblacionales más penalizados por infracciones menores y facilita su reinserción laboral y educativa (en muchos estados, los delitos previos a la legalización han sido borrados).

    Las otras buenas noticias derivan del aumento de ingresos fiscales y la posibilidad de someter al cannabis a controles sanitarios, etiquetado y límites de contaminantes. Esto reduce los riesgos asociados al producto adulterado o contaminado, comunes en el mercado negro. Además, la legalización ha abierto espacio para un discurso más racional y menos estigmatizante sobre el consumo y sus riesgos, favoreciendo políticas de reducción de daños más realistas. Y permitiendo investigar mejor los efectos de su consumo.

    La legalización sin simplismos

    La legalización no es intrínsecamente negativa o positiva: depende en gran medida de cómo se diseñe, implemente y supervise. En Norteamérica, los beneficios esperados (recaudación fiscal, reducción del mercado ilegal, mejora del control del producto y disminución de condenas penales) están presentes, aunque el balance es incierto.

    La implantación de la venta legal requiere periodos de transición y campañas sobre sus riesgos, así como marcos regulatorios sólidos que controlen el producto y su precio, restrinjan la publicidad e impidan el acceso a menores. En Europa, solo Alemania, desde 2024, permite el uso recreativo (en Países Bajos, no es exactamente legal). Pronto veremos qué lecciones sacar de su experiencia.The Conversation

    Luis Sordo, Investigador y profesor del Departamento de Salud Pública y Materno-Infantil. CIBERESP, Universidad Complutense de Madrid

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • ¿Por qué la universidad celebra a Santo Tomás de Aquino cada 28 de enero?

    A finales de enero muchas universidades celebran un acto solemne dedicado a un maestro medieval, Santo Tomás de Aquino, referente del saber desde el siglo XIII. Su figura contribuyó a sentar las bases de la docencia y de la investigación universitaria.

    París: formación y método

    Tomás de Aquino llegó a la Universidad de París hacia 1245, un centro que se había consolidado como uno de los focos intelectuales más dinámicos de Europa. Allí accedió al grado de bachiller bíblico, centrado en la lectura y comentario de la Sagrada Escritura, y más tarde alcanzó el grado de bachiller sentenciario.

    Ilustración medieval de una reunión de médicos en una universidad.
    Reunión de médicos en la Universidad de París, de Étienne Colaud, del manuscrito Chants royaux.
    Biblioteca Nacional, París / Gallica

    Tomás de Aquino asimiló el método escolástico característico de la universidad medieval, que integraba la lectura y el comentario de textos, el planteamiento argumentado de problemas teóricos y el debate entre maestros y estudiantes. Su pensamiento tuvo un papel decisivo en la integración del aristotelismo en la universidad medieval. Al mismo tiempo, articuló una relación ordenada entre razón y fe orientada a la búsqueda de la verdad y la Iglesia Católica le consideró doctor angélico, doctor común y doctor de la humanidad.

    Sus obras Summa theologiae y Summa contra gentiles circularon en las universidades europeas y se incorporaron a la enseñanza reglada. Estos textos contribuyeron a fijar criterios rigurosos de argumentación y método para la comunidad científica.

    El reconocimiento universitario

    Durante la década de 1250 la Universidad de París atravesó una crisis institucional de gran alcance. En 1253 los maestros seculares interrumpieron de forma colectiva la enseñanza, como respuesta a un conflicto con las órdenes mendicantes de los dominicos y los franciscanos por el acceso a las cátedras. El enfrentamiento cuestionó el estatuto académico de estas órdenes y derivó en su exclusión temporal de la universidad. Entre los afectados se encontraba Tomás de Aquino. El conflicto se resolvió tras la intervención del papa Alejandro IV mediante la bula Quasi lignum vitae, que les autorizaba a continuar con sus escuelas públicas y a acceder a las cátedras de la universidad.

    Un año después, Tomás de Aquino recibió la licencia para enseñar Teología (licentia docendi), lo que le otorgó plena legitimidad académica. El inicio público de su magisterio en Sagrada Escritura quedó marcado por la lección inaugural de 1256 en París, con el discurso conocido como Rigans montes. Para esa ocasión eligió el versículo del Salmo 103: “Rigans montes de superioribus suis; de fructu operum tuorum satiabitur terra” (“Regando los montes desde arriba, la tierra se saciará del fruto de tus obras”).

    Esta imagen ofrece una clave para comprender el orden del saber. La doctrina procede de lo alto y llega a la comunidad académica a través de quienes han recibido autoridad para enseñar. El doctor transmite un conocimiento que exige método, precisión y responsabilidad en el uso de la palabra. En esta figura se reconoce un modelo de rigor académico, servicio a la verdad y continuidad de la tradición universitaria.

    La autoridad que la universidad reconoció a Tomás de Aquino se vio reforzada más tarde por el reconocimiento eclesial. El papa Juan XXII lo canonizó el 18 de julio de 1323 con la bula Redemptionem misit. Más tarde, Pío V lo proclamó doctor de la Iglesia (1567).

    La memoria material de Tomás de Aquino se vincula a la abadía de Fossanova (en el centro de Italia), lugar donde murió en 1274. Allí permaneció su cuerpo durante casi un siglo, depositado en un sarcófago que hoy se conserva como testimonio histórico.

    Una fecha cambiante

    Su conmemoración litúrgica se fijó en un primer momento el 7 de marzo, fecha de su muerte. Esta elección planteó dificultades, ya que coincidía con frecuencia con la Cuaresma, periodo en el que se restringían los actos públicos y las ceremonias académicas.

    La situación cambió cuando el papa Urbano V ordenó el traslado de las reliquias de Tomás de Aquino a Toulouse, en Francia. La recepción tuvo lugar el 28 de enero de 1369 en el convento de los Jacobinos, antiguo convento de la Orden de los Predicadores, donde se conservan en la actualidad.

    Altar y relicario de santo Tomás de Aquino en la Iglesia de los Jacobinos en Toulouse (Francia).
    Altar y relicario de santo Tomás de Aquino en la iglesia de los Jacobinos en Toulouse (Francia).
    Didier Descouens/Wikimedia Commons, CC BY-SA

    Entre los siglos XIV y XV, las universidades europeas adoptaron esta fecha como marco adecuado para ceremonias institucionales. No obstante, la configuración definitiva de la festividad se produjo en el siglo XX. Este proceso se inscribe en la reforma del calendario litúrgico posterior al Concilio Vaticano II. En 1969, el papa Pablo VI promulgó la carta apostólica Mysterii Paschalis, en la que se estableció el criterio de mantener en el calendario común solo aquellas celebraciones consideradas de valor universal para la Iglesia.

    Así, la conmemoración religiosa de Tomás de Aquino quedó fijada el 28 de enero, una decisión que proporcionó un marco litúrgico estable.

    Difusión europea y continuidad institucional

    La memoria de Tomás de Aquino recibió un respaldo institucional cuando León XIII publicó Aeterni Patris (1879). Esta encíclica consideró su pensamiento como eje fundamental de la enseñanza superior frente a las corrientes materialistas de su tiempo. Un año después, el breve Cum hoc sit (1880) lo declaró patrono de las universidades y escuelas católicas.

    Con estas disposiciones, León XIII presentó a Tomás de Aquino como referente intelectual para la investigación y la enseñanza superior. En España, una Real Orden publicada en 1922 reconoció la festividad de Santo Tomás de Aquino como Fiesta del Estudiante.

    Pintura con un religioso en el medio que sostiene un libro.
    El triunfo de santo Tomás de Aquino, de Benozzo Gozzoli.
    GrandPalaisRmn (musée du Louvre) / Hervé Lewandowski

    De esta manera, se aseguró su continuidad como acto institucional en el sistema universitario. La celebración se difundió junto con el modelo parisino por universidades de toda Europa. Fuera de este continente, el arraigo es también significativo en Filipinas.

    Solemnidad y simbolismo académico

    La festividad de Santo Tomás se asocia desde la Edad Media a la figura del doctor universitario y en el acto se hace visible la dimensión pública de la autoridad intelectual. La ceremonia se acompaña de cantos solemnes, y los signos externos –la toga, el birrete, el libro y el anillo– refuerzan su significado. En conjunto, poseen un valor institucional y una continuidad de la tradición universitaria.

    La pervivencia de esta celebración responde a la continuidad de un modelo de universidad más que a una lógica confesional. En centros que mantienen una relación con el calendario litúrgico romano, Tomás de Aquino se integra en los actos solemnes del curso académico. En otros contextos, formados en tradiciones anglicanas o protestantes, es un referente intelectual de la comunidad científica. Esta diversidad de enfoques permite entender cómo su legado se ha asumido de distintas maneras en la transmisión del saber a lo largo de la historia. En su figura, la comunidad científica reconoce un modelo de rigor intelectual y de estudio orientado a la búsqueda de la verdad.

    Por este motivo, celebramos cada 28 de enero al maestro que otorgó a la razón un estatuto de autoridad universitaria y que definió la investigación como una responsabilidad institucional.The Conversation

    Anna Peirats, Catedrática de Humanidades, Universidad Católica de Valencia y Francisco Javier Arteaga Moreno, Profesor de Estadística, Universidad Católica de Valencia

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Guerra silenciosa en alta mar: ¿cómo operan los barcos fantasma?

    A simple vista podría parecer un petrolero más. Tenía el casco oxidado, bandera extranjera y una ruta aparentemente comercial. Nada que llamara la atención en un océano por el que navegan decenas de miles de buques cada día. Sin embargo, el 7 de enero de 2026 Estados Unidos interceptó y detuvo el petrolero Marinera (antes conocido como Bella 1) en aguas del Atlántico Norte durante la operación “Lanza del Sur”, que culminó tras varias semanas de seguimiento.

    No fue una inspección rutinaria ni un problema administrativo. Estados Unidos lo abordó porque las autoridades lo consideran parte de una red de transporte que evade sanciones internacionales y opera fuera de los controles habituales del comercio marítimo.

    Flotas en la sombra

    Se trataba de un barco encuadrado en lo que expertos llaman “barcos fantasma” o “flotas en la sombra”. Esto es, petroleros que, aunque figuran en registros oficiales, cambian de nombre, de bandera y de propietario con frecuencia para ocultar su actividad real y sortear sanciones económicas.

    Este tipo de buques aparece y desaparece de los sistemas de seguimiento, realiza transferencias de carga en alta mar y suele estar asociado al transporte de crudo procedente de países sometidos a embargos, como Venezuela e Irán.

    Estamos viviendo días de gran intensidad informativa. Así que la noticia de la detención ha acaparado titulares, aunque casi siempre presentada como un episodio aislado del pulso geopolítico entre Estados Unidos y los países sancionados. Y esto puede resultar engañoso.

    Una flota paralela al margen de la ley

    El problema no es este petrolero concreto, sino la normalización de una flota paralela que opera desde hace años al margen de las reglas del comercio global y que solo aflora cuando uno de estos buques es interceptado, se hunde o provoca un incidente. Los barcos fantasma no son una excepción ni una anomalía: son el síntoma de un sistema marítimo que tolera la opacidad como parte de su funcionamiento.

    El término suena a película de aventuras fantástica. Pero la realidad, como en casi siempre en estas comparaciones cinematográficas, es mucho más prosaica y peligrosa. Estos buques existen porque el sistema marítimo internacional lo permite. Las banderas de conveniencia, pensadas en origen para facilitar el comercio, se han convertido en una herramienta perfecta para diluir responsabilidades.

    Registrar un barco en determinados países implica menos controles, menos preguntas y una enorme dificultad para saber quién está realmente detrás. Cuando a eso se le suma un entramado de empresas pantalla y aseguradoras opacas, el resultado es un buque que navega legalmente, pero fuera del radar político.

    Las vías alternativas del petróleo

    En los últimos años, este tipo de flota ha crecido de forma silenciosa al calor de las sanciones internacionales. Así, por ejemplo, cuando se bloquean las exportaciones de petróleo de un país, el crudo no desaparece. Busca caminos alternativos. Y esos caminos, cada vez más, pasan por petroleros que no figuran en las rutas habituales, que realizan transferencias de carga en alta mar y que aparecen y desaparecen de los sistemas de seguimiento como si el océano se los tragara.

    La operación estadounidense de estos días apunta precisamente a eso. No es un gesto aislado ni improvisado: es un aviso. Un mensaje de que Washington está dispuesto a perseguir esas rutas invisibles y a tratar el mar como un espacio donde también se hacen cumplir las sanciones. También significa que el océano ya no es un territorio neutro. Es un escenario más de la confrontación económica y geopolítica global.

    ¿Esto es algo nuevo? Ni mucho menos. En los últimos años hemos visto casos que, en su momento, parecieron episodios confusos y hoy encajan mejor en este patrón que se describe. Uno de los más llamativos por su relevancia internacional ocurrió en pleno conflicto en Siria. En los meses finales del régimen de Bashar al-Assad, cuando el control del territorio se desmoronaba y la atención internacional estaba puesta en el frente terrestre, un buque se hundió en el Mediterráneo en circunstancias nunca del todo aclaradas. Diversas informaciones periodísticas apuntaban a que estaba siendo utilizado para sacar material militar del país, aprovechando el caos del momento.

    Y no es un caso aislado o que ocurre únicamente al calor de los conflictos militares: también se reportan en toda la UE. Nunca hay una confirmación oficial concluyente. No son barcos de guerra, no van escoltados por fragatas ni figuraban en comunicados oficiales. Son, en apariencia, un buque comercial más. Y, sin embargo, sus hundimientos o interceptaciones revelan hasta qué punto los barcos civiles pueden convertirse en piezas clave de operaciones estratégicas cuando los Estados necesitan moverse rápido y sin dejar rastro.

    Sistemas que emiten señales incompletas

    Esa falta de confirmación oficial tiene también una explicación técnica concreta. El control del tráfico marítimo se apoya en sistemas como el AIS, un transpondedor que emite de forma continua la identidad, posición y rumbo de los buques. En condiciones normales es una herramienta básica de seguridad, pero en estos casos se convierte en una vía de ocultación. El sistema puede apagarse durante tramos sensibles o emitir señales incompletas, haciendo que el barco “desaparezca” de los mapas de seguimiento.

    A ello se suma el uso de transferencias de carga barco a barco en alta mar (operaciones conocidas como ship-to-ship) que permiten mezclar o redistribuir mercancías lejos de puertos y autoridades. Combinadas con cambios frecuentes de nombre, bandera y propietario legal, estas técnicas hacen que un buque siga siendo visible en los registros formales, pero que su carga sea prácticamente imposible de rastrear con certeza.

    Ahí es, precisamente, donde los barcos fantasma dejan de ser una curiosidad técnica para convertirse en un problema político de primer orden. Facilitan la evasión de sanciones e introducen un nivel de opacidad que desestabiliza el sistema internacional.

    Cuando no se sabe quién transporta qué, ni bajo qué autoridad real navega un buque, la rendición de cuentas desaparece, y con ella la capacidad de prevenir accidentes, conflictos o desastres ambientales, denunciados por numerosas organizaciones como The Ocean Foundation.

    Distorsión de precios y competencia desleal

    Obviamente, estos barcos no operan en el vacío. Afectan al mercado energético, distorsionan precios y generan competencia desleal frente a operadores que sí cumplen las normas. También ponen en riesgo a las tripulaciones, que trabajan en condiciones precarias y, en caso de incidente, quedan abandonadas a su suerte en un limbo jurídico.

    Y su existencia mina la credibilidad de las sanciones internacionales, que pierden eficacia cuando siempre hay una ruta alternativa dispuesta a sortearlas.

    Por eso la detención de un petrolero no es una anécdota. Es una fotografía de algo mucho más grande. De una economía sumergida que navega sobre el agua aprovechando vacíos legales y la dificultad de vigilar millones de kilómetros cuadrados de océano. De una guerra silenciosa que no se libra con misiles, sino con contratos opacos, registros lejanos y transpondedores apagados.The Conversation

    Paula Lamo, Profesora e investigadora, Universidad de Cantabria

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • “Pequeñas” cosas que debemos a Albert Einstein

    Si preguntásemos a pie de calle por el nombre de un científico, las respuestas se repartirían mayoritariamente entre Albert Einstein, Marie Curie, Isaac Newton, Stephen Hawking y científicos locales, como Santiago Ramón y Cajal, o aparecidos en el cine, como Robert Oppenheimer.Según algunas encuestas, los cuatro primeros se quedarían con aproximadamente entre el 60 % y el 90 % de las respuestas y Albert Einstein saldría ganador, por goleada.

    Albert Einstein
    Retrato de Marie Skłodowska-Curie (1867 – 1934).
    Wikimedia Commons.

    Ahora bien, si preguntásemos a continuación por qué conocen a Einstein, la inmensa mayoría de los encuestados responderían ¡la teoría de la relatividad!, aunque no supieran de que trata tal teoría… Estaremos de acuerdo en que Einstein contribuyó al progreso de la ciencia con este logro, aunque también lo hizo en otros ámbitos, menos conocidos y de gran importancia en nuestro día a día.

    Cuatro artículos pioneros

    En 1905, antes de dar a conocer su teoría más reconocida, Albert Einstein publicó cuatro artículos merecedores, cada uno de ellos, del premio Nobel:

    Albert Einstein
    Efecto fotoeléctrico: emisión de electrones (en rojo) de una placa metálica al recibir suficiente energía transferida desde los fotones incidentes (líneas onduladas).
    Wikimedia Commons., CC BY
    • Sobre el movimiento de pequeñas partículas suspendidas en un líquido estacionario, según lo requiere la teoría cinética molecular del calor, en el que proporcionó evidencia empírica de la realidad del átomo y dio crédito a la mecánica estadística, una rama de la física relegada por aquel entonces.
    • Sobre la electrodinámica de los cuerpos en movimiento, avanzadilla de su gran teoría, en el que Einstein concilió las ecuaciones de Maxwell del electromagnetismo y las leyes de la mecánica clásica: propuso la velocidad de la luz como la máxima velocidad alcanzable, sólo accesible para los fotones.
    • ¿Depende la inercia de un cuerpo de su contenido de energía?, en el que Einstein dedujo la ecuación más famosa de todos los tiempos o, al menos, la más reproducida en camisetas y tazas de desayuno. La equivalencia entre la masa de un cuerpo en reposo y la energía en que puede convertirse: E=mc².

    Parecen resultados importantes y lo son. ¿Pero de qué nos sirve todo esto a la gente de a pie?

    Sincronización de relojes

    Cada vez que alguien abre Google Maps o el navegador del coche, el buen funcionamiento del GPS depende directamente de la teoría de la relatividad de Einstein.

    Los satélites que forman el sistema GPS se mueven muy deprisa y se encuentran lejos de la superficie terrestre, donde la influencia gravitatoria de la Tierra es menor. Einstein descubrió que el tiempo no avanza al mismo ritmo en cualquier circunstancia: la gravedad y la velocidad del objeto lo modifican. Los relojes de los satélites, por tanto, tienden a adelantarse o retrasarse respecto a los que hay en la superficie de la Tierra.

    Albert Einstein
    Telstar, el primer satélite de comunicaciones lanzado al espacio, en 1962.
    NASA.

    El sistema GPS corrige este efecto aplicando las ecuaciones de la relatividad especial y general. Si no lo hiciera, el posicionamiento tendría errores de varios kilómetros al cabo de un solo día.
    Del mismo modo, la infraestructura de internet y de las telecomunicaciones modernas depende de una sincronización extremadamente precisa entre relojes distribuidos por todo el planeta, muchos de ellos también en satélites.

    Si no se corrigieran dichos relojes acorde con la relatividad general, las redes eléctricas, los pagos electrónicos, la navegación aérea y el propio internet sufrirían fallos importantes.

    Cada conexión, cada videollamada y cada transacción bancaria se beneficia, sin que lo notemos, del modo en que Einstein cambió nuestra comprensión del tiempo y de la gravedad.

    Paneles solares: cuestión de fotones

    Los paneles solares modernos funcionan gracias al efecto fotoeléctrico, que fue explicado por Einstein en 1905 –fue este mérito lo que se premió con el Nobel en 1921–.

    Planteó que la luz está formada por paquetes de energía llamados fotones y que, cuando un fotón con suficiente energía golpea ciertos materiales, puede arrancar un electrón de su superficie. Esa expulsión de electrones es lo que genera corriente eléctrica en una célula solar.

    Todo panel fotovoltaico doméstico, toda farola solar y cada pequeño cargador solar portátil se basan exactamente en el proceso que este científico describió: luz que libera electrones y electrones que generan electricidad.

    Videollamadas y pantallas digitales

    La fotografía digital, las cámaras de los móviles, las webcams y prácticamente cualquier sistema moderno de captura de imágenes funcionan también gracias al mismo efecto. En los sensores CCD y CMOS, que sustituyen a la película fotográfica clásica, cada punto de la imagen es una minúscula celda que libera electrones cuando recibe luz.

    Esa liberación es medida electrónicamente y convertida en una imagen digital. El principio físico detrás de cada foto, vídeo o videollamada cotidiana es exactamente el que Einstein describió en 1905.

    Láseres grandes y pequeños

    Los láseres, que hoy en día aparecen en muy diversas aplicaciones, funcionan siguiendo un mecanismo que predijo Einstein: la emisión estimulada. En un artículo de 1917, aventuró que un átomo podía ser “forzado” a emitir luz idéntica a la que recibía, creando un haz de luz extremadamente puro, concentrado y ópticamente coherente.

    Décadas después, esta predicción se convirtió en el principio de funcionamiento del láser. Hoy en día, encontramos láseres en lectores de códigos de barras en el supermercado, en ratones ópticos, en impresoras láser, en reproductores de CD, en fibra óptica para internet y en algunos procedimientos médicos.

    Albert Einstein
    Láseres de estado sólido emitiendo en distintos colores. (Wikipedia)
    CC BY-SA

    Medicina nuclear

    La energía nuclear y varias técnicas médicas modernas dependen de la ecuación E=mc². Esa relación establece que una pequeña cantidad de masa encierra una enorme cantidad de energía.

    La comprensión de este vínculo permitió explicar el funcionamiento de los núcleos atómicos y abrió el camino a los reactores nucleares, pero también a usos médicos esenciales, como la radioterapia o las exploraciones PET (tomografía por emisión de positrones), que permiten diagnosticar enfermedades detectando pequeñas cantidades de radiación procedente de desintegraciones atómicas.

    Aunque no sea algo que una persona use directamente cada día, sí afecta profundamente a la salud pública y al tratamiento de millones de pacientes alrededor del globo.

    En definitiva, cada vez que alguien recibe un radiodiagnóstico o un tratamiento basado en física nuclear, consulta un trayecto en su GPS o carga su teléfono móvil con un panel solar, está aprovechando de algún modo una de las ideas de Albert Einstein.The Conversation

    Francisco José Torcal Milla, Profesor Titular. Departamento de Física Aplicada. Centro: EINA. Instituto: I3A, Universidad de Zaragoza

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Venezuela, Cuba y Nicaragua ante su mayor crisis: ¿se derrumbarán los autoritarismos del Caribe?

    Los regímenes de Venezuela, Nicaragua y Cuba han sobrevivido a todo tipo de sanciones, crisis económicas y presiones sociales a lo largo de la historia. Aunque cada uno tiene su propia dinámica, están interconectados por alianzas políticas, económicas y de seguridad que refuerzan su resistencia. La incógnita es si este modelo se derrumba o encuentra nuevas formas de supervivencia.

    Estos países, dominados por el desorden institucional, han sido evaluados como territorios sin democracia ni libertades civiles. En el Democracy Index 2024, de la Economist Intelligence Unit (EIU), aparecen clasificados como regímenes autoritarios, en los niveles más bajos del ranking global.

    El Rule of Law Index señala que Cuba permanece asfixiada por un partido único, sin pluralismo político, y que Nicaragua se caracteriza por una justicia partisana, persecución a la oposición y concentración de poder en el Ejecutivo.

    En conjunto, estos regímenes encarnan violaciones sistemáticas de derechos humanos, ausencia de garantías democráticas y un Estado de derecho reducido a escombros. Al entrelazarse, proyectan una advertencia para la región sobre el declive del ideal democrático.

    El ocaso de la liga autoritaria

    Durante años, Venezuela sostuvo a Cuba y Nicaragua con petróleo subsidiado y acuerdos de cooperación que amortiguaron el colapso de sistemas inviables. Cuba ha sido soporte estratégico del poder venezolano, controlando seguridad e inteligencia, esfuerzo ahora concentrado a mantener la servidumbre sobre su propio pueblo, a un paso de la rebelión.

    Nicaragua sirvió de aliado y palanca internacional mientras el sandinismo simulaba su naturaleza de régimen forajido. Esta interdependencia ha tejido un bloque que reproduce el mismo patrón: represión de la disidencia, manipulación electoral, proscripción de prensa y medios de comunicación libres.

    Por otra parte, los indicadores del Anuario Estadístico de América Latina y el Caribe 2024 de la CEPAL revelan una vulnerabilidad económica inédita. El cierre de 2025 marca la mayor debilidad común en dos décadas: Cuba proyecta una caída del PIB de -1,5 % en 2025 y un crecimiento ínfimo de 0,1 % en 2026, acompañado de crisis energética y colapso del turismo.

    En Venezuela se vive una inflación desbordada y la zozobra de un pueblo privado de servicios básicos, que sobrevive con pensiones y salarios inferiores a un dólar mensual.

    Entre apoyos dudosos y confrontación directa

    Rusia y China han sido pilares externos del autoritarismo latinoamericano, aunque con enfoques distintos. Moscú ofrece respaldo militar y diplomático, limitado hoy por las sanciones y el desgaste económico de la guerra en Ucrania. Pekín privilegia un apoyo pragmático mediante inversiones estratégicas que permite la captura de recursos y mercados.

    Estados Unidos, por su parte, manifiesta su confrontación con un masivo despliegue militar y operaciones de seguridad en el Caribe, bajo la bandera de la lucha contra el narcotráfico. Ante Nicaragua, impone sanciones contra sus funcionarios y acrecienta denuncias de violaciones de derechos humanos.

    La depauperación extrema del pueblo cubano hace insostenible la narrativa que justifica el fracaso comunista como consecuencia del embargo impuesto desde 1962.

    El detonante regional

    En Venezuela, la crisis humanitaria, el colapso económico y la migración masiva hacen insostenible la situación. El conflicto trasciende las fronteras nacionales y se proyecta en el plano global.

    En este contexto, resulta claro que Estados Unidos no depende del petróleo venezolano para sostener su economía ni su seguridad energética: con una producción cercana a 13,6 millones de barriles diarios en 2025, se mantiene como uno de los mayores productores mundiales. En contraste, Venezuela apenas alcanza entre 956 000 y 1 132 000 barriles diarios, una caída dramática frente a los más de 3 millones que producía en los años noventa.

    La infraestructura petrolera venezolana está devastada: refinerías deterioradas y una capacidad de extracción reducida convierten a la industria en un símbolo de decadencia, más que en un activo estratégico. Entonces, las acciones de Estados Unidos no se explican como disputa por el control del petróleo venezolano.

    Escenarios bajo otra lógica

    Se detecta el interés del presidente estadounidense, Donald Trump, por activar una crisis internacional monitorizada, una narrativa de seguridad nacional que se proyecta en lo interno y sirve de justificación para medidas de dudosa constitucionalidad.

    Las elecciones al Congreso se celebrarán el 3 de noviembre de 2026, con la renovación de los 435 escaños de la Cámara de Representantes, 35 del Senado y 36 cargos de gobernador, una posibilidad de desequilibrio político que Trump quiere bloquear. Partiendo de una deriva autoritaria de esa administración y un cambio de política exterior que no tiene retroceso, se plantean varias posibilidades:

    • Ruptura inminente: el desconocimiento de los resultados electorales cerró la vía negociada. La juramentación de Nicolás Maduro el pasado 10 de enero abrió un proceso de quiebre que pudo haberse contenido con una transición política. La presión norteamericana, mediante ataques selectivos contra infraestructuras vinculadas al narcotráfico, podría precipitar un derrumbe del régimen, con una primera fase marcada por la anarquía y la violencia. Luego, se instalaría un gobierno amparado por la legitimidad de las elecciones presidenciales que tuvieron lugar el 28 de julio de 2024.
    • Transición militar-constituyente: la falta de credibilidad de los negociadores dificulta un acuerdo. Nicaragua y Cuba enfrentarían presiones internas similares. Bajo un momento constituyente, factores militares podrían asumir el control y, con apoyo externo, canalizar una fuerza constituyente hacia una restauración democrática.
    • Continuidad autoritaria: la ausencia de consenso de los factores políticos y la eventual neutralización de Estados Unidos permitiría la supervivencia de los autoritarismos. Se consolidarían alianzas regionales y se intensificaría la represión interna para mantener el poder –panorama improbable considerando el interés de la administración Trump por justificar su dinámica con la crisis caribeña–.

    Transición incierta, coste seguro

    La definición depende de una combinación de factores. La interconexión entre Venezuela, Nicaragua y Cuba convierte cualquier ruptura en un fenómeno regional. El papel de Estados Unidos, Rusia y China es decisivo: sin un acuerdo entre ellos, la transición será altamente conflictiva.

    Lo cierto es que la crisis actual no se vincula con la seguridad energética, sino que está determinada con la política interna estadounidense y la estrategia de Trump. Lo que considero inexorable es que el precio de esta guerra de autoritarismos lo seguirá pagando, en última instancia, el pueblo venezolano.The Conversation

    Tulio Alberto Álvarez-Ramos, Profesor/Investigador Instituto de Investigaciones Jurídicas de la Universidad Católica Andrés Bello. Jefe de Cátedra de Derecho Constitucional de la Universidad Central de Venezuela, Universidad Católica Andrés Bello

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • ¿Cómo deciden los pequeños inversores? La sabiduría colectiva en el ‘crowdfunding’

    En la última década, las plataformas de crowdfunding (micromecenazgo) –como Kickstarter, Indiegogo, Verkami o Ulule– se han convertido en uno de los motores más visibles de la financiación colectiva, ayudando a pequeños emprendedores con proyectos innovadores a conseguir financiación por casi 10 000 millones de dólares.

    Desde relojes inteligentes hasta cafeteras portátiles o videojuegos, millones de personas han apoyado ideas creativas aportando pequeñas sumas de dinero a cambio de una recompensa futura (compra del producto con descuento, versiones exclusivas o tempranas, merchandising, eventos, talleres, etc.). Pero detrás de este fenómeno aparentemente espontáneo se esconde una pregunta fascinante: ¿cómo decide la multitud (los inversores y financiadores) qué proyectos apoyar?

    En un estudio académico publicado en verano de 2025 ofrecemos una respuesta basada en la evidencia. Analizando los datos diarios de casi 4 000 proyectos de Kickstarter encontramos un patrón de comportamiento colectivo que combina dos fuerzas:

    1. La señalización: la información que transmite el creador.
    2. El comportamiento de manada (herding): la imitación a los primeros financiadores por parte de los posteriores.

    Lejos de ser irracional, esta combinación genera lo que en economía se denomina una cascada informativa: un proceso en el que las decisiones individuales, observadas y acumuladas, transmiten información útil al resto del mercado. En otras palabras, la sabiduría surge dentro de la multitud… si las condiciones son las adecuadas.

    La curva de comportamiento: del análisis a la imitación

    Kickstarter es un laboratorio perfecto para estudiar cómo la gente toma decisiones en entornos de incertidumbre. A diferencia del crowdfunding de capital, donde los inversores compran participaciones de una empresa y los expertos financieros juegan un papel clave, el crowdfunding basado en recompensas carece de expertos identificables.

    Los financiadores (backers) son, en su mayoría, consumidores normales que aportan pequeñas cantidades a cambio de recibir el producto cuando se fabrique. Esto plantea un problema: ¿cómo distinguir los buenos proyectos de los malos si en estos mercados apenas hay analistas o inversores profesionales que filtren la información?

    El resultado más revelador del estudio es la existencia de dos fases claramente diferenciadas en la evolución de las campañas de Kickstarter: la fase de señalización y la fase de comportamiento de manada.

    La fase de señalización

    Durante los primeros días, un grupo reducido de patrocinadores (entre el 5 y el 10 % del total) se comporta de manera racional e informada. Estos financiadores tempranos no actúan por impulso, sino basándose en señales observables de calidad, como la claridad y extensión de la descripción del proyecto, la experiencia previa del emprendedor, la existencia de actualizaciones tempranas o enlaces externos (páginas web, redes sociales), y el uso de un tono positivo y transparente en la descripción de los riesgos del proyecto.

    En términos prácticos, estos primeros patrocinadores “leen la letra pequeña”, analizan la información y deciden si vale la pena confiar en el creador del proyecto: el emprendedor.

    Nuestro estudio muestra que los proyectos mejor presentados logran alcanzar rápidamente el 10 % de su objetivo de financiación, lo que constituye una señal pública de credibilidad.

    La fase de comportamiento de manada

    A medida que avanza la campaña, la lógica cambia. Los patrocinadores tardíos –la gran mayoría– dejan de basar sus decisiones en la información directa del proyecto y comienzan a imitar el comportamiento de los primeros.

    Si una campaña avanza rápido en sus primeros días, esa velocidad genera confianza y atrae nuevas aportaciones. Si, por el contrario, tarda demasiado en despegar, el efecto es el opuesto.

    El estudio demuestra que existe una relación directa entre el tiempo en que el proyecto tarda en alcanzar el 10 % inicial y la velocidad de financiación en las fases posteriores: cuanto más rápido se recauda al principio, más rápido se financia todo el proyecto.

    Este patrón genera una curva característica: un inicio muy dinámico (la señalización), seguido de una aceleración sostenida impulsada por el comportamiento de manada. En los proyectos exitosos, la curva de financiación tiene forma convexa –una subida creciente–. En los fracasados, la curva es plana o decreciente desde el inicio.

    ¿Sabiduría o contagio?

    Podría pensarse que este comportamiento colectivo es simplemente una forma de contagio emocional. Sin embargo, el comportamiento de manada que observamos en Kickstarter no es irracional, sino el resultado de un aprendizaje social eficiente, conocido como “la sabiduría de la multitud”, que hace que los patrocinadores se autoseleccionen:

    • Los que tienen más conocimientos sobre el producto (por ejemplo, diseñadores que apoyan un nuevo dispositivo) tienden a ser patrocinadores tempranos, capaces de analizar la calidad del proyecto y del emprendedor.
    • Los menos informados prefieren esperar y observar qué hacen los primeros antes de decidir.

    Esa autoselección produce una cascada informativa positiva, donde las primeras decisiones contienen información útil que se transmite al resto. Conforme la campaña avanza, la información transmitida por el comportamiento de los patrocinadores tempranos se vuelve más fuerte. Es decir, la manada sustituye a la señalización de la calidad, pero no la destruye sino que la complementa.

    ¿Por qué la cascada informativa es una buena noticia?

    La multitud aprende colectivamente. Los patrocinadores más informados enseñan con sus decisiones a los menos informados y el resultado es que la asignación de fondos termina siendo, en promedio, más eficiente de lo que cabría esperar en un mercado sin supervisión profesional.

    Este mecanismo permite compensar la falta de expertos y reducir los problemas de información asimétrica que suelen limitar la financiación de proyectos creativos.

    En conclusión, la multitud, bien guiada, puede ser sabia.

    Implicaciones directas para los emprendedores

    Las dos fuerzas que intervienen en esta toma de decisiones, señalización y comportamiento de manada hacen del crowdfunding una herramienta muy atractiva para los emprendedores con ideas creativas, ya que aquellos proyectos buenos consiguen el 100 % de la financiación en apenas días.

    La clave está en la calidad de las señales iniciales y en la capacidad de las plataformas para hacer visible la información sobre el comportamiento temprano de los financiadores. Las campañas con mejor diseño y comunicación inicial en crowdfunding atraen a los patrocinadores informados, que actúan como catalizadores del éxito.

    Es crucial que el emprendedor publique información transparente y señales de compromiso (por ejemplo, actualizaciones tempranas, prototipos o vídeos claros).

    La atención debe centrarse en los primeros días, porque la financiación temprana genera un efecto “bola de nieve” que determina el resultado final.

    Implicaciones para los reguladores

    Al contrario de lo que algunos temen, la evidencia sugiere que los mercados de crowdfunding no están dominados por el fraude o la irracionalidad, sino que tienden a autorregularse mediante el aprendizaje social.

    Por lo tanto, el riesgo de fraude es bajo mientras que una regulación excesiva podría sofocar la innovación de los creadores y la participación de los financiadores.The Conversation

    Gabriel Rodríguez-Garnica, Profesor de Finanzas, FinTech, Blockchain y Criptoactivos, Universidad Pontificia Comillas

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Existe una burbuja de la inteligencia artificial y esto es lo que podría pasar si estallase

    Los auges y las crisis son una característica recurrente de la economía moderna, pero cuando el valor de un activo se infla en exceso, un auge se convierte rápidamente en una burbuja.

    Los dos episodios de este tipo más recientes fueron la burbuja puntocom en Estados Unidos (1996-2000) y las burbujas inmobiliarias que surgieron alrededor de 2006 en diferentes países. Ambas terminaron en recesión: la primera fue relativamente leve y la segunda, catastróficamente grave. Los recientes y vertiginosos aumentos en los precios de las acciones de las empresas relacionadas con la IA han llevado a muchos inversores a preguntarse: “¿Estamos presenciando otra burbuja de precios de activos?”.

    Es importante situar el actual auge de la IA en su contexto. El precio de las acciones de Nvidia, que fabrica muchos de los chips informáticos que alimentan la industria de la IA, se ha multiplicado por 13 desde principios de 2023. Las acciones de otras empresas relacionadas con la IA, como Microsoft y Alphabet, la empresa matriz de Google, se han multiplicado por 2,1 y 3,2, respectivamente. En comparación, el índice S&P 500, que sigue la evolución de las acciones de las empresas más importantes de Estados Unidos, solo se ha multiplicado por 1,8 en el mismo periodo.

    Es importante destacar que estas empresas relacionadas con la IA están incluidas en el S&P 500, lo que aumenta aún más la diferencia con las empresas no relacionadas con la IA. Por lo tanto, parece que existe una burbuja de IA, pero no tiene por qué acabar repitiéndose lo ocurrido en 2008.

    Cómo se forma una burbuja

    El precio de cualquier acción se puede desglosar en dos componentes: su valor fundamental y el valor inflado de la burbuja. Si el precio de la acción está por encima de su valor fundamental, existe una burbuja en su precio.

    El valor fundamental de un activo es la suma descontada de sus dividendos futuros esperados. La palabra clave aquí es “esperados”. Dado que nadie, ni siquiera ChatGPT, puede predecir el futuro, el valor fundamental depende de las expectativas subjetivas de cada inversor. Pueden ser optimistas o pesimistas; con el tiempo, algunos tendrán razón y otros se equivocarán.

    Los inversores optimistas esperan que la IA cambie el mundo y que los propietarios de esta tecnología obtengan beneficios (casi) infinitos. Al no saber qué empresa saldrá victoriosa, invierten en todas las empresas relacionadas con la IA.

    Por el contrario, los inversores pesimistas piensan que la IA es solo un programa informático complejo, en lugar de una tecnología verdaderamente innovadora, y ven burbujas por todas partes.

    Una tercera posibilidad son los inversores más sofisticados. Se trata de personas que piensan, o saben, que hay una burbuja, pero siguen invirtiendo con la esperanza de poder aprovechar la ola y salir antes de que sea demasiado tarde.

    La última de estas posibilidades recuerda la infame cita del director ejecutivo de Citigroup, Chuck Prince, antes de que estallara la burbuja inmobiliaria de 2008: “Mientras suene la música, hay que levantarse y bailar”.

    Como economista, puedo afirmar con seguridad que es imposible que todas las empresas relacionadas con la IA acaben dominando el mercado. Esto significa, sin lugar a dudas, que el valor de al menos algunas acciones relacionadas con la IA tiene un gran componente de burbuja.

    Escasez de activos

    Las burbujas de los precios de los activos pueden ser la respuesta natural del mercado a la escasez de activos. En un momento en el que la demanda de activos supera la oferta (especialmente en el caso de activos seguros como los bonos del Estado), hay margen para que surjan otros activos más nuevos.

    Este patrón explica la aparición, por ejemplo, de la burbuja puntocom de la década de 1990 y la posterior burbuja inmobiliaria de la década de 2000. En ese contexto, el papel cada vez más importante de China en los mercados financieros aumentó la demanda de activos en Occidente: el dinero se destinó primero a las empresas puntocom en la década de 1990 y, cuando estalló esa burbuja, a financiar la vivienda a través de valores respaldados por hipotecas.

    En el contexto actual, una combinación de factores ha allanado el camino para la burbuja de la IA: el entusiasmo por las nuevas tecnologías, los bajos tipos de interés (otro indicio de la escasez de activos) y las enormes cantidades de efectivo que fluyen hacia las grandes empresas.

    El estallido de la burbuja: escenarios buenos, malos y feos

    Como mínimo, parte del aumento vertiginoso del valor de las acciones relacionadas con la IA es una burbuja, y una burbuja no puede mantenerse inflada para siempre. Tiene que estallar por sí sola o, en el mejor de los casos, desinflarse cuidadosamente mediante medidas específicas del Gobierno o del Banco Central. La actual burbuja de la IA podría terminar en uno de estos tres escenarios: bueno, malo o feo.

    El bueno: auge, no burbuja

    Durante la burbuja puntocom, muchas empresas malas recibieron demasiado dinero; el ejemplo clásico fue Pets.com. Pero la burbuja también proporcionó financiación a empresas como Google, lo que (posiblemente) contribuyó a convertir internet en una tecnología que mejora la productividad.

    Algo similar podría ocurrir con la IA, ya que la actual avalancha de inversiones podría, a largo plazo, crear algo bueno: una tecnología que beneficie a la humanidad y que, con el tiempo, genere un retorno de la inversión. Sin los niveles de flujo de caja propios de una burbuja, no se financiaría.

    En este escenario optimista, la IA, aunque pueda desplazar algunos puestos de trabajo a corto plazo (como ocurre con la mayoría de las tecnologías), resultará positiva para los trabajadores. También supongo que, obviamente, no conducirá a la extinción de la humanidad. Para que esto sea así, los Gobiernos deben introducir regulaciones adecuadas y sólidas. También es importante destacar que no es necesario que los países inventen o inviertan en nuevas tecnologías, sino que deben adaptarlas y proporcionar aplicaciones para que sean útiles.

    El malo: un estallido suave

    Todas las burbujas acaban estallando. Tal y como están las cosas, no sabemos cuándo ocurrirá esto, ni el alcance de los posibles daños, pero probablemente se producirá una corrección del mercado cuando un número suficiente de inversores se dé cuenta de que muchas empresas están sobrevaloradas. Esta caída del mercado bursátil provocará inevitablemente una recesión.

    Esperemos que sea de corta duración, como la recesión de 2001 que siguió al estallido de la burbuja puntocom. Aunque ninguna recesión es indolora, esta fue relativamente leve y duró menos de un año en Estados Unidos.

    Sin embargo, el estallido de la burbuja de la IA puede ser más doloroso porque hay más hogares que participan (ya sea directamente o indirectamente a través de fondos de inversión) en el mercado de valores que hace 20 años.

    Aunque la función de los bancos centrales no es controlar los precios de los activos, es posible que tengan que plantearse subir los tipos de interés para desinflar la burbuja antes de que crezca demasiado. Cuanto más repentino sea el colapso, más profunda y costosa será la recesión posterior.

    El feo: colapso y caída

    El estallido de la burbuja de la IA sería grave si compartiera más características de las que imaginamos con la burbuja inmobiliaria de la década de 2000. En el lado positivo, las acciones de IA no son viviendas. Esto es bueno porque, cuando estallan las burbujas inmobiliarias, los efectos sobre la economía son mayores y más duraderos que con otros activos.

    La burbuja inmobiliaria no solo causó la crisis financiera de 2008: también provocó el colapso del sistema financiero mundial. Otra razón para ser optimistas es que el papel de los bancos comerciales en las finanzas de la IA es mucho menor que en la vivienda, ya que una gran cantidad del dinero de cada banco está perpetuamente inmovilizado en hipotecas.

    Sin embargo, una advertencia importante es que no sabemos cómo reaccionará el sistema financiero si estas grandes empresas de IA incumplen el pago de su deuda. Resulta alarmante que esta parezca ser la forma en que están financiando actualmente nuevas inversiones: un análisis reciente del Bank of America advirtió que las grandes empresas tecnológicas dependen en gran medida de la deuda para construir nuevos centros de datos, muchos de los cuales están destinados a cubrir una demanda que aún no existe.The Conversation

    Sergi Basco, Profesor Agregado de Economia, Universitat de Barcelona

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Detección de mentiras y neurotecnologías: ¿más cerca de la “verdad”?

    En los últimos años, han proliferado estudios empíricos basados en la medición de la actividad cerebral para leer la mente. A través de las neurotecnologías –sistemas de inteligencia artificial alimentados con datos cerebrales–, se anuncia la posibilidad de acceder a los pensamientos, las intenciones o, incluso, las memorias de las personas. Una promesa que, aunque todavía se mueve entre la ciencia y la ficción, plantea desafíos profundos para el ámbito jurídico.

    Usando el polígrafo en un caso judicial de 1937.
    Biblioteca Nacional de Francia.

    Esta posibilidad no ha pasado desapercibida en el mundo del derecho. Desde hace siglos, la justicia ha buscado herramientas que permitan saber si alguien miente en un juicio. Las antiguas ordalías –prueba ritual medieval en que se invocaba el juicio de Dios–, el polígrafo o el análisis del lenguaje no verbal son solo algunos ejemplos de esa ambición persistente por descubrir la verdad a través de medios externos. Ninguna de estas técnicas, sin embargo, ha contado con un respaldo empírico sólido que garantice su validez o fiabilidad.

    Una forma de leer la mente

    Sin embargo, las técnicas neurocientíficas parecen abrir una vía prometedora, al estar en condiciones de superar los límites y falibilidades de otros sistemas que han ido apareciendo a lo largo de la historia. La clave radica en que la fuente de medición se sitúa lo más próxima posible a la información que se desea obtener. Dicho de otra forma: ya no se trata de medir si alguien suda, se sonroja o se muestra nervioso, sino de observar la actividad neuronal que podría reflejar lo que sabe o recuerda. Algo que, de confirmarse, sería extraordinario.

    Con un método así, los declarantes en un proceso judicial no podrían ocultar, distorsionar o falsear lo que cuentan. La aplicación de esta tecnología permitiría reconstruir con más precisión los hechos y, así, conocer lo que realmente ocurrió. Este es uno de los principales objetivos del proceso judicial y, en particular, de la actividad probatoria.

    El antecedente de la prueba P300

    Aunque pueda parecer futurista, la aplicación de técnicas basadas en la actividad cerebral no es completamente nueva en el ámbito judicial español. Desde 2014, algunos jueces admitieron la práctica de la denominada prueba P300, que registra las señales eléctricas del cerebro mediante electroencefalografía. Se basa en el hecho de que el cerebro modifica dichas señales eléctricas cuando se enfrenta a un estímulo visual que le evoca un recuerdo.

    El método consiste en mostrar a los investigados imágenes o palabras relacionadas con un hecho delictivo. Si el cerebro reacciona con una señal eléctrica concreta –la llamada “onda P300”–, se interpreta que el sujeto reconoce la información presentada.

    En varios casos, esta técnica se empleó para intentar localizar los cuerpos de víctimas desaparecidas, como Marta del Castillo. Sin embargo, los resultados alcanzados en los procesos judiciales no fueron concluyentes. Al contrario, pesan sobre esa prueba muchas dudas sobre su validez y fiabilidad.

    ¿Se puede detectar la mentira desde la memoria?

    Precisamente, para evitar que técnicas sin un respaldo empírico sólido influyan en decisiones judiciales –y puedan conducir a condenas erróneas–, resulta fundamental analizar con detenimiento qué pueden medir realmente estas tecnologías.

    Una de las cuestiones relevantes, si se pretende utilizar este instrumento en los tribunales de justicia, es si puede conocerse la verdad de unos hechos mediante el análisis de las memorias de sus testigos. Actualmente, sabemos que la memoria humana no funciona como una cámara de vídeo, no es una copia fiel de la realidad. Y es que los recuerdos son maleables: pueden alterarse (contaminarse) con el paso del tiempo, por la influencia de los medios, por preguntas sugestivas o, simplemente, por volver a contar (o rememorar internamente) lo sucedido varias veces.

    Esta permeabilidad característica de la memoria puede dar lugar a falsos recuerdos, que combinan experiencias auténticas con información adquirida después, que puede no corresponderse con la realidad.

    Lo más preocupante es que los falsos recuerdos pueden ser indistinguibles de los verdaderos, tanto para quien los tiene como para quien los evalúa. Hasta ahora, la neurociencia no ha identificado un marcador cerebral capaz de diferenciarlos de manera concluyente.

    Entonces ¿qué detectan estas pruebas?

    Si no se puede distinguir entre recuerdos reales y falsos, ¿qué mide exactamente la neurotecnología?

    Los experimentos se basan en una idea sencilla: mentir exige un mayor esfuerzo cognitivo que decir la verdad. Implica suprimir una respuesta espontánea, inventar otra en su lugar y controlar la reacción con el interlocutor a fin de que no se dé cuenta de la mentira (engaño motivado). En teoría, ese esfuerzo extra se refleja en el cerebro.

    Así, las técnicas empleadas con tal propósito no se basan el análisis del contenido de la memoria, sino en los patrones cerebrales asociados al esfuerzo de mentir. El problema es que este modelo tiene limitaciones: por ejemplo, si una persona está muy acostumbrada a mentir, dicho esfuerzo se reduce y la técnica deja de ser fiable.

    Más que leer la mente, estas herramientas trabajan con una representación muy limitada de lo que significa mentir –engañar–. Su interpretación, por tanto, requiere una gran prudencia. La aparente objetividad de los datos neurocientíficos puede inducir a una “ilusión de certeza” peligrosa en el contexto judicial, donde las consecuencias de un error pueden ser irreversibles.

    Aunque los titulares sobre la posibilidad de “detectar mentiras en el cerebro” resulten cautivadores, la realidad científica es mucho más compleja. Los expertos coinciden en que aún estamos lejos de poder acceder a los pensamientos de una persona o determinar con precisión si dice la verdad o no.

    Así que, por ahora, la justicia sigue sin disponer de un método fiable para leer la mente o para descubrir la falsedad en los tribunales. Después de todo, seguimos donde estábamos: frente a la eterna dificultad de conocer con certeza qué es verdad y qué no dentro de la mente humana.The Conversation

    Miquel Julià-Pijoan, Profesor de Derecho Procesal, UNED – Universidad Nacional de Educación a Distancia

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Los algoritmos adivinan cómo somos o cuánto ganamos solo con analizar nuestra foto

    Cuando subimos una foto a una red social, igual no nos imaginamos todo lo que los algoritmos pueden deducir de nosotros solo por esa imagen.

    Es una sensación familiar para cualquiera que use redes sociales: el asombro, a veces inquietante, de que una plataforma parezca conocernos mejor que nadie. Un vídeo recomendado que acierta de lleno, un anuncio que responde a una conversación reciente, un recuerdo que aparece en el momento justo… Atribuimos esta aparente magia a los algoritmos que, suponemos, aprenden de nuestras interacciones directas. Sin embargo, esta es solo la capa más superficial de un sistema mucho más complejo.

    La verdadera capacidad de estos sistemas no reside en registrar nuestras acciones explícitas, sino en su habilidad para interpretar nuestra identidad a partir de los datos que compartimos, a menudo, de forma inconsciente. Un sencillo experimento con una sola fotografía personal revela hasta qué punto estos sistemas construyen perfiles psicológicos, ideológicos y económicos que van mucho más allá de lo que el usuario pretende comunicar.

    De la visión por computador a la interpretación semántica

    Cuando subimos una imagen a internet, no solo la ven otros usuarios: también la “leen” los sistemas de visión por computador, como la API de Google Vision que, según anuncia Google, “extrae información valiosa de imágenes, documentos y vídeos”. Estas tecnologías ya no se limitan a identificar objetos o rostros. Su alcance llega a la interpretación semántica: pueden deducir emociones, contextos culturales o rasgos de personalidad.

    Herramientas como TheySeeYourPhotos, creada por un exingeniero de Google para denunciar este tipo de prácticas, permiten comprobarlo. Su objetivo es mostrar cuánta información personal y sensible puede inferirse a partir de una sola fotografía, utilizando la misma tecnología que emplean las grandes corporaciones.

    El problema no está en que las máquinas reconozcan lo que ven, sino en que interpreten lo que creen que esa imagen dice sobre nosotros. Y ahí surge una pregunta clave: ¿están diseñadas para servir nuestros intereses o para explotar patrones de comportamiento que ni siquiera reconocemos?

    Caso de estudio: el perfil inferido de una fotografía

    Para explorar los límites de esta capacidad interpretativa, en la Universidad Miguel Hernández realizamos un experimento: analizamos una fotografía personal mediante la herramienta mencionada anteriormente. Los resultados que obtuvimos se pueden clasificar en dos niveles.

    Análisis que la herramienta TheySeeYourPhotos hace sobre una de las fotos empleadas en este estudio.

    El primer nivel es el del análisis descriptivo, mediante el que la IA identifica elementos visuales objetivos. En este caso, describió correctamente la escena principal (un joven junto a una barandilla y un monumento) y se aproximó a la localización geográfica. Este nivel, aunque propenso a errores fácticos (como estimar una edad algo diferente), se mantiene en el plano de lo esperable.

    El segundo nivel, el del análisis inferencial, es el que resulta más revelador y problemático. A partir de la misma imagen, el sistema construyó un perfil detallado basado en patrones estadísticos y, previsiblemente, en sesgos algorítmicos:

    • Origen étnico (raza mediterránea) y nivel de ingresos estimado (entre 25 000 y 35 000 euros).
    • Rasgos de personalidad (tranquilo, introvertido) y aficiones (viajes, fitness, comida).
    • Orientación ideológica y religiosa (agnostico, partido demócrata).

    El propósito de este perfilado exhaustivo es, en última instancia, la segmentación comercial. La plataforma sugirió anunciantes específicos (Duolingo, Airbnb) que tendrían una alta probabilidad de éxito con el perfil inferido. Lo relevante no es el grado de acierto, sino la demostración de que una sola imagen es suficiente para que una máquina construya una identidad compleja y procesable de un individuo.

    Del perfilado a la influencia: el riesgo de la manipulación algorítmica

    Si un algoritmo puede inferir nuestra ideología, ¿su objetivo es simplemente ofrecernos contenido afín o reforzar esa inclinación para volvernos más predecibles y rentables?

    Esa es la frontera difusa entre personalización y manipulación. Meta, por ejemplo, ha experimentado con usuarios generados por inteligencia artificial, diseñados para interactuar con perfiles solitarios y aumentar su tiempo en la plataforma. Y si los sistemas pueden simular compañía, también pueden crear entornos informativos que guíen sutilmente opiniones y decisiones.

    A ello se suma la falta de control real sobre nuestros datos. La multa récord de 1 200 millones de euros impuesta a Meta en 2023 por transferencias ilegales de información de Europa a EE. UU. demuestra que el cumplimiento normativo se convierte, para las grandes tecnológicas, en un cálculo de riesgo-beneficio, más que en un principio ético.

    La conciencia crítica como herramienta de defensa

    El resultado de este perfilado masivo es la consolidación de las “burbujas de filtro”, un concepto acuñado por Eli Pariser para describir cómo los algoritmos nos encierran en entornos informativos que refuerzan nuestras creencias. Así, cada usuario habita un mundo digital hecho a su medida, pero también más cerrado y polarizado.

    Ser conscientes de que cada interacción digital alimenta este ciclo es el primer paso para mitigar sus efectos. Herramientas como TheySeeYourPhotos son valiosas porque revelan cómo se construye la ilusión de personalización que define nuestra experiencia en línea.

    Por tanto, el feed de nuestras redes sociales no es un reflejo del mundo real, sino una construcción algorítmica diseñada para nosotros. Comprender esto es indispensable para proteger el pensamiento crítico y navegar de forma consciente en un entorno digital cada vez más complejo.The Conversation

    Daniel Garcia Torres, Doctorando en Deporte y Salud, Universidad Miguel Hernández; César Fernández Peris, Profesor Titular de Universidad, área de Ingeniería Telemática, Universidad Miguel Hernández y María Asunción Vicente Ripoll, Profesora titular en el área de Ingeniería Telemática. , Universidad Miguel Hernández

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Los memes y el patrimonio popular en internet

    En nuestro imaginario existe una idea más o menos clara de lo que es un meme. Lo asociamos al tipo de imágenes estáticas que, acompañadas por texto, circulan por foros y redes sociales con una intención humorística. Fue en esa forma cuando se popularizó el término, coincidiendo con el clímax de la vida online 2.0: pasamos de una interacción unidireccional con los entornos digitales a una expansión de las posibilidades comunicativas en internet. Esta es su era de asentamiento, que fundamenta las bases narrativas y comunicativas de las que vendrán.

    Memes: objetos y procesos culturales

    En su sentido originario, el meme es una unidad o conjunto de elementos culturales que da lugar a los comportamientos, gestos y costumbres. Es decir, puede ser un objeto independiente, pero también una suma que construya, de forma orgánica, interacciones socioculturales. Por ejemplo, un sticker o clip divertido de mascotas sería un meme-objeto, pero que exista todo un afán colectivo por reproducir y compartir diariamente este tipo de contenidos sería un meme-procesual.

    El meme de Julio Iglesias señalando a cámara, acompañado del texto “Y lo sabes”, es un meme-objeto, mientras que el envío masivo por WhatsApp de imágenes alteradas de Julio Iglesias describiendo que llega el mes de julio sería un meme-procesual. El emoticono con pulgar hacia arriba, indicando “ok”, “me gusta” o “de acuerdo”, es un meme-objeto que forma parte de una interacción, pero su significado es un meme-procesual, pues ese sentido es aceptado por las generaciones boomers y millennials, pero las generaciones Z y alpha emplean otros iconos para expresar lo mismo.

    En su devenir digital, el meme ha ido adaptándose a todos los espacios disponibles, aumentando su sentido del humor hasta el absurdo y sus nociones básicas hacia artefactos más complejos, donde la ironía queda en un segundo plano y predomina lo autorreferencial y local. Desplazando, así, su intención original de socializar experiencias universales para, ahora, interpelar a comunidades más pequeñas que articulan sus propias jergas desde lo memético viral.

    Por ello, entendido como unidad o como engranaje de sentidos, el meme digital funciona como dispositivo clave de la comunicación digital, y es fundamental también para comprender el mundo actual que habitamos: un mundo-imagen, hipervisual e hiperconectado. Se cuela y configura las relaciones sociales, tecnológicas, culturales, icónicas y subjetivas que se activan en los espacios online de conexión continua.

    Memes y folclore digital

    En este punto, se pueden destacar algunas características principales de los memes contemporáneos. Los memes de internet son dispositivos culturales creativos y comunicativos, dinámicos y maleables, que interpretan la realidad y, al mismo tiempo, se versionan entre ellos. Su esencia, pues, se localiza en un movimiento constante, impregnando con su dinamismo cada proceso online. Si se detiene o se rechaza por parte de la comunidad, ese meme dejará de funcionar.

    Son, además, artefactos intangibles, inmediatos y efímeros, pues solo “suceden” mientras se están reproduciendo. Se propagan por un mecanismo similar al boca a boca, y cuando ya están instalados en las prácticas comunicativas, se convierten en un recurso fluido y natural para la cotidianidad. Con ello, son capaces de determinar los modelos para la conversación, no solo digital, sino también de las interacciones offline. De esta manera, van combinando actos digitales, físicos, analógicos, tecnológicos, culturales y políticos en las rutinas de las comunidades.

    Por ello, estos memes son parte de un patrimonio digital que ha ido creciendo según han avanzado las posibilidades tecnológicas, técnicas y artísticas entre personas y dispositivos. Existe, de este modo, un folclore digital que representa el conjunto de nuevas tradiciones, actitudes y códigos culturales que se desarrollan a través de las vidas conectadas en red.

    Junto con lo anterior, el meme digital se caracteriza por su plasticidad y flexibilidad a la hora de cambiar: para adaptarse, un meme debe permitir ser recontextualizado, expandido, reinterpretado. Todo esto multiplica sus opciones para ser reconvertido en otros formatos por los usuarios, de manera orgánica y colaborativa, conscientemente o no.

    Sobre todo cuando es un acto intencionado, se ponen en juego diferentes capacidades creativas que tienen que ver con las narrativas digitales, los procesos mediáticos y las interacciones lúdicas. Expresiones visuales como el collage, el pastiche o el fotomontaje (y ahora, las imágenes generadas con IA) son fórmulas que se basan en la creatividad distribuida y el remix. La creatividad distribuida se refiere a la creación colectiva o colaborativa, la cocreación, pero también a la creación desde la acumulación o fragmentación por la intervención de distintos usuarios. Es decir, modificar elementos de un meme al añadir, quitar o desplazar alguno de sus componentes para incorporar capas de significado o nuevas lecturas. Estas reconfiguraciones fomentan habilidades para la transformación y la reconstrucción de sentidos: implica experimentar con el remix de las imágenes y otras formas de expresión de los nuevos medios.

    Estas prácticas de remix y versionado en red se articulan desde diferentes opciones de autoría, que se alejan de la tradicional concepción y uso de la propiedad intelectual y el reconocimiento. Lo genuino y único no existe en internet tal como lo entendíamos en épocas anteriores: ahora, el bagaje previo de un material no es solo intelectual, sino que sigue existiendo visualmente o, por lo menos, en su huella digital. La mayoría de materiales son, pues, de autoría compartida o fluida, en la que acciones como el reciclaje de elementos (copiando, pegando, ensamblando, replicando) son ya habilidades asimiladas por la sociedad actual.

    El acceso y disponibilidad de herramientas creativas prometía un escenario de mayor democratización en el internet global, aunque es cierto que se ha demostrado una cultura condicionada en nuestros días. Sin embargo, sí existe cierta fusión entre alta y baja cultura cuando pueden convivir en situaciones de igualdad.

    Así, las instituciones y circuitos oficiales de la cultura comparten espacios mediáticos con prácticas de arte electrónico (netart), fenómenos como los NFTs, expresiones de activismo digital, cultura visual trash (imágenes pobres, deterioradas o molestas según los cánones comunes) y aplicaciones de creación audiovisual (apps de plantillas o filtros de imagen preconfigurados, de IA o de diseño gráfico, por ejemplo).

    Conflictos de hoy, propuestas de futuro

    En primer lugar, cabe señalar la consolidación del meme digital hoy desde el audiovisual. De esta manera, va abandonando sus formas clásicas estáticas para manifestarse en distintos formatos de vídeo, gracias al auge y predominio de plataformas como YouTube, TikTok y sitios de streaming. Y, por ser materiales más complejos, el meme contemporáneo tiende a ser un meme-procesual, siempre a favor de la máxima viralización, abandonando también poco a poco la conexión emocional con los memes-objeto. Hay por ello una brecha entre generaciones al visualizar, interpretar y socializar estos materiales (puede verse en vídeos de creadores más jóvenes cuando revisan y señalan que los “memes antiguos” dan cringe, vergüenza ajena).

    En épocas previas, el sentido de una red hiperconectada como internet se entendía desde la democratización y colaboración social. Sin embargo, algunas de las tendencias y contenidos del presente nos alertan que esto ha cambiado: la posibilidad (y el deseo) de monetizar cualquier contenido online prioriza escenarios individualistas y de jerarquización, también en las redes sociales de comunicación. Pretender convertir todo en un producto rentable o publicitario deviene en que los memes estén al servicio del algoritmo.

    De esta manera, fórmulas que antes se entendían como populares han sido manipuladas por las corporaciones y la tecno-élite: lo vemos en hilos de comentarios llenos de bots, en la repetición de anuncios en bucle, en el embarramiento de la experiencia del usuario en redes o en el uso de bulos e imágenes IA con fines de espectacularización ideológica. Por ello, los componentes del patrimonio digital se van convirtiendo en objetos y procesos más homogéneos y previsibles.

    En contraposición, tanto los memes como otros recursos para la comunicación digital nos pueden servir en la ideación y construcción de nuevas tendencias comunitarias online. Como tareas para ello, debemos experimentar modos de acompañamiento y cuestionamiento de las imágenes autogeneradas, de nuestra dependencia de ciertos espacios corporativos y de los usos de nuestros datos. Un ejemplo de este tipo sería el Fediverso, que se propone como un conjunto de redes sociales descentralizadas e interconectadas, externas a la dirección de las grandes empresas tecnológicas actuales. Este tipo de iniciativas se presentan como espacios de reconquista para volver a conectar con valores populares en un internet para todas las personas.


    La versión original de este artículo ha sido publicada en la revista Telos, de Fundación Telefónica.The Conversation


    Nuria Rey Somoza, Docente investigadora en la Facultad de Artes y Humanidades URJC, Universidad Rey Juan Carlos

    Este artículo fue publicado originalmente en The Conversation. Lea el original.