Categoría: Consulting GCC

  • Algoritmo evolutivo: cuando la inteligencia artificial se inspira en la selección natural

    La idea de un algoritmo evolutivo es la de expresar el programa mediante un código, a imagen del código genético, capaz de representar un determinado comportamiento.

    En 1959, Arthur Samuel (1901-1990), trabajador de IBM y graduado por el Instituto Técnico de Massachussets, escribió un artículo que cambió el modo de programar los ordenadores.

    Arthur Samuel en el Laboratorio de Inteligencia Artificial de la Universidad de Standford en 1970. Standford InfoLab

    El problema que afrontó Samuel no era de capital importancia: se trataba simplemente de desarrollar un programa capaz de jugar al juego de damas. Analizaba una posición del tablero en la que tenía en cuenta diversos factores. A cada uno de ellos le daba una mayor o menor importancia mediante un valor numérico, y producía el movimiento con más probabilidad de ganar la partida a partir de esa configuración analizada.

    El inconveniente era que se desconocía qué factores eran más importantes para determinar el mejor movimiento a realizar. Y aquí es donde reside la gran aportación de Samuel.

    Un jugador de damas muy perspicaz

    En vez de asignar valores concretos, los asignó de manera aleatoria. Claro que de esta forma el resultado sería un programa con un pésimo rendimiento en el juego. La idea brillante fue la de hacerle jugar contra contrincantes humanos e intentar modificar los valores a partir de la experiencia en las partidas.

    Cuando el software perdía una jugada, la analizaba poniéndose en la piel del humano, comparando la acción que este realizó en cada movimiento con la que el programa hubiera hecho en su lugar. Así, mejoraba su rendimiento estudiando al adversario y aprendiendo de los errores cometidos.

    algoritmo evolutivo
    Las investigaciones de Samuel fueron el punto de partida para el desarrollo de la inteligencia artificial en IBM durante la década de 1990.
    IBM

    Samuel no había programado un algoritmo para jugar a las damas, lo había diseñado para que aprendiera a jugar a las damas. Y fue capaz de hacerlo incluso por encima de las capacidades de su programador.

    Fue una experiencia pionera de lo que hoy se conoce como aprendizaje automático, que está detrás de avances tan extendidos como el diagnóstico médico por inteligencia artificial, el reconocimiento de voz, los vehículos autónomos, los asistentes virtuales o los últimos modelos del lenguaje.

    Autonomía para aprender

    Muchos de ellos se han nutrido del perfeccionamiento de unos modelos, también paramétricos, que llamamos redes neuronales. En estos nuevos modelos no hay una función fija como en el programa de Samuel, sino que se puede aproximar cualquier función, y se pasa de unos pocos parámetros a cientos de millones de ellos.

    Además, ya no hace falta un humano para que el programa aprenda de él: los sistemas actuales aprenden a partir de la miríada de datos que están disponibles en todos los dominios del conocimiento.

    Sin embargo, la tecnología que hay detrás de todos estos modelos recientes no es demasiado revolucionaria. La manera de ajustar sus parámetros es una modificación del método de ajuste mediante descenso de gradiente, que data de finales del siglo XIX, aplicado a las redes neuronales en la década de los 80.

    El éxito reciente reside en la sofisticación de los modelos y su complejidad, además de la enorme disponibilidad de datos de entrenamiento. Pero los científicos no han pasado por alto otro aspecto importante del aprendizaje automático: la evolución.

    Algoritmos genéticos

    Los seres vivos pueden, de manera simplificada, describirse también como funciones parametrizadas, cuyos parámetros son los genes. Dependiendo de los valores que tomen dichos genes, se produce un ser vivo u otro, con unas u otras características.

    Es la evolución la que, de manera similar al programa de Samuel, ha ido seleccionado los valores adecuados de los genes, para generar seres vivos con mayor probabilidad de sobrevivir, descartando por el camino ingentes cantidades de valores inapropiados.

    John Henry Holland desarrolló el primer programa de aprendizaje evolutivo en 1975.
    Wikimedia Commons, CC BY

    Incluso los sistemas neuronales de los seres vivos son el producto de un proceso que ha ido probando soluciones alternativas, durante millones de años, hasta dar con la combinación más eficaz desde el punto de vista evolutivo.

    Es a partir de esta idea que John Holland (1929-2015) diseñó, en el año 1975, el primer programa de aprendizaje evolutivo y desarrolló lo que denominó algoritmos genéticos.

    La idea de un algoritmo evolutivo es la de expresar el programa mediante un código, a imagen del código genético, capaz de representar un determinado comportamiento. Si se modifica el código, el programa se comporta de manera diferente.

    Si damos con una determinada codificación, será capaz de mostrar un comportamiento altamente eficaz. Como en los sistemas neuronales, se parte de un código aleatorio que se va mejorando mediante una versión artificial de la selección natural.

    Los programas que tengan mejores rendimientos cruzarán su codificación, generando nuevos programas, en una versión computacional de la reproducción sexual.

    Desde su aparición, se han producido innumerables avances en este tipo de algoritmos. Asimismo, se han aplicado con éxito en la selección de parámetros en problemas que son inabordables de otra manera.

    La antena 2006 de la nave espacial de la NASA ST5. Esta forma complicada fue encontrada por un programa evolutivo del diseño de computadora para crear el mejor patrón de la radiación.
    Wikimedia Commons, CC BY

    El futuro de la inteligencia artificial podría estar en combinar estas dos perspectivas, la neuronal y la evolutiva. Los sistemas evolutivos podrían ser útiles en la generación automática de modelos neuronales cada vez más complejos o, incluso, nuevos métodos de aprendizaje.

    De la misma manera que la selección natural ha sido capaz de producir sistemas neuronales capaces de generar comportamientos más y más complejos a partir de una evolución gradual de los mismos, los algoritmos evolutivos podrían ser la clave para producir modelos de inteligencia artificial cada vez más sofisticados, mejor adaptados a los requerimientos que se necesiten y más inteligentes.

    El campo de los sistemas evolutivos y los sistemas de inspiración biológica tiene un gran potencial que apenas estamos vislumbrando. Sin duda, será objeto de gran atención en los años venideros.The Conversation

    Pedro Isasi Viñuela, Catedrático de Universidad. Área de Inteligencia Artificial. Universidad Carlos III de Madrid, Universidad Carlos III

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Apple y OpenAI: Una Alianza Estratégica para Integrar ChatGPT en los Productos y Servicios de Apple

    Apple y OpenAI (la organización detrás de ChatGPT) han anunciado una alianza estratégica para integrar esta avanzada tecnología de inteligencia artificial en los productos y servicios de Apple. Este movimiento, confirmado durante la Apple Worldwide Developers Conference (WWDC) 2024, promete revolucionar la interacción de los usuarios con los dispositivos de Apple al incorporar las capacidades de ChatGPT en el asistente de voz, Siri. A continuación, exploraremos los detalles de esta alianza, así como sus posibles pros y contras.

    Detalles de la Alianza

    En la WWDC 2024, el CEO de Apple, Tim Cook, reveló que la compañía comenzará a integrar modelos de inteligencia artificial externos en su software, comenzando con ChatGPT de OpenAI a finales de este año. Esta integración permitirá a Siri, el asistente de voz de Apple, aprovechar las capacidades avanzadas de ChatGPT 4.0, ofreciendo respuestas más precisas y útiles a las solicitudes de los usuarios.

    Sam Altman, CEO de OpenAI, expresó su entusiasmo por esta colaboración, destacando que la asociación con Apple facilitará el acceso de los usuarios a la inteligencia artificial avanzada. Según Altman, esta alianza se alinea con la misión de OpenAI de hacer que la IA avanzada sea accesible para todos y promete innovaciones significativas en la forma en que las personas interactúan con sus dispositivos.

    Integración de ChatGPT y Siri

    La integración de ChatGPT con Siri será una de las características más destacadas de esta alianza. A partir de iOS 18, iPadOS 18 y macOS 15 Sequoia, los usuarios de Apple podrán utilizar las capacidades de ChatGPT de forma gratuita, sin necesidad de registrarse o iniciar sesión, a diferencia de los usuarios de Android. Siri podrá realizar consultas utilizando ChatGPT, lo que permitirá a los usuarios obtener respuestas más completas y contextualmente relevantes.

    Además, OpenAI ha asegurado que la integración de ChatGPT en Siri incluirá robustas protecciones de privacidad. Las solicitudes enviadas a ChatGPT serán anonimizadas, y las direcciones IP de los usuarios estarán ocultas. Los usuarios también tendrán la opción de conectar su cuenta de ChatGPT, lo que permitirá que sus preferencias de datos se apliquen según las políticas de ChatGPT.

    Pros de la Alianza

    1. Mejora de la Experiencia del Usuario: La integración de ChatGPT con Siri promete mejorar significativamente la experiencia del usuario al proporcionar respuestas más precisas y útiles a las solicitudes. Esto podría hacer que Siri sea más competitivo frente a otros asistentes de voz en el mercado.

    2. Acceso a Tecnología Avanzada: Los usuarios de Apple podrán beneficiarse de la avanzada tecnología de inteligencia artificial de OpenAI sin costo adicional. Esto puede hacer que los productos de Apple sean más atractivos para los consumidores que buscan tecnología de punta.

    3. Innovación Continua: La colaboración entre Apple y OpenAI puede impulsar aún más la innovación dentro de Apple, al integrar continuamente las últimas capacidades de inteligencia artificial en sus productos.

    Contras de la Alianza

    1. Dependencia de Tecnología Externa: Al depender de la tecnología de OpenAI, Apple podría enfrentarse a desafíos si OpenAI cambia sus políticas o términos de servicio. Esto podría afectar la disponibilidad y funcionalidad de ChatGPT en los dispositivos de Apple.

    2. Preocupaciones de Privacidad: Aunque se han implementado protecciones de privacidad, algunos usuarios pueden ser reacios a enviar sus datos a un servidor externo. La percepción de privacidad es un aspecto crucial, especialmente para los usuarios que son conscientes de la seguridad de sus datos.

    3. Compatibilidad y Rendimiento: La integración de tecnologías avanzadas puede presentar desafíos técnicos, incluyendo problemas de compatibilidad y rendimiento. Apple deberá garantizar que la integración sea fluida y no afecte negativamente el rendimiento de sus dispositivos.

    La alianza entre Apple y OpenAI representa un avance significativo en la integración de inteligencia artificial en productos de consumo masivo. Al incorporar ChatGPT en Siri, Apple está posicionándose a la vanguardia de la tecnología de asistentes de voz, ofreciendo a sus usuarios capacidades avanzadas sin comprometer la privacidad. Sin embargo, esta alianza también presenta desafíos que Apple deberá gestionar cuidadosamente para maximizar los beneficios y minimizar los riesgos. A medida que la tecnología de IA continúa evolucionando, esta colaboración podría establecer un nuevo estándar en la interacción hombre-máquina, beneficiando tanto a los usuarios de Apple como a la industria tecnológica en general.

  • Intentos de Frenar las Criptomonedas: Un Golpe al Mundo Libre

    En los últimos años, el gobierno de los Estados Unidos ha intensificado sus esfuerzos para regular y, en muchos casos, frenar el avance de las criptomonedas. Este movimiento, liderado principalmente por la Comisión de Bolsa y Valores (SEC), ha generado preocupación y debate entre defensores de la libertad financiera y tecnológica.

    La SEC y su Enfoque

    Recientemente, Coinbase, uno de los exchanges de criptomonedas más grandes del mundo, acusó a la SEC de intentar destruir la industria cripto. Según la empresa, la SEC impone regulaciones diseñadas para los mercados de valores tradicionales, que son inaplicables al sector cripto. Este enfoque, argumenta Coinbase, no solo es injusto, sino que también sofoca la innovación y el crecimiento.

    La SEC, por su parte, mantiene que las leyes de valores vigentes son necesarias para regular las criptomonedas y proteger a los inversores. Sin embargo, muchos en la industria cripto, incluida Coinbase, creen que estas leyes no se ajustan a la naturaleza descentralizada y global de las monedas digitales. Por ejemplo, la plataforma Robinhood ha señalado la imposibilidad de cumplir con los requisitos de registro de valores para criptomonedas que no tienen una entidad central emisora.

    Motivos Políticos y la Aprobación de ETFs

    El contexto político también juega un papel crucial en este escenario. Cathie Wood, CEO de Ark Invest, señaló que la reciente aprobación de los ETFs de Ethereum por parte de la SEC fue una movida política, especialmente en vista de las próximas elecciones presidenciales. En condiciones normales, argumenta Wood, la SEC habría rechazado estas solicitudes, pero la administración de Biden busca proyectar una imagen más amigable hacia el sector cripto sólo para ganar votos.

    Este giro estratégico revela la complejidad de la regulación cripto en Estados Unidos, donde las decisiones a menudo están influenciadas por consideraciones políticas mpas que por cuestiones de seguridad y protección del consumidor.

    El Veto de Biden y sus Implicaciones

    El 30 de mayo de 2024, el presidente Joe Biden vetó la resolución H.J.Res. 109, que buscaba desautorizar un boletín de la SEC sobre las obligaciones contables de las empresas que resguardan criptoactivos. Biden argumentó que permitir esta resolución socavaría la capacidad de la SEC para establecer salvaguardias apropiadas y abordar problemas futuros. Este veto, aunque fue justificado como una medida de protección, fue recibido con críticas por parte de quienes vemos en las regulaciones actuales un obstáculo para la innovación.

    El Impacto en el Mundo Libre

    La represión regulatoria en Estados Unidos tiene repercusiones globales. En América Latina y España, las criptomonedas han sido adoptadas además, como herramientas clave para la inclusión financiera y la protección contra la inflación. Países como El Salvador, que ha adoptado Bitcoin como moneda legal, y España, con una creciente comunidad cripto, observan con preocupación los movimientos regulatorios en Estados Unidos.

    El intento de frenar o incluso destruir las criptomonedas desde el gobierno de Estados Unidos representa un golpe significativo para el mundo libre y las ideas de la libertad. Las criptomonedas simbolizan la autonomía financiera y la descentralización del poder, conceptos fundamentales para las sociedades libres. La sobre-regulación va a desincentivar la innovación y limitar el acceso a herramientas financieras avanzadas, especialmente en regiones con sistemas bancarios restrictivos o economías inestables.

    El equilibrio entre regulación y libertad es delicado y crucial. Mientras los reguladores buscan proteger (o mejor dicho, ésa es la excusa) a los consumidores de fraudes y colapsos financieros, también deben evitar sofocar la innovación que siempre trae consigo avances significativos para la economía global. La lucha por dejar libre o por frenar las criptomonedas no solo es una batalla tecnológica y financiera, sino también una pugna por la libertad y la autonomía en un mundo cada vez más digitalizado.

    Las futuras discusiones legislativas y regulatorias serán fundamentales para determinar el destino de las criptomonedas y, con ellas, el futuro de la libertad financiera en el mundo. Es esencial que estas discusiones se lleven a cabo con un enfoque equilibrado, que considere no tanto la protección del consumidor como la necesidad de fomentar la innovación y el crecimiento.

  • ¿Y si Meta nos pagase por usar nuestras fotos y datos de Instagram y Facebook para entrenar a la IA?

    Hace solo unos días Meta presentaba una nueva actualización de su modelo de lenguaje de gran tamaño llamado Meta Llama 3, el que sería la base de Meta IA, la inteligencia artificial que la empresa de Mark Zuckerberg quiere desplegar en Facebook, Instagram y WhatsApp a nivel global. Esta actuación tal y como la han planteado no es ilegal.

    En la presentación, Meta resaltaba el trabajo que está realizando para entrenar su modelo con una gran variedad de datos que mejore la calidad de la respuesta e interacción de Meta IA. Uno de los objetivos es que la IA genere contenidos propios que lleguen a nuestras redes sociales, sean creíbles y adaptados a lo que más nos gusta.

    Este asistente personal ya está disponible en Estados Unidos, Australia y Canadá y, además de IA conversacional, funciona como IA generativa para crear contenidos. El proceso es imparable.

    Inmediatamente después, la empresa matriz de Facebook e Instagram comunicó que utilizará las fotografías y otros contenidos publicados por los usuarios en sus plataformas para entrenar su inteligencia artificial generativa.

    La actualización de su política de privacidad entrará en vigor el 26 de junio de 2024. Esto permitirá a la compañía utilizar las publicaciones, fotos, vídeos y otros contenidos compartidos por los usuarios en sus plataformas para entrenar su inteligencia artificial.

    Como era de esperar, la implementación de esta política ha generado una gran polémica y preocupación entre usuarios, especialmente entre artistas y creadores de contenido que temen por la privacidad y el uso no autorizado de sus obras.

    La compañía ha proporcionado una opción para que los usuarios puedan rechazar el uso de sus datos a través de un formulario específico, aunque no sin críticas. El proceso ha sido tachado de complicado y poco accesible.

    Otras redes y tecnológicas detrás de esta práctica

    La controversia se intensifica en un momento en que la carrera por desarrollar la mejor inteligencia artificial está en pleno auge. Esto impacta significativamente a las empresas tecnológicas y a su cotización en bolsa.

    La semana pasada, el fabricante de chips Nvidia, uno de los competidores de Meta, anunció un aumento en sus beneficios del primer trimestre fiscal gracias a la IA.

    El año se abría con la denuncia de The New York Times a Microsoft y OpenIA por utilizar contenidos protegidos con derechos de autor del diario para entrenar sus algoritmos. Esto desencadenaba un largo debate sobre los datos que utilizan las IA para nutrir sus respuestas.

    Esto ha llevado a que se firmasen acuerdos para el uso de obras, como el de OpenIA con los grupos editoriales Prisa en España, Le Monde en Francia y con la editorial académica alemana Axel Springer y recientemente con el grupo News Corp, propietario de The Wall Street Journal, por 230 millones de euros.

    X ya lo ha hecho y TikTok también

    Está a la orden del día que estas empresas utilicen datos que recolectan de internet, con poco control, para alimentar sus IA.

    Recientemente saltó a la palestra el caso de X (antes Twitter), en el que se filtró que la empresa de Elon Musk había estado utilizando las publicaciones de usuarios para construir su inteligencia artificial: Grok, disponible para perfiles prémium.

    De una u otra forma, todas las redes sociales utilizan algoritmos de inteligencia artificial para personalizar los contenidos que visualizamos. Por ejemplo, TikTok utiliza esta información para crear un “Para ti” único basado en vídeos similares a los que más consumes. Esto ha llevado a que, tras la entrada en vigor de la Ley de Servicios Digitales de la Unión Europea, la red social adopte nuevas medidas que permitan desactivar el uso de determinada información o funcionalidades relacionadas con los datos.

    Qué pasa con nuestros datos y fotos

    Si Meta o cualquier otra empresa quiere utilizar nuestros datos, debe ser transparente con ello en su política de privacidad. Esto permite al usuario tener un control sobre la información que utilizan, cómo y para qué.

    Con la actualización de la política, desde el 26 de junio de 2024 la red social comenzará a utilizar fotografías, vídeos y textos que publiquen sus usuarios (descripciones, comentarios, etc.), y de aquellos contenidos ya publicados con anterioridad.

    El usuario tendrá ahora dos opciones: borrar el contenido que no quiere “regalar” a la IA o ejercer el derecho de oposición a este uso en las aplicaciones de Meta. Para esta última opción se han inundado las redes con tutoriales y tips para hacerlo. Resumidamente, rellenar un formulario bastante oculto oponiéndose a ello.

    ¿Y si Meta pagara por nuestros datos?

    La idea no es nada descabellada. Y quizás ayudaría a que, como usuarios, nos siente mejor, o al menos no tan mal.

    Además de los acuerdos de empresas de IA con propietarias de contenidos (imágenes, textos, vídeos, audios, etc.), valorados en millones de euros, empresas como WorldCoin ya ofrecen criptomonedas por el contenido de los usuarios. Concretamente por escanear biométricamente nuestro iris y generar una ID virtual única.

    Los datos son una moneda de cambio. Igual que ya está regulado el pago con datos personales para acceder a servicios “gratuitos” o freemium, incluso pagar una suscripción por no usar datos personales, como ocurre en X Premium, podría ser perfectamente válido un modelo en el que las empresas paguen por nuestros datos digitales. Posiblemente esto establecería un equilibrio entre privacidad y beneficio. Al menos, que el usuario reciba una parte de la tarta.The Conversation

    Francisco José Pradana, Profesor de Comunicación y director de Postgrado, Universidad Europea y María Luisa Fanjul Fernández, Profesora, Universidad Europea

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • La Libertad Económica en las Ideas de Juan Bautista Alberdi

    Juan Bautista Alberdi, uno de los grandes pensadores y juristas de Latinoamérica del siglo XIX, dejó un legado perdurable a través de sus ideas sobre la libertad, la economía y el papel del Estado. Una de sus citas más memorables dice: «¿Qué exige la riqueza de parte de la ley para producirse y crearse? Lo que Diógenes exigía de Alejandro: que no le haga sombra.» Esta frase encapsula de manera brillante su visión sobre la libertad económica y la relación entre el Estado y la creación de riqueza. En este artículo, desglosaremos esta cita, explorando sus implicaciones y el contexto en el que Alberdi desarrolló sus ideas.

    La Metáfora de Diógenes y Alejandro

    La referencia a Diógenes y Alejandro el Grande es una metáfora poderosa. Según la leyenda, cuando Alejandro Magno encontró a Diógenes, un filósofo cínico conocido por su austeridad, le preguntó si podía hacer algo por él. Diógenes respondió: «Sí, apártate, que me tapas el sol.» Con esta respuesta, Diógenes subrayaba la importancia de no ser obstaculizado por el poder para vivir su vida conforme a sus principios.

    Alberdi utiliza esta metáfora para ilustrar su creencia de que la riqueza se genera mejor en un entorno donde la ley y el gobierno no interfieren excesivamente. Así como Diógenes solo quería que Alejandro no le hiciera sombra, Alberdi argumenta que la riqueza florece cuando el Estado no impone trabas innecesarias al emprendimiento y la actividad económica.

    Libertad Económica y No Intervención

    En el contexto de Alberdi, la cita refleja su fuerte defensa de la libertad económica y su crítica a la intervención estatal. Alberdi creía que para que la riqueza se produjera y creciera, era esencial que el Estado no la obstaculizara con regulaciones excesivas, impuestos desmesurados y restricciones burocráticas. Esta visión se alinea con los principios del liberalismo clásico, que aboga por un mercado libre y un gobierno limitado.

    Para Alberdi, la intervención estatal excesiva crea un entorno económico opresivo que ahoga la innovación, desalienta la inversión y frena el crecimiento económico. La libertad económica, en su opinión, es la clave para el desarrollo y la prosperidad de una nación. Esta idea está presente en su obra más influyente, Bases y puntos de partida para la organización política de la República Argentina, donde defiende la necesidad de un marco legal que promueva la actividad económica sin imponerle barreras innecesarias.

    El Rol del Estado en la Economía

    Sin embargo, Alberdi no abogaba por una ausencia total del Estado en la economía. Reconocía que el gobierno tiene un papel crucial en la creación de un entorno que proteja los derechos de propiedad, asegure el cumplimiento de los contratos y mantenga el orden público. Lo que criticaba era la interferencia excesiva y la creación de obstáculos que impidieran a los individuos y a las empresas prosperar por sí mismos.

    Esta distinción es fundamental. Alberdi veía al Estado como un facilitador de la libertad económica, no como un director de la actividad económica. En su visión, el mejor papel que puede desempeñar el gobierno es establecer un marco legal claro y justo que permita a las fuerzas del mercado operar libremente. La protección de los derechos individuales y la promoción de la justicia eran, para Alberdi, las funciones legítimas del Estado.

    Relevancia Contemporánea

    Las ideas de Alberdi sobre la libertad económica siguen siendo relevantes en el mundo actual. En una era de globalización y mercados interconectados, los países que han adoptado políticas de libre mercado han experimentado, en general, un crecimiento económico más rápido y sostenido. Sin embargo, también existe el desafío de encontrar el equilibrio adecuado entre la libertad económica y la regulación necesaria para proteger el intercambio pacífico y evitar abusos.

    La cita de Alberdi nos recuerda la importancia de no permitir que el Estado se convierta en una sombra que obstaculice el desarrollo económico. En lugar de ello, el gobierno debe ser un aliado que facilite y promueva las condiciones para que la riqueza se genere y se distribuya de manera justa y equitativa.

    En un mundo donde las políticas económicas siguen siendo un tema de debate constante, las ideas de Alberdi ofrecen una guía valiosa para fomentar la prosperidad y el desarrollo sostenible.

  • Qué son las turbulencias de aire claro y por qué son cada vez más frecuentes

    Un suceso catastrófico asociado a turbulencias en el aire es extremadamente raro. Cada día hay 100 000 vuelos aproximadamente, con 6 millones de pasajeros, y casi nunca sucede nada. Los aviones son extremadamente seguros y no hay peligro estructural en caso de turbulencia. Sin embargo, los incidentes graves ocurren. El último con fallecidos fue en 2009. Ayer, un avión de Singapore Airlines cayó 1 800 metros en cuatro minutos, y aterrizó de emergencia en Tailandia con 71 pasajeros y tripulantes de cabina heridos y un fallecido en vuelo. El incidente es una muestra de la excepción.

    Los pilotos están entrenados para evitar las turbulencias en vuelo. El problema ocurre cuando los aviones se encuentran con patrones turbulentos atmosféricos que no salen en los radares porque no están asociados a ninguna tormenta. Se denominan turbulencias de aire claro y son las realmente peligrosas.

    El problema más complejo de la física

    La turbulencia es el problema de la física no resuelto con más implicaciones en nuestro día a día. Por turbulencia nos referimos al estado irregular y caótico que presenta el movimiento de los fluidos, gases y líquidos, en la mayoría de situaciones.

    Todos los flujos alrededor de un avión (y muchos en su interior) son turbulentos. El flujo turbulento es beneficioso en el motor, ya que mejora la combustión, pero es negativo en las alas, ya que genera mucha resistencia al avance (lo que aumenta el consumo de combustible).

    Esto no representa ningún peligro: simplemente nos ocasiona muy serias dificultades para optimizar la aerodinámica. Una cosa peculiar sobre la turbulencia es que, pese a que conocemos las ecuaciones de la mecánica de fluidos desde hace 180 años, su resolución para casos prácticos es imposible.

    Para simular el avión en vuelo que ha tenido el último incidente, el de Londres a Singapur, necesitaríamos el equivalente a un mes de internet en memoria RAM solo para comenzar la simulación. Y unos 100 000 años para llevarla a cabo. Por eso no nos queda otra que usar modelos mucho más baratos computacionalmente pero imperfectos. Es todo un desafío intelectual, pero no es problemático en vuelo.

    Las estelas laminares

    Simulación de turbulencias.

    La mecánica de fluidos atmosférica es más complicada porque tiene partes turbulentas y partes laminares, con estructuras de miles de kilómetros. Al hablar de laminar indicamos que el flujo está ordenado y no presenta remolinos fuertes. Normalmente, a la altura a los que vuelan los aviones el aire es laminar. Por eso las estelas de condensación que salen de los motores, que es agua congelada, pueden permanecer durante bastante tiempo en el aire. Sin turbulencia, la disipación es muy lenta.

    La turbulencia atmosférica puede aumentar mucho, por ejemplo, en caso de una tormenta, donde hay grandes corrientes termoconvectivas. Estas corrientes se producen por diferencias de temperaturas muy elevadas y llevan gran cantidad de agua y energía. En este caso, los radares meteorológicos pueden detectarlas y el avión puede evitarlas.

    No salen en los radares

    Las turbulencias de aire claro, las que no detectan los radares y son inesperadas para el piloto –porque no se acompañan de tormenta–, son las más peligrosas en un vuelo.

    Muchas veces los aviones vuelan aprovechando corrientes muy estrechas y muy rápidas con respecto al suelo que se llaman corrientes de chorro. Si nos encontramos de repente con grandes torbellinos que no hemos visto, podemos tener un problema.

    Al encontrar una de estas zonas turbulentas, el avión deja de ir por una autopista para transitar por una especie de carretera de tierra con muchos baches. Esto puede hacer que el avión se mueva ligeramente, bruscamente o, en casos excepcionales, que entre en pérdida. Es decir, que las alas pierdan sustentación rápidamente y dejen de sujetar al avión.

    Se necesita, entonces, que el avión pierda altura picando el morro para recuperar sustentación. En el caso del vuelo Londres-Singapur, unas 11 horas después de haber despegado, el avión cayó bruscamente unos 1 800 metros en sólo tres minutos mientras atravesaba el mar de Andamán y se acercaba a Tailandia.

    Debido a la emergencia climática en la que estamos inmersos, hay mucha más energía en la atmósfera, lo que implica que cada vez los aviones se van a encontrar con más caminos de tierra.

    Aumento de turbulencias por el cambio climático

    Paul Williams, de la Universidad de Reading, presentó en el principal congreso de turbulencia del mundo, celebrado en la Universitat Politècnica de València en 2023, una serie de estudios mostrando que la posibilidad de tener turbulencias de aire se ha incrementado en un 50 % en los últimos años, algo que podría estar relacionado con el cambio climático.

    Según las simulaciones de Williams, el problema va a ir a más. Se prevé un incremento al doble o al triple de las turbulencias en los próximos años. Esto puede ser especialmente grave en el Atlántico norte, dado que se han notado grandes perturbaciones en la corriente del golfo, la ruta más usada para volar de América a Europa.

    Estelas turbulentas en el despegue

    Los pilotos y los sistemas de seguridad de los aviones están muy preparados para estos eventos. Por ejemplo, en los aeropuertos, la salida de los aviones está espaciada para evitar que un avión despegue sobre la estela turbulenta de otros. En un curioso proceso evolutivo, las grandes aves migratorias también evitan las estelas turbulentas de sus compañeras volando en V.

    Nada es imposible, pero sería un evento extraordinariamente raro que un avión tuviera un fallo estructural crítico por problemas de turbulencia en vuelo. Podemos seguir viajando de forma tranquila siguiendo un consejo claro: abrocharse el cinturón siempre. Puede resultar incómodo, pero es lo único que nos protege de este tipo de eventos que lamentablemente van a ir a más.The Conversation

    Sergio Hoyas Calvo, Catedrático de Ingeniería Aeroespacial, Universitat Politècnica de València; Andres Cremades, investigador de mecánica de fluidos del KTH, KTH Royal Institute of Technology y Ricardo Vinuesa, Associate professor, KTH Royal Institute of Technology

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  •  La Fascinante Historia de Zhou Tong y Bitcoinica: Un Viaje de Éxito y Tragedia

    En 2010, un adolescente chino de 16 años llamado Zhou Tong se aventuró en el mundo del Bitcoin, comprando esta criptomoneda por 10 dólares. Lo que siguió es una historia llena de éxitos y tragedias, Bitcoinica, que ha dejado una huella indeleble en la historia de las criptomonedas.

    Los Primeros Pasos de un Genio Autodidacta

    Zhou Tong, un prodigio autodidacta de la programación, quedó fascinado por la capacidad de Bitcoin para ser enviado globalmente. A pesar de las dificultades para comprar Bitcoin en 2011, cuando el intercambio principal Mt. Gox era poco confiable y sufrió una caída que redujo el precio de Bitcoin a 0.01 dólares, Zhou perseveró. Su visión y habilidad le permitieron construir Bitcoinica, un intercambio de Bitcoin, en solo cuatro días.

    Bitcoinica no era solo otro intercambio; permitía el comercio de margen, permitiendo a los usuarios especular sobre los precios futuros con hasta 50 Bitcoins. El éxito fue casi inmediato: el volumen de transacciones alcanzó los 40 millones de dólares al mes, solo superado por Mt. Gox. Zhou Tong ganó 10.000 dólares en las primeras dos semanas, equivalentes a unos 2.000 Bitcoins.

    La Caída de Bitcoinica

    A pesar del éxito inicial, Bitcoinica enfrentó el escepticismo. Algunos usuarios dudaban de la capacidad de un adolescente para manejar un intercambio tan significativo, mientras que otros temían por la seguridad de sus inversiones. Sus preocupaciones no eran infundadas.

    En 2012, Bitcoinica fue blanco de una serie de ataques de hackers. En marzo, perdió 43.554 Bitcoins, y posteriormente en mayo y julio, perdió otros 58.000 Bitcoins en dos ataques adicionales. En total, se perdieron 101.554 Bitcoins, una cantidad que hoy equivale a aproximadamente 6.800 millones de dólares.

    El Fin de una Era

    Ante las crecientes dificultades y las presiones de los inversores, Zhou Tong vendió Bitcoinica al Wendon Group a finales de 2011. Sin embargo, los problemas de seguridad persistieron bajo la nueva administración. Los repetidos ataques y la pérdida masiva de Bitcoins llevaron a una caída dramática en la reputación de Zhou Tong, convirtiéndose en un meme viral en la comunidad Bitcoin, donde el término «Zhou Tongged» describe a aquellos que fueron robados o defraudados.

    Lecciones Aprendidas y el Legado de Zhou Tong

    El último movimiento de Zhou Tong en el espacio cripto fue retirar 1.000 Bitcoins e invertir en monedas Casascius raras, una colección que hoy vale más de 60 millones de dólares. Después de esto, Zhou dejó la industria.

    La historia de Bitcoinica sirve como un poderoso recordatorio de la importancia de la seguridad en el manejo de criptomonedas. Los hackeos a intercambios continúan siendo una amenaza, y se estima que más de 1 millón de Bitcoins se han perdido debido a estos ataques. La tercera mayor pérdida de Bitcoins, la de Bitcoinica, subraya la necesidad de utilizar carteras de hardware y medidas de seguridad como firmas múltiples.

    La saga de Zhou Tong y Bitcoinica es una mezcla de brillantez juvenil y dura realidad. Aunque Zhou Tong demostró una notable habilidad para innovar y liderar en el incipiente mundo del Bitcoin, su historia también resalta las vulnerabilidades inherentes a la tecnología y la gestión de criptomonedas. Hoy, los inversores deben aprender de estas lecciones y adoptar las mejores prácticas de seguridad para proteger sus activos digitales.

  • Vulnerabilidad crítica en Linux: desafíos para la seguridad de código abierto

    Linux
    El pingüino Tux es la mascota de Linux, un sistema operativo que nació en 1991. Wikimedia Commons

    Hace apenas un mes saltaba la noticia de la aparición de una vulnerabilidad crítica en sistemas Linux que ponía en riesgo la seguridad de millones de ordenadores en Internet.

    Nos referimos a un sistema operativo de código abierto (open source), lo que quiere decir que su código fuente está disponible de manera pública. Esto permite que cualquier persona pueda estudiar su código, modificarlo e, incluso, distribuirlo. Normalmente, nos acostumbramos a trabajar sobre una distribución (como Debian, Ubuntu, Fedora, Red Hat…), que es una especie de “adaptación” de Linux. Todas las adaptaciones comparten la misma base: el núcleo o kernel de Linux.

    Linux mag / Wikimedia Commons
    Linus Torvalds, principal autor del kernel de Linux. CC BY

    A diferencia de los sistemas operativos propietarios como Windows o macOS, donde el código fuente es un secreto guardado por las empresas que los desarrollan, Linux se basa en la colaboración y la transparencia. Esta característica fundamental ha sido tanto su mayor fortaleza como su mayor desafío en términos de seguridad.

    La transparencia del código abierto permite una auditoría constante por parte de una amplia comunidad de desarrolladores, lo que garantiza su calidad y la detección rápida de posibles vulnerabilidades.

    Sin embargo, esta misma transparencia también puede ser aprovechada por usuarios malintencionados para intentar insertar código malicioso, como ha sucedido recientemente con el kernel de Linux.

    Descubierta una puerta trasera

    El kernel de Linux, software que constituye la parte fundamental de cualquier sistema operativo, actúa como intermediario entre el hardware y el software, garantizando estabilidad, seguridad y eficiencia. Sus componentes, como el administrador de memoria y el gestor de procesos, optimizan el uso de recursos y la ejecución de aplicaciones.

    Uno de estos componentes es XZ Utils (anteriormente conocido como LZMA Utils), una colección de utilidades de compresión y descompresión de datos diseñadas para sistemas Linux, que utilizan el algoritmo de compresión XZ/LZMA.

    Un desarrollador de Microsoft, Andrés Freund, notó que los inicios de sesión eran más lentos de lo habitual: 500 ms más lentos. Estos fallos le hicieron sospechar y seguir buscando hasta encontrar el error.

    El código malicioso se encontraba en versiones beta de distribuciones Linux muy populares, como Red Hat o Debian. Aparentemente, estas versiones no se estarían utilizando en entornos de producción reales. Tras este hallazgo, tanto Red Hat como Debian emitieron comunicados de alerta sobre el peligro potencial.

    El pasado 23 de febrero, se introdujo código ofuscado en el repositorio de XZ Utils, que se comportaba como una puerta trasera (secuencia especial del código de programación mediante la cual se pueden evitar los sistemas de seguridad del algoritmo para acceder al sistema).

    Comunicado de Andres Freund en la red social Mastodon, el 29 de marzo de 2024, informando de su descubrimiento.

    Al día siguiente, en una actualización, el script de instalación se volvía malicioso al insertarse en funciones utilizadas del servicio de conexión remota SSH o Secure Shell, un protocolo cuya principal función es el acceso remoto a un servidor por medio de un canal seguro en el que toda la información está cifrada..

    El desarrollador JiaT75 fue responsable de estos cambios. Tras haber colaborado altruistamente con el proyecto XZ Utils durante varios años, aprovechó la confianza generada en la comunidad open source para realizar estas acciones sin levantar sospechas.

    Infiltrado con malas intenciones

    Si investigamos un poco sobre este usuario, podemos ver que comenzó con su perfil de GitHub el 26 de enero del 2021. Participó con otros proyectos durante más de un año antes de empezar a colaborar en el repositorio de XZ Utils. No fue hasta mayo del 2022 cuando se pueden apreciar sus primeras aportaciones.

    La identidad real de JiaT75 ha suscitado preocupantes teorías, incluida la posibilidad de que no sea un cracker aislado, sino parte de un grupo respaldado por algún gobierno.

    Este grupo habría construido cuidadosamente un perfil como desarrollador de código abierto hasta convertirse en mantenedor del proyecto XZ Utils, solo para utilizar su posición para infiltrarse en millones de máquinas a través de la puerta trasera.

    En cualquier caso, aunque no hay pruebas concluyentes que respalden esta hipótesis, la complejidad y la meticulosidad del ataque sugieren la participación de actores con recursos y conocimientos significativos en el ámbito de la ciberseguridad, el desarrollo de software y los proyectos open source. El cóctel perfecto para lograr su cometido.

    Una comunidad que colabora frente a las amenazas

    La infiltración de un desarrollador y la inserción gradual de código a lo largo del tiempo ha sorprendido a todos y ha dejado al descubierto una realidad preocupante: es la primera vez que se introduce código malicioso en Linux de esta manera.

    Esta novedad plantea distintas preguntas sobre la seguridad del ecosistema de código abierto y la forma en que se abordan los riesgos emergentes.

    Mapa conceptual del software libre.
    VARGUX / Wikimedia Commons, CC BY

    ¿Cómo se pueden prevenir estos ataques en el futuro? La respuesta requiere una evaluación detallada de los procesos de desarrollo. Se necesitan medidas más rigurosas de supervisión y validación del código para detectar vulnerabilidades antes de que afecten a los usuarios finales.

    Este incidente nos recuerda los desafíos constantes que enfrenta la seguridad de la información en la era digital. El movimiento del software libre ha transformado nuestra forma de utilizar la tecnología, en la que destaca la colaboración global y una actitud proactiva para proteger nuestras infraestructuras digitales de amenazas cada vez más sofisticadas.The Conversation

    Álvaro Núñez – Romero Casado, Docente en Máster de Seguridad Informática, UNIR – Universidad Internacional de La Rioja

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • El Poder de las Ideas: Divulgadores vs. Políticos

    El poder de las ideas: ¿moldean más la historia los políticos con leyes o los pensadores con visiones y valores?

    En el vasto panorama de la influencia política y social, surge una pregunta fundamental: ¿dónde reside el verdadero poder para moldear el curso de la historia? ¿Es en la arena política, donde los líderes toman decisiones y promulgan leyes, o en el mundo de las ideas, donde los pensadores y los difusores articulan visiones y valores que pueden cambiar la forma en que se gobierna y se vive?

    La historia nos ofrece un fascinante ejemplo de este debate en la figura de Anthony Fisher, un joven piloto de la Real Fuerza Aérea, cuya vida cambió después de leer una versión condensada del libro de Friedrich Hayek en la revista «Selecciones del Reader’s Digest» en abril de 1945. El impacto de las ideas de Hayek lo llevó a buscar al profesor en el London School of Economics, un bastión de pensamiento socialista fabiano.

    En su encuentro con Hayek, Fisher buscaba orientación sobre cómo influir en las políticas públicas y, quizás, seguir una carrera política. Sin embargo, la respuesta de Hayek fue reveladora: las grandes batallas de las ideas, afirmó, son llevadas adelante por los intelectuales, no necesariamente por los políticos.

    Esta distinción entre el papel del difusor de ideas, el académico y el político resalta una verdad fundamental sobre el poder transformador de las ideas. Mientras que los políticos pueden promulgar leyes y tomar decisiones que afectan directamente la vida de las personas, son los difusores de ideas quienes moldean el terreno sobre el cual se basan esas decisiones.

    En el caso de Hayek, sus obras influyeron en la forma en que se entendía la economía y el papel del gobierno en la sociedad. Sus críticas al intervencionismo estatal y su defensa de la libertad individual resonaron en las mentes de muchos, incluido Fisher, quien se vio inspirado a buscar formas de difundir esas ideas más ampliamente.

    Es en el mundo de las ideas donde se gestan las grandes transformaciones sociales y políticas. Los intelectuales, los escritores, los académicos y los difusores de ideas tienen el poder de cambiar la forma en que la sociedad piensa y actúa. A través de libros, ensayos, discursos y medios de comunicación, pueden sembrar las semillas de la libertad y la justicia, dando forma a la conciencia colectiva de una nación.

    Sin embargo, esto no resta importancia al papel de los políticos. Ellos son los encargados de traducir esas ideas en políticas concretas y acciones gubernamentales. Son quienes tienen el poder de implementar cambios tangibles en la sociedad. Pero su efectividad y su legitimidad dependen en gran medida del respaldo y la fuerza de las ideas que subyacen a sus decisiones.

    En última instancia, tanto los difusores de ideas como los políticos tienen un papel vital que desempeñar en la lucha por la libertad y la justicia. Cada uno aporta sus propias habilidades y perspectivas únicas. Los difusores de ideas pueden inspirar y educar, mientras que los políticos pueden legislar y liderar. Pero su éxito depende en última instancia de su capacidad para trabajar juntos en aras del bienestar de la sociedad más elevado.

    Así pues, la verdadera fuerza del cambio reside en la sinergia entre las ideas y la acción política. Cuando los difusores de ideas y los políticos se unen en la defensa de principios como la libertad, la justicia y la igualdad ante la ley, pueden desencadenar transformaciones profundas y duraderas en la sociedad. En este sentido, el poder de las ideas y el poder político son dos caras de la misma moneda, cada una indispensable para la realización de un mundo más justo y libre.

  • ¿Por qué los algoritmos se llaman algoritmos?

    Los algoritmos se han convertido en parte integral de nuestras vidas. Desde las aplicaciones de redes sociales hasta Netflix, son programas que aprenden tus preferencias y priorizan el contenido que se te muestra. Google Maps y la inteligencia artificial no son nada sin ellos.

    Pero ¿de dónde viene la palabra? Más de 1 000 años antes de internet y las aplicaciones para teléfonos inteligentes, el científico y polímata persa Muhammad ibn Mūsā al-Khwārizmī inventó el concepto de algoritmo.

    De hecho, la propia palabra proviene de la versión latinizada de su nombre, algorithmi. Y, como se puede sospechar, también está relacionado con el álgebra.

    Perdido en el tiempo

    Al-Khwārizmī vivió entre los años 780 y 850, durante la Edad de Oro Islámica. Se le considera el “padre del álgebra” y, para algunos, el “abuelo de la informática”.

    Sin embargo, se conocen pocos detalles sobre su vida. Muchas de sus obras originales en árabe se han perdido en el tiempo.

    Se cree que nació en la región de Jorasmia, al sur del mar de Aral, en la actual Uzbekistán. Vivió durante el Califato abasí, una época de notable progreso científico en el Imperio islámico.

    Sabemos que realizó importantes contribuciones a las matemáticas, la geografía, la astronomía y la trigonometría. Corrigió el clásico libro de cartografía de Ptolomeo, Geografía, para que el mapa del mundo fuera más preciso.

    También hizo cálculos para seguir el movimiento del Sol, la Luna y los planetas. Además, escribió sobre funciones trigonométricas y elaboró la primera tabla de tangentes.

    Eruditos en una biblioteca abasí. Maqamat de al-Hariri, ilustración de Yahya al-Wasiti, 1237.
    Zereshk / Wikimedia Commons, CC BY

    Por todas sus cualidades, Al-Khwārizmī ejerció como erudito en la Casa de la Sabiduría (Bayt al-Hikmah) de Bagdad. En este centro intelectual, los eruditos traducían al árabe conocimientos de todo el mundo y los sintetizaban para lograr avances significativos en diversas disciplinas.

    Un matemático devoto

    Primera página del Compendio de cálculo por reintegración y comparación.
    Al-Khwarizmi / Wikimedia Commons, CC BY
    Página escaneada de un libro que muestra texto en árabe con diagramas geométricos sencillos.
    Página del libro Compendio de cálculo por reintegración y comparación.
    World Digital Library

    Al-Khwārizmī era un hombre religioso. Sus escritos científicos comenzaban con dedicatorias a Alá y al profeta Mahoma. Y uno de los principales proyectos que emprendieron en la Casa de la Sabiduría fue desarrollar el álgebra.

    Las matemáticas eran, en general, un campo profundamente relacionado con el Islam.

    Alrededor del año 830, el califa Al-Mamún animó a Al-Jwārizmī a escribir un tratado sobre álgebra, Al-Jabr (o Compendio de cálculo por reintegración y comparación), que se convertiría en su obra más importante.

    A estas alturas, el álgebra ya existía desde hacía cientos de años, pero Al-Khwārizmī fue el primero en escribir un libro definitivo sobre ella. Pretendía ser una herramienta de enseñanza práctica y su traducción latina fue la base de los manuales de álgebra de las universidades europeas hasta el siglo XVI.

    Padre del álgebra

    En la primera parte del libro, introduce los conceptos y las reglas de esta materia, así como los métodos para calcular los volúmenes y las áreas de las figuras. En la segunda, plantea problemas de la vida real y elabora soluciones, como casos de herencia, la partición de tierras y cálculos para el comercio.

    Al-Khwārizmī no utilizaba la notación matemática moderna con números y símbolos. En su lugar, escribía en prosa sencilla y empleaba diagramas geométricos:

    Cuatro raíces son iguales a veinte, entonces una raíz es igual a cinco, y el cuadrado que se forma de ella es veinticinco, o la mitad de la raíz es igual a diez.

    En notación moderna lo escribiríamos así:

    4x = 20, x = 5, x2 = 25, x / 2 = 10

    Abuelo de la informática

    Los escritos matemáticos de Al-Khwārizmī introdujeron los números hindúes-árabes a los matemáticos occidentales: 1, 2, 3, 4, 5, 6, 7, 8, 9, 0.

    Estos símbolos son importantes para la historia de la informática porque utilizan el número cero y un sistema decimal de base diez, el sistema numérico en el que se basa la tecnología informática moderna.

    Además, el arte de Al-Khwārizmī para calcular problemas matemáticos sentó las bases del concepto de algoritmo.

    Proporcionó las primeras explicaciones detalladas sobre el uso de la notación decimal para realizar las cuatro operaciones básicas (suma, resta, multiplicación, división) y el cálculo de fracciones.

    los algoritmos
    Ilustración medieval que muestra a una persona utilizando un ábaco por un lado y manipulando símbolos por el otro.
    El contraste entre los cálculos algorítmicos y los cálculos con ábaco, como se muestra en Margarita Philosophica (1517).
    The Bavarian State Library

    Se trataba de un método de cálculo más eficaz que el ábaco. Para resolver una ecuación matemática, recorría sistemáticamente una secuencia de pasos hasta hallar la respuesta. Este es el concepto subyacente de un algoritmo.

    Algoritmo, término latino medieval que debe su nombre a al-Khwārizmī, se refiere a las reglas para realizar operaciones aritméticas utilizando el sistema numérico hindú-árabe. Traducido al latín, el libro de al-Khwārizmī sobre los números hindúes se titulaba Algorithmi de Numero Indorum.

    A principios del siglo XX, la palabra adquirió su definición y uso actuales: “Conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”.

    Así que la próxima vez que utilicemos cualquier tecnología digital –desde las redes sociales hasta la cuenta bancaria en línea o la aplicación de Spotify–, ya sabemos que nada de esto sería posible sin el trabajo pionero de un antiguo polímata persa.The Conversation

    Debbie Passey, Digital Health Research Fellow, The University of Melbourne

    Este artículo fue publicado originalmente en The Conversation. Lea el original.