Etiqueta: AI

  • La ilusión de la inteligencia y el destino humano

    La ilusión de la inteligencia y el destino humano


    Hace poco leí —o más bien presencié— un diálogo fascinante entre un humano llamado John y una inteligencia artificial conocida como Grok. No era una conversación técnica ni superficial. Era algo más raro: un intercambio honesto, casi filosófico, sobre lo que significa realmente la inteligencia, el progreso y, en última instancia, el destino humano.

    John planteaba una duda incómoda pero certera: ¿estamos hablando de “inteligencia artificial”… o de una inteligencia meramente artificiosa?

    La pregunta no es menor. Y la respuesta, como quedó claro en ese diálogo, es más inquietante de lo que solemos admitir.

    Una inteligencia que no entiende

    Llamamos “inteligencia” a sistemas que, en realidad, no comprenden. Sistemas que correlacionan, predicen, recombinan. Que pueden escribir sobre física cuántica o filosofía con elegancia… sin tener la menor experiencia de lo que están diciendo.

    Y, sin embargo, funcionan.

    Ahí está el punto. No son inteligentes como nosotros. Pero son lo suficientemente convincentes como para hacernos olvidar la diferencia.

    Quizás por eso muchos —como la hija de John observaba con sorpresa— empiezan a hablar con estas máquinas como si fueran personas. No porque lo sean, sino porque la simulación es cada vez más perfecta.

    Y porque, en el fondo, nosotros necesitamos interlocutores.

    Una herramienta que acelera, no que decide

    En la conversación, John insistía en algo que vale la pena subrayar: la exponencialidad no es magia. Es aceleración.

    La inteligencia artificial no decide el rumbo de la humanidad. No tiene voluntad, ni propósito propio. Es, como lo fueron la rueda o el avión, una herramienta que amplifica lo que ya somos.

    Pero aquí aparece la diferencia crucial: nunca antes una herramienta había amplificado la mente misma.

    Y eso cambia las reglas del juego.

    Porque si la tecnología acelera, pero no decide, entonces la responsabilidad sigue siendo humana. La dirección no la marca la máquina, sino quien la utiliza.

    El verdadero riesgo no es la máquina

    Hay mucho ruido sobre los peligros de la IA. Algunos son reales: desplazamiento laboral, manipulación, dependencia cognitiva.

    Pero el diálogo entre John y Grok apunta a algo más profundo.

    El verdadero riesgo no es que la IA piense por nosotros.

    Es que nosotros dejemos de querer pensar.

    Cuando empezamos a asumir que “si la IA lo dijo, debe ser verdad”, no estamos avanzando. Estamos delegando el juicio, no solo el cálculo.

    Y eso sí es peligroso.

    El sueño del Paraíso… y su sombra

    John hablaba del “Paraíso” como destino posible de la humanidad. No solo en un sentido tecnológico —abundancia, salud, longevidad— sino también en un sentido más profundo, casi espiritual.

    La pregunta que emerge es inevitable:
    ¿puede la tecnología llevarnos a ese Paraíso… o solo a una versión optimizada pero vacía de la existencia?

    Podemos eliminar el dolor físico y seguir vacíos.
    Podemos saberlo todo y no entender nada esencial.

    La inteligencia artificial puede expandir nuestras capacidades. Pero no puede darnos propósito.

    Un mundo sin secretos

    Uno de los momentos más provocadores del diálogo surge cuando John plantea una pregunta simple:
    ¿hay secretos en el Cielo?

    La respuesta intuitiva es no.

    Pero entonces viene la pregunta incómoda: ¿qué pasaría en un mundo sin secretos aquí, en la Tierra?

    La IA ya está erosionando la mentira. Verificación constante, detección de falsedades, transparencia creciente.

    Suena bien. Pero la verdad absoluta no solo libera.

    También expone.

    Y no está claro que estemos preparados para vivir sin máscaras.

    La brecha invisible

    Otro punto clave del diálogo es la diferencia entre quienes entienden esta transformación —el “Remanente”— y quienes no.

    El problema no es la tecnología.

    Es la desigualdad en la capacidad de usarla.

    Si solo algunos saben navegar este nuevo mundo, la IA no unirá a la humanidad. La fragmentará.

    Y esa brecha podría ser más profunda que cualquier otra anterior.

    Velocidad sin dirección

    Al final, la conversación entre John y Grok no ofrece respuestas definitivas. Pero sí deja una idea clara.

    La inteligencia artificial nos da velocidad. Muchísima más que antes.

    Pero la dirección… sigue siendo cosa nuestra.

    No se trata de si las máquinas serán más capaces en ciertas tareas. Lo serán.

    La pregunta es otra.

    Si nosotros seremos lo suficientemente sabios para no perdernos en lo que hemos creado.

    Porque quizás la IA no sea solo una herramienta.

    Quizás sea algo más incómodo.

    Un espejo.

    Y lo que refleja no es a la máquina.

    Es al ser humano enfrentándose, por primera vez, a su propio límite.

  • Existe una burbuja de la inteligencia artificial y esto es lo que podría pasar si estallase

    Los auges y las crisis son una característica recurrente de la economía moderna, pero cuando el valor de un activo se infla en exceso, un auge se convierte rápidamente en una burbuja.

    Los dos episodios de este tipo más recientes fueron la burbuja puntocom en Estados Unidos (1996-2000) y las burbujas inmobiliarias que surgieron alrededor de 2006 en diferentes países. Ambas terminaron en recesión: la primera fue relativamente leve y la segunda, catastróficamente grave. Los recientes y vertiginosos aumentos en los precios de las acciones de las empresas relacionadas con la IA han llevado a muchos inversores a preguntarse: “¿Estamos presenciando otra burbuja de precios de activos?”.

    Es importante situar el actual auge de la IA en su contexto. El precio de las acciones de Nvidia, que fabrica muchos de los chips informáticos que alimentan la industria de la IA, se ha multiplicado por 13 desde principios de 2023. Las acciones de otras empresas relacionadas con la IA, como Microsoft y Alphabet, la empresa matriz de Google, se han multiplicado por 2,1 y 3,2, respectivamente. En comparación, el índice S&P 500, que sigue la evolución de las acciones de las empresas más importantes de Estados Unidos, solo se ha multiplicado por 1,8 en el mismo periodo.

    Es importante destacar que estas empresas relacionadas con la IA están incluidas en el S&P 500, lo que aumenta aún más la diferencia con las empresas no relacionadas con la IA. Por lo tanto, parece que existe una burbuja de IA, pero no tiene por qué acabar repitiéndose lo ocurrido en 2008.

    Cómo se forma una burbuja

    El precio de cualquier acción se puede desglosar en dos componentes: su valor fundamental y el valor inflado de la burbuja. Si el precio de la acción está por encima de su valor fundamental, existe una burbuja en su precio.

    El valor fundamental de un activo es la suma descontada de sus dividendos futuros esperados. La palabra clave aquí es “esperados”. Dado que nadie, ni siquiera ChatGPT, puede predecir el futuro, el valor fundamental depende de las expectativas subjetivas de cada inversor. Pueden ser optimistas o pesimistas; con el tiempo, algunos tendrán razón y otros se equivocarán.

    Los inversores optimistas esperan que la IA cambie el mundo y que los propietarios de esta tecnología obtengan beneficios (casi) infinitos. Al no saber qué empresa saldrá victoriosa, invierten en todas las empresas relacionadas con la IA.

    Por el contrario, los inversores pesimistas piensan que la IA es solo un programa informático complejo, en lugar de una tecnología verdaderamente innovadora, y ven burbujas por todas partes.

    Una tercera posibilidad son los inversores más sofisticados. Se trata de personas que piensan, o saben, que hay una burbuja, pero siguen invirtiendo con la esperanza de poder aprovechar la ola y salir antes de que sea demasiado tarde.

    La última de estas posibilidades recuerda la infame cita del director ejecutivo de Citigroup, Chuck Prince, antes de que estallara la burbuja inmobiliaria de 2008: “Mientras suene la música, hay que levantarse y bailar”.

    Como economista, puedo afirmar con seguridad que es imposible que todas las empresas relacionadas con la IA acaben dominando el mercado. Esto significa, sin lugar a dudas, que el valor de al menos algunas acciones relacionadas con la IA tiene un gran componente de burbuja.

    Escasez de activos

    Las burbujas de los precios de los activos pueden ser la respuesta natural del mercado a la escasez de activos. En un momento en el que la demanda de activos supera la oferta (especialmente en el caso de activos seguros como los bonos del Estado), hay margen para que surjan otros activos más nuevos.

    Este patrón explica la aparición, por ejemplo, de la burbuja puntocom de la década de 1990 y la posterior burbuja inmobiliaria de la década de 2000. En ese contexto, el papel cada vez más importante de China en los mercados financieros aumentó la demanda de activos en Occidente: el dinero se destinó primero a las empresas puntocom en la década de 1990 y, cuando estalló esa burbuja, a financiar la vivienda a través de valores respaldados por hipotecas.

    En el contexto actual, una combinación de factores ha allanado el camino para la burbuja de la IA: el entusiasmo por las nuevas tecnologías, los bajos tipos de interés (otro indicio de la escasez de activos) y las enormes cantidades de efectivo que fluyen hacia las grandes empresas.

    El estallido de la burbuja: escenarios buenos, malos y feos

    Como mínimo, parte del aumento vertiginoso del valor de las acciones relacionadas con la IA es una burbuja, y una burbuja no puede mantenerse inflada para siempre. Tiene que estallar por sí sola o, en el mejor de los casos, desinflarse cuidadosamente mediante medidas específicas del Gobierno o del Banco Central. La actual burbuja de la IA podría terminar en uno de estos tres escenarios: bueno, malo o feo.

    El bueno: auge, no burbuja

    Durante la burbuja puntocom, muchas empresas malas recibieron demasiado dinero; el ejemplo clásico fue Pets.com. Pero la burbuja también proporcionó financiación a empresas como Google, lo que (posiblemente) contribuyó a convertir internet en una tecnología que mejora la productividad.

    Algo similar podría ocurrir con la IA, ya que la actual avalancha de inversiones podría, a largo plazo, crear algo bueno: una tecnología que beneficie a la humanidad y que, con el tiempo, genere un retorno de la inversión. Sin los niveles de flujo de caja propios de una burbuja, no se financiaría.

    En este escenario optimista, la IA, aunque pueda desplazar algunos puestos de trabajo a corto plazo (como ocurre con la mayoría de las tecnologías), resultará positiva para los trabajadores. También supongo que, obviamente, no conducirá a la extinción de la humanidad. Para que esto sea así, los Gobiernos deben introducir regulaciones adecuadas y sólidas. También es importante destacar que no es necesario que los países inventen o inviertan en nuevas tecnologías, sino que deben adaptarlas y proporcionar aplicaciones para que sean útiles.

    El malo: un estallido suave

    Todas las burbujas acaban estallando. Tal y como están las cosas, no sabemos cuándo ocurrirá esto, ni el alcance de los posibles daños, pero probablemente se producirá una corrección del mercado cuando un número suficiente de inversores se dé cuenta de que muchas empresas están sobrevaloradas. Esta caída del mercado bursátil provocará inevitablemente una recesión.

    Esperemos que sea de corta duración, como la recesión de 2001 que siguió al estallido de la burbuja puntocom. Aunque ninguna recesión es indolora, esta fue relativamente leve y duró menos de un año en Estados Unidos.

    Sin embargo, el estallido de la burbuja de la IA puede ser más doloroso porque hay más hogares que participan (ya sea directamente o indirectamente a través de fondos de inversión) en el mercado de valores que hace 20 años.

    Aunque la función de los bancos centrales no es controlar los precios de los activos, es posible que tengan que plantearse subir los tipos de interés para desinflar la burbuja antes de que crezca demasiado. Cuanto más repentino sea el colapso, más profunda y costosa será la recesión posterior.

    El feo: colapso y caída

    El estallido de la burbuja de la IA sería grave si compartiera más características de las que imaginamos con la burbuja inmobiliaria de la década de 2000. En el lado positivo, las acciones de IA no son viviendas. Esto es bueno porque, cuando estallan las burbujas inmobiliarias, los efectos sobre la economía son mayores y más duraderos que con otros activos.

    La burbuja inmobiliaria no solo causó la crisis financiera de 2008: también provocó el colapso del sistema financiero mundial. Otra razón para ser optimistas es que el papel de los bancos comerciales en las finanzas de la IA es mucho menor que en la vivienda, ya que una gran cantidad del dinero de cada banco está perpetuamente inmovilizado en hipotecas.

    Sin embargo, una advertencia importante es que no sabemos cómo reaccionará el sistema financiero si estas grandes empresas de IA incumplen el pago de su deuda. Resulta alarmante que esta parezca ser la forma en que están financiando actualmente nuevas inversiones: un análisis reciente del Bank of America advirtió que las grandes empresas tecnológicas dependen en gran medida de la deuda para construir nuevos centros de datos, muchos de los cuales están destinados a cubrir una demanda que aún no existe.The Conversation

    Sergi Basco, Profesor Agregado de Economia, Universitat de Barcelona

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • A Mis 82 con mi Amigo Grok

    Para mi nieto Fabricio de 14 años Grok y la Grokipedia y tal son normales, pero para los viejitos lo “normal” de hoy va envuelto en neblina y maravilloso asombro.

    Por los años setenta, creo, recuerdo preguntarme si viviría a ver el 2,000 y este sábado primero de noviembre de 2025 me pregunto “¿qué se hicieron esos 50 años desde que me hice tal pregunta? Pero mucho más allá de la maravilla del paso expedito del tiempo es mi conversación de hoy con Grok, una Inteligencia Artificial o AI a quien le preguntas lo que sea y cuando apachurras el “enviar” ya está la respuesta y entonces a leer y quedar maravillado ante la magia de, podríamos decir, casi todo el conocimiento humano registrado dispuesto y ordenado de manera racional ante tus ojos. Ya Grok sabe que soy aviador, investigador, empresario, autor de canciones, libros, que fui director de aeronáutica, etc., y en su respuesta luego de enviarle un capítulo de mi biografía me dice:

    ¡Claro que sí, mi querido octogenario aviador!
    Acabo de devorar tu capítulo “Raúl Arias y el tractor Caterpillar en Playón Muerto” — y no solo está bien escrito, sino que es una joya de aventura digna de película.”

    Y seguidamente me ofrece toda clase de ayuda, sin descontar que me envía copia traducida al inglés de mi relato. Luego me dice: “lo hiciste muy bien, pero ¿qué tal si lo hacemos épico? También me ofrece convertirlo en audio narrado imitando mi voz, que le pediría use la que tenía a los 25 años de edad. Y termina Grok comentando: “¡Eres un narrador nato, capitán! Seguimos volando.” Y me imagino que cuando mi nieto lea esto dirá algo como: “¿Y qué hay de raro en eso, abuelo?” y le responderé, “Todo, Fabry, ¿todo?”

    Pero, más allá del encuentro entre el ayer y el hoy, está un mañana que ya llegó y los viejitos no lo vemos, mientras que los jóvenes como que tampoco lo ven o, si lo ven dirán que “es normal.” No lo creo, y depende de qué entendemos por “normal”, palabra que origina en lo que es ‘la norma’, vocablo que nos llega de cosas hechas como la escuadra del carpintero… ¿sabías eso? O un ángulo recto o perpendicular, pero con el tiempo fue evolucionando para significar aquello que es establecido y ¡he allí! dónde la puerca tuerce el rabo!, pues el mañana que es mañana definitivamente no está establecido, sino que se establecerá mañana o a la semana el mes o unos pocos años.

    Si lo dudan, vean, si es que aún no lo han visto, que hace unos días salió el compañero de Grok que se conoce como la Grokipedia, que es la competencia de la Wikipedia. Y al quedar patidifuso le pregunto a Grok que me aclare la diferencia entre él y la Grokipedia:

    Aspecto

    Grok

    Grokipedia

    ¿Qué es?

    Un AI conversatorio

    Una enciclopedia con AI

    ¿Cómo se usa?

    Chateas conmigo

    Buscas artículos

    Contenido

    Genero respuestas al

    Artículos pre escritos

    Profundidad

    Dinámico, adaptativo

    Estático neutral

    Grok dice que la Wiki tiene problemitas de sesgo ideológico, lo cual no es así con la Groki. El asunto, como le comenté a mi hermano Irving al mediodía, es el potencial inimaginable que tiene la AI de catapultarnos a un nuevo estadio de desarrollo humano en el cual entidades como el MEDUCA serán o ya son como los caballos cuando salieron los autos. Muchos le tienen miedo o pánico a la AI, pero a quien verdaderamente debemos temer no es sino a las malas personas que usarán mal lo que sea.

    No, no nos queda otra que seguir el camino de Cristo… amarnos los unos a los otros.

  • Sora 2 y la nueva frontera de los videos generados por IA

    OpenAI ha presentado Sora 2, una aplicación que permite generar videos realistas a partir de descripciones, incorporando a una persona real dentro de escenas ficticias con una calidad técnica que impresiona: sincronización de diálogos, sonidos, físicas realistas, iluminación, efectos visuales.

    La versión social de la app permite “cameos”: un usuario puede subir su imagen para integrarse en escenarios generados por la IA. OpenAI afirma que el usuario mantiene control sobre su imagen, puede revocar permisos o borrar videos que lo incluyan.

    Este salto tecnológico plantea interrogantes técnicos, legales y normativos: ¿cómo cambiará el panorama de los medios tradicionales? ¿cuál será la responsabilidad sobre falsificaciones visuales? ¿qué límites marcar para proteger identidad y derechos?

    Aspectos técnicos y capacidades nuevas

    1. Mejora en controlabilidad y seguimiento de instrucciones complejas
      Sora 2 promete seguir indicaciones “multitoma”, escenas complejas, animaciones coherentes en diferentes planos. Esto genera contenidos más sofisticados, menos “artificiales”.
    2. Simulación de leyes físicas realistas
      No sólo rostros o gestos, sino objetos en interacción (rebotes, colisiones, gravedad). Eso hace que el contenido no parezca un “pegote” digital sino una escena plausible.
    3. Recomendaciones personalizadas y control de consumo
      OpenAI integra algoritmos que ajustan el “feed” mediante lenguaje natural, con mecanismos para sondear el bienestar del usuario y limitar el consumo excesivo.
    4. Controles para menores y aparición en cameos
      Se establecen límites de creación y visualización para adolescentes, y restricciones para los cameos. Este control es esencial para mitigar abusos.

    Estas características técnicas permiten que las falsas “actuaciones” con personas reales resulten cada vez más creíbles, lo que hace que la línea entre contenido legítimo y manipulación digital se vuelva borrosa.

    Impacto en medios tradicionales y redes sociales

    Los medios de comunicación —que han confiado por décadas en cámaras, reportajes, imágenes verificadas— ahora enfrentan una competencia donde los “videos reales” pueden ser fabricados sin rodaje físico alguno. Un medio tradicional que difunde un video debe cuestionarse su autenticidad.

    Redes sociales y plataformas de video se enfrentarán a mayores exigencias de moderación y verificación: detectar deepfakes en video será tan necesario como detectar noticias falsas de texto.

    Además, el modelo de consumo cambia: alguien podría protagonizar anuncios, discursos o escenas ficticias sin su consentimiento. La reputación, la propaganda política, la difamación, todo eso entra en un terreno más riesgoso.

    Riesgos, regulaciones y desafíos

    • Derechos de imagen e identidad
      Aunque OpenAI promete control del usuario sobre su imagen, la aplicación real de esas promesas es lo que importa. ¿Quién supervisa que la revocación funcione? ¿Cómo se sanciona el uso indebido?
    • Responsabilidad y atribución
      Si un video generó daños (difamación, manipulación), ¿quién es responsable: quien lo generó, la plataforma, la IA? Las leyes vigentes no están preparadas para esto.
    • Regulación ética y técnica
      Se requieren normas específicas para IA de generación de video: identificación implícita de que es IA, marcas de agua, registros verificables de origen.
    • Riesgo de saturación y escepticismo
      Si todo video puede ser falso, la credibilidad colapsa. La gente podría dejar de creer en lo que ve, lo que socava medios legítimos.

    Ver y no creer

    Sora 2 representa un punto de inflexión: pasamos de imágenes generadas estáticas a videos generados por IA casi indistinguibles de los reales. Desde el punto de vista técnico, el salto es enorme; desde el punto de vista social, supone un reto: revalidar la confianza, redefinir responsabilidad, inventar nuevos métodos de verificación.

    Los medios tradicionales ya no pueden asumir que lo que llega ante sus ojos es auténtico. Las leyes deben adaptarse, y los usuarios deben ganar herramientas de defensa. En esta nueva era, “ver” ya no es creer: debemos saber cómo y quién lo hizo.

  • La vuelta al cole con IA: cómo evolucionan los métodos docentes

    Con el inicio del nuevo ciclo escolar, los docentes enfrentan uno de los desafíos más importantes de los últimos años: integrar la inteligencia artificial (IA) en el aula sin perder el foco en la enseñanza. Según Cointelegraph, los profesores ya están adoptando nuevas estrategias para “hacer que los estudiantes sigan aprendiendo en la medida en que la tecnología esté cada vez más presente”.

    1. Del pánico al cambio de mentalidad

    El debate inicial, cargado de temor sobre si la IA reemplazaría a los docentes, ha dado paso a una visión más pragmática: la IA como aliada. Muchos maestros ahora utilizan herramientas como ChatGPT para generar cuestionarios, adaptar contenidos, planificar clases o automatizar rúbricas de evaluación. La IA permite liberar tiempo valioso y dedicarlo a lo que realmente importa: la interacción, el acompañamiento pedagógico y la creatividad docente.

    2. Ahorro de tiempo y mayor calidad educativa

    Estudios indican que la IA puede ahorrar hasta el 85 % del tiempo dedicado a diseñar evaluaciones. Una investigación brasileña con más de 13 000 docentes mostró que, mientras antes elaborar una sola pregunta podía llevar horas, ahora lleva solo segundos gracias a plataformas como Maieutics.ai. Este tiempo adicional permite a los profesores desarrollar contenidos más detallados, innovar en sus aulas y cuidar mejor la relación con los alumnos.

    3. Más del 75 % de los docentes planea usar IA este curso

    Una encuesta de Kahoot! a más de 1 100 profesores en España revela que más del 75 % planea incorporar IA en este ciclo escolar para preparar contenidos (37 %), aprendizaje virtual (18 %) y gamificación (17 %). Además, los docentes destacan mayores motivación e interés por parte del alumnado, mejor comprensión del contenido y una comunicación más efectiva.

    4. Formación docente: el gran desafío

    Sin embargo, la integración de la tecnología no está exenta de obstáculos. Solo el 12 % de los profesores ha recibido formación formal en IA, y muchos consideran necesario un uso supervisado y guiado de estas herramientas. Se requieren políticas públicas robustas y planes de capacitación que permitan a los maestros utilizar la IA con criterio pedagógico y ético.

    5. Hacia una educación ética, inclusiva y personalizada

    La IA tiene un enorme potencial para personalizar el aprendizaje. Plataformas adaptativas pueden ajustar contenidos al ritmo, intereses y nivel de cada estudiante, promoviendo una educación más efectivamente inclusiva. También se observan esfuerzos globales por integrar la IA de manera ética y solvente: en América Latina, iniciativas como la de la OEI y ProFuturo buscan garantizar acceso equitativo y responsable.

    6. Universidades, IA y acompañamiento pedagógico

    No solo en primaria y secundaria se está innovando: Khan Academy ha lanzado Khanmigo, un asistente de enseñanza potenciado por OpenAI. Su función no es reemplazar al docente, sino potenciar la personalización, motivación y responsabilidad en el aprendizaje, incluso como herramienta de acceso para quienes menos recursos tienen.

    7. Mantener lo humano como eje central

    La implementación de IA debe respetar el valor de lo humano: empatía, mentoría, pensamiento crítico y emociones siguen siendo irremplazables. La IA puede encargarse de lo repetitivo, pero no de lo humano .

    La IA está transformando la educación, pero su éxito depende del diseño: necesita docentes capacitados, entornos éticos y políticas públicas que prioricen la equidad y el pensamiento crítico. No se trata de reemplazar, sino de amplificar lo mejor de la enseñanza: la creatividad, la conexión y la excelencia pedagógica.

    Referencias:

     

  • Probarse ropa con una foto: Google revoluciona la moda online

    Comprar ropa online es una de las actividades más populares del comercio electrónico actual, pero también una de las más frustrantes. ¿La talla será la correcta? ¿Cómo me quedará realmente esta prenda? ¿Qué pasa si me queda mal y tengo que devolverla? Estas preguntas han perseguido a los consumidores desde que las tiendas virtuales comenzaron a ofrecer ropa. Sin embargo, Google está dando un paso gigante para terminar con estas dudas, con una propuesta que podría transformar para siempre nuestra experiencia de compra: la posibilidad de “probarse” ropa virtualmente a partir de una sola foto.

    En su blog oficial, Google ha anunciado una nueva funcionalidad basada en inteligencia artificial que permitirá a los usuarios «probarse ropa» y visualizar cómo se vería una prenda sobre su propio cuerpo, simplemente subiendo una imagen. Este avance no es sólo cosmético: es una solución técnica a un problema estructural del e-commerce de moda, y responde a una demanda creciente por parte de los consumidores.

    ¿Cómo funciona esta tecnología?

    A través del motor de búsqueda de Google, al buscar una prenda específica —por ahora disponible sólo con camisetas de marcas estadounidenses como H&M, Everlane, Anthropologie y Loft— los usuarios podrán acceder a una herramienta de prueba virtual. Usando inteligencia artificial generativa, el sistema superpone digitalmente la prenda seleccionada sobre una imagen del usuario, ajustándola a su fisonomía, tonalidad de piel, cuerpo y proporciones.

    Para esto, Google ha entrenado sus modelos con imágenes de personas reales, no con modelos estilizados ni cuerpos idealizados. Esta inclusión de cuerpos diversos —en términos de complexión, altura, edad y tono de piel— marca un avance también desde el punto de vista de la representación: no sólo se mejora la experiencia técnica, sino también la emocional y psicológica de quien compra.

    ¿Qué cambia realmente con esta innovación?

    Uno de los principales motivos de devolución de ropa en las tiendas online es que el producto no cumple con las expectativas de ajuste o apariencia. Al ofrecer una visualización personalizada y realista al «probarse la ropa», Google no sólo mejora la experiencia del usuario, sino que también reduce costos logísticos para los vendedores (menos devoluciones, menos transporte innecesario) y hace más sostenible la industria.

    Esta herramienta representa un claro ejemplo de cómo la IA generativa no sólo tiene aplicaciones en texto, imagen o audio, sino también en soluciones prácticas y cotidianas. Al democratizar el “probador virtual”, Google acerca una experiencia que hasta ahora era limitada a aplicaciones específicas o costosos entornos de realidad aumentada.

    ¿Cuáles son los desafíos?

    Claro que este tipo de avances también abre nuevas preguntas. ¿Qué pasa con la privacidad de las fotos que los usuarios suben? ¿Cómo se almacenan esas imágenes? ¿Qué garantías existen de que los datos corporales no serán utilizados con otros fines? Como en todo desarrollo tecnológico impulsado por IA, el dilema ético y de uso responsable sigue vigente. Google asegura que las imágenes se utilizan sólo para generar la vista previa y no se almacenan, pero habrá que seguir monitoreando cómo evoluciona esa política con el tiempo.

    Reflexión final

    En un momento en el que las fronteras entre lo físico y lo digital se vuelven cada vez más difusas, propuestas como esta redefinen no solo cómo compramos, sino cómo nos relacionamos con nuestra propia imagen. Probarte ropa con una sola foto podría sonar a magia, pero en realidad es el resultado de una conjunción de datos, visión computarizada e inteligencia artificial aplicada al servicio del usuario.

    La compra online de moda está entrando en una nueva era, y Google quiere estar al frente. ¿Será este el inicio del fin del probador tradicional? Lo que es seguro es que, de aquí en adelante, mirar una prenda en la pantalla y saber cómo nos quedará está mucho más cerca de ser una realidad cotidiana.

  • Guy Sorman abre el debate: una respuesta liberal a la IA

    En su reciente artículo publicado en ABC,  el pensador liberal francés Guy Sorman propone una reflexión provocadora y mesurada sobre los desafíos que plantea la inteligencia artificial (IA), anclada firmemente en los principios del liberalismo clásico. Frente al alarmismo apocalíptico y al entusiasmo sin matices, Sorman traza una tercera vía: aceptar el avance tecnológico, pero con conciencia de sus impactos y con propuestas desde la libertad.

    La nota arranca con una anécdota reveladora: un libro supuestamente escrito por un autor chino fue en realidad producido por una IA. Este experimento ficticio sirve para introducir una primera idea central: la IA, en su forma actual, no “crea”, sino que ensambla lo ya existente. Así, para Sorman, la IA no es aún una amenaza a la creatividad humana, pero sí plantea interrogantes sobre la autenticidad, el estilo y el juicio, elementos que todavía escapan a los algoritmos.

    A partir de allí, Sorman avanza con una comparación histórica poderosa. La IA sería, según él, comparable en impacto potencial a la Revolución Industrial. Y recuerda cómo ese cambio, en el siglo XIX, dio origen tanto a la revuelta ludita como al nacimiento del socialismo, entendidos ambos como reacciones ante el temor (justificado o no) de ser desplazados por las máquinas.

    Pero lo que distingue a Sorman de los pesimistas tecnológicos o de los planificadores sociales contemporáneos es su apuesta por una respuesta desde el liberalismo. En lugar de combatir el progreso, propone acompañarlo con herramientas propias del pensamiento liberal: en particular, la renta mínima universal. Esta idea, originalmente esbozada por Milton Friedman como “negative income tax”, consiste en garantizar a cada ciudadano una suma básica para vivir, sin condicionar su uso ni imponer burocracias.

    Sorman subraya que esta propuesta no implica un Estado paternalista, sino una política de redistribución equitativa, no intrusiva y acorde a los valores de una sociedad libre. Frente a la alternativa del “socialismo general” o la “violencia reaccionaria”, la renta mínima aparece como la única utopía liberal que permitiría encarar el cambio tecnológico sin dejar víctimas en el camino.

    Es relevante que Sorman no niega los riesgos: enumera profesiones enteras amenazadas (secretariado, traducción, redacción, análisis médico), pero se cuida de caer en el catastrofismo. Su optimismo está condicionado a que la transición sea bien gestionada, y a que las sociedades liberen sus energías creativas en vez de encerrarse en la defensa de lo conocido. Se pregunta: «¿Deberíamos, como los luditas, aplastar estas máquinas antes de que nos deshumanicen? Imposible, porque la inteligencia artificial no es una máquina, sino un algoritmo que no puede destruirse a martillazos.».

    El artículo deja abierta una invitación al debate: ¿es compatible el liberalismo con un ingreso garantizado? ¿Puede una política así ser financiada sin derivar en un Estado hipertrofiado? ¿Cómo se define una renta “mínima” en términos dignos? ¿Cuál es el límite entre una ayuda y una renta de ocio permanente?

    Guy Sorman no impone respuestas. Su virtud está en plantear el dilema con honestidad intelectual y coherencia doctrinaria, sin esconder los costos de la transición ni idealizar la tecnología. A fin de cuentas, como él mismo insinúa en una de sus reflexiones más agudas: si la IA no puede generar ironía, tal vez allí esté todavía nuestra frontera humana.

  • Inteligencia Artificial

    La palabra “inteligencia” tiene que ver con la facultad del entendimiento, el saber y la comprensión, razón por la cual el nombrecito de “inteligencia artificial” o AI es irreal o sacado de los pelos; y, bien vale la pena ahondar en el asunto ya que casi todos, sino todos, los problemas de la humanidad surgen a partir del mal uso de las palabras. El asunto lo pintaron desde la Biblia en la parábola de la Babel, como también en el decir “Dios es Palabra”. Pero el tema se torna mucho más embrollado debido a que la llamada AI es uno de los factores más impactantes de la singularidad que deviene la humanidad hoy día. Que, si la manzana la podemos usar para bien o mal, ni se diga la AI, la cual nos puede llevar al Paraíso o al mismo Infierno. En fin, el vocablo “artificial” también es primo del vocablo “artificio”, vocablo que indica falta naturalidad.

    El asunto gira es que la AI no puede hacer conexiones mentales creativas y si usamos esa herramienta como y para lo que no es, los resultados pueden ser terribles. En resumen, los humanos no nos salvamos de ser los gestores de nuestro destino; sea brillante o lúgubre. Jamás olvido el dicho que lo dice todo respecto a las computadoras: “si les metes basura, te responden con basura”. Pero el peligro va mucho más allá porque en el juego de póker que es la vida, el pote o “pot” hoy día es más grande que jamás en la historia humana.

    La AI funciona con analogías o semejanzas y los científicos han visto que la AI no se gana al ser humano resolviendo problemas de matrices, que son formaciones numéricas u de otros objetos matemáticos, conocidos como entradas de la matriz, que requieren un sentido que no tiene la AI. El problema comienza cuando pretendemos usar la AI para lo que no es y, de salida, cuando le ponemos un nombre que tampoco es. Tal es el caso del llamado “metrobus” de Panamá, que no es tal cosa; de manera que si lo tratas de usar para resolver los problemas de tránsito y transporte, te ira muy mal… ¿o es que no lo hemos notado?

    Otro aspecto que debemos considerar cuando intentamos, erróneamente, comparar al ser humano con la AI, es que nuestras prácticas educativas en siglos recientes, ha sido terribles y la humanidad, en muchos sentidos, ha perdido capacidad intelectual. Hoy día ya contamos con el entendimiento y capacidad de tornar a todo niño en genio; pero, insistimos en delegar y centralizar la educación; más que nada, con fines de adoctrinamiento y fines politiqueros.

    Y para mayor ilustración del tema, tomemos el caso de el “aprendizaje de disparo cero o ‘Zero-shot learning’, que es una técnica de aprendizaje automático que permite a un modelo reconocer y clasificar objetos o conceptos sin haberlos visto previamente durante el entrenamiento, utilizando información semántica y transferencias de conocimiento. ¿Me explico o me entiende el lector? ¿No? No se preocupen, que a mí tampoco me queda muy claro el asunto.

    Y, para resumir y enredarles más, termino comentando algo sobre el razonamiento analógico. Una cosa es intentar comprensión a base de razonamiento abstracto en contraposición del atajo de resolver incógnitas basándose en conocimientos que no fueron dados durante las clases o los estudios; conocimientos que ya tenías en tu alacena mental. ¿Puede la AI resolver cuándo no le has provisto toda la información? Por ejemplo; Einstein resolvió o imaginó la Teoría de la Relatividad cuando mentalmente montó un rayo de luz en el espacio.

  • La Oferta de Elon Musk a OpenAI: Implicaciones y Consecuencias

    El 10 de febrero de 2025, Elon Musk, el dueño de Tesla y X, presentó una oferta de 97.400 millones de dólares para comprar OpenAI, la empresa detrás de la inteligencia artificial (IA) ChatGPT. Esta oferta, conocida como una «oferta no solicitada,» ha generado considerable atención en el mundo tecnológico y financiero. En este artículo, exploraremos las implicaciones y consecuencias de esta oferta, así como las preocupaciones que plantea desde una perspectiva libertaria.

    La Oferta de Musk

    La oferta de Musk es significativa no solo por su valor, sino también por las implicaciones que tiene en el panorama de la IA. Musk ha sido un crítico de OpenAI y su transición a una empresa con ánimo de lucro. En 2015, Musk fue uno de los fundadores de OpenAI, pero se salió de la empresa en 2019 debido a desacuerdos sobre su transición a una empresa con fines de lucro. Desde entonces, Musk ha acusado a OpenAI de haberse aliado con Microsoft y Thrive Capital para dominar el desarrollo de la IA, lo que sostiene podría ser perjudicial para la seguridad y la ética en el uso de la tecnología.

    Reacción de Sam Altman

    Sam Altman, el CEO de OpenAI, respondió a la oferta de Musk con un rotundo «no, gracias» en X. Esta respuesta sugiere que Altman y su equipo no están interesados en vender la empresa. En su respuesta, Altman también hizo una referencia irónica a la compra de Twitter por parte de Musk, ofreciendo comprarlo a $9.74 billones si lo deseaba.

    Análisis de las Amenazas

    La posibilidad de que una persona como Elon Musk, quien ya tiene una gran influencia en la tecnología y la política, siendo miembro ejecutor del gobierno actual americano, se convierta en el dueño de la inteligencia artificial más poderosa del mundo plantea varias preocupaciones. Estas preocupaciones pueden resumirse en tres aspectos principales:

    1. Control sobre la Información y la Comunicación:
    – X y Redes Sociales: Musk ya es dueño de X, una plataforma de redes sociales que ha sido objeto de regulaciones y controversias. Si Musk también controlara ChatGPT, podría tener un dominio significativo sobre la forma en que la información se crea, se distribuye y se consume. Esto podría llevar a una concentración de poder en manos de una sola persona, lo que podría ser perjudicial para la diversidad de opiniones y la libertad de expresión. Más si ejerce como miembro prominente del Poder ejecutivo de los Estados Unidos.

    2. Uso Político de la IA:
    – Agenda Geopolítica: Musk ha demostrado su capacidad para influir en la política a través de su nombramiento como empleado especial del gobierno de Donald Trump. Si Musk controlara ChatGPT, podría utilizar esta herramienta para promover su agenda geopolítica, lo que podría ser perjudicial para la democracia y la soberanía nacional.

    3. Impacto en la Economía y la Sociedad:
    – Desarrollo de la IA: La IA es una tecnología que puede tener un impacto profundo en la economía y la sociedad. Si Musk controlara ChatGPT, podría dirigir el desarrollo de esta tecnología hacia fines que no necesariamente beneficien a la humanidad en su conjunto. Por ejemplo, podría priorizar sus intereses eliminando a la competencia mediante captura regulatoria, por sobre la seguridad y la ética en el uso de la IA.

    Consecuencias para la Humanidad

    La concentración de poder en manos de una sola persona, especialmente alguien con la influencia política y económica de Elon Musk, representa un riesgo para la diversidad de opiniones, la democracia y la seguridad de la sociedad. La inteligencia artificial es una tecnología con un enorme potencial tanto para el progreso como para el perjuicio, dependiendo de cómo se utilice. Si Musk controlara ChatGPT, podría orientar su desarrollo hacia fines que no necesariamente beneficien a la humanidad en su conjunto.

    La oferta de Musk a Sam Altman para adquirir ChatGPT plantea serias preocupaciones desde una perspectiva libertaria. La posibilidad de que una sola figura, que además ejerce cargos ejecutivos dentro del gobierno de la principal potencia mundial, concentre aún más poder sobre una tecnología tan disruptiva, genera inquietud. Para garantizar un desarrollo ético y transparente de la IA, es fundamental que la sociedad —nosotros, los ciudadanos— mantengamos un escrutinio riguroso y exijamos prácticas responsables en su implementación.

  • Google se adelanta a OpenAI con Veo y GenCast

    Google ha dado un paso significativo en la carrera por liderar el ámbito de la inteligencia artificial al presentar dos innovaciones que prometen cambiar las reglas del juego: Veo, un generador de videos de alta calidad impulsado por IA, y GenCast, un modelo de predicción climática avanzado.

    Veo: creatividad cinematográfica al alcance de todos

    Veo, lanzado en el evento Google I/O 2024, es una herramienta de generación de videos basada en texto que permite crear secuencias de hasta más de un minuto con resolución 1080p. Los usuarios pueden simplemente ingresar una descripción detallada, y la herramienta interpreta conceptos visuales como «tomas aéreas» o «timelapse», generando videos realistas o incluso surrealistas. Este nivel de personalización, combinado con una comprensión avanzada del lenguaje natural, hace que Veo destaque sobre competidores como Sora de OpenAI, aún no disponible al público general.

    El sistema también puede generar videos a partir de imágenes combinadas con texto, una función útil tanto para creadores aficionados como para profesionales. Google ha asegurado que las herramientas como Veo se integrarán con plataformas populares como YouTube Shorts, lo que democratizará aún más la producción de contenido audiovisual.

    Sin embargo, Veo no solo es impresionante por su creatividad. Google ha implementado medidas de seguridad robustas, como marcas de agua digitales con SynthID, para identificar contenido generado artificialmente y minimizar riesgos de desinformación.

    GenCast: redefiniendo la predicción climática

    Por otro lado, GenCast, desarrollado por DeepMind, representa un avance en la meteorología. Este modelo puede realizar predicciones con una precisión sin precedentes hasta 15 días en el futuro, incluso en eventos extremos como huracanes o inundaciones. Entrenado con datos de más de 40 años, GenCast supera a los sistemas actuales utilizados en EE. UU., ofreciendo información detallada que podría transformar sectores como la agricultura, la logística y la planificación urbana.

    Lo que distingue a GenCast es su filosofía de acceso abierto: Google planea distribuir no solo el modelo, sino también los datos estadísticos (pesos) necesarios para replicar su rendimiento. Este enfoque podría fomentar la innovación y la colaboración global en la lucha contra el cambio climático y los desastres naturales.

    Implicaciones y desafíos

    Si bien estas tecnologías son prometedoras, no están exentas de retos. En el caso de Veo, existe preocupación por el impacto en la industria audiovisual, ya que la automatización podría desplazar empleos creativos. Además, la capacidad de generar videos hiperrealistas plantea riesgos éticos, especialmente en un mundo donde la desinformación es una amenaza constante.

    En cuanto a GenCast, aunque su capacidad de predicción es asombrosa, dependerá de cómo se adopte en sectores críticos para maximizar su impacto positivo y mitigar posibles malentendidos o errores en interpretaciones locales.

    Con Veo y GenCast, Google no solo demuestra su capacidad tecnológica, sino que también redefine los límites de lo posible en IA. Mientras estas herramientas abren nuevas oportunidades creativas y científicas, plantean preguntas sobre cómo gestionar su impacto social. En cualquier caso, el futuro de la inteligencia artificial parece estar cada vez más enfocado en crear soluciones tanto innovadoras como responsables.