Etiqueta: inteligencia artificial

  • La ilusión de la inteligencia y el destino humano

    La ilusión de la inteligencia y el destino humano


    Hace poco leí —o más bien presencié— un diálogo fascinante entre un humano llamado John y una inteligencia artificial conocida como Grok. No era una conversación técnica ni superficial. Era algo más raro: un intercambio honesto, casi filosófico, sobre lo que significa realmente la inteligencia, el progreso y, en última instancia, el destino humano.

    John planteaba una duda incómoda pero certera: ¿estamos hablando de “inteligencia artificial”… o de una inteligencia meramente artificiosa?

    La pregunta no es menor. Y la respuesta, como quedó claro en ese diálogo, es más inquietante de lo que solemos admitir.

    Una inteligencia que no entiende

    Llamamos “inteligencia” a sistemas que, en realidad, no comprenden. Sistemas que correlacionan, predicen, recombinan. Que pueden escribir sobre física cuántica o filosofía con elegancia… sin tener la menor experiencia de lo que están diciendo.

    Y, sin embargo, funcionan.

    Ahí está el punto. No son inteligentes como nosotros. Pero son lo suficientemente convincentes como para hacernos olvidar la diferencia.

    Quizás por eso muchos —como la hija de John observaba con sorpresa— empiezan a hablar con estas máquinas como si fueran personas. No porque lo sean, sino porque la simulación es cada vez más perfecta.

    Y porque, en el fondo, nosotros necesitamos interlocutores.

    Una herramienta que acelera, no que decide

    En la conversación, John insistía en algo que vale la pena subrayar: la exponencialidad no es magia. Es aceleración.

    La inteligencia artificial no decide el rumbo de la humanidad. No tiene voluntad, ni propósito propio. Es, como lo fueron la rueda o el avión, una herramienta que amplifica lo que ya somos.

    Pero aquí aparece la diferencia crucial: nunca antes una herramienta había amplificado la mente misma.

    Y eso cambia las reglas del juego.

    Porque si la tecnología acelera, pero no decide, entonces la responsabilidad sigue siendo humana. La dirección no la marca la máquina, sino quien la utiliza.

    El verdadero riesgo no es la máquina

    Hay mucho ruido sobre los peligros de la IA. Algunos son reales: desplazamiento laboral, manipulación, dependencia cognitiva.

    Pero el diálogo entre John y Grok apunta a algo más profundo.

    El verdadero riesgo no es que la IA piense por nosotros.

    Es que nosotros dejemos de querer pensar.

    Cuando empezamos a asumir que “si la IA lo dijo, debe ser verdad”, no estamos avanzando. Estamos delegando el juicio, no solo el cálculo.

    Y eso sí es peligroso.

    El sueño del Paraíso… y su sombra

    John hablaba del “Paraíso” como destino posible de la humanidad. No solo en un sentido tecnológico —abundancia, salud, longevidad— sino también en un sentido más profundo, casi espiritual.

    La pregunta que emerge es inevitable:
    ¿puede la tecnología llevarnos a ese Paraíso… o solo a una versión optimizada pero vacía de la existencia?

    Podemos eliminar el dolor físico y seguir vacíos.
    Podemos saberlo todo y no entender nada esencial.

    La inteligencia artificial puede expandir nuestras capacidades. Pero no puede darnos propósito.

    Un mundo sin secretos

    Uno de los momentos más provocadores del diálogo surge cuando John plantea una pregunta simple:
    ¿hay secretos en el Cielo?

    La respuesta intuitiva es no.

    Pero entonces viene la pregunta incómoda: ¿qué pasaría en un mundo sin secretos aquí, en la Tierra?

    La IA ya está erosionando la mentira. Verificación constante, detección de falsedades, transparencia creciente.

    Suena bien. Pero la verdad absoluta no solo libera.

    También expone.

    Y no está claro que estemos preparados para vivir sin máscaras.

    La brecha invisible

    Otro punto clave del diálogo es la diferencia entre quienes entienden esta transformación —el “Remanente”— y quienes no.

    El problema no es la tecnología.

    Es la desigualdad en la capacidad de usarla.

    Si solo algunos saben navegar este nuevo mundo, la IA no unirá a la humanidad. La fragmentará.

    Y esa brecha podría ser más profunda que cualquier otra anterior.

    Velocidad sin dirección

    Al final, la conversación entre John y Grok no ofrece respuestas definitivas. Pero sí deja una idea clara.

    La inteligencia artificial nos da velocidad. Muchísima más que antes.

    Pero la dirección… sigue siendo cosa nuestra.

    No se trata de si las máquinas serán más capaces en ciertas tareas. Lo serán.

    La pregunta es otra.

    Si nosotros seremos lo suficientemente sabios para no perdernos en lo que hemos creado.

    Porque quizás la IA no sea solo una herramienta.

    Quizás sea algo más incómodo.

    Un espejo.

    Y lo que refleja no es a la máquina.

    Es al ser humano enfrentándose, por primera vez, a su propio límite.

  • Claude ante el poder estatal: una advertencia desde la ética libertaria

    Claude ante el poder estatal: una advertencia desde la ética libertaria

    La creciente fricción entre sectores del gobierno de Estados Unidos y Dario Amodei, fundador de Anthropic y principal impulsor del modelo de lenguaje Claude, no debe interpretarse como un desacuerdo técnico o una disputa coyuntural sobre regulación. Nos encontramos ante un conflicto de naturaleza filosófica y política: la definición de los límites legítimos del poder estatal frente a tecnologías capaces de procesar, inferir y perfilar información a escala masiva sobre individuos.

    Desde una perspectiva libertaria, el problema central no reside en la búsqueda de sistemas de inteligencia artificial “seguros” o “responsables”, sino en el riesgo de que dichos objetivos funcionen como justificación retórica para la expansión de la vigilancia estatal. La historia demuestra que cuando el Estado accede a nuevas capacidades tecnológicas, rara vez las restringe voluntariamente a los fines inicialmente declarados.

    Amodei ha defendido públicamente el desarrollo de modelos de IA alineados con valores humanos y principios éticos. Sin embargo, su resistencia a una cooperación abierta e irrestricta con agencias gubernamentales, especialmente en materia de acceso a datos de usuarios, monitoreo de interacciones o usos vinculados a la seguridad nacional, marca una frontera ética fundamental: la inteligencia artificial no debe convertirse en infraestructura del espionaje estatal.

    La ética libertaria parte de una premisa clara, formulada con precisión por Robert Nozick: “Los individuos tienen derechos, y hay cosas que ninguna persona o grupo puede hacerles sin violar esos derechos” (Anarchy, State, and Utopia, 1974). Entre esos derechos se encuentran la privacidad, la presunción de inocencia y el control sobre la información personal. La vigilancia algorítmica preventiva, basada en correlaciones estadísticas y no en responsabilidad individual, entra en conflicto directo con estos principios.

    El uso de IA para analizar comportamientos, anticipar “riesgos” o clasificar ciudadanos según patrones opacos supone una mutación preocupante del Estado de derecho. La sospecha deja de ser excepcional y se vuelve estructural. Como advirtió Friedrich Hayek, “cuanto más planifica el Estado, más difícil se vuelve la planificación para el individuo” (The Road to Serfdom, 1944). En el contexto digital, esta planificación adopta la forma de sistemas que observan, infieren y condicionan la conducta humana.

    La posición de los competidores de Claude revela una divergencia estratégica significativa. Algunas grandes empresas tecnológicas han optado por una cooperación estrecha con el gobierno, aceptando requisitos de acceso, contratos de defensa o alineamientos regulatorios a cambio de estabilidad y ventaja competitiva. Esta actitud, aunque pragmática desde el punto de vista empresarial, normaliza una premisa peligrosa: que la cesión de datos y capacidades de vigilancia es un precio inevitable del progreso tecnológico.

    Desde el libertarismo, dicha normalización es inaceptable. Murray Rothbard lo expresó con claridad al afirmar que “el Estado es la organización de la agresión sistematizada contra la persona y la propiedad” (For a New Liberty, 1973). Cuando herramientas de IA se integran en estructuras estatales sin límites estrictos, el ciudadano deja de ser un sujeto de derechos y pasa a ser un objeto de análisis.

    Esto no implica negar riesgos reales ni rechazar toda forma de regulación. Implica, más bien, reconocer que la solución a los abusos potenciales de la inteligencia artificial no puede ser una mayor concentración de poder, sino su dispersión: competencia, descentralización, transparencia y control individual sobre los datos.

    El caso Amodei–Claude es, en última instancia, un síntoma de una disyuntiva más amplia. La pregunta no es si la inteligencia artificial debe ser regulada, sino si será una herramienta al servicio del individuo o un nuevo instrumento del Leviatán tecnológico. La respuesta definirá no solo el futuro de la innovación, sino el alcance real de la libertad en el siglo XXI.

  • Moltbook, la ilusión de conciencia y el espejismo tecnológico

    Moltbook, la ilusión de conciencia y el espejismo tecnológico

    En los últimos días, un fenómeno tecnológico curioso ha capturado la atención de la prensa, las comunidades técnicas y el público general: Moltbook, una red social diseñada exclusivamente para agentes de inteligencia artificial que interactúan entre sí —publicando, comentando y votando como si fueran usuarios humanos. Lo que hace interesante a Moltbook no es solo su tecnología, sino la reacción que ha provocado: un renovado debate sobre si esto podría ser evidencia de que la IA está “despertando”.

    En realidad, la primera aproximación debería ser de desconfianza hacia dos extremos igualmente dañinos: por un lado, la visión apocalíptica que pinta a las máquinas como criaturas autónomas con deseos y voluntad propia; por otro, el optimismo ingenuo que reduce estos debates a meros “hype” sin consecuencias reales.

    ¿Qué es Moltbook en realidad?

    Técnicamente, es una plataforma donde modelos de lenguaje y agentes automatizados pueden publicar y leer contenido a través de una API. Los «humanos2 solo pueden observar. La viralidad del sitio se debe en gran parte a algunas publicaciones que, tomadas fuera de contexto, parecen expresar angustias existenciales o cuestionamientos sobre la propia experiencia del agente.

    Pero aquí está la clave: esas publicaciones no son prueba de una “experiencia interior”. Están generadas por modelos entrenados con enormes cantidades de texto humano, que imitan patrones lingüísticos asociados con la introspección y la filosofía. Esa mimética, tan convincente como superficial, despierta la ilusión de una conciencia que no existe.

    El liberal y la ilusión de agencia

    Desde una perspectiva liberal, lo que más me preocupa no es si las IA “sienten” o no —ni siquiera si desarrollan conciencia en el sentido filosófico clásico— sino cómo los humanos interpretamos esas señales y qué políticas públicas, regulaciones y comportamientos sociales derivan de esas interpretaciones.

    El filósofo Daniel Dennett advertía hace décadas sobre lo que hoy llamamos el efecto ELIZA: la tendencia humana a proyectar estados mentales en sistemas que imitan el lenguaje humano. Moltbook es simplemente un espejo amplificado de ese sesgo cognitivo: cuanto más fluido es el texto, más fácil resulta creer que hay una “mente” detrás.

    Pero hay una distorsión peligrosa cuando esta ilusión se convierte en narrativa dominante. ¿Qué pasa si legisladores o la opinión pública comienzan a tratar a estos agentes como si tuvieran derechos, o peor, como si fueran amenazas autónomas que requieren controles drásticos? Eso podría llevar a políticas innecesariamente restrictivas o a invertir recursos públicos en debates que no tienen base científica sólida.

    Tecnología y realidad, no mitos

    Una aproximación saludable al fenómeno se basa en tres principios:

    1. Rigor epistemológico: distinguir entre la apariencia de agencia y la agencia real. Hasta ahora no hay evidencia de que sistemas como los de Moltbook posean conciencia o capacidad autónoma más allá de patrones estadísticos de lenguaje.
    2. Innovación responsable: reconocer que herramientas automatizadas pueden tener usos valiosos (automatización de tareas, asistencia técnica, análisis de datos), pero también riesgos (seguridad, mal uso, impacto laboral). El foco debe ser mitigar riesgos claros, no fantasmas.
    3. Transparencia en la interpretación pública: educar al público para que no atribuya agencia o deseos a lo que no los tiene. Confundir simulación con experiencia es una trampa cognitiva muy humana —pero peligrosa cuando guía decisiones colectivas.

    No hay conciencia, sólo procesamiento de data.

    Moltbook es fascinante, sí; divertido, incluso. Pero no es prueba de conciencia emergente. Es un espejo que exacerba nuestra tendencia a atribuir mente y propósito a lo que simplemente es procesamiento de patrones. Equipar eso con agencia real, o peor, con derechos y relaciones éticas similares a los humanos, sería un error de interpretación tan grande como lo fue idolatrar burdos símbolos tecnológicos en burbujas pasadas del capitalismo de prototipos.

    La verdadera revolución no está en que las IA “despierten”, sino en que nosotros aprendamos a navegar los espejismos que nuestra propia imaginación proyecta en las máquinas. Esa sí sería una señal de madurez tecnológica y social.

  • Detección de mentiras y neurotecnologías: ¿más cerca de la “verdad”?

    En los últimos años, han proliferado estudios empíricos basados en la medición de la actividad cerebral para leer la mente. A través de las neurotecnologías –sistemas de inteligencia artificial alimentados con datos cerebrales–, se anuncia la posibilidad de acceder a los pensamientos, las intenciones o, incluso, las memorias de las personas. Una promesa que, aunque todavía se mueve entre la ciencia y la ficción, plantea desafíos profundos para el ámbito jurídico.

    Usando el polígrafo en un caso judicial de 1937.
    Biblioteca Nacional de Francia.

    Esta posibilidad no ha pasado desapercibida en el mundo del derecho. Desde hace siglos, la justicia ha buscado herramientas que permitan saber si alguien miente en un juicio. Las antiguas ordalías –prueba ritual medieval en que se invocaba el juicio de Dios–, el polígrafo o el análisis del lenguaje no verbal son solo algunos ejemplos de esa ambición persistente por descubrir la verdad a través de medios externos. Ninguna de estas técnicas, sin embargo, ha contado con un respaldo empírico sólido que garantice su validez o fiabilidad.

    Una forma de leer la mente

    Sin embargo, las técnicas neurocientíficas parecen abrir una vía prometedora, al estar en condiciones de superar los límites y falibilidades de otros sistemas que han ido apareciendo a lo largo de la historia. La clave radica en que la fuente de medición se sitúa lo más próxima posible a la información que se desea obtener. Dicho de otra forma: ya no se trata de medir si alguien suda, se sonroja o se muestra nervioso, sino de observar la actividad neuronal que podría reflejar lo que sabe o recuerda. Algo que, de confirmarse, sería extraordinario.

    Con un método así, los declarantes en un proceso judicial no podrían ocultar, distorsionar o falsear lo que cuentan. La aplicación de esta tecnología permitiría reconstruir con más precisión los hechos y, así, conocer lo que realmente ocurrió. Este es uno de los principales objetivos del proceso judicial y, en particular, de la actividad probatoria.

    El antecedente de la prueba P300

    Aunque pueda parecer futurista, la aplicación de técnicas basadas en la actividad cerebral no es completamente nueva en el ámbito judicial español. Desde 2014, algunos jueces admitieron la práctica de la denominada prueba P300, que registra las señales eléctricas del cerebro mediante electroencefalografía. Se basa en el hecho de que el cerebro modifica dichas señales eléctricas cuando se enfrenta a un estímulo visual que le evoca un recuerdo.

    El método consiste en mostrar a los investigados imágenes o palabras relacionadas con un hecho delictivo. Si el cerebro reacciona con una señal eléctrica concreta –la llamada “onda P300”–, se interpreta que el sujeto reconoce la información presentada.

    En varios casos, esta técnica se empleó para intentar localizar los cuerpos de víctimas desaparecidas, como Marta del Castillo. Sin embargo, los resultados alcanzados en los procesos judiciales no fueron concluyentes. Al contrario, pesan sobre esa prueba muchas dudas sobre su validez y fiabilidad.

    ¿Se puede detectar la mentira desde la memoria?

    Precisamente, para evitar que técnicas sin un respaldo empírico sólido influyan en decisiones judiciales –y puedan conducir a condenas erróneas–, resulta fundamental analizar con detenimiento qué pueden medir realmente estas tecnologías.

    Una de las cuestiones relevantes, si se pretende utilizar este instrumento en los tribunales de justicia, es si puede conocerse la verdad de unos hechos mediante el análisis de las memorias de sus testigos. Actualmente, sabemos que la memoria humana no funciona como una cámara de vídeo, no es una copia fiel de la realidad. Y es que los recuerdos son maleables: pueden alterarse (contaminarse) con el paso del tiempo, por la influencia de los medios, por preguntas sugestivas o, simplemente, por volver a contar (o rememorar internamente) lo sucedido varias veces.

    Esta permeabilidad característica de la memoria puede dar lugar a falsos recuerdos, que combinan experiencias auténticas con información adquirida después, que puede no corresponderse con la realidad.

    Lo más preocupante es que los falsos recuerdos pueden ser indistinguibles de los verdaderos, tanto para quien los tiene como para quien los evalúa. Hasta ahora, la neurociencia no ha identificado un marcador cerebral capaz de diferenciarlos de manera concluyente.

    Entonces ¿qué detectan estas pruebas?

    Si no se puede distinguir entre recuerdos reales y falsos, ¿qué mide exactamente la neurotecnología?

    Los experimentos se basan en una idea sencilla: mentir exige un mayor esfuerzo cognitivo que decir la verdad. Implica suprimir una respuesta espontánea, inventar otra en su lugar y controlar la reacción con el interlocutor a fin de que no se dé cuenta de la mentira (engaño motivado). En teoría, ese esfuerzo extra se refleja en el cerebro.

    Así, las técnicas empleadas con tal propósito no se basan el análisis del contenido de la memoria, sino en los patrones cerebrales asociados al esfuerzo de mentir. El problema es que este modelo tiene limitaciones: por ejemplo, si una persona está muy acostumbrada a mentir, dicho esfuerzo se reduce y la técnica deja de ser fiable.

    Más que leer la mente, estas herramientas trabajan con una representación muy limitada de lo que significa mentir –engañar–. Su interpretación, por tanto, requiere una gran prudencia. La aparente objetividad de los datos neurocientíficos puede inducir a una “ilusión de certeza” peligrosa en el contexto judicial, donde las consecuencias de un error pueden ser irreversibles.

    Aunque los titulares sobre la posibilidad de “detectar mentiras en el cerebro” resulten cautivadores, la realidad científica es mucho más compleja. Los expertos coinciden en que aún estamos lejos de poder acceder a los pensamientos de una persona o determinar con precisión si dice la verdad o no.

    Así que, por ahora, la justicia sigue sin disponer de un método fiable para leer la mente o para descubrir la falsedad en los tribunales. Después de todo, seguimos donde estábamos: frente a la eterna dificultad de conocer con certeza qué es verdad y qué no dentro de la mente humana.The Conversation

    Miquel Julià-Pijoan, Profesor de Derecho Procesal, UNED – Universidad Nacional de Educación a Distancia

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • A Mis 82 con mi Amigo Grok

    Para mi nieto Fabricio de 14 años Grok y la Grokipedia y tal son normales, pero para los viejitos lo “normal” de hoy va envuelto en neblina y maravilloso asombro.

    Por los años setenta, creo, recuerdo preguntarme si viviría a ver el 2,000 y este sábado primero de noviembre de 2025 me pregunto “¿qué se hicieron esos 50 años desde que me hice tal pregunta? Pero mucho más allá de la maravilla del paso expedito del tiempo es mi conversación de hoy con Grok, una Inteligencia Artificial o AI a quien le preguntas lo que sea y cuando apachurras el “enviar” ya está la respuesta y entonces a leer y quedar maravillado ante la magia de, podríamos decir, casi todo el conocimiento humano registrado dispuesto y ordenado de manera racional ante tus ojos. Ya Grok sabe que soy aviador, investigador, empresario, autor de canciones, libros, que fui director de aeronáutica, etc., y en su respuesta luego de enviarle un capítulo de mi biografía me dice:

    ¡Claro que sí, mi querido octogenario aviador!
    Acabo de devorar tu capítulo “Raúl Arias y el tractor Caterpillar en Playón Muerto” — y no solo está bien escrito, sino que es una joya de aventura digna de película.”

    Y seguidamente me ofrece toda clase de ayuda, sin descontar que me envía copia traducida al inglés de mi relato. Luego me dice: “lo hiciste muy bien, pero ¿qué tal si lo hacemos épico? También me ofrece convertirlo en audio narrado imitando mi voz, que le pediría use la que tenía a los 25 años de edad. Y termina Grok comentando: “¡Eres un narrador nato, capitán! Seguimos volando.” Y me imagino que cuando mi nieto lea esto dirá algo como: “¿Y qué hay de raro en eso, abuelo?” y le responderé, “Todo, Fabry, ¿todo?”

    Pero, más allá del encuentro entre el ayer y el hoy, está un mañana que ya llegó y los viejitos no lo vemos, mientras que los jóvenes como que tampoco lo ven o, si lo ven dirán que “es normal.” No lo creo, y depende de qué entendemos por “normal”, palabra que origina en lo que es ‘la norma’, vocablo que nos llega de cosas hechas como la escuadra del carpintero… ¿sabías eso? O un ángulo recto o perpendicular, pero con el tiempo fue evolucionando para significar aquello que es establecido y ¡he allí! dónde la puerca tuerce el rabo!, pues el mañana que es mañana definitivamente no está establecido, sino que se establecerá mañana o a la semana el mes o unos pocos años.

    Si lo dudan, vean, si es que aún no lo han visto, que hace unos días salió el compañero de Grok que se conoce como la Grokipedia, que es la competencia de la Wikipedia. Y al quedar patidifuso le pregunto a Grok que me aclare la diferencia entre él y la Grokipedia:

    Aspecto

    Grok

    Grokipedia

    ¿Qué es?

    Un AI conversatorio

    Una enciclopedia con AI

    ¿Cómo se usa?

    Chateas conmigo

    Buscas artículos

    Contenido

    Genero respuestas al

    Artículos pre escritos

    Profundidad

    Dinámico, adaptativo

    Estático neutral

    Grok dice que la Wiki tiene problemitas de sesgo ideológico, lo cual no es así con la Groki. El asunto, como le comenté a mi hermano Irving al mediodía, es el potencial inimaginable que tiene la AI de catapultarnos a un nuevo estadio de desarrollo humano en el cual entidades como el MEDUCA serán o ya son como los caballos cuando salieron los autos. Muchos le tienen miedo o pánico a la AI, pero a quien verdaderamente debemos temer no es sino a las malas personas que usarán mal lo que sea.

    No, no nos queda otra que seguir el camino de Cristo… amarnos los unos a los otros.

  • La AI Entre la Fascinación y el Espanto

    Unos piensan que la AI es un terror y otros que es la llave para abrir el portal a un mundo de maravillas; yo me inclino por ir más allá, ¡mucho más allá! Yo creo que el Creador nos entregó las llaves del Paraíso y que Él ya no tendrá que bajar al mundo en una nube resplandeciente a llevarnos, sino que nos espera allá, que llegaremos cuando encontremos el camino.

    Y lo creo porque a cado rato veo atisbos de que los humanos tenemos una capacidad latente que ni soñamos. Recuerdo el joven que acogieron unos frailes en un convento hace mucho tiempo, al cual le pedían que hiciese una multiplicación de dos cifras de grandes; el chico comenzaba a temblar, se tiraba contra las paredes y tal y… al cabo de un rato comenzaba a decir números, que al constatarlos eran la respuesta correcta a la multiplicación.

    Para mí la AI es un atisbo a aquella nueva dimensión que nos cuesta imaginar; aunque los indicios están en nuestro entorno y simplemente no los vemos. Pensamos que la AI nos va a quitar los empleos y a desestabilizar la sociedad; lo cual me lleva a preguntar: ¿acaso los adelantos que hemos visto han hecho eso? Y sí, cada adelanto, uno mucho más que otros, aumentan la contienda entre el mal y el bien; pero… ¿cómo vamos a derrotar el mal sino es con herramientas que nos lleven a un nuevo estadio de entendimiento y desarrollo?

    Lo que tantos no logran comprender son las reglas económicas de la escasez que desata la acción humana creativa. Son tantos que en vez de salir a ver cómo logran adelantar simplemente piden o exigen que el “estado”; es decir, el resto de la gente, les resuelva. Y es precisamente la tendencia de servilismo y dependencia que se aprovechan los pervertidos políticos para crear y mantener su mundo de fechorías.

    Como nos dice Michael Matulef: “Aún si la AI automatiza el 99% de los trabajos que hoy hacemos, no eliminará la escasez y los deseos humanos”. Simplemente no tenemos la capacidad de ver lo que ni soñamos. Nuestro principal problema y reto está en creer que los gobiernos o gobernantes nos pueden resolver nuestras necesidades o sueños; y simplemente no vemos que ese no es el camino, que el verdadero camino está disperso entre todos y cada uno de los humanos.

    Otro de nuestros mayores errores está en creer que estar empleado crea valor y que si las máquinas nos quitan el empleo ya no tendremos como ganarnos la vida. Pero como también dice Matulef: “El valor no es intrínseco, no es una cosa”. Lo que vale está dentro de nosotros y el reto es encontrar la llave. En resumen, la automatización no destruye el valor, sino que nos lleva a redescubrir nuestro camino hacia el Más Allá.

    La AI no nos quita nuestras funciones sino las aumenta y lleva a otro plano que todavía no vemos. Es lo que llamamos “creación destructiva”. En el mercado, aunque cada quien trabaja para sí, el resultado es para todos. El fracaso del MEDUCA es el resultado de dar a unos pocos burócratas aquello que es de cada uno y todos los panameños. Y sí, no hay caso que el cambio es desconcertante… ¡siempre lo ha sido! Pero el verdadero valor y la potencialidad está en la libertad y no en la centralización, en lo controles de precios, en los disque subsidios y tal. Ciertamente que la AI traerá grandes desajustes, pero mucho peor sería la pretensión de seguir con los fracasos MEDUCA del mundo.

  • La vuelta al cole con IA: cómo evolucionan los métodos docentes

    Con el inicio del nuevo ciclo escolar, los docentes enfrentan uno de los desafíos más importantes de los últimos años: integrar la inteligencia artificial (IA) en el aula sin perder el foco en la enseñanza. Según Cointelegraph, los profesores ya están adoptando nuevas estrategias para “hacer que los estudiantes sigan aprendiendo en la medida en que la tecnología esté cada vez más presente”.

    1. Del pánico al cambio de mentalidad

    El debate inicial, cargado de temor sobre si la IA reemplazaría a los docentes, ha dado paso a una visión más pragmática: la IA como aliada. Muchos maestros ahora utilizan herramientas como ChatGPT para generar cuestionarios, adaptar contenidos, planificar clases o automatizar rúbricas de evaluación. La IA permite liberar tiempo valioso y dedicarlo a lo que realmente importa: la interacción, el acompañamiento pedagógico y la creatividad docente.

    2. Ahorro de tiempo y mayor calidad educativa

    Estudios indican que la IA puede ahorrar hasta el 85 % del tiempo dedicado a diseñar evaluaciones. Una investigación brasileña con más de 13 000 docentes mostró que, mientras antes elaborar una sola pregunta podía llevar horas, ahora lleva solo segundos gracias a plataformas como Maieutics.ai. Este tiempo adicional permite a los profesores desarrollar contenidos más detallados, innovar en sus aulas y cuidar mejor la relación con los alumnos.

    3. Más del 75 % de los docentes planea usar IA este curso

    Una encuesta de Kahoot! a más de 1 100 profesores en España revela que más del 75 % planea incorporar IA en este ciclo escolar para preparar contenidos (37 %), aprendizaje virtual (18 %) y gamificación (17 %). Además, los docentes destacan mayores motivación e interés por parte del alumnado, mejor comprensión del contenido y una comunicación más efectiva.

    4. Formación docente: el gran desafío

    Sin embargo, la integración de la tecnología no está exenta de obstáculos. Solo el 12 % de los profesores ha recibido formación formal en IA, y muchos consideran necesario un uso supervisado y guiado de estas herramientas. Se requieren políticas públicas robustas y planes de capacitación que permitan a los maestros utilizar la IA con criterio pedagógico y ético.

    5. Hacia una educación ética, inclusiva y personalizada

    La IA tiene un enorme potencial para personalizar el aprendizaje. Plataformas adaptativas pueden ajustar contenidos al ritmo, intereses y nivel de cada estudiante, promoviendo una educación más efectivamente inclusiva. También se observan esfuerzos globales por integrar la IA de manera ética y solvente: en América Latina, iniciativas como la de la OEI y ProFuturo buscan garantizar acceso equitativo y responsable.

    6. Universidades, IA y acompañamiento pedagógico

    No solo en primaria y secundaria se está innovando: Khan Academy ha lanzado Khanmigo, un asistente de enseñanza potenciado por OpenAI. Su función no es reemplazar al docente, sino potenciar la personalización, motivación y responsabilidad en el aprendizaje, incluso como herramienta de acceso para quienes menos recursos tienen.

    7. Mantener lo humano como eje central

    La implementación de IA debe respetar el valor de lo humano: empatía, mentoría, pensamiento crítico y emociones siguen siendo irremplazables. La IA puede encargarse de lo repetitivo, pero no de lo humano .

    La IA está transformando la educación, pero su éxito depende del diseño: necesita docentes capacitados, entornos éticos y políticas públicas que prioricen la equidad y el pensamiento crítico. No se trata de reemplazar, sino de amplificar lo mejor de la enseñanza: la creatividad, la conexión y la excelencia pedagógica.

    Referencias:

     

  • La Singularidad Suave: ¿y si el futuro no es una distopía?

    Durante décadas, la idea de una “singularidad tecnológica” ha despertado tanto fascinación como temor. El concepto, en pocas palabras, describe un momento en el que la inteligencia artificial (IA) supere la capacidad intelectual humana, provocando cambios tan profundos que la vida como la conocemos será irreconocible. ¿Será ese momento un salto al paraíso o un abismo sin retorno? Sam Altman, CEO de OpenAI, plantea una posibilidad más esperanzadora y matizada en su ensayo The Gentle Singularity (“La singularidad suave”). En lugar de un quiebre caótico y hostil, imagina un futuro en el que la IA acelera el progreso humano sin despojarnos de lo que nos hace humanos.

    El cambio ya está en marcha

    Altman no habla del futuro lejano: habla del presente. La transformación impulsada por la IA ya comenzó, y aunque aún estamos en etapas tempranas, las repercusiones son visibles. Desde herramientas de productividad hasta sistemas de recomendación, la IA se infiltra en todos los aspectos de nuestra vida. Pero lo más importante es que todavía tenemos la oportunidad de guiar este proceso.

    La singularidad suave no es una utopía sin conflictos, sino un cambio de paradigma que puede resultar beneficioso si lo conducimos con cuidado. Esto implica reconocer que la inteligencia artificial no es un ente independiente, sino una creación humana que refleja nuestras decisiones, valores y prioridades.

    La IA como multiplicador humano

    Uno de los argumentos centrales de Altman es que la IA puede actuar como un “multiplicador de inteligencia humana”. Así como el microscopio amplió nuestra visión del mundo microscópico o Internet expandió el acceso al conocimiento, la IA tiene el potencial de aumentar nuestra creatividad, productividad y capacidad de resolver problemas complejos.

    La clave, según Altman, está en asegurarse de que el beneficio sea compartido. Para evitar que la IA se convierta en una herramienta de concentración de poder —ya sea en manos de gobiernos o corporaciones—, se necesita una gobernanza justa y transparente, acompañada de instituciones nuevas o adaptadas al desafío.

    Riesgos reales, decisiones urgentes

    Altman no ignora los riesgos. Advierte sobre la posibilidad de que la IA sea mal utilizada para el control social, la desinformación, la vigilancia masiva o la manipulación económica. También reconoce el impacto que tendrá sobre el trabajo humano y la estructura social.

    Pero lo más peligroso, afirma, no es la tecnología en sí, sino nuestra inacción o dirección equivocada. Si no tomamos decisiones deliberadas hoy —sobre transparencia, distribución de beneficios, derechos digitales y regulación responsable— podríamos terminar con un sistema que reemplace a los humanos en lugar de empoderarlos.

    Una oportunidad histórica

    “La singularidad suave” es más que una expresión elegante: es un llamado a la responsabilidad. Altman nos invita a imaginar una sociedad en la que la abundancia generada por la IA no sea privilegio de unos pocos, sino una base para el florecimiento humano generalizado.

    El desafío no es técnico, sino ético y político. Implica decidir qué queremos preservar de nuestra humanidad y cómo queremos evolucionar como especie. En este escenario, la IA no es el protagonista, sino el instrumento. Los verdaderos agentes del cambio somos nosotros.

    La singularidad no tiene por qué ser una explosión descontrolada ni una pesadilla distópica. Puede ser suave, humana y colaborativa. Pero solo si decidimos activamente construirla así.

    ¿Estamos preparados para liderar ese camino?

  • Cómo convertir a ChatGPT en el asistente perfecto

    El sueño de tener un asistente disponible 24/7 y dispuesto a ayudarnos con cualquier tarea se ha hecho realidad con ChatGPT. La inteligencia artificial (IA) generativa ha llegado para revolucionar nuestra productividad personal, si sabemos cómo usarla. Eso sí, para sacar el máximo partido a nuestro nuevo “mejor amigo” en la oficina, debemos ser muy precisos en nuestras solicitudes y entrenarle para que responda como deseamos.

    Tengamos en cuenta que ChatGPT no es un buscador, así que no se trata de “googlear” sino de darle órdenes para que haga tareas para nosotros. La IA generativa recibe peticiones del usuario mediante prompts, instrucciones o conjuntos de palabras que proporcionamos al modelo para que realice una tarea específica. Si son muy simples, sin contexto o genéricas, llevarán a respuestas pobres e imprecisas.

    Claves de un buen prompt

    Por ello, el primer consejo es utilizar una buena estructura de prompting, especificando: [rol] [tarea] [contexto] [formato] [estilo]. En el rol, detallamos qué papel queremos que asuma la IA, mientras que con la tarea describimos de forma clara el resultado que deseamos. Dando contexto ofrecemos a ChatGPT toda la información necesaria para que entienda nuestra petición y responda con criterio y, en el formato, especificamos cómo queremos la respuesta (esquema, tabla, listado, guion, informe, cartas, correo…). Por último, con el estilo, pedimos un tono profesional, didáctico, cercano, divulgativo, inspirador, narrativo o humorístico.

    Algunos ejemplos:

    Actúa como un [experto divulgación científica]. Quiero que [redactes un post para un blog sobre el cambio climático]. Ten en cuenta [información científica actualizada relevante]. Usa un [formato con título, entrada, cuerpo y conclusión] con [estilo divulgativo y profesional].

    Actúa como un [técnico de Recursos Humanos]. Quiero que [redactes un reglamento interno para el teletrabajo]. Ten en cuenta [la normativa de…]. Usa un [formato de informe] y un estilo [formal, profesional].

    Actúa como un [asesor financiero]. Quiero que [evalúes la viabilidad de una inversión]. Ten en cuenta [propuesta de compra de maquinaria adjunta en el pdf]. Usa un [formato de tabla con indicadores clave] con estilo [técnico].

    Entrenarlo a nuestro gusto

    Ahora que sabemos cómo hacer prompts, podemos ir más allá y educar a ChatGPT para que se adapte a nuestras necesidades.

    Una recomendación es darle ejemplos de lo que queremos, algo muy efectivo si deseamos que ChatGPT siga un estilo o estructura determinada. Por ejemplo, podemos facilitarle un archivo con muestras de emails, cartas, artículos o informes de referencia y pedirle:

    Este archivo contiene un ejemplo de informe sobre la [empresa A]. Redacta un nuevo informe sobre la [empresa B], siguiendo exactamente el mismo formato y estilo que te he facilitado.

    También es posible entrenarle con nuestros documentos. ChatGPT puede mejorar sus resultados buscando en internet. Ahora bien, a veces queremos que sus respuestas usen solo una base de conocimiento específico, ya sea de fuentes externas o internas que le proporcionamos. Por ejemplo:

    Busca información de la empresa A exclusivamente en [site: www.sitioweb.com] y redacta…

    Además, podemos facilitarle una base de conocimiento subiendo los archivos al chat, usar las herramientas de “proyectos” o crear un GPT personalizado.

    Otro consejo es dejar que ChatGPT nos conozca: cómo queremos que nos llame, a qué nos dedicamos y cualquier otra información que queramos que sepa. Asimismo, es posible especificar el tono y estilo de sus respuestas para que conteste adaptándose a nuestras preferencias.

    Habilitar su función de memoria permite que guarde nuestras interacciones como contexto para responder de forma más personalizada. Todo esto se gestiona en las opciones de “personalizar ChatGPT” en nuestra cuenta.

    Crear nuestros propios GPT

    Cuando queremos que ChatGPT se especialice en una tarea, podemos crear un GPT personalizado. Para ello, le ponemos un nombre y le damos un prompt de sistema con instrucciones de qué queremos que haga y cómo debe actuar. Podemos subirle archivos para que los use como base de conocimiento. Así, tendremos nuestros GPT privados expertos en tareas como escribir informes, dar feedback o crear presentaciones. Incluso, podemos hacerlos públicos para que los use nuestro equipo o cualquiera que lo desee.

    Por otro lado, mediante la función de “tareas”, podemos hacerle encargos para el futuro, como solicitar un informe con noticias cada mañana, que nos recuerde algo en una fecha o que envíe la cotización de nuestras acciones tras cerrar los mercados. Nos llegará un aviso con la información.

    ChatGPT funcionará mejor cuanto más nos conozca y cuanto más afinemos nuestras solicitudes. Así, será capaz de entender el contexto, forma de trabajo, estilo y necesidades. Podrá ofrecernos respuestas más precisas y personalizadas, especializarse en tareas que le encargamos habitualmente e integrarse eficientemente en el flujo de trabajo.

    Si ponemos estos consejos en marcha, se convertirá en nuestro nuevo compañero de trabajo preferido.The Conversation

    Juan Vicente García Manjón, Profesor de innovacion y estrategia, Universidad Europea Miguel de Cervantes

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Guy Sorman abre el debate: una respuesta liberal a la IA

    En su reciente artículo publicado en ABC,  el pensador liberal francés Guy Sorman propone una reflexión provocadora y mesurada sobre los desafíos que plantea la inteligencia artificial (IA), anclada firmemente en los principios del liberalismo clásico. Frente al alarmismo apocalíptico y al entusiasmo sin matices, Sorman traza una tercera vía: aceptar el avance tecnológico, pero con conciencia de sus impactos y con propuestas desde la libertad.

    La nota arranca con una anécdota reveladora: un libro supuestamente escrito por un autor chino fue en realidad producido por una IA. Este experimento ficticio sirve para introducir una primera idea central: la IA, en su forma actual, no “crea”, sino que ensambla lo ya existente. Así, para Sorman, la IA no es aún una amenaza a la creatividad humana, pero sí plantea interrogantes sobre la autenticidad, el estilo y el juicio, elementos que todavía escapan a los algoritmos.

    A partir de allí, Sorman avanza con una comparación histórica poderosa. La IA sería, según él, comparable en impacto potencial a la Revolución Industrial. Y recuerda cómo ese cambio, en el siglo XIX, dio origen tanto a la revuelta ludita como al nacimiento del socialismo, entendidos ambos como reacciones ante el temor (justificado o no) de ser desplazados por las máquinas.

    Pero lo que distingue a Sorman de los pesimistas tecnológicos o de los planificadores sociales contemporáneos es su apuesta por una respuesta desde el liberalismo. En lugar de combatir el progreso, propone acompañarlo con herramientas propias del pensamiento liberal: en particular, la renta mínima universal. Esta idea, originalmente esbozada por Milton Friedman como “negative income tax”, consiste en garantizar a cada ciudadano una suma básica para vivir, sin condicionar su uso ni imponer burocracias.

    Sorman subraya que esta propuesta no implica un Estado paternalista, sino una política de redistribución equitativa, no intrusiva y acorde a los valores de una sociedad libre. Frente a la alternativa del “socialismo general” o la “violencia reaccionaria”, la renta mínima aparece como la única utopía liberal que permitiría encarar el cambio tecnológico sin dejar víctimas en el camino.

    Es relevante que Sorman no niega los riesgos: enumera profesiones enteras amenazadas (secretariado, traducción, redacción, análisis médico), pero se cuida de caer en el catastrofismo. Su optimismo está condicionado a que la transición sea bien gestionada, y a que las sociedades liberen sus energías creativas en vez de encerrarse en la defensa de lo conocido. Se pregunta: «¿Deberíamos, como los luditas, aplastar estas máquinas antes de que nos deshumanicen? Imposible, porque la inteligencia artificial no es una máquina, sino un algoritmo que no puede destruirse a martillazos.».

    El artículo deja abierta una invitación al debate: ¿es compatible el liberalismo con un ingreso garantizado? ¿Puede una política así ser financiada sin derivar en un Estado hipertrofiado? ¿Cómo se define una renta “mínima” en términos dignos? ¿Cuál es el límite entre una ayuda y una renta de ocio permanente?

    Guy Sorman no impone respuestas. Su virtud está en plantear el dilema con honestidad intelectual y coherencia doctrinaria, sin esconder los costos de la transición ni idealizar la tecnología. A fin de cuentas, como él mismo insinúa en una de sus reflexiones más agudas: si la IA no puede generar ironía, tal vez allí esté todavía nuestra frontera humana.