Etiqueta: singularidad

  • La Singularidad Suave: ¿y si el futuro no es una distopía?

    Durante décadas, la idea de una “singularidad tecnológica” ha despertado tanto fascinación como temor. El concepto, en pocas palabras, describe un momento en el que la inteligencia artificial (IA) supere la capacidad intelectual humana, provocando cambios tan profundos que la vida como la conocemos será irreconocible. ¿Será ese momento un salto al paraíso o un abismo sin retorno? Sam Altman, CEO de OpenAI, plantea una posibilidad más esperanzadora y matizada en su ensayo The Gentle Singularity (“La singularidad suave”). En lugar de un quiebre caótico y hostil, imagina un futuro en el que la IA acelera el progreso humano sin despojarnos de lo que nos hace humanos.

    El cambio ya está en marcha

    Altman no habla del futuro lejano: habla del presente. La transformación impulsada por la IA ya comenzó, y aunque aún estamos en etapas tempranas, las repercusiones son visibles. Desde herramientas de productividad hasta sistemas de recomendación, la IA se infiltra en todos los aspectos de nuestra vida. Pero lo más importante es que todavía tenemos la oportunidad de guiar este proceso.

    La singularidad suave no es una utopía sin conflictos, sino un cambio de paradigma que puede resultar beneficioso si lo conducimos con cuidado. Esto implica reconocer que la inteligencia artificial no es un ente independiente, sino una creación humana que refleja nuestras decisiones, valores y prioridades.

    La IA como multiplicador humano

    Uno de los argumentos centrales de Altman es que la IA puede actuar como un “multiplicador de inteligencia humana”. Así como el microscopio amplió nuestra visión del mundo microscópico o Internet expandió el acceso al conocimiento, la IA tiene el potencial de aumentar nuestra creatividad, productividad y capacidad de resolver problemas complejos.

    La clave, según Altman, está en asegurarse de que el beneficio sea compartido. Para evitar que la IA se convierta en una herramienta de concentración de poder —ya sea en manos de gobiernos o corporaciones—, se necesita una gobernanza justa y transparente, acompañada de instituciones nuevas o adaptadas al desafío.

    Riesgos reales, decisiones urgentes

    Altman no ignora los riesgos. Advierte sobre la posibilidad de que la IA sea mal utilizada para el control social, la desinformación, la vigilancia masiva o la manipulación económica. También reconoce el impacto que tendrá sobre el trabajo humano y la estructura social.

    Pero lo más peligroso, afirma, no es la tecnología en sí, sino nuestra inacción o dirección equivocada. Si no tomamos decisiones deliberadas hoy —sobre transparencia, distribución de beneficios, derechos digitales y regulación responsable— podríamos terminar con un sistema que reemplace a los humanos en lugar de empoderarlos.

    Una oportunidad histórica

    “La singularidad suave” es más que una expresión elegante: es un llamado a la responsabilidad. Altman nos invita a imaginar una sociedad en la que la abundancia generada por la IA no sea privilegio de unos pocos, sino una base para el florecimiento humano generalizado.

    El desafío no es técnico, sino ético y político. Implica decidir qué queremos preservar de nuestra humanidad y cómo queremos evolucionar como especie. En este escenario, la IA no es el protagonista, sino el instrumento. Los verdaderos agentes del cambio somos nosotros.

    La singularidad no tiene por qué ser una explosión descontrolada ni una pesadilla distópica. Puede ser suave, humana y colaborativa. Pero solo si decidimos activamente construirla así.

    ¿Estamos preparados para liderar ese camino?

  • Singularidad: ¿se saldrá la inteligencia artificial de nuestro control?

    En física, una singularidad es un punto en el espacio-tiempo donde se produce un evento que no cumple ninguna de las leyes físicas previstas para el mismo. A nivel informático, la singularidad sería aquel evento en el que los sistemas no solo no se comportan como está previsto, sino que, súbitamente, ofrecen una respuesta no esperada basada en un criterio propio.

    En este punto, cualquier predicción sobre lo que ocurrirá después fallaría. Y cuando el ser humano no puede, ni siquiera, controlar de forma imaginaria los posibles escenarios futuros, se comienza a inquietar.

    Voces de alarma

    Para algunos, no es algo lejano. Por ejemplo, el informático futurista Ray Kuzweil, en una entrevista del 2023, aseguraba que el comienzo de la singularidad tendría lugar en 2045.

    Mientras, investigadores de gran prestigio, como Geoffrey Hinton, Yoshua Bengio o Stuart Russell aparecen en los medios de comunicación alertándonos de un grave peligro emergente. Incluso uno de los fundadores de OpenAI, Sam Altman, ha llegado a pedir ante un comité del Senado de los Estados Unidos regular los avances de la inteligencia artificial (IA). ¿Realmente es tan preocupante?

    Este libro del informático futurista Ray Kurzweil anunciaba, en 2006, que ‘la singularidad está cerca’.
    Penguin Random House

    La consciencia en las máquinas

    La clave de esta inquietud no está tanto en la singularidad, sino en el paso previo necesario para llegar a ella: la creación de una nueva inteligencia artificial general (AGI, por sus siglas en inglés).

    Nos referimos a aquella capaz de igualar a la inteligencia humana en sus procesos tanto cognitivos como relacionales, es decir, una IA capaz de dominar las 8 inteligencias múltiples.

    De conseguirse, conformaría la tercera gran revolución en la historia de la IA. Tanto es así que existe una carrera geopolítica silenciosa al respecto de quién será el primero en conseguirla.

    ¿Inteligencia artificial con intenciones?

    Aunque los sistemas de IA actuales, según algunos, puedan dar signos de cierta autoconsciencia –como publicó Blake Lemoine en sus “conversaciones” con LamDa o desde Microsoft a través de una publicación– las IA actuales, no “saben” o no son “conscientes” de lo que están generando.

    Son solo buenos predictores de píxeles o de palabras, en base a los ítems anteriores, pero siempre en base a un entrenamiento. No pueden “reflexionar” si esas inferencias son correctas, ni son capaces de formular hipótesis sobre las razones de sus propias conclusiones.

    Por lo tanto, tampoco son conscientes de su posicionamiento subjetivo ante las mismas. Simplemente, son muy buenas dando respuestas, pero no son capaces de desarrollar las preguntas adecuadas. Todavía.

    La clave, imitar al cerebro humano

    El psicólogo Frank Rosenblatt (11 de julio de 1928-11 de julio de 1971) inventó el perceptrón, la primera neurona artificial.
    CC BY

    La primera revolución en el mundo de la IA vino dada por la implementación simplificada, in silico, del modelo de una neurona natural. En 1906, Frank Rosenblatt diseñó el “perceptrón”, la base de todas las redes artificiales actuales.

    La segunda revolución en la IA vino, una vez más, al “copiar” una topología de redes neuronales humanas en un programa. Esta vez fue Kunihiko Fukushima quien, en 1980, inspirado en el modelo propuesto por los premios Nobel Hubel y Wiesel (1959), desarrolló la base de las actuales redes convolucionales y profundas.

    Fue el nacimiento de una revolución tecnológica sin precedentes, mejorada de forma progresiva por parte de los informáticos Jan LeCun y de Dan Ciresan.

    Actualmente, dentro de la neurocomputación, se está trabajando en una segunda versión de estas redes, muy prometedoras, denominadas redes neuronales de impulsos o spiking.

    Para llegar a una IA general –o AGI–, debemos ir de la mano de la neurocomputación, investigando sobre la topología de una red artificial capaz de generar reglas formales, matemáticas, semánticas o lingüísticas, que formule hipótesis sobre las respuestas obtenidas por la IA tradicional. Pero el nivel de computación actual ya ha llegado a su límite para este objetivo.

    La ley de Moore expresa que aproximadamente cada 2 años se duplica el número de transistores en un microprocesador.
    Seofilo / Wikimedia Commons, CC BY

    El mismo Moore pronosticaba que, en 2021, una nueva tecnología vendría a suplir su actual modelo de crecimiento computacional. Y acertó.

    La esfera de Bloch es una representación de un cúbit, el bloque de construcción fundamental de los computadores cuánticos.
    MuncherOfSpleens / Wikimedia Commons, CC BY

    Esta tecnología es la computación cuántica. Con solo 40 cúbits, podemos procesar por “fuerza bruta” y en paralelo tantos estados computacionales como neuronas tiene nuestro cerebro.

    Además, ciertas teorías indican que, no solo a nivel atómico, sino también a nivel cerebral, existe un comportamiento cuántico en la inferencia y comunicación entre neuronas de zonas no adyacentes.

    El premio nobel de física Roger Penrose es uno de los mayores defensores de esta teoría, que se ve complementada por otros enfoques, como la teoría de Kauffman o la teoría de Bleck y Eccles.

    ¿Los primeros signos de singularidad?

    Existen ya primeras aproximaciones a la AGI reflexiva, como los sistemas MuZero o LIDA. Centros de investigación muy punteros, como I3B (Ibermática Fundazioa), llevan años investigando en el desarrollo de una AGI basada en la inclusión de una topología de grafos semánticos dentro de sistemas profundos.

    Esto supone unir los mundos de la neurocomputación, la computación cuántica y la inteligencia artificial en un trabajo multidisciplinar entre neurocientíficos, humanistas, antropólogos, ingenieros, informáticos, científicos de datos y programadores cuánticos.

    En este contexto, una nueva AGI obligaría a implementar, necesariamente, una autoconsciencia artificial. El país que lo consiga liderará una cuarta revolución tecnológica consolidando una industria increíblemente rentable que lo posicionará como proveedor a nivel mundial. España posee de sobra capacidades y talento en IA, cuántica y en neurocomputación para conseguirlo.

    Por otro lado, será el nacimiento de nuevos sistemas capaces de ayudarnos a comprender mejor nuestro universo y a nosotros mismos, proponiendo preguntas que, quizás, jamás nos hayamos hecho.

    El superordenador Hal-9000 en la serie Odisea espacial analizando la conversación y realizando hipótesis sobre la misma.
    IMBD

    Entonces, seguramente, habremos llegado a una nueva singularidad. Nuestro propio afán de avanzar científicamente nos llevará a lograrlo.The Conversation

    Aitor Moreno Fdz. de Leceta, Profesor de Computación Cuántica, Inteligencia Artificial, Universidad de Deusto

    Este artículo fue publicado originalmente en The Conversation. Lea el original.