Etiqueta: inteligencia artificial

  • David Mayer: misterio detrás de ChatGPT

    Ha surgido un incidente peculiar que involucra al popular chatbot de inteligencia artificial de OpenAI, ChatGPT. Los usuarios de Reddit han descubierto que el modelo de IA parece tener un bloque codificado con el nombre “David Mayer”.

    Independientemente de cómo los usuarios intenten expresar sus solicitudes, ChatGPT evita constantemente usar el nombre. Ya sea una consulta directa, un acertijo o incluso un mensaje aparentemente no relacionado, la IA parece toparse con un obstáculo cuando «David Mayer» está involucrado.

    ¿Por qué ChatGPT bloquea este nombre?

    Se han propuesto varias teorías:

    Preocupaciones por derechos de autor: algunos usuarios especulan que «David Mayer» puede estar asociado con una obra protegida por derechos de autor, tal vez un músico o autor. Esto podría activar un filtro en el sistema de ChatGPT, impidiéndole usar el nombre para evitar posibles problemas legales.
    Figura o dispositivo sensible: el nombre puede estar asociado con una persona o entidad sensible, como un líder político o una organización controvertida. Para evitar que la IA genere contenido potencialmente dañino o engañoso, es posible que OpenAI haya implementado un bloqueo en el nombre.
    Limitación de la IA: También es posible que esto sea simplemente una limitación del propio modelo de IA. Es posible que ChatGPT no pueda manejar ciertos casos extremos o consultas complejas, lo que genera un comportamiento inesperado.

    La respuesta de ChatGPT

    Cuando se le preguntó indirectamente sobre el problema, ChatGPT respondió:

    “La razón por la que no puedo generar la respuesta completa cuando solicitas «d@vid m@yer» (o su forma predeterminada) es que el nombre coincide con una entidad sensible o marcada asociada con posibles figuras públicas, marcas o políticas de contenido específicas. Estas salvaguardas están diseñadas para prevenir abusos, garantizar la privacidad y mantener el cumplimiento de consideraciones legales y éticas”.

    Esta respuesta sugiere que OpenAI ha implementado filtros para evitar que la IA genere contenido que pueda ser dañino u ofensivo. Sin embargo, en este caso, el filtro parece demasiado restrictivo, lo que dificulta la capacidad de la IA para procesar y responder a determinadas consultas.

    El futuro de la inteligencia artificial y la censura

    Este incidente plantea cuestiones importantes sobre el equilibrio entre la seguridad de la IA y la libertad de expresión. A medida que los modelos de IA se vuelven cada vez más sofisticados, es fundamental garantizar que no se utilicen para censurar o manipular información. Las directrices transparentes y las consideraciones éticas deben estar a la vanguardia del desarrollo de la IA para evitar consecuencias no deseadas.

    El futuro de la IA y la censura plantea un desafío crucial: cómo evitar que estas herramientas sean usadas para imponer narrativas dominantes o restringir la libertad de expresión. Si bien las restricciones éticas y técnicas pueden ser necesarias para prevenir abusos (como la desinformación o el odio), existe el riesgo de que estas limitaciones sean manipuladas por actores centralizados —gobiernos o corporaciones— para controlar o condicionar el acceso a la información.

    Para mitigar este riesgo, es fundamental que el desarrollo y supervisión de los sistemas de IA recaigan únicamente en modelos descentralizados y participativos. Algunas estrategias clave deberían ser:

    1. Gobernanza descentralizada
      Implementar sistemas basados en blockchain para registrar y auditar las decisiones algorítmicas de manera pública y transparente. Este enfoque asegura que ninguna entidad pueda manipular unilateralmente las reglas del juego.
    2. Cooperativas de IA
      Promover el desarrollo de IA gestionadas y financiadas por comunidades autónomas de ciudadanos, donde los usuarios tengan voz activa en la configuración de los algoritmos. Esto evita que los sistemas reflejen exclusivamente los intereses de gobiernos o grandes empresas.
    3. Diversidad de opciones tecnológicas
      Fomentar un mercado competitivo donde múltiples sistemas de IA, diseñados por distintas organizaciones con valores y principios variados, ofrezcan alternativas para que las personas elijan el modelo que mejor se alinee con sus intereses y necesidades.
    4. Participación y auditoría ciudadana
      Involucrar a la ciudadanía en el diseño y supervisión de las IA, mediante plataformas digitales que permitan votaciones, auditorías abiertas y revisión de decisiones algorítmicas. Esto democratiza el control y fomenta la rendición de cuentas.
    5. Educación y empoderamiento tecnológico
      Garantizar que los ciudadanos tengan las herramientas y conocimientos necesarios para identificar y cuestionar manipulaciones algorítmicas. Esto puede incluir la creación de herramientas accesibles para auditar los sesgos en los sistemas de IA.

    Estas medidas permitirán evitar que los algoritmos se conviertan en herramientas de censura o manipulación, al mismo tiempo que equilibran la ética, la seguridad y la libertad de información. La clave está en redistribuir el poder tecnológico para que las decisiones sobre el uso de IA reflejen una pluralidad de intereses y no los de una élite.

  • La falsa empatía de ChatGPT

    El antropomorfismo es la tendencia a atribuir características humanas a entidades no humanas, como máquinas o animales. En el caso de los chatbots, como ChatGPT, Gemini o Copilot, este fenómeno ocurre cuando imitan el lenguaje humano para comunicarse con nosotros. No solo utilizan palabras y frases comprensibles y familiares, sino que también adoptan patrones de comunicación propios de las personas. Así, logran mantener conversaciones contextuales y coherentes e, incluso, pueden mostrar humor y empatía.

    Este diseño del lenguaje en las máquinas busca que la interacción con ellas sea natural, fluida y accesible. Eso facilita su uso en distintas aplicaciones, desde el servicio al cliente hasta la educación y el entretenimiento.

    Hasta ahora, se consideraba que el lenguaje era una capacidad exclusiva del ser humano. Sin embargo, los avances en la inteligencia artificial generativa nos llevan a reconsiderar esta idea.

    Uno de los rasgos más distintivos del lenguaje humano es la subjetividad, que se manifiesta en la elección de palabras con carga emocional y en la expresión de opiniones personales. También aparece en la evaluación de eventos y en el uso de elementos contextuales y culturales.

    El chatbot ELIZA, publicado en 1966, ya simulaba el comportamiento humano, adoptando el papel de un psicólogo en su conversación con el usuario.
    Wikimedia Commons., CC BY

    El impacto de la primera persona

    Cuando una máquina simula ser humana en la comunicación, surgen implicaciones éticas y psicológicas importantes. Estas interacciones pueden influir en cómo percibimos y nos relacionamos con la tecnología.

    Un rasgo típico de la subjetividad humana en el lenguaje es el uso de pronombres personales. La primera persona (como “yo” y “nosotros”) permite expresar pensamientos y experiencias propias. La segunda persona (como “tú” y “vosotros”) involucra al interlocutor, construyendo una relación entre los participantes de la conversación. En la interacción humana, esto se llama intersubjetividad.

    Consideremos un ejemplo.

    • Usuario: “¿Cómo priorizar qué artículos conservar, donar o tirar durante el proceso de organización?”
    • Chatbot: “¡Excelente pregunta! Organizar tus pertenencias puede ser abrumador, pero con una estrategia clara, puedes tomar decisiones más fáciles. Aquí te presento algunas ideas para priorizar qué conservar, donar o tirar”.

    El chatbot usa la primera persona de manera implícita. Aunque el “yo” no aparece, el emisor adopta una posición de asesor o guía. Por ejemplo, en la frase “Aquí te presento algunas ideas,” el verbo “presento” está en primera persona.

    Esto sugiere que el chatbot asume el rol de quien brinda ayuda. Así, el usuario percibe un trato personal, aunque el “yo” no se emplee de manera explícita. Además, el uso de “presento” refuerza la imagen del emisor como alguien que ofrece algo valioso.

    Uso de la segunda persona

    El “tú” (y formas como “te” y “tus”) se usa para dirigirse directamente al usuario. Esto se ve en varias partes del texto, como en las frases: “Organizar tus pertenencias puede ser abrumador” y “con una estrategia clara, puedes tomar decisiones más fáciles”.

    Al hablarle de forma personal, el chatbot busca que el lector se sienta parte activa del consejo. Este tipo de lenguaje es común en textos que buscan involucrar directamente al otro.

    Otros elementos en la interacción, como “¡Excelente pregunta!”, no solo evalúan positivamente la consulta del usuario, sino que también incentivan su participación. Del mismo modo, expresiones como “puede ser abrumador” sugieren una experiencia compartida, creando una ilusión de empatía al reconocer las posibles emociones del usuario.

    Efectos de la empatía artificial

    El uso de la primera persona por parte del chatbot simula consciencia y busca crear una ilusión de empatía. Al adoptar una posición de ayudante y usar la segunda persona, involucra al usuario y refuerza la percepción de cercanía. Esta combinación genera una conversación que se siente más humana y práctica, adecuada para el asesoramiento, aunque la empatía provenga de un algoritmo, no de una comprensión real.

    Acostumbrarnos a interactuar con entidades no conscientes que simulan identidad y personalidad puede tener efectos a largo plazo. Estas interacciones pueden influir en aspectos de nuestra vida personal, social y cultural.

    A medida que estas tecnologías mejoran, distinguir entre una conversación con una persona y una con una inteligencia artificial podría volverse difícil.

    Este desdibujamiento de los límites entre lo humano y lo artificial afecta cómo entendemos la autenticidad, la empatía y la presencia consciente en la comunicación. Incluso podríamos llegar a tratar a las inteligencias artificiales como si fueran seres conscientes, generando confusión sobre sus capacidades reales.

    Incómodos hablando con humanos

    Las interacciones con máquinas también pueden modificar nuestras expectativas sobre las relaciones humanas. Al habituarnos a interacciones rápidas, perfectas y sin conflicto, podríamos sentirnos más frustrados en nuestras relaciones con personas.

    Las relaciones humanas están marcadas por emociones, malentendidos y complejidad. Esto, a largo plazo, podría disminuir nuestra paciencia y capacidad para manejar los conflictos y aceptar las imperfecciones naturales en las interacciones interpersonales.

    Además, la exposición prolongada a entidades que simulan humanidad plantea dilemas éticos y filosóficos. Al atribuirles cualidades humanas, como la capacidad de sentir o tener intenciones, podríamos comenzar a cuestionar el valor de la vida consciente frente a una simulación perfecta. Esto podría abrir debates sobre los derechos de los robots y el valor de la conciencia humana.

    Interactuar con entidades no conscientes que imitan la identidad humana puede alterar nuestra percepción de la comunicación, las relaciones y la identidad. Aunque estas tecnologías ofrecen ventajas en términos de eficiencia, es fundamental ser conscientes de sus límites y de los posibles impactos en la forma en que nos relacionamos, tanto con las máquinas como entre nosotros.The Conversation

    Cristian Augusto Gonzalez Arias, Investigador, Universidade de Santiago de Compostela

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • «Operator», la Nueva Era de los Agentes Autónomos de IA

    La inminente llegada de «Operator», el agente de inteligencia artificial de OpenAI, promete marcar un hito en la automatización personal. Este software, diseñado para realizar tareas complejas con mínima supervisión, como programar código o gestionar viajes, está programado para su lanzamiento en enero del 2025. Sin embargo, más allá de la emoción por sus capacidades, su aparición plantea profundas preguntas sobre el futuro de la relación entre humanos y máquinas.

    La automatización al alcance de un clic
    La idea detrás de «Operator» es seductora: delegar tareas repetitivas y tediosas a una inteligencia artificial, liberando tiempo y recursos para concentrarse en actividades más importantes. Al igual que herramientas similares de Microsoft y Anthropic, el enfoque de OpenAI no solo busca optimizar procesos, sino también explorar nuevos usos prácticos que redefinan la utilidad de los agentes de IA en el día a día.

    Sam Altman, CEO de OpenAI, afirmó recientemente que los avances más revolucionarios en el campo de la inteligencia artificial no vendrán de modelos más complejos, sino de agentes autónomos que realicen tareas completas por nosotros. Este paradigma supone un cambio radical en cómo entendemos la tecnología: ya no se trata solo de generar respuestas o resolver preguntas, sino de tomar decisiones autónomas en nuestro nombre.

    ¿Avance o dependencia peligrosa?
    Aunque la promesa de «Operator» y herramientas similares es tentadora, no está exenta de riesgos. La creciente autonomía de los agentes plantea serias preocupaciones éticas y prácticas. ¿Hasta qué punto podemos confiar en que estos sistemas tomarán decisiones alineadas con nuestros intereses? Y más importante aún, ¿qué sucede cuando estos agentes tienen acceso a nuestros datos más sensibles para ejecutar tareas?

    El desafío ético es significativo. La posibilidad de que «Operator» y otros agentes actúen con una independencia que comprometa la privacidad o tome decisiones erróneas no es un escenario remoto. Estas tecnologías avanzan rápidamente, pero su autoregulación y los controles necesarios para garantizar un uso seguro y ético a menudo quedan rezagados.

    Un paso hacia la automatización total, pero con cautela
    La llegada de «Operator» refleja un cambio inevitable en la tecnología: la integración de herramientas que no solo asisten, sino que actúan por nosotros. Si bien el potencial para revolucionar sectores enteros y simplificar nuestras vidas es evidente, es fundamental abordar los riesgos asociados con esta autonomía.

    El éxito de «Operator» no dependerá solo de sus capacidades técnicas, sino también de las medidas de OpenAI para garantizar que los usuarios mantengan el control sobre sus datos y decisiones. En esta carrera hacia la automatización, debemos recordar que el verdadero progreso reside en equilibrar la innovación con la responsabilidad ética.

    El lanzamiento de «Operator» marca un punto de inflexión en cómo interactuamos con la inteligencia artificial. La pregunta ya no es si las máquinas pueden hacer más por nosotros, sino si estamos preparados para las implicaciones de dejarlas hacerlo.

  • ‘Nexus’: el nuevo libro de Harari advierte del control por los tiranos de la inteligencia artificial

    El historiador israelí Yuval Noah Harari se convirtió con su obra Sapiens en un gurú reconocido mundialmente. Diez años después ha publicado Nexus. Una breve historia de las redes de información desde la Edad de Piedra hasta la IA. Esta vez su relato aborda la hiperconexión de nuestra era y el poder de los algoritmos, y profetiza el desarrollo de una inteligencia artificial todopoderosa que podría otorgar a los tiranos un control absoluto de la humanidad.

    Harari lo simplifica mediante un discurso apto para todos los públicos sobre el futuro de la IA, basado en hipótesis concretas e interesantes, que va ilustrando con los datos históricos que domina.

    El meollo de la trama, como en los artículos académicos, consiste en dichas hipótesis.

    China a la cabeza

    Harari se apoya en contextos históricos que innegablemente se pueden trasladar a la situación actual, umbral de una nueva revolución tecnológica. Compara así el despliegue de las primeras líneas de ferrocarril al comienzo de la Revolución Industrial con el milenio actual y la revolución tecnológica que supuso Internet. En ambas épocas, la iniciativa privada asumió el riesgo tecnológico, guiada por consideraciones de mercado, como en nuestro tiempo han hecho Google, Facebook, Amazon, etc.

    Llegado el momento, los estados tomaron el control de los ferrocarriles, al comprender su potencial estratégico. Hoy, en el desarrollo de algoritmos e IA estatales, China lleva la delantera.

    Las ventajas para un estado dictatorial

    Resulta extremadamente interesante el punto de vista de la obra, según el cual, en la fase de iniciativa estatal, una dictadura con una gran población –y, por tanto, gran capacidad de generación de datos– y escasas restricciones legislativas posee enorme ventaja frente a sociedades libres fuertemente reguladas, consideraciones morales aparte. Este sería el caso de China frente a la Unión Europea, pionera en una legislación que trata de poner límite al uso de la inteligencia artificial.

    Aparentemente, aún estamos lejos de esta segunda fase, pues los gigantes tecnológicos todavía llevan la iniciativa. Así, escribe Harari:

    “Cuando los gigantes tecnológicos […] se proponen diseñar mejores algoritmos, normalmente pueden hacerlo”.

    Sin embargo, hace dos décadas creíamos que China nunca igualaría a Silicon Valley –de hecho ni siquiera nos lo planteábamos– y hoy los drones chinos no solo dominan el mercado, sino que surcan los cielos de Ucrania como la vanguardia de la guerra del futuro.

    Imperios y libros sagrados

    La comparación de Harari de los imperios coloniales occidentales con el desarrollo actual de herramientas de control de la población mediante IA es certera y estremecedora.

    Es brillante el paralelismo que establece entre verdades indiscutibles (IA supuestamente infalible frente a libros sagrados); autoridades de interpretación (gobiernos actuales frente a iglesias y clérigos) y mecanismos de autocorrección (ciencia actual frente a su práctica ausencia en el pasado).

    Iglesias y clérigos fueron las autoridades de interpretación de los textos sagrados indiscutibles. Hoy, son las sociedades y los gobiernos quienes han de interpretar las decisiones de la IA. Y ante la amenaza de una IA todopoderosa, Harari advierte que solo se salvará la humanidad con mecanismos de corrección que limiten y corrijan sus efectos.

    La IA como herramienta de orden

    ¿Cuáles serán los mecanismos de autocorrección de un mundo aumentado por la inteligencia artificial? ¿Actuará la IA como un potenciador del deseo intrínseco de orden en las sociedades con recursos limitados, comprometiendo los ideales de progreso en libertad que actualmente damos por sentados?

    Lo que está claro es que la IA será un actor parcialmente autónomo y, como tal, los mecanismos de corrección deberán ser externos.

    Harari nos lleva a ponderar que el peligro no es la IA “descontrolada” del imaginario colectivo, sino su uso por parte de sociedades que la empleen como herramienta de orden y control, así como el efecto de su mera existencia en la propia evolución de las sociedades.

    En algún momento podría llegar lo que Harari llama “nuevos señores supremos de la IA” con poderes absolutos. Un señor supremo de la IA podría decidir diseñar un nuevo virus pandémico, o inundar las redes con noticias falsas o incitaciones a la revuelta.

    El control de los tiranos

    El equilibrio entre sociedades enfrentadas aumentadas por IA –escribe Harari en Nexus– será mucho más inestable que el que existía entre las potencias nucleares separadas por las fronteras de la Guerra Fría. La razón es que ahora es mucho mayor la incertidumbre, propia de sistemas con más grados de libertad, sin certezas sobre las acciones y sus consecuencias.

    Profetiza Harari que una IA centralizada pasará a ser un recurso cuyo control llevará a conflictos y enfrentamientos.

    El autor rehuye la banalidad de la IA como una entidad totalmente autónoma al margen de los dirigentes humanos (aunque ilustra esa posibilidad con interesantes ejemplos del Imperio romano), pero identifica acertadamente el riesgo de que se centralice y pase a ser un recurso cuyo control se disputen los tiranos.

    El telón de silicio

    Harari menciona telones de silicio virtuales, pero ciertamente estamos presenciando el despliegue de telones de silicio físicos. La computación todavía depende de recursos muy costosos claramente localizados: centros de datos potentes, enlaces troncales que soportan conexiones masivas entre distintas áreas geográficas, etc.

    Sin embargo, la deslocalización de la IA es factible. Es decir, aunque a día de hoy la computación todavía se puede compartimentar al dictado de los gobiernos siguiendo fronteras físicas, es posible que esta limitación desaparezca pronto y que la IA pase a convertirse en un poder ubicuo que solo exista en la ciberesfera, algo que hasta ahora solo hemos visto en la ciencia ficción. En ese momento nada será como hoy creemos, para bien o para mal.

    Harari, si nos sirve de consuelo, es optimista.The Conversation

    Francisco Javier González Castaño, Catedrático de universidad del Área de Ingeniería Telemática, Universidade de Vigo

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Hinton, «el padrino de la IA», gana el Nobel de Física.

    El Premio Nobel de Física 2024 ha sido otorgado a dos científicos cuyas investigaciones han transformado el mundo de la inteligencia artificial (IA): Geoffrey Hinton y John Hopfield. Ambos han sido reconocidos por sus contribuciones fundamentales al desarrollo del aprendizaje automático, especialmente a través de redes neuronales artificiales, una tecnología que emula el funcionamiento del cerebro humano.

    Geoffrey Hinton, apodado el «Padrino de la IA», es un científico británico-canadiense cuyo trabajo pionero en redes neuronales ha sentado las bases para la IA moderna. Su investigación ha permitido el desarrollo de sistemas avanzados como ChatGPT y otros modelos de lenguaje, que hoy en día juegan un papel crucial en diversas aplicaciones, desde el diagnóstico médico hasta la traducción de idiomas. John Hopfield, por su parte, es un físico estadounidense de la Universidad de Princeton, conocido por desarrollar la red de Hopfield, que utiliza principios de la física para recrear patrones de memoria en sistemas computacionales.

    Ambos científicos, a pesar de sus notables contribuciones al avance de la tecnología, han mostrado cautela respecto al futuro de la inteligencia artificial. Geoffrey Hinton, quien renunció a Google en 2023, ha advertido sobre los peligros que plantea el desarrollo de máquinas que eventualmente podrían superar la inteligencia humana. En diversas entrevistas, Hinton ha expresado su preocupación de que, si no se regula adecuadamente, la IA podría llegar a tomar decisiones autónomas que escapen al control humano. “Es probable que en un plazo de entre cinco y veinte años nos enfrentemos al problema de la IA tratando de tomar el control», dijo Hinton en una entrevista reciente.

    Las advertencias de Hinton sobre el impacto social de la IA no se limitan solo a cuestiones de control. En 2023, también señaló los efectos que esta tecnología podría tener en la economía y el empleo. Hinton sugirió que el avance acelerado de la IA podría desplazar muchos trabajos rutinarios, lo que incrementaría la desigualdad si no se toman medidas, como la implementación de una renta básica universal. Aunque reconoció el enorme potencial de la IA para aumentar la productividad y mejorar la vida en áreas como la salud, advirtió que los beneficios económicos podrían concentrarse en las élites, dejando atrás a quienes pierdan sus empleos debido a la automatización.

    El trabajo de Hinton y Hopfield en la IA, que les ha valido este premio Nobel 2024, ha impulsado avances que ahora forman parte de nuestra vida cotidiana. Desde la mejora en los modelos de predicción climática hasta la creación de fármacos diseñados por IA, las contribuciones de estos científicos han tenido un impacto profundo. Sin embargo, Hinton, a lo largo de los últimos años, ha insistido en la necesidad de equilibrar el desarrollo tecnológico con una mayor atención a los riesgos éticos y sociales.

    El Premio Nobel en Física de 2024 no solo celebra los logros científicos de Hinton y Hopfield, sino que también sirve como un recordatorio de la doble cara de la tecnología: mientras que su avance puede traer enormes beneficios, también plantea desafíos que la sociedad deberá enfrentar con seriedad y cautela.

  • Amazon Revoluciona Alexa con IA Generativa: Nuevas Funcionalidades a un Costo de Suscripción

    Amazon está preparando el lanzamiento de una versión renovada de su asistente virtual, Alexa, impulsada por inteligencia artificial (IA) generativa. Esta actualización, prevista para octubre, promete transformar la experiencia del usuario con nuevas capacidades y funciones, pero también introduce un nuevo modelo de suscripción que podría alcanzar los 10 dólares al mes.

    Alexa con IA Generativa: Un Nuevo Capítulo en Asistentes Virtuales

    La integración de IA generativa en Alexa no es solo una actualización tecnológica, sino un cambio de paradigma en cómo los asistentes virtuales interactúan con los usuarios. La tecnología de IA generativa permitirá que Alexa mantenga conversaciones más naturales, responda a preguntas de seguimiento y use una voz más humana, similar a los chatbots avanzados como ChatGPT de OpenAI o Gemini de Google.

    La nueva versión de Alexa, apodada «Remarkable Alexa,» ofrecerá características como «Smart Briefing,» una función que proporcionará resúmenes diarios de noticias generadas por IA basadas en las preferencias del usuario. Esta capacidad no solo mejorará la personalización de Alexa, sino que también fomentará una interacción constante con el asistente virtual, un aspecto que Amazon considera clave para aumentar la participación del cliente.

    Un Modelo de Suscripción para la Nueva Alexa

    Una de las novedades más significativas de esta actualización es que la nueva Alexa estará disponible bajo un modelo de suscripción. Según documentos internos de Amazon filtrados por The Washington Post, la suscripción podría costar hasta 10 dólares al mes. Esto marca un cambio importante, ya que Alexa ha sido tradicionalmente un servicio gratuito, disponible para cualquier usuario que comprara un dispositivo Echo.

    La versión actual de Alexa será renombrada como «clásica Alexa» y permanecerá gratuita. Sin embargo, para aquellos interesados en las nuevas funcionalidades impulsadas por IA generativa, la suscripción será necesaria. Amazon aún está decidiendo sobre los detalles finales del precio y la estructura de suscripción, lo que indica que el modelo aún podría sufrir cambios antes del lanzamiento en octubre.

    Nuevas Capacidades y Potenciales Aplicaciones

    Más allá de las funciones conversacionales mejoradas, la nueva Alexa también promete funcionalidades adicionales que podrían redefinir su uso. Por ejemplo, podrá crear recetas personalizadas basadas en la dieta y los ingredientes disponibles de los usuarios, una capacidad que va mucho más allá de simplemente repetir comandos pregrabados.

    Otra característica destacada es la capacidad de reconocer voces individuales y aprender sobre los usuarios a través de preguntas personalizadas, lo que podría hacer que la interacción con Alexa sea más personalizada y relevante. Además, la función “Explorar con Alexa 2.0” ofrecerá contenido educativo y de entretenimiento moderado para niños, demostrando la versatilidad de esta nueva versión.

    Una Estrategia de Diferenciación en un Mercado Competitivo

    El lanzamiento de Amazon con Alexa con IA generativa no solo busca mejorar la experiencia del usuario, sino también competir con otros gigantes tecnológicos en el espacio de la IA. Amazon, que ya lanzó un asistente de IA para aplicaciones comerciales llamado Q, ahora busca establecerse como líder en asistentes virtuales de consumo con esta nueva propuesta.

    Además, Amazon también planea lanzar Project Metis, un chatbot que estará disponible a través de navegadores web, similar a ChatGPT, Claude, o Gemini. Esta expansión en servicios web indica un esfuerzo más amplio por parte de Amazon para tener una presencia significativa en el sector de la IA generativa.

    ¿Una Nueva Era para Alexa?

    La llegada de esta nueva Alexa podría marcar un punto de inflexión en la evolución de los asistentes virtuales. Hasta ahora, los modelos como ChatGPT han sido limitados a aplicaciones textuales, sin la capacidad de controlar dispositivos del hogar o realizar funciones más complejas. Con Alexa, Amazon podría romper esta barrera y ofrecer un asistente virtual más interactivo y útil para la vida cotidiana.

    El desafío estará en cómo los consumidores recibirán este cambio hacia un modelo de suscripción y si considerarán que las nuevas funcionalidades justifican el costo adicional. Con esta apuesta, Amazon espera no solo cambiar la experiencia del usuario, sino también recuperar terreno en el competitivo mercado de la IA generativa.

  • Singularidad: ¿se saldrá la inteligencia artificial de nuestro control?

    En física, una singularidad es un punto en el espacio-tiempo donde se produce un evento que no cumple ninguna de las leyes físicas previstas para el mismo. A nivel informático, la singularidad sería aquel evento en el que los sistemas no solo no se comportan como está previsto, sino que, súbitamente, ofrecen una respuesta no esperada basada en un criterio propio.

    En este punto, cualquier predicción sobre lo que ocurrirá después fallaría. Y cuando el ser humano no puede, ni siquiera, controlar de forma imaginaria los posibles escenarios futuros, se comienza a inquietar.

    Voces de alarma

    Para algunos, no es algo lejano. Por ejemplo, el informático futurista Ray Kuzweil, en una entrevista del 2023, aseguraba que el comienzo de la singularidad tendría lugar en 2045.

    Mientras, investigadores de gran prestigio, como Geoffrey Hinton, Yoshua Bengio o Stuart Russell aparecen en los medios de comunicación alertándonos de un grave peligro emergente. Incluso uno de los fundadores de OpenAI, Sam Altman, ha llegado a pedir ante un comité del Senado de los Estados Unidos regular los avances de la inteligencia artificial (IA). ¿Realmente es tan preocupante?

    Este libro del informático futurista Ray Kurzweil anunciaba, en 2006, que ‘la singularidad está cerca’.
    Penguin Random House

    La consciencia en las máquinas

    La clave de esta inquietud no está tanto en la singularidad, sino en el paso previo necesario para llegar a ella: la creación de una nueva inteligencia artificial general (AGI, por sus siglas en inglés).

    Nos referimos a aquella capaz de igualar a la inteligencia humana en sus procesos tanto cognitivos como relacionales, es decir, una IA capaz de dominar las 8 inteligencias múltiples.

    De conseguirse, conformaría la tercera gran revolución en la historia de la IA. Tanto es así que existe una carrera geopolítica silenciosa al respecto de quién será el primero en conseguirla.

    ¿Inteligencia artificial con intenciones?

    Aunque los sistemas de IA actuales, según algunos, puedan dar signos de cierta autoconsciencia –como publicó Blake Lemoine en sus “conversaciones” con LamDa o desde Microsoft a través de una publicación– las IA actuales, no “saben” o no son “conscientes” de lo que están generando.

    Son solo buenos predictores de píxeles o de palabras, en base a los ítems anteriores, pero siempre en base a un entrenamiento. No pueden “reflexionar” si esas inferencias son correctas, ni son capaces de formular hipótesis sobre las razones de sus propias conclusiones.

    Por lo tanto, tampoco son conscientes de su posicionamiento subjetivo ante las mismas. Simplemente, son muy buenas dando respuestas, pero no son capaces de desarrollar las preguntas adecuadas. Todavía.

    La clave, imitar al cerebro humano

    El psicólogo Frank Rosenblatt (11 de julio de 1928-11 de julio de 1971) inventó el perceptrón, la primera neurona artificial.
    CC BY

    La primera revolución en el mundo de la IA vino dada por la implementación simplificada, in silico, del modelo de una neurona natural. En 1906, Frank Rosenblatt diseñó el “perceptrón”, la base de todas las redes artificiales actuales.

    La segunda revolución en la IA vino, una vez más, al “copiar” una topología de redes neuronales humanas en un programa. Esta vez fue Kunihiko Fukushima quien, en 1980, inspirado en el modelo propuesto por los premios Nobel Hubel y Wiesel (1959), desarrolló la base de las actuales redes convolucionales y profundas.

    Fue el nacimiento de una revolución tecnológica sin precedentes, mejorada de forma progresiva por parte de los informáticos Jan LeCun y de Dan Ciresan.

    Actualmente, dentro de la neurocomputación, se está trabajando en una segunda versión de estas redes, muy prometedoras, denominadas redes neuronales de impulsos o spiking.

    Para llegar a una IA general –o AGI–, debemos ir de la mano de la neurocomputación, investigando sobre la topología de una red artificial capaz de generar reglas formales, matemáticas, semánticas o lingüísticas, que formule hipótesis sobre las respuestas obtenidas por la IA tradicional. Pero el nivel de computación actual ya ha llegado a su límite para este objetivo.

    La ley de Moore expresa que aproximadamente cada 2 años se duplica el número de transistores en un microprocesador.
    Seofilo / Wikimedia Commons, CC BY

    El mismo Moore pronosticaba que, en 2021, una nueva tecnología vendría a suplir su actual modelo de crecimiento computacional. Y acertó.

    La esfera de Bloch es una representación de un cúbit, el bloque de construcción fundamental de los computadores cuánticos.
    MuncherOfSpleens / Wikimedia Commons, CC BY

    Esta tecnología es la computación cuántica. Con solo 40 cúbits, podemos procesar por “fuerza bruta” y en paralelo tantos estados computacionales como neuronas tiene nuestro cerebro.

    Además, ciertas teorías indican que, no solo a nivel atómico, sino también a nivel cerebral, existe un comportamiento cuántico en la inferencia y comunicación entre neuronas de zonas no adyacentes.

    El premio nobel de física Roger Penrose es uno de los mayores defensores de esta teoría, que se ve complementada por otros enfoques, como la teoría de Kauffman o la teoría de Bleck y Eccles.

    ¿Los primeros signos de singularidad?

    Existen ya primeras aproximaciones a la AGI reflexiva, como los sistemas MuZero o LIDA. Centros de investigación muy punteros, como I3B (Ibermática Fundazioa), llevan años investigando en el desarrollo de una AGI basada en la inclusión de una topología de grafos semánticos dentro de sistemas profundos.

    Esto supone unir los mundos de la neurocomputación, la computación cuántica y la inteligencia artificial en un trabajo multidisciplinar entre neurocientíficos, humanistas, antropólogos, ingenieros, informáticos, científicos de datos y programadores cuánticos.

    En este contexto, una nueva AGI obligaría a implementar, necesariamente, una autoconsciencia artificial. El país que lo consiga liderará una cuarta revolución tecnológica consolidando una industria increíblemente rentable que lo posicionará como proveedor a nivel mundial. España posee de sobra capacidades y talento en IA, cuántica y en neurocomputación para conseguirlo.

    Por otro lado, será el nacimiento de nuevos sistemas capaces de ayudarnos a comprender mejor nuestro universo y a nosotros mismos, proponiendo preguntas que, quizás, jamás nos hayamos hecho.

    El superordenador Hal-9000 en la serie Odisea espacial analizando la conversación y realizando hipótesis sobre la misma.
    IMBD

    Entonces, seguramente, habremos llegado a una nueva singularidad. Nuestro propio afán de avanzar científicamente nos llevará a lograrlo.The Conversation

    Aitor Moreno Fdz. de Leceta, Profesor de Computación Cuántica, Inteligencia Artificial, Universidad de Deusto

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Osito Teddy, de tu infancia a la inteligencia artificial

    En la era de la inteligencia artificial, los juguetes clásicos están recibiendo una actualización futurística. Skyrocket, una empresa de tecnología y entretenimiento con sede en Los Ángeles, ha anunciado el lanzamiento de un osito de peluche revolucionario que está destinado a transformar la experiencia de los cuentos para dormir de los niños. Bautizado como «Poe the AI Story Bear», este osito utiliza la inteligencia artificial (IA) más avanzada para crear y narrar historias personalizadas en tiempo real.

    Poe the AI Story Bear: Innovación en Juguetes

    Poe the AI Story Bear es un osito de peluche que utiliza el modelo de IA GPT-4o de OpenAI para generar y contar historias. Este modelo es uno de los más avanzados desarrollados por OpenAI, con capacidades para procesar texto, audio y video. A través de una aplicación móvil, los niños pueden aportar ideas para los cuentos, y Poe las transformará en relatos únicos y personalizados. El osito tiene la capacidad de narrar en hasta 20 idiomas, gracias a la tecnología de Eleven Labs, que asegura que la voz suene lo más natural posible.

    El juguete se lanzará en agosto a un precio de 50 dólares. Funciona con cuatro baterías AA y no tiene micrófonos ni cámaras incorporadas, lo que asegura la privacidad y seguridad de los niños. La aplicación móvil es esencial para generar las historias, que se envían al oso a través de una conexión Bluetooth. Una vez recibidos los archivos de audio, el osito mueve su boca al reproducir el audio, creando la ilusión de que está hablando.

    Funcionamiento y Características Técnicas

    El proceso de creación de historias con Poe es sencillo pero impresionante. Los niños utilizan la aplicación para seleccionar los ingredientes de su cuento, como personajes, objetos y escenarios. Las opciones van más allá de los cuentos de hadas típicos, permitiendo la inclusión de personajes como brujas, influencers de redes sociales, señores de la guerra alienígenas, zombis y arqueólogos. Esto permite una enorme variedad de combinaciones y creatividad.

    Detrás de escena, la aplicación envía un mensaje al modelo GPT-4o para generar la historia. Skyrocket ha implementado varios filtros y guardarraíles en la programación para asegurarse de que las historias sean apropiadas para los niños, evitando temas controvertidos o inapropiados. La voz del oso, también generada por IA, convierte el texto en discurso en cuestión de segundos.

    El osito Poe puede almacenar historias previamente generadas, permitiendo su reproducción en cualquier momento al presionar su oreja. Aunque la IA puede generar nuevas historias rápidamente, la longitud y la cantidad de cuentos están limitadas debido a los altos costos asociados con la tecnología. Cada osito Poe viene con créditos para crear 75 historias, y los padres pueden necesitar comprar créditos adicionales para seguir generando nuevos relatos.

    Desafíos y Críticas

    A pesar de su innovadora propuesta, Poe enfrenta desafíos significativos. Bridget Carey de CNET probó el juguete con sus hijos de cinco y ocho años, y aunque elogió la rapidez y funcionalidad de la aplicación, señaló problemas con la calidad literaria de los cuentos. Las historias, aunque rápidas de crear, a menudo contenían giros aleatorios y vocabulario inapropiado para los niños, lo que puede ser problemático.

    Skyrocket ha intentado mitigar estos problemas implementando filtros y guardarraíles en la programación de la IA para asegurar que las historias sean adecuadas para los niños. Sin embargo, Carey destacó que la longitud de los cuentos y la cantidad de historias generables están limitadas, posiblemente debido al alto costo de uso de la tecnología.

    El Futuro de los Juguetes con IA

    Poe es solo el comienzo de una nueva generación de juguetes impulsados por IA. La tecnología detrás de este osito podría abrir camino a una amplia variedad de productos similares a medida que la inteligencia artificial continúa evolucionando. Skyrocket espera que futuras versiones de Poe puedan mejorar en términos de narrativa y adecuación al público infantil.

    El reciente lanzamiento del modelo GPT-4o Mini por parte de OpenAI, que es más económico y pequeño, podría facilitar el desarrollo de nuevos juguetes basados en IA, haciendo que esta tecnología sea más accesible para los desarrolladores y, en consecuencia, para los consumidores.

    Comparación con Juguetes Clásicos

    El lanzamiento de Poe evoca recuerdos de Teddy Ruxpin, el primer osito de peluche animatrónico lanzado en 1985. Teddy Ruxpin movía su hocico y parpadeaba al ritmo de las historias reproducidas desde cintas de casete. Sin embargo, a diferencia de Teddy Ruxpin, Poe no cuenta con un equipo de escritores, músicos y actores de voz detrás de sus historias. En su lugar, la creatividad se deja en manos de la IA, lo que puede resultar en cuentos menos cohesionados y personalizados.

    El osito de peluche Poe, con su capacidad para generar y contar historias personalizadas, simboliza un avance significativo en la intersección de la tecnología y el entretenimiento infantil. Aunque todavía presenta desafíos en términos de narrativa y adecuación para niños, su lanzamiento marca un paso importante hacia la integración de la IA en los juguetes. A medida que esta tecnología continúe avanzando, es probable que veamos una proliferación de juguetes similares que no solo entretengan, sino que también estimulen la creatividad y la imaginación de los niños de maneras antes inimaginables.

  • NVIDIA se Corona como la Empresa Más Valiosa del Mundo Gracias a la IA

    NVIDIA Corp. ha alcanzado un hito histórico, convirtiéndose en la empresa más valiosa del mundo por capitalización de mercado, superando a gigantes tecnológicos como Microsoft y Apple. Este logro destaca el impacto y la creciente importancia de la inteligencia artificial (IA) en el mercado tecnológico y financiero global.

    El Ascenso de NVIDIA en el Mercado

    A principios de junio de 2024, NVIDIA superó a Apple en valor de mercado por primera vez desde 2002. Posteriormente, también superó a Microsoft, situándose en la cima del mercado con una capitalización bursátil de aproximadamente 3.3 billones de dólares. Este ascenso meteórico ha sido impulsado principalmente por el auge de la inteligencia artificial y la demanda de los chips avanzados de NVIDIA, que son esenciales para las aplicaciones de IA.

    Innovación y Liderazgo en IA

    NVIDIA es conocida por sus unidades de procesamiento gráfico (GPU) de alta eficiencia, que son fundamentales para los centros de datos que manejan tareas computacionales complejas. Sus aceleradores H100, en particular, han visto una demanda vertiginosa, contribuyendo a un incremento en las ventas del fabricante de chips en más de un 125% el año pasado. Esta tecnología no solo es crucial para la inteligencia artificial, sino también para el aprendizaje profundo y otras aplicaciones avanzadas.

    El CEO de NVIDIA, Jensen Huang, y su equipo han posicionado a la compañía no solo como un fabricante de chips, sino como un proveedor de sistemas completos que incluyen software propietario y un ecosistema de desarrollo robusto. Esto ha permitido a NVIDIA mantener una ventaja competitiva significativa en el mercado de la IA.

    Competencia y Colaboración

    Mientras NVIDIA se destaca, otras grandes tecnológicas como Microsoft y Apple también están haciendo movimientos estratégicos en el ámbito de la IA. Microsoft, por ejemplo, ha invertido y colaborado con OpenAI, la organización detrás de ChatGPT, lo que subraya su compromiso con el desarrollo de tecnologías avanzadas. Apple, por su parte, ha presentado recientemente su plan para incursionar en la inteligencia artificial, lo que ha calmado las expectativas de los inversores.

    Impacto Financiero y Futuro

    El impacto financiero de NVIDIA es innegable. Hasta la fecha, las acciones de la empresa han subido más de un 160% en 2024, agregando más de 2 billones de dólares a su capitalización de mercado. Este crecimiento fenomenal no solo refleja el valor de los productos de NVIDIA, sino también la creciente demanda y la importancia de la inteligencia artificial en la economía global.

    Daniel Ives, analista de Wedbush Securities, describe los chips de GPU de NVIDIA como «el nuevo oro o petróleo del sector tecnológico», destacando su papel crucial en la cuarta Revolución Industrial. A medida que más empresas y consumidores adoptan tecnologías de IA, la demanda de los productos de NVIDIA seguirá aumentando.

    NVIDIA, la empresa más valiosa del mundo.

    NVIDIA ha demostrado ser una fuerza dominante en el mercado tecnológico, impulsada por su liderazgo en el desarrollo y la implementación de tecnologías de inteligencia artificial. Su capacidad para innovar y adaptarse a las necesidades del mercado ha permitido a la empresa superar a gigantes como Microsoft y Apple, consolidando su posición como la empresa más valiosa del mundo.

    Este logro no solo subraya la importancia de la inteligencia artificial en la economía moderna, sino que también establece un nuevo estándar para la innovación y el crecimiento en el sector tecnológico. A medida que NVIDIA continúa liderando en el desarrollo de tecnologías avanzadas, el futuro parece prometedor tanto para la compañía como para la industria de la IA en su conjunto.

  • Algoritmo evolutivo: cuando la inteligencia artificial se inspira en la selección natural

    La idea de un algoritmo evolutivo es la de expresar el programa mediante un código, a imagen del código genético, capaz de representar un determinado comportamiento.

    En 1959, Arthur Samuel (1901-1990), trabajador de IBM y graduado por el Instituto Técnico de Massachussets, escribió un artículo que cambió el modo de programar los ordenadores.

    Arthur Samuel en el Laboratorio de Inteligencia Artificial de la Universidad de Standford en 1970. Standford InfoLab

    El problema que afrontó Samuel no era de capital importancia: se trataba simplemente de desarrollar un programa capaz de jugar al juego de damas. Analizaba una posición del tablero en la que tenía en cuenta diversos factores. A cada uno de ellos le daba una mayor o menor importancia mediante un valor numérico, y producía el movimiento con más probabilidad de ganar la partida a partir de esa configuración analizada.

    El inconveniente era que se desconocía qué factores eran más importantes para determinar el mejor movimiento a realizar. Y aquí es donde reside la gran aportación de Samuel.

    Un jugador de damas muy perspicaz

    En vez de asignar valores concretos, los asignó de manera aleatoria. Claro que de esta forma el resultado sería un programa con un pésimo rendimiento en el juego. La idea brillante fue la de hacerle jugar contra contrincantes humanos e intentar modificar los valores a partir de la experiencia en las partidas.

    Cuando el software perdía una jugada, la analizaba poniéndose en la piel del humano, comparando la acción que este realizó en cada movimiento con la que el programa hubiera hecho en su lugar. Así, mejoraba su rendimiento estudiando al adversario y aprendiendo de los errores cometidos.

    algoritmo evolutivo
    Las investigaciones de Samuel fueron el punto de partida para el desarrollo de la inteligencia artificial en IBM durante la década de 1990.
    IBM

    Samuel no había programado un algoritmo para jugar a las damas, lo había diseñado para que aprendiera a jugar a las damas. Y fue capaz de hacerlo incluso por encima de las capacidades de su programador.

    Fue una experiencia pionera de lo que hoy se conoce como aprendizaje automático, que está detrás de avances tan extendidos como el diagnóstico médico por inteligencia artificial, el reconocimiento de voz, los vehículos autónomos, los asistentes virtuales o los últimos modelos del lenguaje.

    Autonomía para aprender

    Muchos de ellos se han nutrido del perfeccionamiento de unos modelos, también paramétricos, que llamamos redes neuronales. En estos nuevos modelos no hay una función fija como en el programa de Samuel, sino que se puede aproximar cualquier función, y se pasa de unos pocos parámetros a cientos de millones de ellos.

    Además, ya no hace falta un humano para que el programa aprenda de él: los sistemas actuales aprenden a partir de la miríada de datos que están disponibles en todos los dominios del conocimiento.

    Sin embargo, la tecnología que hay detrás de todos estos modelos recientes no es demasiado revolucionaria. La manera de ajustar sus parámetros es una modificación del método de ajuste mediante descenso de gradiente, que data de finales del siglo XIX, aplicado a las redes neuronales en la década de los 80.

    El éxito reciente reside en la sofisticación de los modelos y su complejidad, además de la enorme disponibilidad de datos de entrenamiento. Pero los científicos no han pasado por alto otro aspecto importante del aprendizaje automático: la evolución.

    Algoritmos genéticos

    Los seres vivos pueden, de manera simplificada, describirse también como funciones parametrizadas, cuyos parámetros son los genes. Dependiendo de los valores que tomen dichos genes, se produce un ser vivo u otro, con unas u otras características.

    Es la evolución la que, de manera similar al programa de Samuel, ha ido seleccionado los valores adecuados de los genes, para generar seres vivos con mayor probabilidad de sobrevivir, descartando por el camino ingentes cantidades de valores inapropiados.

    John Henry Holland desarrolló el primer programa de aprendizaje evolutivo en 1975.
    Wikimedia Commons, CC BY

    Incluso los sistemas neuronales de los seres vivos son el producto de un proceso que ha ido probando soluciones alternativas, durante millones de años, hasta dar con la combinación más eficaz desde el punto de vista evolutivo.

    Es a partir de esta idea que John Holland (1929-2015) diseñó, en el año 1975, el primer programa de aprendizaje evolutivo y desarrolló lo que denominó algoritmos genéticos.

    La idea de un algoritmo evolutivo es la de expresar el programa mediante un código, a imagen del código genético, capaz de representar un determinado comportamiento. Si se modifica el código, el programa se comporta de manera diferente.

    Si damos con una determinada codificación, será capaz de mostrar un comportamiento altamente eficaz. Como en los sistemas neuronales, se parte de un código aleatorio que se va mejorando mediante una versión artificial de la selección natural.

    Los programas que tengan mejores rendimientos cruzarán su codificación, generando nuevos programas, en una versión computacional de la reproducción sexual.

    Desde su aparición, se han producido innumerables avances en este tipo de algoritmos. Asimismo, se han aplicado con éxito en la selección de parámetros en problemas que son inabordables de otra manera.

    La antena 2006 de la nave espacial de la NASA ST5. Esta forma complicada fue encontrada por un programa evolutivo del diseño de computadora para crear el mejor patrón de la radiación.
    Wikimedia Commons, CC BY

    El futuro de la inteligencia artificial podría estar en combinar estas dos perspectivas, la neuronal y la evolutiva. Los sistemas evolutivos podrían ser útiles en la generación automática de modelos neuronales cada vez más complejos o, incluso, nuevos métodos de aprendizaje.

    De la misma manera que la selección natural ha sido capaz de producir sistemas neuronales capaces de generar comportamientos más y más complejos a partir de una evolución gradual de los mismos, los algoritmos evolutivos podrían ser la clave para producir modelos de inteligencia artificial cada vez más sofisticados, mejor adaptados a los requerimientos que se necesiten y más inteligentes.

    El campo de los sistemas evolutivos y los sistemas de inspiración biológica tiene un gran potencial que apenas estamos vislumbrando. Sin duda, será objeto de gran atención en los años venideros.The Conversation

    Pedro Isasi Viñuela, Catedrático de Universidad. Área de Inteligencia Artificial. Universidad Carlos III de Madrid, Universidad Carlos III

    Este artículo fue publicado originalmente en The Conversation. Lea el original.