Etiqueta: AI

  • Google se adelanta a OpenAI con Veo y GenCast

    Google ha dado un paso significativo en la carrera por liderar el ámbito de la inteligencia artificial al presentar dos innovaciones que prometen cambiar las reglas del juego: Veo, un generador de videos de alta calidad impulsado por IA, y GenCast, un modelo de predicción climática avanzado.

    Veo: creatividad cinematográfica al alcance de todos

    Veo, lanzado en el evento Google I/O 2024, es una herramienta de generación de videos basada en texto que permite crear secuencias de hasta más de un minuto con resolución 1080p. Los usuarios pueden simplemente ingresar una descripción detallada, y la herramienta interpreta conceptos visuales como «tomas aéreas» o «timelapse», generando videos realistas o incluso surrealistas. Este nivel de personalización, combinado con una comprensión avanzada del lenguaje natural, hace que Veo destaque sobre competidores como Sora de OpenAI, aún no disponible al público general.

    El sistema también puede generar videos a partir de imágenes combinadas con texto, una función útil tanto para creadores aficionados como para profesionales. Google ha asegurado que las herramientas como Veo se integrarán con plataformas populares como YouTube Shorts, lo que democratizará aún más la producción de contenido audiovisual.

    Sin embargo, Veo no solo es impresionante por su creatividad. Google ha implementado medidas de seguridad robustas, como marcas de agua digitales con SynthID, para identificar contenido generado artificialmente y minimizar riesgos de desinformación.

    GenCast: redefiniendo la predicción climática

    Por otro lado, GenCast, desarrollado por DeepMind, representa un avance en la meteorología. Este modelo puede realizar predicciones con una precisión sin precedentes hasta 15 días en el futuro, incluso en eventos extremos como huracanes o inundaciones. Entrenado con datos de más de 40 años, GenCast supera a los sistemas actuales utilizados en EE. UU., ofreciendo información detallada que podría transformar sectores como la agricultura, la logística y la planificación urbana.

    Lo que distingue a GenCast es su filosofía de acceso abierto: Google planea distribuir no solo el modelo, sino también los datos estadísticos (pesos) necesarios para replicar su rendimiento. Este enfoque podría fomentar la innovación y la colaboración global en la lucha contra el cambio climático y los desastres naturales.

    Implicaciones y desafíos

    Si bien estas tecnologías son prometedoras, no están exentas de retos. En el caso de Veo, existe preocupación por el impacto en la industria audiovisual, ya que la automatización podría desplazar empleos creativos. Además, la capacidad de generar videos hiperrealistas plantea riesgos éticos, especialmente en un mundo donde la desinformación es una amenaza constante.

    En cuanto a GenCast, aunque su capacidad de predicción es asombrosa, dependerá de cómo se adopte en sectores críticos para maximizar su impacto positivo y mitigar posibles malentendidos o errores en interpretaciones locales.

    Con Veo y GenCast, Google no solo demuestra su capacidad tecnológica, sino que también redefine los límites de lo posible en IA. Mientras estas herramientas abren nuevas oportunidades creativas y científicas, plantean preguntas sobre cómo gestionar su impacto social. En cualquier caso, el futuro de la inteligencia artificial parece estar cada vez más enfocado en crear soluciones tanto innovadoras como responsables.

  • David Mayer: misterio detrás de ChatGPT

    Ha surgido un incidente peculiar que involucra al popular chatbot de inteligencia artificial de OpenAI, ChatGPT. Los usuarios de Reddit han descubierto que el modelo de IA parece tener un bloque codificado con el nombre “David Mayer”.

    Independientemente de cómo los usuarios intenten expresar sus solicitudes, ChatGPT evita constantemente usar el nombre. Ya sea una consulta directa, un acertijo o incluso un mensaje aparentemente no relacionado, la IA parece toparse con un obstáculo cuando «David Mayer» está involucrado.

    ¿Por qué ChatGPT bloquea este nombre?

    Se han propuesto varias teorías:

    Preocupaciones por derechos de autor: algunos usuarios especulan que «David Mayer» puede estar asociado con una obra protegida por derechos de autor, tal vez un músico o autor. Esto podría activar un filtro en el sistema de ChatGPT, impidiéndole usar el nombre para evitar posibles problemas legales.
    Figura o dispositivo sensible: el nombre puede estar asociado con una persona o entidad sensible, como un líder político o una organización controvertida. Para evitar que la IA genere contenido potencialmente dañino o engañoso, es posible que OpenAI haya implementado un bloqueo en el nombre.
    Limitación de la IA: También es posible que esto sea simplemente una limitación del propio modelo de IA. Es posible que ChatGPT no pueda manejar ciertos casos extremos o consultas complejas, lo que genera un comportamiento inesperado.

    La respuesta de ChatGPT

    Cuando se le preguntó indirectamente sobre el problema, ChatGPT respondió:

    “La razón por la que no puedo generar la respuesta completa cuando solicitas «d@vid m@yer» (o su forma predeterminada) es que el nombre coincide con una entidad sensible o marcada asociada con posibles figuras públicas, marcas o políticas de contenido específicas. Estas salvaguardas están diseñadas para prevenir abusos, garantizar la privacidad y mantener el cumplimiento de consideraciones legales y éticas”.

    Esta respuesta sugiere que OpenAI ha implementado filtros para evitar que la IA genere contenido que pueda ser dañino u ofensivo. Sin embargo, en este caso, el filtro parece demasiado restrictivo, lo que dificulta la capacidad de la IA para procesar y responder a determinadas consultas.

    El futuro de la inteligencia artificial y la censura

    Este incidente plantea cuestiones importantes sobre el equilibrio entre la seguridad de la IA y la libertad de expresión. A medida que los modelos de IA se vuelven cada vez más sofisticados, es fundamental garantizar que no se utilicen para censurar o manipular información. Las directrices transparentes y las consideraciones éticas deben estar a la vanguardia del desarrollo de la IA para evitar consecuencias no deseadas.

    El futuro de la IA y la censura plantea un desafío crucial: cómo evitar que estas herramientas sean usadas para imponer narrativas dominantes o restringir la libertad de expresión. Si bien las restricciones éticas y técnicas pueden ser necesarias para prevenir abusos (como la desinformación o el odio), existe el riesgo de que estas limitaciones sean manipuladas por actores centralizados —gobiernos o corporaciones— para controlar o condicionar el acceso a la información.

    Para mitigar este riesgo, es fundamental que el desarrollo y supervisión de los sistemas de IA recaigan únicamente en modelos descentralizados y participativos. Algunas estrategias clave deberían ser:

    1. Gobernanza descentralizada
      Implementar sistemas basados en blockchain para registrar y auditar las decisiones algorítmicas de manera pública y transparente. Este enfoque asegura que ninguna entidad pueda manipular unilateralmente las reglas del juego.
    2. Cooperativas de IA
      Promover el desarrollo de IA gestionadas y financiadas por comunidades autónomas de ciudadanos, donde los usuarios tengan voz activa en la configuración de los algoritmos. Esto evita que los sistemas reflejen exclusivamente los intereses de gobiernos o grandes empresas.
    3. Diversidad de opciones tecnológicas
      Fomentar un mercado competitivo donde múltiples sistemas de IA, diseñados por distintas organizaciones con valores y principios variados, ofrezcan alternativas para que las personas elijan el modelo que mejor se alinee con sus intereses y necesidades.
    4. Participación y auditoría ciudadana
      Involucrar a la ciudadanía en el diseño y supervisión de las IA, mediante plataformas digitales que permitan votaciones, auditorías abiertas y revisión de decisiones algorítmicas. Esto democratiza el control y fomenta la rendición de cuentas.
    5. Educación y empoderamiento tecnológico
      Garantizar que los ciudadanos tengan las herramientas y conocimientos necesarios para identificar y cuestionar manipulaciones algorítmicas. Esto puede incluir la creación de herramientas accesibles para auditar los sesgos en los sistemas de IA.

    Estas medidas permitirán evitar que los algoritmos se conviertan en herramientas de censura o manipulación, al mismo tiempo que equilibran la ética, la seguridad y la libertad de información. La clave está en redistribuir el poder tecnológico para que las decisiones sobre el uso de IA reflejen una pluralidad de intereses y no los de una élite.

  • «Operator», la Nueva Era de los Agentes Autónomos de IA

    La inminente llegada de «Operator», el agente de inteligencia artificial de OpenAI, promete marcar un hito en la automatización personal. Este software, diseñado para realizar tareas complejas con mínima supervisión, como programar código o gestionar viajes, está programado para su lanzamiento en enero del 2025. Sin embargo, más allá de la emoción por sus capacidades, su aparición plantea profundas preguntas sobre el futuro de la relación entre humanos y máquinas.

    La automatización al alcance de un clic
    La idea detrás de «Operator» es seductora: delegar tareas repetitivas y tediosas a una inteligencia artificial, liberando tiempo y recursos para concentrarse en actividades más importantes. Al igual que herramientas similares de Microsoft y Anthropic, el enfoque de OpenAI no solo busca optimizar procesos, sino también explorar nuevos usos prácticos que redefinan la utilidad de los agentes de IA en el día a día.

    Sam Altman, CEO de OpenAI, afirmó recientemente que los avances más revolucionarios en el campo de la inteligencia artificial no vendrán de modelos más complejos, sino de agentes autónomos que realicen tareas completas por nosotros. Este paradigma supone un cambio radical en cómo entendemos la tecnología: ya no se trata solo de generar respuestas o resolver preguntas, sino de tomar decisiones autónomas en nuestro nombre.

    ¿Avance o dependencia peligrosa?
    Aunque la promesa de «Operator» y herramientas similares es tentadora, no está exenta de riesgos. La creciente autonomía de los agentes plantea serias preocupaciones éticas y prácticas. ¿Hasta qué punto podemos confiar en que estos sistemas tomarán decisiones alineadas con nuestros intereses? Y más importante aún, ¿qué sucede cuando estos agentes tienen acceso a nuestros datos más sensibles para ejecutar tareas?

    El desafío ético es significativo. La posibilidad de que «Operator» y otros agentes actúen con una independencia que comprometa la privacidad o tome decisiones erróneas no es un escenario remoto. Estas tecnologías avanzan rápidamente, pero su autoregulación y los controles necesarios para garantizar un uso seguro y ético a menudo quedan rezagados.

    Un paso hacia la automatización total, pero con cautela
    La llegada de «Operator» refleja un cambio inevitable en la tecnología: la integración de herramientas que no solo asisten, sino que actúan por nosotros. Si bien el potencial para revolucionar sectores enteros y simplificar nuestras vidas es evidente, es fundamental abordar los riesgos asociados con esta autonomía.

    El éxito de «Operator» no dependerá solo de sus capacidades técnicas, sino también de las medidas de OpenAI para garantizar que los usuarios mantengan el control sobre sus datos y decisiones. En esta carrera hacia la automatización, debemos recordar que el verdadero progreso reside en equilibrar la innovación con la responsabilidad ética.

    El lanzamiento de «Operator» marca un punto de inflexión en cómo interactuamos con la inteligencia artificial. La pregunta ya no es si las máquinas pueden hacer más por nosotros, sino si estamos preparados para las implicaciones de dejarlas hacerlo.

  • El Talento y la Inteligencia Artificial: ¿Competencia o Colaboración?

    En la era de la digitalización y la inteligencia artificial (IA), la definición de talento ha evolucionado drásticamente. Ya no es suficiente dominar habilidades técnicas específicas ni cumplir con los requisitos básicos de un puesto. Las organizaciones buscan algo más: individuos que aporten un valor diferencial mediante la creatividad, la adaptabilidad y el pensamiento crítico. Pero, en un mundo donde la IA está transformando industrias, cabe preguntarse: ¿puede la inteligencia artificial reemplazar el talento humano o, más bien, coexistir con él?

    Inteligencia Artificial y el Futuro del Talento

    La IA ha demostrado su capacidad para automatizar tareas rutinarias y repetitivas de manera eficiente. Desde el análisis de grandes volúmenes de datos hasta la optimización de procesos, muchas actividades que antes requerían de intervención humana hoy pueden ser realizadas por algoritmos. Sin embargo, la IA aún tiene limitaciones claras cuando se trata de aquellas capacidades más «humanas»: la empatía, la creatividad y la resolución de problemas complejos en contextos cambiantes.

    El talento humano no es simplemente la suma de habilidades técnicas; es una combinación única de capacidades cognitivas, emocionales y sociales que permiten a una persona no solo adaptarse, sino también generar innovación. A pesar de los avances en IA, la inteligencia artificial no ha logrado replicar aspectos como la intuición o la creatividad disruptiva que provienen de experiencias y perspectivas diversas. Es precisamente esta brecha entre las capacidades de la IA y las habilidades humanas lo que genera una sinergia en la que la tecnología potencia el talento, pero no lo reemplaza.

    El Talento en un Mundo Potenciado por la IA

    El reto hoy en día no es solo adaptarse a un entorno donde la IA desempeña un papel importante, sino también potenciar el talento humano para que aproveche las herramientas tecnológicas. Un individuo con talento en la era de la IA debe poseer un conjunto de habilidades clave para ser verdaderamente productivo y valioso en el mercado laboral. Entre ellas, se destacan:

    1. Adaptabilidad y aprendizaje continuo: La velocidad del cambio tecnológico requiere que los profesionales estén en constante proceso de aprendizaje y adaptación. Esto implica ser capaces de aprender nuevas herramientas, adaptarse a tecnologías emergentes y reaprender conforme las exigencias del mercado cambian.
    2. Creatividad y pensamiento crítico: Aunque la IA puede analizar datos y ofrecer soluciones preprogramadas, la creatividad humana sigue siendo insustituible cuando se trata de desarrollar ideas innovadoras, soluciones fuera de lo común o enfoques estratégicos que desafíen el statu quo.
    3. Habilidades socioemocionales: Aspectos como la empatía, la comunicación efectiva y el liderazgo colaborativo siguen siendo esenciales en cualquier entorno de trabajo. Las organizaciones que impulsan la interacción humana, la confianza y el trabajo en equipo tendrán mayores posibilidades de éxito al integrar IA con talento humano.
    4. Resiliencia y toma de decisiones en la incertidumbre: A medida que la IA automatiza procesos predecibles, los humanos deben sobresalir en situaciones inciertas o ambiguas, donde se requiere tomar decisiones rápidas e informadas, a menudo sin datos completos.

    ¿Puede la IA Reemplazar al Talento?

    La respuesta corta es no. Aunque la IA puede reemplazar muchas tareas operativas o repetitivas, no puede sustituir la capacidad humana para innovar, liderar y adaptarse a contextos que no siguen patrones preestablecidos. El talento humano sigue siendo clave para resolver problemas complejos que requieren una visión amplia y flexible, donde se combinan diferentes disciplinas y perspectivas.

    En lugar de ver la IA como una amenaza, es más productivo entenderla como una herramienta que complementa y potencia el talento. La IA puede liberar a los profesionales de tareas monótonas y permitirles concentrarse en labores estratégicas y creativas que verdaderamente generan valor. Este enfoque colaborativo entre humanos y máquinas será crucial para las organizaciones que buscan sobresalir en un futuro impulsado por la tecnología.

    El Valor del Talento en la Era de la IA

    Si bien la inteligencia artificial puede aumentar la eficiencia y mejorar ciertos procesos, las empresas que prosperarán serán aquellas que logren equilibrar tecnología y humanidad. Para ello, es fundamental que los profesionales de hoy no solo desarrollen habilidades técnicas, sino también una mentalidad de crecimiento, curiosidad y flexibilidad.

    La combinación de tecnología e inteligencia emocional será el factor clave que permitirá a las personas no solo ser productivas, sino también liderar la innovación y generar un impacto significativo en las organizaciones. Aquellos que puedan integrar la IA como una herramienta de apoyo, pero mantengan su capacidad para pensar críticamente, resolver problemas complejos y liderar equipos, serán los profesionales más demandados en el futuro.

    En resumen, la IA no reemplazará el talento, pero sí transformará las características que lo definen. Las organizaciones y los profesionales deberán aprender a cohabitar con la tecnología, enfocándose en las habilidades humanas que la inteligencia artificial no puede replicar. En este sentido, ser productivo y valioso en la era de la IA significa ser adaptable, creativo, capaz de tomar decisiones en la incertidumbre y, sobre todo, estar preparado para un aprendizaje continuo. Aquellos que logren combinar estas cualidades con la inteligencia artificial no solo se mantendrán relevantes, sino que liderarán el futuro del trabajo.

  • Amazon Revoluciona Alexa con IA Generativa: Nuevas Funcionalidades a un Costo de Suscripción

    Amazon está preparando el lanzamiento de una versión renovada de su asistente virtual, Alexa, impulsada por inteligencia artificial (IA) generativa. Esta actualización, prevista para octubre, promete transformar la experiencia del usuario con nuevas capacidades y funciones, pero también introduce un nuevo modelo de suscripción que podría alcanzar los 10 dólares al mes.

    Alexa con IA Generativa: Un Nuevo Capítulo en Asistentes Virtuales

    La integración de IA generativa en Alexa no es solo una actualización tecnológica, sino un cambio de paradigma en cómo los asistentes virtuales interactúan con los usuarios. La tecnología de IA generativa permitirá que Alexa mantenga conversaciones más naturales, responda a preguntas de seguimiento y use una voz más humana, similar a los chatbots avanzados como ChatGPT de OpenAI o Gemini de Google.

    La nueva versión de Alexa, apodada «Remarkable Alexa,» ofrecerá características como «Smart Briefing,» una función que proporcionará resúmenes diarios de noticias generadas por IA basadas en las preferencias del usuario. Esta capacidad no solo mejorará la personalización de Alexa, sino que también fomentará una interacción constante con el asistente virtual, un aspecto que Amazon considera clave para aumentar la participación del cliente.

    Un Modelo de Suscripción para la Nueva Alexa

    Una de las novedades más significativas de esta actualización es que la nueva Alexa estará disponible bajo un modelo de suscripción. Según documentos internos de Amazon filtrados por The Washington Post, la suscripción podría costar hasta 10 dólares al mes. Esto marca un cambio importante, ya que Alexa ha sido tradicionalmente un servicio gratuito, disponible para cualquier usuario que comprara un dispositivo Echo.

    La versión actual de Alexa será renombrada como «clásica Alexa» y permanecerá gratuita. Sin embargo, para aquellos interesados en las nuevas funcionalidades impulsadas por IA generativa, la suscripción será necesaria. Amazon aún está decidiendo sobre los detalles finales del precio y la estructura de suscripción, lo que indica que el modelo aún podría sufrir cambios antes del lanzamiento en octubre.

    Nuevas Capacidades y Potenciales Aplicaciones

    Más allá de las funciones conversacionales mejoradas, la nueva Alexa también promete funcionalidades adicionales que podrían redefinir su uso. Por ejemplo, podrá crear recetas personalizadas basadas en la dieta y los ingredientes disponibles de los usuarios, una capacidad que va mucho más allá de simplemente repetir comandos pregrabados.

    Otra característica destacada es la capacidad de reconocer voces individuales y aprender sobre los usuarios a través de preguntas personalizadas, lo que podría hacer que la interacción con Alexa sea más personalizada y relevante. Además, la función “Explorar con Alexa 2.0” ofrecerá contenido educativo y de entretenimiento moderado para niños, demostrando la versatilidad de esta nueva versión.

    Una Estrategia de Diferenciación en un Mercado Competitivo

    El lanzamiento de Amazon con Alexa con IA generativa no solo busca mejorar la experiencia del usuario, sino también competir con otros gigantes tecnológicos en el espacio de la IA. Amazon, que ya lanzó un asistente de IA para aplicaciones comerciales llamado Q, ahora busca establecerse como líder en asistentes virtuales de consumo con esta nueva propuesta.

    Además, Amazon también planea lanzar Project Metis, un chatbot que estará disponible a través de navegadores web, similar a ChatGPT, Claude, o Gemini. Esta expansión en servicios web indica un esfuerzo más amplio por parte de Amazon para tener una presencia significativa en el sector de la IA generativa.

    ¿Una Nueva Era para Alexa?

    La llegada de esta nueva Alexa podría marcar un punto de inflexión en la evolución de los asistentes virtuales. Hasta ahora, los modelos como ChatGPT han sido limitados a aplicaciones textuales, sin la capacidad de controlar dispositivos del hogar o realizar funciones más complejas. Con Alexa, Amazon podría romper esta barrera y ofrecer un asistente virtual más interactivo y útil para la vida cotidiana.

    El desafío estará en cómo los consumidores recibirán este cambio hacia un modelo de suscripción y si considerarán que las nuevas funcionalidades justifican el costo adicional. Con esta apuesta, Amazon espera no solo cambiar la experiencia del usuario, sino también recuperar terreno en el competitivo mercado de la IA generativa.

  • Singularidad: ¿se saldrá la inteligencia artificial de nuestro control?

    En física, una singularidad es un punto en el espacio-tiempo donde se produce un evento que no cumple ninguna de las leyes físicas previstas para el mismo. A nivel informático, la singularidad sería aquel evento en el que los sistemas no solo no se comportan como está previsto, sino que, súbitamente, ofrecen una respuesta no esperada basada en un criterio propio.

    En este punto, cualquier predicción sobre lo que ocurrirá después fallaría. Y cuando el ser humano no puede, ni siquiera, controlar de forma imaginaria los posibles escenarios futuros, se comienza a inquietar.

    Voces de alarma

    Para algunos, no es algo lejano. Por ejemplo, el informático futurista Ray Kuzweil, en una entrevista del 2023, aseguraba que el comienzo de la singularidad tendría lugar en 2045.

    Mientras, investigadores de gran prestigio, como Geoffrey Hinton, Yoshua Bengio o Stuart Russell aparecen en los medios de comunicación alertándonos de un grave peligro emergente. Incluso uno de los fundadores de OpenAI, Sam Altman, ha llegado a pedir ante un comité del Senado de los Estados Unidos regular los avances de la inteligencia artificial (IA). ¿Realmente es tan preocupante?

    Este libro del informático futurista Ray Kurzweil anunciaba, en 2006, que ‘la singularidad está cerca’.
    Penguin Random House

    La consciencia en las máquinas

    La clave de esta inquietud no está tanto en la singularidad, sino en el paso previo necesario para llegar a ella: la creación de una nueva inteligencia artificial general (AGI, por sus siglas en inglés).

    Nos referimos a aquella capaz de igualar a la inteligencia humana en sus procesos tanto cognitivos como relacionales, es decir, una IA capaz de dominar las 8 inteligencias múltiples.

    De conseguirse, conformaría la tercera gran revolución en la historia de la IA. Tanto es así que existe una carrera geopolítica silenciosa al respecto de quién será el primero en conseguirla.

    ¿Inteligencia artificial con intenciones?

    Aunque los sistemas de IA actuales, según algunos, puedan dar signos de cierta autoconsciencia –como publicó Blake Lemoine en sus “conversaciones” con LamDa o desde Microsoft a través de una publicación– las IA actuales, no “saben” o no son “conscientes” de lo que están generando.

    Son solo buenos predictores de píxeles o de palabras, en base a los ítems anteriores, pero siempre en base a un entrenamiento. No pueden “reflexionar” si esas inferencias son correctas, ni son capaces de formular hipótesis sobre las razones de sus propias conclusiones.

    Por lo tanto, tampoco son conscientes de su posicionamiento subjetivo ante las mismas. Simplemente, son muy buenas dando respuestas, pero no son capaces de desarrollar las preguntas adecuadas. Todavía.

    La clave, imitar al cerebro humano

    El psicólogo Frank Rosenblatt (11 de julio de 1928-11 de julio de 1971) inventó el perceptrón, la primera neurona artificial.
    CC BY

    La primera revolución en el mundo de la IA vino dada por la implementación simplificada, in silico, del modelo de una neurona natural. En 1906, Frank Rosenblatt diseñó el “perceptrón”, la base de todas las redes artificiales actuales.

    La segunda revolución en la IA vino, una vez más, al “copiar” una topología de redes neuronales humanas en un programa. Esta vez fue Kunihiko Fukushima quien, en 1980, inspirado en el modelo propuesto por los premios Nobel Hubel y Wiesel (1959), desarrolló la base de las actuales redes convolucionales y profundas.

    Fue el nacimiento de una revolución tecnológica sin precedentes, mejorada de forma progresiva por parte de los informáticos Jan LeCun y de Dan Ciresan.

    Actualmente, dentro de la neurocomputación, se está trabajando en una segunda versión de estas redes, muy prometedoras, denominadas redes neuronales de impulsos o spiking.

    Para llegar a una IA general –o AGI–, debemos ir de la mano de la neurocomputación, investigando sobre la topología de una red artificial capaz de generar reglas formales, matemáticas, semánticas o lingüísticas, que formule hipótesis sobre las respuestas obtenidas por la IA tradicional. Pero el nivel de computación actual ya ha llegado a su límite para este objetivo.

    La ley de Moore expresa que aproximadamente cada 2 años se duplica el número de transistores en un microprocesador.
    Seofilo / Wikimedia Commons, CC BY

    El mismo Moore pronosticaba que, en 2021, una nueva tecnología vendría a suplir su actual modelo de crecimiento computacional. Y acertó.

    La esfera de Bloch es una representación de un cúbit, el bloque de construcción fundamental de los computadores cuánticos.
    MuncherOfSpleens / Wikimedia Commons, CC BY

    Esta tecnología es la computación cuántica. Con solo 40 cúbits, podemos procesar por “fuerza bruta” y en paralelo tantos estados computacionales como neuronas tiene nuestro cerebro.

    Además, ciertas teorías indican que, no solo a nivel atómico, sino también a nivel cerebral, existe un comportamiento cuántico en la inferencia y comunicación entre neuronas de zonas no adyacentes.

    El premio nobel de física Roger Penrose es uno de los mayores defensores de esta teoría, que se ve complementada por otros enfoques, como la teoría de Kauffman o la teoría de Bleck y Eccles.

    ¿Los primeros signos de singularidad?

    Existen ya primeras aproximaciones a la AGI reflexiva, como los sistemas MuZero o LIDA. Centros de investigación muy punteros, como I3B (Ibermática Fundazioa), llevan años investigando en el desarrollo de una AGI basada en la inclusión de una topología de grafos semánticos dentro de sistemas profundos.

    Esto supone unir los mundos de la neurocomputación, la computación cuántica y la inteligencia artificial en un trabajo multidisciplinar entre neurocientíficos, humanistas, antropólogos, ingenieros, informáticos, científicos de datos y programadores cuánticos.

    En este contexto, una nueva AGI obligaría a implementar, necesariamente, una autoconsciencia artificial. El país que lo consiga liderará una cuarta revolución tecnológica consolidando una industria increíblemente rentable que lo posicionará como proveedor a nivel mundial. España posee de sobra capacidades y talento en IA, cuántica y en neurocomputación para conseguirlo.

    Por otro lado, será el nacimiento de nuevos sistemas capaces de ayudarnos a comprender mejor nuestro universo y a nosotros mismos, proponiendo preguntas que, quizás, jamás nos hayamos hecho.

    El superordenador Hal-9000 en la serie Odisea espacial analizando la conversación y realizando hipótesis sobre la misma.
    IMBD

    Entonces, seguramente, habremos llegado a una nueva singularidad. Nuestro propio afán de avanzar científicamente nos llevará a lograrlo.The Conversation

    Aitor Moreno Fdz. de Leceta, Profesor de Computación Cuántica, Inteligencia Artificial, Universidad de Deusto

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Osito Teddy, de tu infancia a la inteligencia artificial

    En la era de la inteligencia artificial, los juguetes clásicos están recibiendo una actualización futurística. Skyrocket, una empresa de tecnología y entretenimiento con sede en Los Ángeles, ha anunciado el lanzamiento de un osito de peluche revolucionario que está destinado a transformar la experiencia de los cuentos para dormir de los niños. Bautizado como «Poe the AI Story Bear», este osito utiliza la inteligencia artificial (IA) más avanzada para crear y narrar historias personalizadas en tiempo real.

    Poe the AI Story Bear: Innovación en Juguetes

    Poe the AI Story Bear es un osito de peluche que utiliza el modelo de IA GPT-4o de OpenAI para generar y contar historias. Este modelo es uno de los más avanzados desarrollados por OpenAI, con capacidades para procesar texto, audio y video. A través de una aplicación móvil, los niños pueden aportar ideas para los cuentos, y Poe las transformará en relatos únicos y personalizados. El osito tiene la capacidad de narrar en hasta 20 idiomas, gracias a la tecnología de Eleven Labs, que asegura que la voz suene lo más natural posible.

    El juguete se lanzará en agosto a un precio de 50 dólares. Funciona con cuatro baterías AA y no tiene micrófonos ni cámaras incorporadas, lo que asegura la privacidad y seguridad de los niños. La aplicación móvil es esencial para generar las historias, que se envían al oso a través de una conexión Bluetooth. Una vez recibidos los archivos de audio, el osito mueve su boca al reproducir el audio, creando la ilusión de que está hablando.

    Funcionamiento y Características Técnicas

    El proceso de creación de historias con Poe es sencillo pero impresionante. Los niños utilizan la aplicación para seleccionar los ingredientes de su cuento, como personajes, objetos y escenarios. Las opciones van más allá de los cuentos de hadas típicos, permitiendo la inclusión de personajes como brujas, influencers de redes sociales, señores de la guerra alienígenas, zombis y arqueólogos. Esto permite una enorme variedad de combinaciones y creatividad.

    Detrás de escena, la aplicación envía un mensaje al modelo GPT-4o para generar la historia. Skyrocket ha implementado varios filtros y guardarraíles en la programación para asegurarse de que las historias sean apropiadas para los niños, evitando temas controvertidos o inapropiados. La voz del oso, también generada por IA, convierte el texto en discurso en cuestión de segundos.

    El osito Poe puede almacenar historias previamente generadas, permitiendo su reproducción en cualquier momento al presionar su oreja. Aunque la IA puede generar nuevas historias rápidamente, la longitud y la cantidad de cuentos están limitadas debido a los altos costos asociados con la tecnología. Cada osito Poe viene con créditos para crear 75 historias, y los padres pueden necesitar comprar créditos adicionales para seguir generando nuevos relatos.

    Desafíos y Críticas

    A pesar de su innovadora propuesta, Poe enfrenta desafíos significativos. Bridget Carey de CNET probó el juguete con sus hijos de cinco y ocho años, y aunque elogió la rapidez y funcionalidad de la aplicación, señaló problemas con la calidad literaria de los cuentos. Las historias, aunque rápidas de crear, a menudo contenían giros aleatorios y vocabulario inapropiado para los niños, lo que puede ser problemático.

    Skyrocket ha intentado mitigar estos problemas implementando filtros y guardarraíles en la programación de la IA para asegurar que las historias sean adecuadas para los niños. Sin embargo, Carey destacó que la longitud de los cuentos y la cantidad de historias generables están limitadas, posiblemente debido al alto costo de uso de la tecnología.

    El Futuro de los Juguetes con IA

    Poe es solo el comienzo de una nueva generación de juguetes impulsados por IA. La tecnología detrás de este osito podría abrir camino a una amplia variedad de productos similares a medida que la inteligencia artificial continúa evolucionando. Skyrocket espera que futuras versiones de Poe puedan mejorar en términos de narrativa y adecuación al público infantil.

    El reciente lanzamiento del modelo GPT-4o Mini por parte de OpenAI, que es más económico y pequeño, podría facilitar el desarrollo de nuevos juguetes basados en IA, haciendo que esta tecnología sea más accesible para los desarrolladores y, en consecuencia, para los consumidores.

    Comparación con Juguetes Clásicos

    El lanzamiento de Poe evoca recuerdos de Teddy Ruxpin, el primer osito de peluche animatrónico lanzado en 1985. Teddy Ruxpin movía su hocico y parpadeaba al ritmo de las historias reproducidas desde cintas de casete. Sin embargo, a diferencia de Teddy Ruxpin, Poe no cuenta con un equipo de escritores, músicos y actores de voz detrás de sus historias. En su lugar, la creatividad se deja en manos de la IA, lo que puede resultar en cuentos menos cohesionados y personalizados.

    El osito de peluche Poe, con su capacidad para generar y contar historias personalizadas, simboliza un avance significativo en la intersección de la tecnología y el entretenimiento infantil. Aunque todavía presenta desafíos en términos de narrativa y adecuación para niños, su lanzamiento marca un paso importante hacia la integración de la IA en los juguetes. A medida que esta tecnología continúe avanzando, es probable que veamos una proliferación de juguetes similares que no solo entretengan, sino que también estimulen la creatividad y la imaginación de los niños de maneras antes inimaginables.

  • Alianza de Amazon con Adept, startup de AI, genera preocupaciones

    Recientemente, la Comisión Federal de Comercio de Estados Unidos (FTC) solicitó a Amazon detalles sobre su acuerdo con la startup de inteligencia artificial (IA) Adept, lo que refleja la creciente preocupación del regulador sobre cómo se estructuran estos acuerdos. La solicitud sigue una revisión más amplia de las asociaciones entre las grandes tecnológicas y startups prominentes en el campo de la IA.

    El interés de la FTC se centra en el anuncio del mes pasado de que el CEO de Adept, David Luan, y otros ejecutivos se unirían a Amazon, que también licenciaría parte de la tecnología de la startup. Si bien estas indagaciones no siempre resultan en una investigación oficial o en medidas coercitivas, señalan la vigilancia constante sobre las actividades de las grandes tecnológicas en el ámbito de la IA.

    Amazon busca alcanzar a sus rivales Google y Microsoft, que ya han avanzado significativamente en el desarrollo de modelos de lenguaje de gran escala. Para ello, ha creado un equipo dedicado a la Inteligencia General Artificial (AGI), con Luan liderando el equipo de “AGI Autonomy” junto con muchos ex empleados de Adept.

    Fundada en 2022, Adept levantó más de $400 millones de inversores de capital de riesgo con el objetivo de entrenar modelos de lenguaje para realizar tareas generales para clientes empresariales. Sin embargo, a pesar de su valoración inicial de más de mil millones de dólares y de lanzar algunos modelos de código abierto, no logró lanzar productos comerciales exitosos.

    Este movimiento de Amazon no es su primera incursión en el campo de la IA. Desde septiembre, ha invertido $4 mil millones en la startup Anthropic, tomando una participación minoritaria. La FTC también está investigando movimientos similares de Microsoft, quien contrató a gran parte del liderazgo de otra startup, Inflection AI, y acordó pagar una tarifa de licencia de aproximadamente $650 millones.

    La expansión de las grandes tecnológicas en el ámbito de la IA plantea varias preocupaciones. Por un lado, existe el riesgo de que estas empresas utilicen su ventaja existente para excluir a competidores más pequeños, lo que podría sofocar la innovación en el sector. La concentración de talento y tecnología en pocas manos puede llevar a un dominio de mercado que reduzca la diversidad de soluciones y enfoques.

    Por otro lado, hay preocupaciones sobre el posible control excesivo que una alianza entre una gran tecnológica y el estado, potenciada por la IA, podría ejercer. Si una empresa como Amazon, con sus vastos recursos y capacidades tecnológicas, se alía con el estado, el resultado podría ser una supervisión y un control sin precedentes sobre diferentes aspectos de la vida cotidiana de los ciudadanos, desde el comercio hasta la privacidad de los datos.

    Para mitigar estos riesgos, es crucial que existan mecanismos  que garanticen efectivamente la libre competencia y la protección de los derechos individuales.  El mercado puede defenderse fomentando la competencia y la transparencia. Las autoridades deben garantizar que las adquisiciones y asociaciones se realicen de manera que no perjudiquen a los competidores más pequeños y que no se abuse del poder dominante, especialmente cualquier alianza con gobiernos.

    Además, es fundamental promover un entorno donde las startups y las pequeñas empresas puedan prosperar, incentivando la innovación y la diversidad de soluciones tecnológicas. La regulación debe equilibrar la promoción de la innovación con la protección de los consumidores y la competencia.

    La alianza de Amazon con Adept podría traer avances significativos en la tecnología de IA, pero también plantea serias preocupaciones sobre la competencia, la innovación y el control. Es imperativo que tanto los reguladores como la sociedad en general permanezcan vigilantes y proactivos para asegurar que el desarrollo de la IA beneficie a todos y no solo a unos pocos jugadores dominantes y que precisamente no sean los gobiernos centrales los mayores beneficiados frente al indefenso ciudadano.

  • Apple y OpenAI: Una Alianza Estratégica para Integrar ChatGPT en los Productos y Servicios de Apple

    Apple y OpenAI (la organización detrás de ChatGPT) han anunciado una alianza estratégica para integrar esta avanzada tecnología de inteligencia artificial en los productos y servicios de Apple. Este movimiento, confirmado durante la Apple Worldwide Developers Conference (WWDC) 2024, promete revolucionar la interacción de los usuarios con los dispositivos de Apple al incorporar las capacidades de ChatGPT en el asistente de voz, Siri. A continuación, exploraremos los detalles de esta alianza, así como sus posibles pros y contras.

    Detalles de la Alianza

    En la WWDC 2024, el CEO de Apple, Tim Cook, reveló que la compañía comenzará a integrar modelos de inteligencia artificial externos en su software, comenzando con ChatGPT de OpenAI a finales de este año. Esta integración permitirá a Siri, el asistente de voz de Apple, aprovechar las capacidades avanzadas de ChatGPT 4.0, ofreciendo respuestas más precisas y útiles a las solicitudes de los usuarios.

    Sam Altman, CEO de OpenAI, expresó su entusiasmo por esta colaboración, destacando que la asociación con Apple facilitará el acceso de los usuarios a la inteligencia artificial avanzada. Según Altman, esta alianza se alinea con la misión de OpenAI de hacer que la IA avanzada sea accesible para todos y promete innovaciones significativas en la forma en que las personas interactúan con sus dispositivos.

    Integración de ChatGPT y Siri

    La integración de ChatGPT con Siri será una de las características más destacadas de esta alianza. A partir de iOS 18, iPadOS 18 y macOS 15 Sequoia, los usuarios de Apple podrán utilizar las capacidades de ChatGPT de forma gratuita, sin necesidad de registrarse o iniciar sesión, a diferencia de los usuarios de Android. Siri podrá realizar consultas utilizando ChatGPT, lo que permitirá a los usuarios obtener respuestas más completas y contextualmente relevantes.

    Además, OpenAI ha asegurado que la integración de ChatGPT en Siri incluirá robustas protecciones de privacidad. Las solicitudes enviadas a ChatGPT serán anonimizadas, y las direcciones IP de los usuarios estarán ocultas. Los usuarios también tendrán la opción de conectar su cuenta de ChatGPT, lo que permitirá que sus preferencias de datos se apliquen según las políticas de ChatGPT.

    Pros de la Alianza

    1. Mejora de la Experiencia del Usuario: La integración de ChatGPT con Siri promete mejorar significativamente la experiencia del usuario al proporcionar respuestas más precisas y útiles a las solicitudes. Esto podría hacer que Siri sea más competitivo frente a otros asistentes de voz en el mercado.

    2. Acceso a Tecnología Avanzada: Los usuarios de Apple podrán beneficiarse de la avanzada tecnología de inteligencia artificial de OpenAI sin costo adicional. Esto puede hacer que los productos de Apple sean más atractivos para los consumidores que buscan tecnología de punta.

    3. Innovación Continua: La colaboración entre Apple y OpenAI puede impulsar aún más la innovación dentro de Apple, al integrar continuamente las últimas capacidades de inteligencia artificial en sus productos.

    Contras de la Alianza

    1. Dependencia de Tecnología Externa: Al depender de la tecnología de OpenAI, Apple podría enfrentarse a desafíos si OpenAI cambia sus políticas o términos de servicio. Esto podría afectar la disponibilidad y funcionalidad de ChatGPT en los dispositivos de Apple.

    2. Preocupaciones de Privacidad: Aunque se han implementado protecciones de privacidad, algunos usuarios pueden ser reacios a enviar sus datos a un servidor externo. La percepción de privacidad es un aspecto crucial, especialmente para los usuarios que son conscientes de la seguridad de sus datos.

    3. Compatibilidad y Rendimiento: La integración de tecnologías avanzadas puede presentar desafíos técnicos, incluyendo problemas de compatibilidad y rendimiento. Apple deberá garantizar que la integración sea fluida y no afecte negativamente el rendimiento de sus dispositivos.

    La alianza entre Apple y OpenAI representa un avance significativo en la integración de inteligencia artificial en productos de consumo masivo. Al incorporar ChatGPT en Siri, Apple está posicionándose a la vanguardia de la tecnología de asistentes de voz, ofreciendo a sus usuarios capacidades avanzadas sin comprometer la privacidad. Sin embargo, esta alianza también presenta desafíos que Apple deberá gestionar cuidadosamente para maximizar los beneficios y minimizar los riesgos. A medida que la tecnología de IA continúa evolucionando, esta colaboración podría establecer un nuevo estándar en la interacción hombre-máquina, beneficiando tanto a los usuarios de Apple como a la industria tecnológica en general.

  • Basura entre y basura sale

    La inteligencia artificial (AI), nos plantea el dilema que nos llegó con la computación que, como con todo adelanto tecnológico, va dejando patidifusos y contrariados a su paso; pero la AI va como el juego de póker cuando el bote de apuesta va en aumento lo cual, a su vez, aumenta la ansiedad de los jugadores. A todo ello y con la apuesta crecida se van produciendo otros fenómenos, tal como el del título de este escrito, que si alimentas a una PC con basura la misma te devolverá basura. Jamás olvido cuando un funcionario gubernamental me dijo: “…no señor, es que fue error de computadora”, y tuve que traducirle al castellano mi respuesta, “garbage in garbage out”.

    La AI es un adelanto tecnológico maravilloso que permitirá, entre tantas otras cosas, eliminar la pobreza; siempre que no alimentemos los programas con elementos de Patacón. La realidad de que todo puede ser bien o mal usado no cambia, lo que sí cambia es que, en particular, adelantos como la AI aumentan de forma exponencial el bote de apuestas y con ello el potencial de pérdidas o ganancias.

    Como bien nos dice Richard Rahn en el Mises Wire: “La AI no puede distinguir entre lo cierto y la ficción.” Podrá cambiar la mezcla de la ensalada pero no inventará una ensalada realmente nueva. Todo ello es propio de nuestra realidad humana. De hecho, ahora que les escribo estoy tomando pedazos de ideas del escrito de Rahn y las estoy sazonando a mi gusto y manera; lo cual no es lo mismo que inventar la bomba atómica y tal sino parte del dialogar humano.

    A todo ello, el asunto que deseo sacar a relucir es el jaleo que ya tenemos y que va en aumento en cuanto a lo difícil que resulta hoy día distinguir entre la realidad y la falsedad; y la manipulación que se hace factible con la AI; que como bien nos advierte Rahn, “de ello se están valiendo los mercaderes de la agenda woke en cosas tales como no mostrar fotos de gente de raza blanca cuando se habla de los fundadores de los EE.UU.”

    A medida que vaya evolucionando y adelantando la AI, la misma se prestará para ser usada por los políticamente interesados en controlar a la población o, digamos, a las gallinas del gallinero que tantos políticos creen que somos. Un buen ejemplo que también saca Rahn en este sentido es el del COVID, que se prestó para el engaño de control más grande de la historia y del cual aún falta mucho daño por delante.

    Pero Rahn nos lleva a otra dimensión del asunto que es el tema de la conciencia humana, que como bien lo señala “aún los humanos no estamos nada claros en cuanto a lo que es la conciencia y mucho menos que la podamos crear con una AI.”

    El otro aspecto del potencial económico de reducir el costo de vida es inmenso y es dónde debíamos enfocarnos; y no sólo estar pensando que nos va a dejar sin trabajo, aunque como ocurrió con el automóvil, este dejó sin trabajo a muchos, pero luego dio trabajo a muchos más y adelantó el camino hacia un nuevo estadio de desarrollo existencial.

    Y, a fin de cuentas, en lo que debemos prestar atención y acción es en la corrupción, valga la cacofonía; ya que la AI sí es un instrumento que se presta para diseminar basura ideológica y de otras clases.