Etiqueta: algoritmos

  • Guy Sorman abre el debate: una respuesta liberal a la IA

    En su reciente artículo publicado en ABC,  el pensador liberal francés Guy Sorman propone una reflexión provocadora y mesurada sobre los desafíos que plantea la inteligencia artificial (IA), anclada firmemente en los principios del liberalismo clásico. Frente al alarmismo apocalíptico y al entusiasmo sin matices, Sorman traza una tercera vía: aceptar el avance tecnológico, pero con conciencia de sus impactos y con propuestas desde la libertad.

    La nota arranca con una anécdota reveladora: un libro supuestamente escrito por un autor chino fue en realidad producido por una IA. Este experimento ficticio sirve para introducir una primera idea central: la IA, en su forma actual, no “crea”, sino que ensambla lo ya existente. Así, para Sorman, la IA no es aún una amenaza a la creatividad humana, pero sí plantea interrogantes sobre la autenticidad, el estilo y el juicio, elementos que todavía escapan a los algoritmos.

    A partir de allí, Sorman avanza con una comparación histórica poderosa. La IA sería, según él, comparable en impacto potencial a la Revolución Industrial. Y recuerda cómo ese cambio, en el siglo XIX, dio origen tanto a la revuelta ludita como al nacimiento del socialismo, entendidos ambos como reacciones ante el temor (justificado o no) de ser desplazados por las máquinas.

    Pero lo que distingue a Sorman de los pesimistas tecnológicos o de los planificadores sociales contemporáneos es su apuesta por una respuesta desde el liberalismo. En lugar de combatir el progreso, propone acompañarlo con herramientas propias del pensamiento liberal: en particular, la renta mínima universal. Esta idea, originalmente esbozada por Milton Friedman como “negative income tax”, consiste en garantizar a cada ciudadano una suma básica para vivir, sin condicionar su uso ni imponer burocracias.

    Sorman subraya que esta propuesta no implica un Estado paternalista, sino una política de redistribución equitativa, no intrusiva y acorde a los valores de una sociedad libre. Frente a la alternativa del “socialismo general” o la “violencia reaccionaria”, la renta mínima aparece como la única utopía liberal que permitiría encarar el cambio tecnológico sin dejar víctimas en el camino.

    Es relevante que Sorman no niega los riesgos: enumera profesiones enteras amenazadas (secretariado, traducción, redacción, análisis médico), pero se cuida de caer en el catastrofismo. Su optimismo está condicionado a que la transición sea bien gestionada, y a que las sociedades liberen sus energías creativas en vez de encerrarse en la defensa de lo conocido. Se pregunta: «¿Deberíamos, como los luditas, aplastar estas máquinas antes de que nos deshumanicen? Imposible, porque la inteligencia artificial no es una máquina, sino un algoritmo que no puede destruirse a martillazos.».

    El artículo deja abierta una invitación al debate: ¿es compatible el liberalismo con un ingreso garantizado? ¿Puede una política así ser financiada sin derivar en un Estado hipertrofiado? ¿Cómo se define una renta “mínima” en términos dignos? ¿Cuál es el límite entre una ayuda y una renta de ocio permanente?

    Guy Sorman no impone respuestas. Su virtud está en plantear el dilema con honestidad intelectual y coherencia doctrinaria, sin esconder los costos de la transición ni idealizar la tecnología. A fin de cuentas, como él mismo insinúa en una de sus reflexiones más agudas: si la IA no puede generar ironía, tal vez allí esté todavía nuestra frontera humana.

  • David Mayer: misterio detrás de ChatGPT

    Ha surgido un incidente peculiar que involucra al popular chatbot de inteligencia artificial de OpenAI, ChatGPT. Los usuarios de Reddit han descubierto que el modelo de IA parece tener un bloque codificado con el nombre “David Mayer”.

    Independientemente de cómo los usuarios intenten expresar sus solicitudes, ChatGPT evita constantemente usar el nombre. Ya sea una consulta directa, un acertijo o incluso un mensaje aparentemente no relacionado, la IA parece toparse con un obstáculo cuando «David Mayer» está involucrado.

    ¿Por qué ChatGPT bloquea este nombre?

    Se han propuesto varias teorías:

    Preocupaciones por derechos de autor: algunos usuarios especulan que «David Mayer» puede estar asociado con una obra protegida por derechos de autor, tal vez un músico o autor. Esto podría activar un filtro en el sistema de ChatGPT, impidiéndole usar el nombre para evitar posibles problemas legales.
    Figura o dispositivo sensible: el nombre puede estar asociado con una persona o entidad sensible, como un líder político o una organización controvertida. Para evitar que la IA genere contenido potencialmente dañino o engañoso, es posible que OpenAI haya implementado un bloqueo en el nombre.
    Limitación de la IA: También es posible que esto sea simplemente una limitación del propio modelo de IA. Es posible que ChatGPT no pueda manejar ciertos casos extremos o consultas complejas, lo que genera un comportamiento inesperado.

    La respuesta de ChatGPT

    Cuando se le preguntó indirectamente sobre el problema, ChatGPT respondió:

    “La razón por la que no puedo generar la respuesta completa cuando solicitas «d@vid m@yer» (o su forma predeterminada) es que el nombre coincide con una entidad sensible o marcada asociada con posibles figuras públicas, marcas o políticas de contenido específicas. Estas salvaguardas están diseñadas para prevenir abusos, garantizar la privacidad y mantener el cumplimiento de consideraciones legales y éticas”.

    Esta respuesta sugiere que OpenAI ha implementado filtros para evitar que la IA genere contenido que pueda ser dañino u ofensivo. Sin embargo, en este caso, el filtro parece demasiado restrictivo, lo que dificulta la capacidad de la IA para procesar y responder a determinadas consultas.

    El futuro de la inteligencia artificial y la censura

    Este incidente plantea cuestiones importantes sobre el equilibrio entre la seguridad de la IA y la libertad de expresión. A medida que los modelos de IA se vuelven cada vez más sofisticados, es fundamental garantizar que no se utilicen para censurar o manipular información. Las directrices transparentes y las consideraciones éticas deben estar a la vanguardia del desarrollo de la IA para evitar consecuencias no deseadas.

    El futuro de la IA y la censura plantea un desafío crucial: cómo evitar que estas herramientas sean usadas para imponer narrativas dominantes o restringir la libertad de expresión. Si bien las restricciones éticas y técnicas pueden ser necesarias para prevenir abusos (como la desinformación o el odio), existe el riesgo de que estas limitaciones sean manipuladas por actores centralizados —gobiernos o corporaciones— para controlar o condicionar el acceso a la información.

    Para mitigar este riesgo, es fundamental que el desarrollo y supervisión de los sistemas de IA recaigan únicamente en modelos descentralizados y participativos. Algunas estrategias clave deberían ser:

    1. Gobernanza descentralizada
      Implementar sistemas basados en blockchain para registrar y auditar las decisiones algorítmicas de manera pública y transparente. Este enfoque asegura que ninguna entidad pueda manipular unilateralmente las reglas del juego.
    2. Cooperativas de IA
      Promover el desarrollo de IA gestionadas y financiadas por comunidades autónomas de ciudadanos, donde los usuarios tengan voz activa en la configuración de los algoritmos. Esto evita que los sistemas reflejen exclusivamente los intereses de gobiernos o grandes empresas.
    3. Diversidad de opciones tecnológicas
      Fomentar un mercado competitivo donde múltiples sistemas de IA, diseñados por distintas organizaciones con valores y principios variados, ofrezcan alternativas para que las personas elijan el modelo que mejor se alinee con sus intereses y necesidades.
    4. Participación y auditoría ciudadana
      Involucrar a la ciudadanía en el diseño y supervisión de las IA, mediante plataformas digitales que permitan votaciones, auditorías abiertas y revisión de decisiones algorítmicas. Esto democratiza el control y fomenta la rendición de cuentas.
    5. Educación y empoderamiento tecnológico
      Garantizar que los ciudadanos tengan las herramientas y conocimientos necesarios para identificar y cuestionar manipulaciones algorítmicas. Esto puede incluir la creación de herramientas accesibles para auditar los sesgos en los sistemas de IA.

    Estas medidas permitirán evitar que los algoritmos se conviertan en herramientas de censura o manipulación, al mismo tiempo que equilibran la ética, la seguridad y la libertad de información. La clave está en redistribuir el poder tecnológico para que las decisiones sobre el uso de IA reflejen una pluralidad de intereses y no los de una élite.

  • Basura entre y basura sale

    La inteligencia artificial (AI), nos plantea el dilema que nos llegó con la computación que, como con todo adelanto tecnológico, va dejando patidifusos y contrariados a su paso; pero la AI va como el juego de póker cuando el bote de apuesta va en aumento lo cual, a su vez, aumenta la ansiedad de los jugadores. A todo ello y con la apuesta crecida se van produciendo otros fenómenos, tal como el del título de este escrito, que si alimentas a una PC con basura la misma te devolverá basura. Jamás olvido cuando un funcionario gubernamental me dijo: “…no señor, es que fue error de computadora”, y tuve que traducirle al castellano mi respuesta, “garbage in garbage out”.

    La AI es un adelanto tecnológico maravilloso que permitirá, entre tantas otras cosas, eliminar la pobreza; siempre que no alimentemos los programas con elementos de Patacón. La realidad de que todo puede ser bien o mal usado no cambia, lo que sí cambia es que, en particular, adelantos como la AI aumentan de forma exponencial el bote de apuestas y con ello el potencial de pérdidas o ganancias.

    Como bien nos dice Richard Rahn en el Mises Wire: “La AI no puede distinguir entre lo cierto y la ficción.” Podrá cambiar la mezcla de la ensalada pero no inventará una ensalada realmente nueva. Todo ello es propio de nuestra realidad humana. De hecho, ahora que les escribo estoy tomando pedazos de ideas del escrito de Rahn y las estoy sazonando a mi gusto y manera; lo cual no es lo mismo que inventar la bomba atómica y tal sino parte del dialogar humano.

    A todo ello, el asunto que deseo sacar a relucir es el jaleo que ya tenemos y que va en aumento en cuanto a lo difícil que resulta hoy día distinguir entre la realidad y la falsedad; y la manipulación que se hace factible con la AI; que como bien nos advierte Rahn, “de ello se están valiendo los mercaderes de la agenda woke en cosas tales como no mostrar fotos de gente de raza blanca cuando se habla de los fundadores de los EE.UU.”

    A medida que vaya evolucionando y adelantando la AI, la misma se prestará para ser usada por los políticamente interesados en controlar a la población o, digamos, a las gallinas del gallinero que tantos políticos creen que somos. Un buen ejemplo que también saca Rahn en este sentido es el del COVID, que se prestó para el engaño de control más grande de la historia y del cual aún falta mucho daño por delante.

    Pero Rahn nos lleva a otra dimensión del asunto que es el tema de la conciencia humana, que como bien lo señala “aún los humanos no estamos nada claros en cuanto a lo que es la conciencia y mucho menos que la podamos crear con una AI.”

    El otro aspecto del potencial económico de reducir el costo de vida es inmenso y es dónde debíamos enfocarnos; y no sólo estar pensando que nos va a dejar sin trabajo, aunque como ocurrió con el automóvil, este dejó sin trabajo a muchos, pero luego dio trabajo a muchos más y adelantó el camino hacia un nuevo estadio de desarrollo existencial.

    Y, a fin de cuentas, en lo que debemos prestar atención y acción es en la corrupción, valga la cacofonía; ya que la AI sí es un instrumento que se presta para diseminar basura ideológica y de otras clases.

  • El auge de la inteligencia artificial en las finanzas

    La incorporación de la tecnología en las finanzas no es un fenómeno nuevo, pero la rapidez con la que avanza la inteligencia artificial (IA) en este campo es algo digno de atención. Desde la evaluación de riesgos hasta la gestión de carteras, las aplicaciones de IA están redefiniendo las reglas del juego. Este nuevo panorama hace que cada vez más personas se pregunten sobre como funciona el trading, cuál es el impacto de la IA en el mercado bursátil y cómo cambiará el mundo de las inversiones.

    Los modelos algorítmicos no son nuevos en el mundo financiero. Desde la década de los 80, las instituciones financieras han adoptado algoritmos para optimizar sus operaciones y tomar decisiones más informadas. Sin embargo, con el advenimiento de tecnologías más avanzadas como el aprendizaje automático y el procesamiento de lenguaje natural, la IA ha ampliado su alcance.

    La ventaja de la IA radica en su capacidad para analizar grandes conjuntos de datos en fracciones de segundo, mucho más rápido que cualquier ser humano. En el ámbito de las finanzas, esto permite a los inversores tomar decisiones basadas en análisis más profundos y, por ende, más precisos. Y aunque siempre existirá el debate sobre si la IA puede reemplazar la intuición humana, no se puede negar que ha elevado el nivel del juego en el campo financiero.

    Hablemos un poco de la ética en este nuevo contexto financiero. A medida que la IA toma decisiones cada vez más críticas, surge la cuestión de quién es responsable cuando las cosas van mal. ¿Podemos confiar plenamente en una máquina para gestionar nuestras inversiones? Algunos argumentan que la inteligencia artificial, sin la supervisión humana, podría tomar decisiones que resulten en pérdidas significativas o incluso en desastres económicos.

    Por otro lado, la IA también tiene el potencial de democratizar el acceso a las inversiones. Las plataformas impulsadas por inteligencia artificial pueden ofrecer servicios a costos más bajos, permitiendo que más personas entren al mundo de las inversiones. Esto podría tener un impacto positivo en la economía en general, a medida que más individuos obtienen los recursos para invertir y aumentar su patrimonio.

    Personalización y Asesoramiento Financiero

    Una de las áreas más impactadas por la IA es el asesoramiento financiero. Gracias a los denominados “robo-advisors” o asesores robóticos, la personalización de las carteras de inversión basadas en el perfil de riesgo y objetivos del inversor es más accesible que nunca. Estas plataformas utilizan algoritmos complejos para ofrecer recomendaciones de inversión, reduciendo las comisiones y permitiendo que incluso aquellos con un capital menor se beneficien de un asesoramiento de calidad.

    Control y Seguridad Financiera

    Además de mejorar la eficiencia en el sector financiero, la IA también está desempeñando un papel crucial en la seguridad y prevención del fraude. Los sistemas de IA pueden detectar patrones de transacciones sospechosas o actividades inusuales con mayor precisión que los sistemas tradicionales, permitiendo a las instituciones actuar rápidamente para prevenir posibles problemas.

    Interacción y Servicio al Cliente

    El mundo de las finanzas también ha visto una revolución en la forma en que las empresas interactúan con sus clientes gracias a la IA. Los chatbots impulsados por inteligencia artificial proporcionan respuestas rápidas y precisas a las consultas de los clientes las 24 horas del día, mejorando la experiencia del usuario y reduciendo costos operativos para las empresas.

    Análisis Predictivo y Toma de Decisiones

    Otra ventaja notable de la IA es su capacidad para realizar análisis predictivos. Mediante el análisis de datos históricos y tendencias actuales, los sistemas de IA pueden prever movimientos futuros en el mercado con una precisión asombrosa, proporcionando a los inversores una ventaja competitiva en sus decisiones.

    Desafíos Regulatorios y el Futuro de la IA

    A medida que la IA sigue avanzando, también surgen desafíos en términos de regulación. Los gobiernos y organismos regulatorios están trabajando para establecer marcos que garanticen que la implementación de la IA en las finanzas se realice de manera ética y transparente. Mirando hacia el futuro, lo que está claro es que la inteligencia artificial seguirá moldeando y transformando el sector financiero, y aquellos que puedan adaptarse y aprovechar sus beneficios serán los líderes del mañana.

    En resumen, la integración de la inteligencia artificial en el mundo financiero es un fenómeno que llegó para quedarse. Si bien hay preguntas legítimas sobre la ética y la responsabilidad, el potencial para mejorar la eficiencia y la accesibilidad es inmenso. Los inversores, tanto nuevos como experimentados, deberán adaptarse a este nuevo entorno, aprendiendo a navegar a través de las oportunidades y desafíos que presenta la era de la IA en las finanzas.

    Es un momento emocionante para estar involucrado en el mundo financiero, y la inteligencia artificial está aquí para hacer que ese viaje sea aún más interesante. Ahora más que nunca, es crucial estar bien informado y preparado para adaptarse a las rápidas transformaciones que estamos presenciando.

    Fuente: Diario Bitcoin

  • La política al ritmo de los algoritmos

    Nadie los ve. Están ahí. Nos gobiernan. Llevan tiempo entre nosotros, pero sólo ahora hemos empezado a percibir su existencia. Son los algoritmos de aprendizaje automático (AAA). Un algoritmo, en general, podría definirse como un “conjunto de instrucciones lógicas para resolver un problema genérico concreto”. De manera simplificada, un AAA consiste en redes neuronales virtuales que, de forma parecida a como aprendemos los humanos, a medida que van procesando los resultados que provocan diferentes reacciones ante una situación, van anticipando cómo responder ante futuras casuísticas. Es decir, la máquina, literalmente, “aprende”. Ya habrán escuchado el concepto de machine learning.

    En la actualidad, los AAA están por todas partes, aunque no los veamos. Piensan y deciden por nosotros. Nos influyen cuando compramos en Amazon, por ejemplo;  nos filtran, mejor dicho, deciden por nosotros y nos muestran lo que queremos ver en Google o Netflix, nos ayudan a encontrar pareja en Tinder o incluso orientan nuestro voto político (caso de Cambridge Analityca y Facebook en EE. UU. O el Brexit), que es lo que hoy nos ocupa.

    La naturaleza predictiva de algunos AAA los hace singularmente performativos o, dicho de otra forma, igual que lo que solía suceder con las encuestas electorales, el mero hecho de predecir una supuesta realidad futura, afecta a nuestro comportamiento actual y acaba provocando el escenario previsto, lo  que solemos llamar profecía autocumplida.

    Franchise (Sufragio Universal) es el título de una historia corta del escritor de ciencia ficción Isaac Asimov. Este cuento de 1955 narra la historia de Norman Muller, un ciudadano del Estado de Indiana, quien es seleccionado por una supercomputadora llamada Multivac para ser el único votante de las elecciones del 2008. Entre otras cosas, Multivac es capaz de elegir y decidir la nómina de gobernadores y legisladores a distintos niveles de gobierno mediante el análisis de las opiniones, ideas y reacciones de un solo ciudadano. Ese ciudadano es el representante ideal de los habitantes del país. Esta nueva forma de elegir gobernantes, nos cuenta Asimov, promete eliminar los gastos en campañas políticas y las competiciones partidarias. Pero sobre todo, permite optimizar la representación de los intereses y posiciones de los ciudadanos. Todo ello gracias al trabajo de una inteligencia artificial que es capaz de analizar las preferencias de todos los ciudadanos y elegir el votante más representativo de ese conjunto de billones de preferencias y factores relevantes.

    La persona elegida no es la más inteligente, la de mayor formación política, la más afortunada, ni la más fuerte. No es la mejor ni la más buena. Nada de eso. Simplemente se trata de la persona más representativa. Una vez elegido, ese votante es interrogado por Multivac para ajustar más la información obtenida de toda la ciudadanía y, por fin, decidir los futuros gobernantes.

    La historia de Asimov transcurre en 2008. Tardamos unos 10 años más para llegar a lo predicho en el cuento. Y si bien todavía no tenemos una Multivac decidiendo elecciones, lo cierto es que la política está siendo asediada por el uso e irrupción de distintas formas de inteligencia artificial. Por este motivo, no es sorprendente que muchos de los temas y problemáticas que surgen en esa vieja historia de Asimov se estén discutiendo ahora mismo; superficialmente los legos hablan de las redes sociales, pero es mucho más.

    En Nueva Zelanda, por ejemplo, ya existe SAM, un político virtual “motivado por el deseo de cerrar la brecha entre lo que los políticos quieren y lo que los políticos prometen, así como sobre lo que los políticos finalmente consiguen”. Los impulsores de SAM creen que este agente de inteligencia artificial puede actuar como representante de todos los neozelandeses y generar mejores políticas públicas que los políticos de carne y hueso. A través del uso de redes sociales, SAM analiza las opiniones de los neozelandeses y el impacto de los posibles cursos de acción. Sus creadores esperan que SAM pueda competir en las elecciones de 2020. Algo similar ya ocurre en Japón con un robot llamado Michihito Matsuda. El mismo se encuentra compitiendo por las elecciones de alcalde de la ciudad japonesa de Tama.

    Parte del problema de las democracias actuales radica en que los líderes políticos han perdido capacidad de liderar a la opinión pública, constituyéndose en seguidores ansiosos de trending topics y encuestas de popularidad; y de ahí a decir cualquier tontería con tal de no perder followers. De aquellos políticos que imponían la agenda de discusión hemos involucionado a políticos que se adaptan a una agenda cuidadosamente diseñada para que ellos caigan en la trampa. Consecuencia de la subestimación de la república ante la democracia, donde una mayoría se ha dado cuenta que puede vivir a costa del otro 49 %.

    Entonces, ante los políticos que han perdido la capacidad de liderazgo en la formación y alteración de preferencias,  la inteligencia artificial viene al rescate. Las innovaciones recientes respecto al procesamiento de lenguaje natural, hacen posible que contemos ya con textos completamente redactados por máquinas. Dichos textos “artificiales”, creados en base a una síntesis inteligente del inmenso caudal de información hoy disponible en nuestras bases de datos, podrían intentar persuadirnos y encaminarnos hacia preferencias socialmente deseables. O todo lo contrario.

    Se piensa que las matemáticas son objetivas. Sin embargo, el propietario de la plataforma o el programador que diseña un algoritmo para procesar datos puede cargarlo con sus intenciones y prejuicios (derecha, izquierda, totalitario, demócrata, etc, etc) para que encuentre lo que de antemano se quería encontrar y filtre lo que no interesa.

    El que nos bombardeen con publicidad personalizada es una de las aplicaciones más inocentes, aunque molesta, del análisis de datos masivos. Pero hay otras. Los algoritmos del Big Data pueden hacer que no nos seleccionen en un trabajo, que nunca nos concedan una hipoteca, que nos detengan las autoridades en un aeropuerto o que la cuota de nuestro seguro médico sea mucho más elevada. O que salga elegido presidente un títere producto de algoritmos perfectamente diseñados.

    Pueden llegar a convertirse en Armas de Destrucción Matemática, tal y como las denomina la matemática y analista Cathy O´Neil, en un libro del mismo título, en el que describe cómo los modelos y algoritmos pueden empeorar la vida de las personas.

    Sin darnos cuenta, quizás estamos depositando una confianza cada vez mayor en la tecnología para controlar y dirigir nuestro futuro, convencidos de una supuesta neutralidad positiva de los avances tecnológicos. Usemos nuestro cerebro para el análisis crítico y a la hora de elegir el político que dirigirá las riendas del país por los próximos 5 años. Aún podemos hacerlo.