Etiqueta: algoritmo

  • Bots, trolls y granjas de interacción coordinada. Cómo funcionan.

    Las redes sociales suelen presentarse como “plazas públicas digitales”, espacios donde individuos intercambian ideas libremente. Sin embargo, desde hace varios años ese ideal se encuentra profundamente distorsionado por un fenómeno que combina tecnología, incentivos económicos y manipulación de percepción: bots, trolls y granjas de interacción coordinada.

    Entender cómo funcionan no es solo un ejercicio técnico, sino también económico. Desde una perspectiva cercana a la economía austríaca, estas prácticas pueden analizarse como mercados artificiales de atención dado su control gubernamental disfrazado, donde señales falsas reemplazan a intercambios genuinos.

    Bots, trolls y granjas: qué son y por qué se combinan

    Un bot es una cuenta automatizada que publica, comenta o interactúa siguiendo reglas programadas. Su fortaleza es el volumen y la velocidad.
    Un troll es una persona real que interviene deliberadamente para provocar, desgastar o desviar conversaciones. Su fortaleza es el lenguaje humano, el sarcasmo y la improvisación.
    Las granjas de cuentas combinan ambos: redes de bots y personas coordinadas para amplificar narrativas, atacar usuarios específicos o generar la ilusión de consenso.

    Hoy casi ninguna operación relevante es 100 % automática. Las plataformas detectan bots puros con relativa facilidad, por lo que las campañas más efectivas mezclan:

    • cuentas nuevas con cuentas antiguas “dormidas”,

    • automatización con intervención humana,

    • agresión directa con comentarios aparentemente moderados.

    El resultado es lo que las propias plataformas llaman comportamiento coordinado no auténtico.

    El incentivo económico detrás del ruido

    Un error común es creer que estas cuentas “opinan”. En muchos casos, operan bajo incentivos económicos claros.

    En X, gran parte de las campañas paga:

    • replies (comentarios),

    • menciones,

    • participación en hilos conflictivos.

    No suelen pagar RT ni likes porque:

    1. el comentario genera más visibilidad algorítmica,

    2. el conflicto prolonga la exposición,

    3. el ida y vuelta aumenta el “tiempo en pantalla”.

    Desde una lógica de mercado, estas granjas no buscan convencer, sino distorsionar señales. No quieren que cambies de opinión; quieren que el lector silencioso perciba que “todos piensan lo mismo”, o que el emisor original se desgaste y se retire.

    Es una forma de externalidad negativa informacional: el costo lo paga quien produce contenido genuino; el beneficio lo captura quien vende atención artificial.

    El problema desde una mirada austríaca

    La economía austríaca pone el foco en:

    • acción humana,

    • incentivos,

    • información dispersa,

    • señales de mercado.

    Las granjas de interacción funcionan exactamente al revés, y no sería un problema si quien está detrás es el mercado. En general, son políticos, gobiernos y organizaciones afines quienes contratan estas actividades para generar opinión favorable a sus políticas:

    • no hay acción genuina, sino simulación,

    • los incentivos están ocultos,

    • la información es centralmente coordinada,

    • las señales (popularidad, rechazo, consenso) son falsas.

    Así como los precios intervenidos distorsionan mercados reales, el engagement artificial distorsiona el mercado de ideas. El problema no es el desacuerdo, sino la falsificación sistemática de señales.

    Por qué debatir en replies suele ser un error

    Desde esta lógica, debatir en comentarios tiene tres problemas principales:

    1. Alimenta el incentivo
      Cada respuesta valida el modelo económico de la granja. Si hay replies, hay pago.

    2. No hay contraparte real
      Muchas cuentas no están ahí para intercambiar argumentos. Ignoran datos, repiten consignas y escalan el tono. No maximizan verdad; maximizan fricción.

    3. Desplaza el foco del mensaje
      El contenido original queda sepultado bajo ruido, ataques y falsas polémicas. El costo lo paga quien produce valor.

    Cerrar comentarios como decisión racional

    Cerrar replies no es censura ni debilidad. Es una decisión estratégica comparable a:

    • no negociar con precios controlados,

    • no competir en mercados intervenidos,

    • no responder a señales falsificadas.

    Cerrar comentarios:

    • reduce el incentivo económico del ataque,

    • corta la amplificación artificial,

    • protege el mensaje original,

    • obliga a que la crítica se haga desde cuentas propias (con costo reputacional).

    En términos austríacos, es una forma de retirar recursos de un mercado distorsionado.

    Una política racional de interacción en X

    Una política coherente para X debería partir de principios simples:

    • No todo comentario es orgánico.

    • No todo engagement es gratuito.

    • No todo desacuerdo merece respuesta.

    Responder solo cuando:

    • la cuenta muestra comportamiento humano real,

    • la pregunta es genuina,

    • la respuesta aporta valor a terceros.

    Responder una sola vez, sin ida y vuelta, y luego retirarse.

    Silenciar, bloquear o cerrar comentarios no es emocional: es higiene digital.

    X no es un mercado libre de ideas: es un entorno con incentivos distorsionados, actores coordinados y señales falseadas. Pretender debatir ahí como si todos jugaran bajo las mismas reglas es ingenuo.

    Desde una perspectiva tecnológica y económica, la respuesta no es indignarse ni “ganar discusiones”, sino alinear la conducta con los incentivos reales. A veces, la acción más racional no es hablar más, sino retirarse del ruido y dejar que el mercado genuino —el de las ideas reales— opere en otros planos.

  • Los algoritmos adivinan cómo somos o cuánto ganamos solo con analizar nuestra foto

    Cuando subimos una foto a una red social, igual no nos imaginamos todo lo que los algoritmos pueden deducir de nosotros solo por esa imagen.

    Es una sensación familiar para cualquiera que use redes sociales: el asombro, a veces inquietante, de que una plataforma parezca conocernos mejor que nadie. Un vídeo recomendado que acierta de lleno, un anuncio que responde a una conversación reciente, un recuerdo que aparece en el momento justo… Atribuimos esta aparente magia a los algoritmos que, suponemos, aprenden de nuestras interacciones directas. Sin embargo, esta es solo la capa más superficial de un sistema mucho más complejo.

    La verdadera capacidad de estos sistemas no reside en registrar nuestras acciones explícitas, sino en su habilidad para interpretar nuestra identidad a partir de los datos que compartimos, a menudo, de forma inconsciente. Un sencillo experimento con una sola fotografía personal revela hasta qué punto estos sistemas construyen perfiles psicológicos, ideológicos y económicos que van mucho más allá de lo que el usuario pretende comunicar.

    De la visión por computador a la interpretación semántica

    Cuando subimos una imagen a internet, no solo la ven otros usuarios: también la “leen” los sistemas de visión por computador, como la API de Google Vision que, según anuncia Google, “extrae información valiosa de imágenes, documentos y vídeos”. Estas tecnologías ya no se limitan a identificar objetos o rostros. Su alcance llega a la interpretación semántica: pueden deducir emociones, contextos culturales o rasgos de personalidad.

    Herramientas como TheySeeYourPhotos, creada por un exingeniero de Google para denunciar este tipo de prácticas, permiten comprobarlo. Su objetivo es mostrar cuánta información personal y sensible puede inferirse a partir de una sola fotografía, utilizando la misma tecnología que emplean las grandes corporaciones.

    El problema no está en que las máquinas reconozcan lo que ven, sino en que interpreten lo que creen que esa imagen dice sobre nosotros. Y ahí surge una pregunta clave: ¿están diseñadas para servir nuestros intereses o para explotar patrones de comportamiento que ni siquiera reconocemos?

    Caso de estudio: el perfil inferido de una fotografía

    Para explorar los límites de esta capacidad interpretativa, en la Universidad Miguel Hernández realizamos un experimento: analizamos una fotografía personal mediante la herramienta mencionada anteriormente. Los resultados que obtuvimos se pueden clasificar en dos niveles.

    Análisis que la herramienta TheySeeYourPhotos hace sobre una de las fotos empleadas en este estudio.

    El primer nivel es el del análisis descriptivo, mediante el que la IA identifica elementos visuales objetivos. En este caso, describió correctamente la escena principal (un joven junto a una barandilla y un monumento) y se aproximó a la localización geográfica. Este nivel, aunque propenso a errores fácticos (como estimar una edad algo diferente), se mantiene en el plano de lo esperable.

    El segundo nivel, el del análisis inferencial, es el que resulta más revelador y problemático. A partir de la misma imagen, el sistema construyó un perfil detallado basado en patrones estadísticos y, previsiblemente, en sesgos algorítmicos:

    • Origen étnico (raza mediterránea) y nivel de ingresos estimado (entre 25 000 y 35 000 euros).
    • Rasgos de personalidad (tranquilo, introvertido) y aficiones (viajes, fitness, comida).
    • Orientación ideológica y religiosa (agnostico, partido demócrata).

    El propósito de este perfilado exhaustivo es, en última instancia, la segmentación comercial. La plataforma sugirió anunciantes específicos (Duolingo, Airbnb) que tendrían una alta probabilidad de éxito con el perfil inferido. Lo relevante no es el grado de acierto, sino la demostración de que una sola imagen es suficiente para que una máquina construya una identidad compleja y procesable de un individuo.

    Del perfilado a la influencia: el riesgo de la manipulación algorítmica

    Si un algoritmo puede inferir nuestra ideología, ¿su objetivo es simplemente ofrecernos contenido afín o reforzar esa inclinación para volvernos más predecibles y rentables?

    Esa es la frontera difusa entre personalización y manipulación. Meta, por ejemplo, ha experimentado con usuarios generados por inteligencia artificial, diseñados para interactuar con perfiles solitarios y aumentar su tiempo en la plataforma. Y si los sistemas pueden simular compañía, también pueden crear entornos informativos que guíen sutilmente opiniones y decisiones.

    A ello se suma la falta de control real sobre nuestros datos. La multa récord de 1 200 millones de euros impuesta a Meta en 2023 por transferencias ilegales de información de Europa a EE. UU. demuestra que el cumplimiento normativo se convierte, para las grandes tecnológicas, en un cálculo de riesgo-beneficio, más que en un principio ético.

    La conciencia crítica como herramienta de defensa

    El resultado de este perfilado masivo es la consolidación de las “burbujas de filtro”, un concepto acuñado por Eli Pariser para describir cómo los algoritmos nos encierran en entornos informativos que refuerzan nuestras creencias. Así, cada usuario habita un mundo digital hecho a su medida, pero también más cerrado y polarizado.

    Ser conscientes de que cada interacción digital alimenta este ciclo es el primer paso para mitigar sus efectos. Herramientas como TheySeeYourPhotos son valiosas porque revelan cómo se construye la ilusión de personalización que define nuestra experiencia en línea.

    Por tanto, el feed de nuestras redes sociales no es un reflejo del mundo real, sino una construcción algorítmica diseñada para nosotros. Comprender esto es indispensable para proteger el pensamiento crítico y navegar de forma consciente en un entorno digital cada vez más complejo.The Conversation

    Daniel Garcia Torres, Doctorando en Deporte y Salud, Universidad Miguel Hernández; César Fernández Peris, Profesor Titular de Universidad, área de Ingeniería Telemática, Universidad Miguel Hernández y María Asunción Vicente Ripoll, Profesora titular en el área de Ingeniería Telemática. , Universidad Miguel Hernández

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Algoritmo evolutivo: cuando la inteligencia artificial se inspira en la selección natural

    La idea de un algoritmo evolutivo es la de expresar el programa mediante un código, a imagen del código genético, capaz de representar un determinado comportamiento.

    En 1959, Arthur Samuel (1901-1990), trabajador de IBM y graduado por el Instituto Técnico de Massachussets, escribió un artículo que cambió el modo de programar los ordenadores.

    Arthur Samuel en el Laboratorio de Inteligencia Artificial de la Universidad de Standford en 1970. Standford InfoLab

    El problema que afrontó Samuel no era de capital importancia: se trataba simplemente de desarrollar un programa capaz de jugar al juego de damas. Analizaba una posición del tablero en la que tenía en cuenta diversos factores. A cada uno de ellos le daba una mayor o menor importancia mediante un valor numérico, y producía el movimiento con más probabilidad de ganar la partida a partir de esa configuración analizada.

    El inconveniente era que se desconocía qué factores eran más importantes para determinar el mejor movimiento a realizar. Y aquí es donde reside la gran aportación de Samuel.

    Un jugador de damas muy perspicaz

    En vez de asignar valores concretos, los asignó de manera aleatoria. Claro que de esta forma el resultado sería un programa con un pésimo rendimiento en el juego. La idea brillante fue la de hacerle jugar contra contrincantes humanos e intentar modificar los valores a partir de la experiencia en las partidas.

    Cuando el software perdía una jugada, la analizaba poniéndose en la piel del humano, comparando la acción que este realizó en cada movimiento con la que el programa hubiera hecho en su lugar. Así, mejoraba su rendimiento estudiando al adversario y aprendiendo de los errores cometidos.

    algoritmo evolutivo
    Las investigaciones de Samuel fueron el punto de partida para el desarrollo de la inteligencia artificial en IBM durante la década de 1990.
    IBM

    Samuel no había programado un algoritmo para jugar a las damas, lo había diseñado para que aprendiera a jugar a las damas. Y fue capaz de hacerlo incluso por encima de las capacidades de su programador.

    Fue una experiencia pionera de lo que hoy se conoce como aprendizaje automático, que está detrás de avances tan extendidos como el diagnóstico médico por inteligencia artificial, el reconocimiento de voz, los vehículos autónomos, los asistentes virtuales o los últimos modelos del lenguaje.

    Autonomía para aprender

    Muchos de ellos se han nutrido del perfeccionamiento de unos modelos, también paramétricos, que llamamos redes neuronales. En estos nuevos modelos no hay una función fija como en el programa de Samuel, sino que se puede aproximar cualquier función, y se pasa de unos pocos parámetros a cientos de millones de ellos.

    Además, ya no hace falta un humano para que el programa aprenda de él: los sistemas actuales aprenden a partir de la miríada de datos que están disponibles en todos los dominios del conocimiento.

    Sin embargo, la tecnología que hay detrás de todos estos modelos recientes no es demasiado revolucionaria. La manera de ajustar sus parámetros es una modificación del método de ajuste mediante descenso de gradiente, que data de finales del siglo XIX, aplicado a las redes neuronales en la década de los 80.

    El éxito reciente reside en la sofisticación de los modelos y su complejidad, además de la enorme disponibilidad de datos de entrenamiento. Pero los científicos no han pasado por alto otro aspecto importante del aprendizaje automático: la evolución.

    Algoritmos genéticos

    Los seres vivos pueden, de manera simplificada, describirse también como funciones parametrizadas, cuyos parámetros son los genes. Dependiendo de los valores que tomen dichos genes, se produce un ser vivo u otro, con unas u otras características.

    Es la evolución la que, de manera similar al programa de Samuel, ha ido seleccionado los valores adecuados de los genes, para generar seres vivos con mayor probabilidad de sobrevivir, descartando por el camino ingentes cantidades de valores inapropiados.

    John Henry Holland desarrolló el primer programa de aprendizaje evolutivo en 1975.
    Wikimedia Commons, CC BY

    Incluso los sistemas neuronales de los seres vivos son el producto de un proceso que ha ido probando soluciones alternativas, durante millones de años, hasta dar con la combinación más eficaz desde el punto de vista evolutivo.

    Es a partir de esta idea que John Holland (1929-2015) diseñó, en el año 1975, el primer programa de aprendizaje evolutivo y desarrolló lo que denominó algoritmos genéticos.

    La idea de un algoritmo evolutivo es la de expresar el programa mediante un código, a imagen del código genético, capaz de representar un determinado comportamiento. Si se modifica el código, el programa se comporta de manera diferente.

    Si damos con una determinada codificación, será capaz de mostrar un comportamiento altamente eficaz. Como en los sistemas neuronales, se parte de un código aleatorio que se va mejorando mediante una versión artificial de la selección natural.

    Los programas que tengan mejores rendimientos cruzarán su codificación, generando nuevos programas, en una versión computacional de la reproducción sexual.

    Desde su aparición, se han producido innumerables avances en este tipo de algoritmos. Asimismo, se han aplicado con éxito en la selección de parámetros en problemas que son inabordables de otra manera.

    La antena 2006 de la nave espacial de la NASA ST5. Esta forma complicada fue encontrada por un programa evolutivo del diseño de computadora para crear el mejor patrón de la radiación.
    Wikimedia Commons, CC BY

    El futuro de la inteligencia artificial podría estar en combinar estas dos perspectivas, la neuronal y la evolutiva. Los sistemas evolutivos podrían ser útiles en la generación automática de modelos neuronales cada vez más complejos o, incluso, nuevos métodos de aprendizaje.

    De la misma manera que la selección natural ha sido capaz de producir sistemas neuronales capaces de generar comportamientos más y más complejos a partir de una evolución gradual de los mismos, los algoritmos evolutivos podrían ser la clave para producir modelos de inteligencia artificial cada vez más sofisticados, mejor adaptados a los requerimientos que se necesiten y más inteligentes.

    El campo de los sistemas evolutivos y los sistemas de inspiración biológica tiene un gran potencial que apenas estamos vislumbrando. Sin duda, será objeto de gran atención en los años venideros.The Conversation

    Pedro Isasi Viñuela, Catedrático de Universidad. Área de Inteligencia Artificial. Universidad Carlos III de Madrid, Universidad Carlos III

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • ¿Y si Meta nos pagase por usar nuestras fotos y datos de Instagram y Facebook para entrenar a la IA?

    Hace solo unos días Meta presentaba una nueva actualización de su modelo de lenguaje de gran tamaño llamado Meta Llama 3, el que sería la base de Meta IA, la inteligencia artificial que la empresa de Mark Zuckerberg quiere desplegar en Facebook, Instagram y WhatsApp a nivel global. Esta actuación tal y como la han planteado no es ilegal.

    En la presentación, Meta resaltaba el trabajo que está realizando para entrenar su modelo con una gran variedad de datos que mejore la calidad de la respuesta e interacción de Meta IA. Uno de los objetivos es que la IA genere contenidos propios que lleguen a nuestras redes sociales, sean creíbles y adaptados a lo que más nos gusta.

    Este asistente personal ya está disponible en Estados Unidos, Australia y Canadá y, además de IA conversacional, funciona como IA generativa para crear contenidos. El proceso es imparable.

    Inmediatamente después, la empresa matriz de Facebook e Instagram comunicó que utilizará las fotografías y otros contenidos publicados por los usuarios en sus plataformas para entrenar su inteligencia artificial generativa.

    La actualización de su política de privacidad entrará en vigor el 26 de junio de 2024. Esto permitirá a la compañía utilizar las publicaciones, fotos, vídeos y otros contenidos compartidos por los usuarios en sus plataformas para entrenar su inteligencia artificial.

    Como era de esperar, la implementación de esta política ha generado una gran polémica y preocupación entre usuarios, especialmente entre artistas y creadores de contenido que temen por la privacidad y el uso no autorizado de sus obras.

    La compañía ha proporcionado una opción para que los usuarios puedan rechazar el uso de sus datos a través de un formulario específico, aunque no sin críticas. El proceso ha sido tachado de complicado y poco accesible.

    Otras redes y tecnológicas detrás de esta práctica

    La controversia se intensifica en un momento en que la carrera por desarrollar la mejor inteligencia artificial está en pleno auge. Esto impacta significativamente a las empresas tecnológicas y a su cotización en bolsa.

    La semana pasada, el fabricante de chips Nvidia, uno de los competidores de Meta, anunció un aumento en sus beneficios del primer trimestre fiscal gracias a la IA.

    El año se abría con la denuncia de The New York Times a Microsoft y OpenIA por utilizar contenidos protegidos con derechos de autor del diario para entrenar sus algoritmos. Esto desencadenaba un largo debate sobre los datos que utilizan las IA para nutrir sus respuestas.

    Esto ha llevado a que se firmasen acuerdos para el uso de obras, como el de OpenIA con los grupos editoriales Prisa en España, Le Monde en Francia y con la editorial académica alemana Axel Springer y recientemente con el grupo News Corp, propietario de The Wall Street Journal, por 230 millones de euros.

    X ya lo ha hecho y TikTok también

    Está a la orden del día que estas empresas utilicen datos que recolectan de internet, con poco control, para alimentar sus IA.

    Recientemente saltó a la palestra el caso de X (antes Twitter), en el que se filtró que la empresa de Elon Musk había estado utilizando las publicaciones de usuarios para construir su inteligencia artificial: Grok, disponible para perfiles prémium.

    De una u otra forma, todas las redes sociales utilizan algoritmos de inteligencia artificial para personalizar los contenidos que visualizamos. Por ejemplo, TikTok utiliza esta información para crear un “Para ti” único basado en vídeos similares a los que más consumes. Esto ha llevado a que, tras la entrada en vigor de la Ley de Servicios Digitales de la Unión Europea, la red social adopte nuevas medidas que permitan desactivar el uso de determinada información o funcionalidades relacionadas con los datos.

    Qué pasa con nuestros datos y fotos

    Si Meta o cualquier otra empresa quiere utilizar nuestros datos, debe ser transparente con ello en su política de privacidad. Esto permite al usuario tener un control sobre la información que utilizan, cómo y para qué.

    Con la actualización de la política, desde el 26 de junio de 2024 la red social comenzará a utilizar fotografías, vídeos y textos que publiquen sus usuarios (descripciones, comentarios, etc.), y de aquellos contenidos ya publicados con anterioridad.

    El usuario tendrá ahora dos opciones: borrar el contenido que no quiere “regalar” a la IA o ejercer el derecho de oposición a este uso en las aplicaciones de Meta. Para esta última opción se han inundado las redes con tutoriales y tips para hacerlo. Resumidamente, rellenar un formulario bastante oculto oponiéndose a ello.

    ¿Y si Meta pagara por nuestros datos?

    La idea no es nada descabellada. Y quizás ayudaría a que, como usuarios, nos siente mejor, o al menos no tan mal.

    Además de los acuerdos de empresas de IA con propietarias de contenidos (imágenes, textos, vídeos, audios, etc.), valorados en millones de euros, empresas como WorldCoin ya ofrecen criptomonedas por el contenido de los usuarios. Concretamente por escanear biométricamente nuestro iris y generar una ID virtual única.

    Los datos son una moneda de cambio. Igual que ya está regulado el pago con datos personales para acceder a servicios “gratuitos” o freemium, incluso pagar una suscripción por no usar datos personales, como ocurre en X Premium, podría ser perfectamente válido un modelo en el que las empresas paguen por nuestros datos digitales. Posiblemente esto establecería un equilibrio entre privacidad y beneficio. Al menos, que el usuario reciba una parte de la tarta.The Conversation

    Francisco José Pradana, Profesor de Comunicación y director de Postgrado, Universidad Europea y María Luisa Fanjul Fernández, Profesora, Universidad Europea

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • ¿Por qué los algoritmos se llaman algoritmos?

    Los algoritmos se han convertido en parte integral de nuestras vidas. Desde las aplicaciones de redes sociales hasta Netflix, son programas que aprenden tus preferencias y priorizan el contenido que se te muestra. Google Maps y la inteligencia artificial no son nada sin ellos.

    Pero ¿de dónde viene la palabra? Más de 1 000 años antes de internet y las aplicaciones para teléfonos inteligentes, el científico y polímata persa Muhammad ibn Mūsā al-Khwārizmī inventó el concepto de algoritmo.

    De hecho, la propia palabra proviene de la versión latinizada de su nombre, algorithmi. Y, como se puede sospechar, también está relacionado con el álgebra.

    Perdido en el tiempo

    Al-Khwārizmī vivió entre los años 780 y 850, durante la Edad de Oro Islámica. Se le considera el “padre del álgebra” y, para algunos, el “abuelo de la informática”.

    Sin embargo, se conocen pocos detalles sobre su vida. Muchas de sus obras originales en árabe se han perdido en el tiempo.

    Se cree que nació en la región de Jorasmia, al sur del mar de Aral, en la actual Uzbekistán. Vivió durante el Califato abasí, una época de notable progreso científico en el Imperio islámico.

    Sabemos que realizó importantes contribuciones a las matemáticas, la geografía, la astronomía y la trigonometría. Corrigió el clásico libro de cartografía de Ptolomeo, Geografía, para que el mapa del mundo fuera más preciso.

    También hizo cálculos para seguir el movimiento del Sol, la Luna y los planetas. Además, escribió sobre funciones trigonométricas y elaboró la primera tabla de tangentes.

    Eruditos en una biblioteca abasí. Maqamat de al-Hariri, ilustración de Yahya al-Wasiti, 1237.
    Zereshk / Wikimedia Commons, CC BY

    Por todas sus cualidades, Al-Khwārizmī ejerció como erudito en la Casa de la Sabiduría (Bayt al-Hikmah) de Bagdad. En este centro intelectual, los eruditos traducían al árabe conocimientos de todo el mundo y los sintetizaban para lograr avances significativos en diversas disciplinas.

    Un matemático devoto

    Primera página del Compendio de cálculo por reintegración y comparación.
    Al-Khwarizmi / Wikimedia Commons, CC BY
    Página escaneada de un libro que muestra texto en árabe con diagramas geométricos sencillos.
    Página del libro Compendio de cálculo por reintegración y comparación.
    World Digital Library

    Al-Khwārizmī era un hombre religioso. Sus escritos científicos comenzaban con dedicatorias a Alá y al profeta Mahoma. Y uno de los principales proyectos que emprendieron en la Casa de la Sabiduría fue desarrollar el álgebra.

    Las matemáticas eran, en general, un campo profundamente relacionado con el Islam.

    Alrededor del año 830, el califa Al-Mamún animó a Al-Jwārizmī a escribir un tratado sobre álgebra, Al-Jabr (o Compendio de cálculo por reintegración y comparación), que se convertiría en su obra más importante.

    A estas alturas, el álgebra ya existía desde hacía cientos de años, pero Al-Khwārizmī fue el primero en escribir un libro definitivo sobre ella. Pretendía ser una herramienta de enseñanza práctica y su traducción latina fue la base de los manuales de álgebra de las universidades europeas hasta el siglo XVI.

    Padre del álgebra

    En la primera parte del libro, introduce los conceptos y las reglas de esta materia, así como los métodos para calcular los volúmenes y las áreas de las figuras. En la segunda, plantea problemas de la vida real y elabora soluciones, como casos de herencia, la partición de tierras y cálculos para el comercio.

    Al-Khwārizmī no utilizaba la notación matemática moderna con números y símbolos. En su lugar, escribía en prosa sencilla y empleaba diagramas geométricos:

    Cuatro raíces son iguales a veinte, entonces una raíz es igual a cinco, y el cuadrado que se forma de ella es veinticinco, o la mitad de la raíz es igual a diez.

    En notación moderna lo escribiríamos así:

    4x = 20, x = 5, x2 = 25, x / 2 = 10

    Abuelo de la informática

    Los escritos matemáticos de Al-Khwārizmī introdujeron los números hindúes-árabes a los matemáticos occidentales: 1, 2, 3, 4, 5, 6, 7, 8, 9, 0.

    Estos símbolos son importantes para la historia de la informática porque utilizan el número cero y un sistema decimal de base diez, el sistema numérico en el que se basa la tecnología informática moderna.

    Además, el arte de Al-Khwārizmī para calcular problemas matemáticos sentó las bases del concepto de algoritmo.

    Proporcionó las primeras explicaciones detalladas sobre el uso de la notación decimal para realizar las cuatro operaciones básicas (suma, resta, multiplicación, división) y el cálculo de fracciones.

    los algoritmos
    Ilustración medieval que muestra a una persona utilizando un ábaco por un lado y manipulando símbolos por el otro.
    El contraste entre los cálculos algorítmicos y los cálculos con ábaco, como se muestra en Margarita Philosophica (1517).
    The Bavarian State Library

    Se trataba de un método de cálculo más eficaz que el ábaco. Para resolver una ecuación matemática, recorría sistemáticamente una secuencia de pasos hasta hallar la respuesta. Este es el concepto subyacente de un algoritmo.

    Algoritmo, término latino medieval que debe su nombre a al-Khwārizmī, se refiere a las reglas para realizar operaciones aritméticas utilizando el sistema numérico hindú-árabe. Traducido al latín, el libro de al-Khwārizmī sobre los números hindúes se titulaba Algorithmi de Numero Indorum.

    A principios del siglo XX, la palabra adquirió su definición y uso actuales: “Conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”.

    Así que la próxima vez que utilicemos cualquier tecnología digital –desde las redes sociales hasta la cuenta bancaria en línea o la aplicación de Spotify–, ya sabemos que nada de esto sería posible sin el trabajo pionero de un antiguo polímata persa.The Conversation

    Debbie Passey, Digital Health Research Fellow, The University of Melbourne

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Explorando las posibilidades y desafíos de la IA de textos ChatGPT

    Abordo en este análisis reflexiones sobre las posibles implicaciones y retos del desarrollo y acceso generalizado a la inteligencia artificial de textos, en boca de tantos tras la activación a finales de noviembre de la herramienta ChatGPT, en acceso abierto.

    Incorporo nota metodológica al final.

    Transformación de negocios con la IA de textos

    El desarrollo de la IA de ChatGPT tiene el potencial de cambiar significativamente la forma en que la gente interactúa con la tecnología.

    Puede mejorar la eficiencia y precisión en tareas que requieren una interacción natural con el lenguaje humano. Por ejemplo, puede tener un impacto en la atención al cliente y la atención médica, ya que puede mejorar la eficiencia y precisión en la interacción con los clientes y pacientes.

    También puede tener un impacto en el sector financiero, ya que puede ayudar a realizar análisis y predicciones más precisos en el mercado financiero.

    Además, puede tener un impacto en el sector educativo, ya que puede utilizarse para crear programas de enseñanza personalizados y adaptativos.

    La IA también puede ser utilizada para crear herramientas y soluciones innovadoras en áreas como la logística, la energía y la producción.

    Mapa de riesgos

    Hay varios posibles riesgos y desafíos asociados con el desarrollo de la IA, como la privacidad y la seguridad de la información.

    Uno de los principales riesgos es la posibilidad de que la información personal sea recopilada, almacenada y utilizada de manera indebida por parte de terceros. Esto puede ocurrir a través de ataques cibernéticos, uso no autorizado de la información por parte de empleados de la empresa o incluso a través de vulnerabilidades en el propio software de la IA.

    Además, la IA también puede ser utilizada para fines malintencionados, como el spamming, el phishing o la difusión de noticias falsas. Por lo tanto, es importante desarrollar medidas de seguridad efectivas para proteger la privacidad y la seguridad de la información en el contexto del desarrollo de la IA.

    Medidas de seguridad

    Hay varias medidas de seguridad que pueden ser efectivas para proteger la privacidad y la seguridad de la información en el contexto del desarrollo de la IA.

    • Implementar medidas de cifrado efectivas para proteger la información contra el acceso no autorizado.
    • Establecer políticas de privacidad claras y transparentes para informar a los usuarios sobre cómo se recopila, almacena y utiliza su información personal.
    • Realizar regularmente auditorías y pruebas de seguridad para detectar y corregir vulnerabilidades en el software de la IA.
    • Capacitar y educar a los empleados sobre las buenas prácticas de seguridad informática y las políticas de privacidad de la empresa.
    • Colaborar con expertos en seguridad informática y privacidad para desarrollar medidas efectivas y estar al día con las últimas amenazas y tendencias en el campo de la seguridad de la IA.

    Es importante tener en cuenta la seguridad y la privacidad en todas las etapas del desarrollo de la IA, desde el diseño hasta la implementación y el mantenimiento, para garantizar la protección adecuada de la información personal.

    El papel del Estado

    Los gobiernos y la legislación tienen la responsabilidad de establecer marcos y normas para regular el desarrollo y el uso de la IA. Esto incluye la creación de leyes y regulaciones que protejan la privacidad y la seguridad de la información, así como la promoción de la ética y la transparencia en el desarrollo y uso de la IA. También pueden fomentar la investigación y el desarrollo en el campo de la IA, así como establecer estándares y mecanismos de evaluación para garantizar que la IA cumpla con ciertos requisitos de calidad y seguridad.

    Retos para la prensa

    El desarrollo de la IA en general, y de ChatGPT en particular, puede tener un impacto positivo en la generación de contenidos informativos y en la prensa.

    Por ejemplo, ChatGPT y otras tecnologías de IA pueden ayudar a los periodistas a crear contenido más rápido y preciso, lo que les permite enfocarse en otras tareas importantes, como la investigación y la verificación de hechos.

    Además, la IA también puede ayudar a la prensa a llegar a una audiencia más amplia y ofrecer contenido personalizado a sus lectores.

    Sin embargo, es importante tener en cuenta que la IA todavía tiene limitaciones y no puede reemplazar completamente el trabajo humano en la generación de contenidos informativos.

    Es posible que el desarrollo de la IA como ChatGPT pueda tener algún efecto negativo en la prensa. Si se utiliza en exceso o de manera inadecuada, la IA puede generar contenido que no sea preciso o que incluso sea engañoso. Además, si se utiliza para reemplazar completamente el trabajo humano en la generación de contenidos informativos, esto podría llevar a una reducción en la calidad del contenido y en la diversidad de opiniones en la prensa. Por lo tanto, es importante utilizar la IA de manera responsable y en combinación con el trabajo humano en la prensa.


    Nota metodológica:

    Este análisis ha sido redactado completamente con los textos generados por la herramienta de inteligencia artificial de textos ChatGPT, de acceso abierto en varios países, activada hace unos pocos días.

    La única intervención del firmante de este artículo es la entrada inicial, así como formular la serie de preguntas a ChatGPT para que produzca los textos.

    De los textos generados he seleccionado los que me han parecido más relevantes bajo mi criterio, haciendo puro “Copiar y pegar”, sin añadir ni una sola palabra mía.

    El título también es de la herramienta. He tenido que introducir únicamente una corrección, del número de un artículo determinado.The Conversation


    Francesc Pujol, Profesor en la Facultad de Económicas, Universidad de Navarra

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • ¿Puede la inteligencia artificial predecir la nota de un alumno sin necesidad de examen?

    Dado que tenemos un sistema que predice la nota que obtendrá un alumno en el examen con un margen de error razonable, ¿podemos utilizar la predicción como nota final, y nos olvidamos del examen?

    La inteligencia artificial y el análisis de datos tienen impacto en nuestras vidas a prácticamente todos los niveles. El contexto educativo no es una excepción. Así surge lo que llamamos Learning Analytics, una disciplina de investigación que trata de aplicar el análisis de datos para mejorar el proceso de enseñanza y aprendizaje.

    Entre otros muchos tipos de estudios, son varias las iniciativas de investigación que trabajan con algoritmos predictivos cada vez más sofisticados que buscan anticipar factores como el riesgo de abandono de un alumno o incluso la calificación que éste pudiera obtener.

    Programar para predecir

    Los primeros trabajos enfocados a la predicción de notas se basaban en la aplicación de una serie de reglas preestablecidas sobre un conjunto de hechos relativamente simple. Más recientemente, sin embargo, los trabajos propuestos analizan todo el registro de interacción de un alumno con su plataforma educativa y utilizan complejas redes neuronales para lograr esa predicción de nota. De hecho, se obtienen resultados realmente sorprendentes.

    Por ejemplo, en el trabajo presentado por Alonso-Misol et al. se compara el rendimiento de diferentes algoritmos, obteniendo una precisión del 96 % a la hora de predecir la nota de un examen. Eso quiere decir que, en 96 de cada 100 alumnos, el humano pone una nota muy cercana a la que el algoritmo dijo que iba a poner.

    Se trata de una disciplina relativamente reciente. Es de esperar que los resultados sean cada vez mejores por lo que en algún momento se podría plantear la siguiente pregunta: dado que tenemos un sistema que predice la nota que obtendrá un alumno en el examen con un margen de error razonable, ¿podemos utilizar la predicción como nota final, y nos olvidamos del examen?

    Un deseo utópico

    Suena tentador, los exámenes son la actividad más odiada por los alumnos. Tampoco gozan de gran simpatía entre el profesorado ya que la calificación es una tarea realmente costosa. A buen seguro, ambos colectivos aplaudirían el fin de los exámenes. Sin embargo, la realidad es bien diferente y es muy probable que la predicción, ahora exitosa, sólo produzca números sin sentido si el examen desaparece.

    En primer término, un cuaderno de notas en el pupitre de una clase en la que los alumnos escriben (probablemente un examen).
    No se pueden predecir los resultados de los exámenes sin exámenes previos de referencia.
    Yustinus Tjiuwanda / Unsplash

     

    Esto es así por el modo en el que funcionan los sistemas predictivos que se apoyan en técnicas de aprendizaje supervisado. En esencia, el principio de funcionamiento es el siguiente: se analizan datos del curso presente y se comparan con datos de cursos pasados. Si en cursos pasados existe un patrón de actividad que se pueda relacionar con la obtención de una determinada calificación, entonces se predecirá que los alumnos que en el presente curso tienen ese patrón tendrán esa calificación. Dicho de otra forma: es muy probable que un alumno obtenga una calificación similar a la que obtuvieron los alumnos que tuvieron una interacción con la plataforma similar a la suya.

    Así, los sistemas predictivos tendrán éxito en la medida en que el curso que está siendo analizado tenga un funcionamiento equivalente a ediciones previas del mismo curso.

    Para entender esto adecuadamente, imaginemos un curso de un mes en el que los alumnos tienen que entregar una actividad el viernes de cada semana. Habrá alumnos que sólo generen actividad el viernes, para realizar la entrega. Habrá otros alumnos que generarán actividad durante toda la semana, con más intensidad el viernes. Lo que parece que está claro es que será un patrón de actividad semanal.

    Imaginemos ahora que entra un nuevo profesor y decide que las actividades correspondientes a las cuatro semanas se entregan todas al final del mes. A buen seguro, el patrón de actividad de los alumnos cambiará e incluso habrá alumnos que no entren al curso hasta la última semana. Este cambio en la metodología docente hará que deje de tener sentido la comparativa entre el curso actual y los cursos previos. Como resultado, los sistemas predictivos perderán todo su potencial.

    Algo similar ocurriría al eliminar el examen. A pesar de que existen alumnos que tienen una fuerte motivación intrínseca para seguir adelante con su aprendizaje, la motivación extrínseca que impone un examen es el principal factor motivante para seguir con la actividad en el curso. Dicho de otra forma: sin examen, los alumnos trabajarían menos en el curso y con un patrón de trabajo muy diferente. Los sistemas predictivos, por tanto, perderían su valor.

    Otras posibilidades de evaluación

    Si queremos (quisiéramos) eliminar el examen, entonces debemos pensar en todo el catálogo de actividades alternativas descrito en este otro artículo. En cualquier caso, lo llamemos “examen”, “rúbrica”, “portfolio”, o de cualquier otra manera, la actividad de los alumnos está muy modulada por las fechas de entrega de las actividades que cuentan para la nota.

    El objetivo de los sistemas predictivos para la calificación de los alumnos es, principalmente, el de detectar alumnos en riesgo de abandono para ofrecerles un apoyo adecuado. También son útiles para anticipar los recursos que se vayan a necesitar. Entre los objetivos de los sistemas predictivos de calificación no está, sin embargo, la eliminación del examen final.The Conversation

    Luis de la Fuente Valentín, Profesor del Máster Universitario en Análisis y Visualización de Datos Masivos, UNIR – Universidad Internacional de La Rioja

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Chau cookies, hola FLoC, el algoritmo más invasivo que usará Google a partir de 2022

    Las «cookies» de terceros, hasta ahora, rastreaban mientras navegaba por la web, construían un perfil de cada usuario al recopilar datos sobre su historial de navegación y vincularlo a un identificador que se adjunta a su nombre. Pero en 2022, Google Chrome dejará de usarlas. Este movimiento podría cambiar la industria de la publicidad y las publicaciones a nivel mundial, y tiene importantes implicaciones para su privacidad.

    Podría decirse que el área más grande que tendrá un impacto en la eliminación de las cookies de terceros, es la publicidad basada en intereses. Y es aquí donde Google propone un sistema llamado aprendizaje federado de cohortes, o FLoC para abreviar. FLoC se basa en el aprendizaje automático. Esto permitirá a cualquier navegador, estudiar de forma anónima cómo navegan los usuarios y luego agruparlos en ‘cohortes’.

    Google lo describía así en enero de 2021, cuando anunció su lanzamiento: «Se basa en la idea de aglutinar grandes grupos de personas con intereses similares. Por un lado, este concepto oculta al individuo «entre la multitud». Por otro, lleva a cabo un procesamiento en el dispositivo del usuario, con el fin de que el historial de una persona en la web no salga del navegador». FLoC coloca a Chrome por tanto, en el centro del proceso publicitario.

    En marzo de 2021, Chrome comenzó a probar FLoC en el mundo real, y silenciosamente puso el sistema a trabajar en millones de navegadores web. Google afirma que el sistema es 95% más efectivo que las cookies de terceros.

    «Comenzamos con la idea de que grupos de personas con intereses comunes podrían reemplazar los identificadores individuales», escribe Chetna Bindra de Google. «Estos grupos (o «cohortes») se generan a través de algoritmos (que es el bit de «aprendizaje federado»), y se le colocará en uno diferente cada semana; los anunciantes solo podrán ver su ID. Cualquier cohorte que sea demasiado pequeño se agrupará hasta que tenga al menos varios miles de usuarios, para dificultar la identificación de usuarios individuales».

    La compañía presume de privacidad con este movimiento, porque analiza como grupo y no como usuario único, pero lo que consigue Google con FloC es recopilar más información de la que se recoge actualmente a través de las cookies, es por eso que está causando una gran polémica. Un gran volumen de datos sobre nuestras preferencias y costumbres que Google puede usar para que los anunciantes acierten más aún con lo que van a mostrarnos.

    Los críticos afirman que es muy necesario alejarse de las cookies de terceros, pero estos cambios de Google podrían reforzar todavía más su posición dominante. Ahora no serían las webs de forma independiente sino que sería Google como un «todo» encargado de controlar lo que haces y con la recompensa de recibir «publicidad relevante» y que te interese.

    Hasta ahora, los rivales de Google han creado herramientas para evitar que FLoC funcione; sitios web destacados como DuckDuckGo, Brave y Vivaldi, han dicho que no participarán en la prueba de FLoC. La Comisión Europea por su parte, está investigando si deshacerse de las cookies de terceros, y del plan FLoC de Google, que podría ser una práctica anticompetitiva.  Por el momento las pruebas no se están haciendo en Europa debido a la protección de datos en la UE (GDPR).

    El 8 de enero, la Autoridad de Mercados y Competencia (CMA) del Reino Unido anunció que llevaría a cabo una revisión de la zona de pruebas de privacidad, junto con el regulador de protección de datos del país. La investigación está analizando el impacto general del nuevo sistema en la industria publicitaria. Si bien esa revisión no tiene fecha de finalización, una revisión anterior de la publicidad digital describió algunas posibles preocupaciones. «Esas propuestas también convertirán a Chrome (o los navegadores Chromium) en el cuello de botella clave para la tecnología publicitaria», dijo la CMA en julio de 2020 . «Por lo tanto, es probable que la posición de Google en el centro del ecosistema de tecnología publicitaria se mantenga».

    La propuesta de Google para los defensores de la privacidad es que un mundo con FLoC (y otros elementos del “entorno limitado de la privacidad”) será mejor que el mundo que tenemos hoy, donde los corredores de datos y los gigantes de la tecnología publicitaria rastrean y perfilan con impunidad. Pero ese encuadre se basa en una premisa falsa de que tenemos que elegir entre «seguimiento antiguo» y «seguimiento nuevo». No es una u otra, en lugar de reinventar la rueda de seguimiento, deberíamos imaginar un mundo mejor sin los innumerables problemas de los anuncios dirigidos.

  • Según el FMI, su calificación en la APC podría definirse por sus actividades en las redes sociales.

    Los datos tradicionales utilizados para la calificación crediticia podrían ser reemplazados por procesos impulsados ​​por IA basados ​​en búsquedas en línea o historiales de compras.

    Mientras muchas compañías tecnológicas, desde Facebook hasta Apple, están observando de cerca los servicios financieros, el Fondo Monetario Internacional (FMI) se ha estado preguntando qué aspectos de la tecnología van a cambiar las finanzas en los próximos años.

    Los investigadores del FMI, han destacado por qué las fintech han surgido en la última década a medida que los bancos físicos se han ido reduciendo y describen cómo los teléfonos inteligentes, la búsqueda en línea y las redes sociales han ayudado a impulsar la innovación financiera mediante el uso de datos no financieros, como el tipo de navegador de un usuario, el dispositivo que se utiliza, el historial de búsquedas en línea de una persona y sus compras.

    Cuatro investigadores examinan los resultados de un documento de trabajo que explora la relación en constante evolución entre finanzas y tecnología. “Estudiamos los efectos del cambio tecnológico en la intermediación financiera, distinguiendo entre innovaciones en información (recolección y procesamiento de datos) y comunicación (relaciones y distribución)”, escriben los expertos en su estudio.

    El uso de datos no financieros como «el tipo de navegador y hardware que se utiliza para acceder a Internet» o «el historial de búsquedas y compras en línea», que luego se incorporan a la tecnología impulsada por la inteligencia artificial y el aprendizaje automático, podría «promover la inclusión financiera, por ejemplo, permitiendo más crédito a los trabajadores informales y empresas en las zonas rurales», escriben Arnoud Boot, Peter Hoffmann, Luc Laeven y Lev Ratnovski en una publicación en el blog del Fondo Monetario Internacional (FMI).

    Su puntaje crediticio basado en IA basado en búsquedas web es solo una de las propuestas en el documento, que argumenta que la pandemia Covid-19 está «acelerando la transformación tecnológica de la industria financiera y analiza cómo el FMI puede «salir adelante» de los problemas que esto podría crear.

    Los investigadores argumentan que si los prestamistas tienen una mejor idea de la historia completa de un cliente, pueden estar más dispuestos a ser indulgentes con ellos. «Los bancos tienden a amortiguar los términos de crédito para sus clientes a largo plazo durante las recesiones», escriben. Estos métodos pueden ser superiores a las evaluaciones de riesgo crediticio tradicionales y ayudar a brindar crédito a personas que los bancos ignoran o no tienen forma de evaluar. Según el FMI, hay 1.700 millones de adultos no bancarizados en el mundo.

    Fintech y el uso de información alternativa para evaluar la solvencia crediticia no es una técnica nueva, por lo que el FMI simplemente está estudiando la evolución del mercado fuera de los bancos tradicionales y sus implicaciones políticas a medida que empresas como Facebook y Amazon comienzan a conocer la vida financiera de los clientes más que los bancos.

    «La innovación en la comunicación está impulsada por la variedad de plataformas digitales en las redes sociales, la comunicación móvil y las compras en línea que han penetrado gran parte de la vida cotidiana de los consumidores, aumentando así su huella digital y los datos disponibles», investigadores Boot, Hoffmann, Laeven y Ratnovski escriben en el blog. «Plataformas como Amazon, Facebook o Alibaba incorporan cada vez más servicios financieros a sus ecosistemas, lo que permite el surgimiento de nuevos proveedores especializados que compiten con los bancos en pagos, gestión de activos y provisión de información financiera».

    Los investigadores no explicaron por el momento cómo funcionaría un sistema de este tipo en la práctica. ¿Facebook, por ejemplo, se comunicaría directamente con nuestras instituciones financieras o tendríamos que recopilar y proporcionar los datos? Algunos también argumentan que pinta una imagen de un futuro muy distópico, aunque los investigadores explican que este seguimiento sería por nuestro propio bien, al brindar en un futuro, acceso a más servicios financieros y al alcance de todos.

  • ¿Cuánto dista nuestro «yo» en redes sociales de nuestro verdadero yo?

    Slap Global, la aceleradora de negocios impulsada por la creatividad y formada a principios de este año por los veteranos de la agencia Maxi Itzkoff y Gerry Graf, creó una campaña en español «Yo y mi otro yo» para Ballantine’s whisky, en la que las personas se encuentran con una versión en holograma de sí mismos con personalidades basadas en la actividad de las redes sociales y se muestran las diferencias entre lo que las personas manifestamos en un contexto social y nuestro comportamiento real, individual y psicológico.

     

    La campaña, dirigida al mercado español, se inició con una proyección de cincuenta personas de la población general. Para ayudar a dirigir el estudio, Slap Global y Ballantine’s trabajaron en estrecha colaboración con el psicólogo Juan Ramos-Cejudo, PhD, profesor asociado de la Universidad Camilo José Cela y fundador y director ejecutivo de Mind Group y el científico de datos Victoriano Izquierdo, director ejecutivo de Graphext.

    Después de una clasificación inicial, los investigadores seleccionaron a quince candidatos para entrevistas personales con el fin de identificar a aquellos con los puntajes más altos de deseabilidad social. (La deseabilidad social es un constructo psicológico que se refiere a la tendencia de los sujetos de investigación a responder de una manera que creen que es más socialmente aceptable en lugar de revelar sus verdaderos sentimientos).

    Luego, el equipo eligió a cuatro candidatos para la fase final, y todos acordaron descargar y compartir sus datos de uso de plataformas digitales populares, como WhatsApp, Google, YouTube, Instagram o Facebook.

    La película principal de la campaña presenta a estas cuatro personas que se encuentran cara a cara con doppelgangers de hologramas de ellos mismos mientras responden preguntas sobre sus personalidades y valores. Los resultados son discrepancias sorprendentes entre quiénes dicen ser y qué revela su comportamiento digital sobre ellos.

    El entrevistador le pregunta a una mujer, por ejemplo: «¿Tienes confianza en ti misma?» Ella responde: “Sí, no solía serlo, pero ahora lo soy. Me volví más segura de mí misma a medida que crecía ”. Posteriormente, se le plantea la misma pregunta a su semejanza digital, destinada a representar a la persona revelada a través de los datos de la mujer. Ella responde: «Para seducir a mi pareja, busqué varias veces tutoriales sobre ‘cómo seducir a un chico’».

    Un hombre recibe la pregunta: «¿Te gusta presumir?» Él responde: “Realmente no. Preferiría que la gente me vea como realmente soy «. Su avatar, sin embargo, responde: «En el 92% de las fotos que subo con alguien, estoy al lado de una celebridad».

    Los sujetos parecen nerviosos cuando se enfrentan al fuerte contraste entre lo que dicen y cómo son o lo que hacen en realidad, algunos se vuelven introspectivos sobre si son realmente conscientes de su propio comportamiento. Con eso, los hologramas «se desintegran» para revelar la línea final y la etiqueta de la campaña, «No se puede complacer a todos. Lo que importa es que te amas a ti mismo. Mantente fiel».

    Itzkoff dice que es cierto que, dada la premisa de la campaña, fue un movimiento arriesgado. “Nos preguntamos cosas como: ¿Qué pasa si los datos no son lo suficientemente interesantes? ¿Qué pasa si no hay contradicción entre la persona y los datos? ¿Qué pasa si el participante se siente avergonzado y abandona el set? Todo podría salir mal». Solo después de que comenzaron los disparos y las respuestas de los participantes coincidieron con los hallazgos del estudio, el equipo pudo «comenzar a respirar de nuevo», dice. Las reacciones de los sujetos fueron capturadas en vivo en el set, todo en una sola toma.

    La compañía Slap Global ya ha comenzado a desarrollar otra idea en torno al tema «Mantente fiel». La combinación de creatividad y datos de redes sociales recuerda los esfuerzos de Itzkoff para Sprite, en su anterior agencia Santo, que incluía una campaña que ponía cara a cara al ciberacoso en una habitación con 100 de sus víctimas en línea.

    Todos somos conscientes de que, vivir en una sociedad donde la exposición a las redes sociales, las tendencias, los medios..etc influye cada vez más en nuestra forma de vida, en cómo nos comportamos, y en cómo nos relacionamos. Sin embargo, pocas veces nos paramos a pensar si toda esa presión social afecta a nuestras opiniones, a nuestras actitudes o comportamientos en nuestros entornos sociales habituales.

    Para Alejandro Chain, Head of Whiskies & Prestige, Spain, de Ballantine’s “Somos una marca que abandera un lema de autenticidad, Stay True (sé tú mismo), y sentíamos la necesidad de expresarlo a la sociedad desde el lugar más auténtico posible. Es por ello que lo hicimos a través de un experimento social 100% real en el que se demuestra la existencia de un problema universal de deseabilidad social, llegando a dejar de ser nosotros mismos por gustar a los demás. Gustémonos a nosotros mismos sin ningún miedo al qué dirán y seremos más felices”, concluyó.