Etiqueta: predictivo

  • Google se adelanta a OpenAI con Veo y GenCast

    Google ha dado un paso significativo en la carrera por liderar el ámbito de la inteligencia artificial al presentar dos innovaciones que prometen cambiar las reglas del juego: Veo, un generador de videos de alta calidad impulsado por IA, y GenCast, un modelo de predicción climática avanzado.

    Veo: creatividad cinematográfica al alcance de todos

    Veo, lanzado en el evento Google I/O 2024, es una herramienta de generación de videos basada en texto que permite crear secuencias de hasta más de un minuto con resolución 1080p. Los usuarios pueden simplemente ingresar una descripción detallada, y la herramienta interpreta conceptos visuales como «tomas aéreas» o «timelapse», generando videos realistas o incluso surrealistas. Este nivel de personalización, combinado con una comprensión avanzada del lenguaje natural, hace que Veo destaque sobre competidores como Sora de OpenAI, aún no disponible al público general.

    El sistema también puede generar videos a partir de imágenes combinadas con texto, una función útil tanto para creadores aficionados como para profesionales. Google ha asegurado que las herramientas como Veo se integrarán con plataformas populares como YouTube Shorts, lo que democratizará aún más la producción de contenido audiovisual.

    Sin embargo, Veo no solo es impresionante por su creatividad. Google ha implementado medidas de seguridad robustas, como marcas de agua digitales con SynthID, para identificar contenido generado artificialmente y minimizar riesgos de desinformación.

    GenCast: redefiniendo la predicción climática

    Por otro lado, GenCast, desarrollado por DeepMind, representa un avance en la meteorología. Este modelo puede realizar predicciones con una precisión sin precedentes hasta 15 días en el futuro, incluso en eventos extremos como huracanes o inundaciones. Entrenado con datos de más de 40 años, GenCast supera a los sistemas actuales utilizados en EE. UU., ofreciendo información detallada que podría transformar sectores como la agricultura, la logística y la planificación urbana.

    Lo que distingue a GenCast es su filosofía de acceso abierto: Google planea distribuir no solo el modelo, sino también los datos estadísticos (pesos) necesarios para replicar su rendimiento. Este enfoque podría fomentar la innovación y la colaboración global en la lucha contra el cambio climático y los desastres naturales.

    Implicaciones y desafíos

    Si bien estas tecnologías son prometedoras, no están exentas de retos. En el caso de Veo, existe preocupación por el impacto en la industria audiovisual, ya que la automatización podría desplazar empleos creativos. Además, la capacidad de generar videos hiperrealistas plantea riesgos éticos, especialmente en un mundo donde la desinformación es una amenaza constante.

    En cuanto a GenCast, aunque su capacidad de predicción es asombrosa, dependerá de cómo se adopte en sectores críticos para maximizar su impacto positivo y mitigar posibles malentendidos o errores en interpretaciones locales.

    Con Veo y GenCast, Google no solo demuestra su capacidad tecnológica, sino que también redefine los límites de lo posible en IA. Mientras estas herramientas abren nuevas oportunidades creativas y científicas, plantean preguntas sobre cómo gestionar su impacto social. En cualquier caso, el futuro de la inteligencia artificial parece estar cada vez más enfocado en crear soluciones tanto innovadoras como responsables.

  • En los pronósticos deportivos, el pensamiento racional pierde por goleada

    El fútbol es el más universal de los deportes. En ocasiones vemos jugar a nuestro equipo favorito; en otras, nos conformamos con ver lo que trasmite la televisión, aunque no tengamos preferencia entre los contendientes. Y como si no pudiéramos evitarlo, enseguida nuestra mente trata de predecir el resultado del partido. Sin embargo, la racionalidad nos puede jugar una mala pasada y disminuir las probabilidades de que acertemos en nuestros pronósticos.

    Menos empates de los esperados

    Pongámoslo en contexto. Tomémonos un tiempo para analizar la siguiente situación: se enfrentan dos equipos en cualquier torneo con la misma cantidad de puntos, ¿qué resultado esperaríamos? En una investigación, el 68,2 % de los encuestados consideró que ambos rivales debían empatar. Es un resultado aparentemente racional si seguimos esta lógica: a equipos igualados en puntos, el resultado más probable es el empate. ¡Eureka!

    Sin embargo, según un estudio basado en datos de la Liga Española hasta 2010, de un total de 14 937 partidos analizados, solo 3 994 (26,7 %) habían terminado en tablas. En otra pesquisa realizada con resultados de las Copas del Mundo –también hasta 2010–, los resultados más frecuentes fueron 1-0 (18.8 %), 2-1 (14.5 %), 2-0 (11 %) y 1-1 (9,8 %). Obviamente, las victorias son más habituales que los empates en este deporte. La estadística no está allí por gusto.

    En la primera investigación, también se les preguntó a los participantes qué ocurriría si esos equipos igualados en la tabla hubieran tenido distintas trayectorias para sumar sus puntos (nueve). En ese supuesto, un equipo habría cosechado tres victorias y dos derrotas, mientras que el otro no habría perdido, ganando en dos ocasiones y empatando en tres.

    Pues bien, el 80,3 % de los encuestados predijo que uno de los dos equipos ganaría –solo el 19,7 % mantuvo el empate en su predicción–, mientras que el 43,9 % consideró que vencería el equipo que no había perdido hasta ese momento. Primera conclusión: el empate como resultado más probable cayó drásticamente al mostrar los resultados previos. Segunda conclusión: la mayoría de los sujetos predijo una victoria del equipo que no conoce la derrota.

    Explicando lo inesperado

    ¿Qué ha ocurrido entonces? ¿Es posible que las mismas personas varíen sus predicciones deportivas si reciben más información? ¿El valor que le otorgamos a los nuevos datos hace que cambiemos nuestros pronósticos? Si nuestras decisiones cumplen con el principio de invariancia, o de racionalidad ilimitada, deberíamos mantener nuestra predicción, algo que no se cumplió en el estudio.

    Estos casos que violan principios de la economía clásica y sus mecanismos son analizados por los investigadores de la llamada economía conductual. Se trata de una novedosa área de conocimiento interdisciplinario entre la economía y la psicología que estudia las decisiones humanas y lo (ir)racionales que éstas pueden ser.

    De atajos y sesgos

    La economía conductual estuvo inicialmente vinculada de manera exclusiva a las decisiones económicas, pero hoy abarca una amplia gama de áreas de aplicación: finanzas, pensiones, políticas públicas, donaciones de órganos, marketing, elecciones, etc. Se apoya en los conceptos de heurísticos y sesgos cognitivos para explicar esos fallos en la racionalidad humana.

    ¿A qué nos referimos exactamente? Para Daniel Kahneman, Premio Nobel de Economía en 2002, los heurísticos son los atajos que emplean los procesos mentales para buscar soluciones a situaciones novedosas. Debido a ello pueden ser, hasta cierto punto, predecibles. Por su parte, los sesgos cognitivos son fallos en el procesamiento de la información debido a su capacidad limitada y la rapidez con que se pretende responder, siendo más difíciles de descubrir con antelación.

    ¿Y qué papel juegan los heurísticos y los sesgos cognitivos en nuestras predicciones deportivas? Más allá de los elementos propiamente afectivos, que se relaciona con la preferencia por algún equipo, ambos harán vulnerables nuestras predicciones porque no somos capaces de procesar toda la información. Preferimos guiarnos por el azar y no por la estadística, y no tenemos en cuenta otras condiciones del entorno.

    En el caso de las predicciones deportivas, los sesgos cognitivos más frecuentes son:

    • El exceso de optimismo, que es la confianza injustificada sobre la ocurrencia o estabilidad de un fenómeno que impide ver lo erróneo de las estimaciones iniciales.
    • El sesgo de la mano caliente, que considera que las buenas o malas rachas permanecerán por siempre, obviando las referencias estadísticas.
    • El sesgo de la representatividad, donde se selecciona la respuesta por similitud, no por probabilidad.
    • El sesgo de los pequeños números, al realizar estimaciones a partir de poca cantidad de casos.
    • La sobreinferencia, que considera la imposibilidad de que ocurra algo si no ha ocurrido con antelación.

    A la hora de predecir en el deporte, se subvalora la importancia de la estadística y se sobrevaloran las rachas o los buenos resultados. El pensamiento intuitivo conspira entonces contra el pensamiento racional: se hace más rápido, emergente y atractivo.The Conversation

    Armenio Pérez Martínez, Director del Departamento de Investigación Científica, Tecnológica e Innovación, Universidad Laica Vicente Rocafuerte

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • El Parlamento Europeo pide la prohibición del reconocimiento facial en espacios públicos

    El Parlamento Europeo ha votado a favor de la prohibición del uso policial de la tecnología de reconocimiento facial en lugares públicos y de la vigilancia policial predictiva, una práctica controvertida que implica el uso de herramientas de inteligencia artificial con la esperanza de identificar a los posibles delincuentes antes de que cometan un delito.

    Al explicar la resolución, el Parlamento Europeo afirmó que el uso de inteligencia artificial (IA) por parte de las fuerzas del orden plantea actualmente varios riesgos que abarcan la toma de decisiones opaca, la discriminación, la intrusión de la privacidad, los desafíos a la protección de datos personales, la dignidad humana y la libertad de expresión e información.

    Los representantes de la Cámara concluyeron que los ciudadanos solo deben ser monitoreados cuando sean sospechosos de un delito, y citaron asimismo preocupaciones sobre sesgo algorítmico en IA y señalaron hay evidencia que sugiere que los sistemas de identificación basados ​​en inteligencia artificial identifican erróneamente grupos basados ​​en etnia, género, orientación política u sexual. Como resultado, dicen los eurodiputados, «los algoritmos deben ser transparentes, rastreables y suficientemente documentados», con opciones de código abierto que se utilicen siempre que sea posible, siendo tanto la supervisión humana como la protección legal necesarias para evitar la discriminación.

    Los eurodiputados también pidieron la prohibición de las bases de datos privadas de reconocimiento facial, como las que utiliza la controvertida empresa Clearview AI. El Parlamento apoya además el intento de la Comisión Europea en su proyecto de ley de IA de prohibir los sistemas de puntuación social, como los lanzados por China, que califican la confiabilidad de los ciudadanos en función de su comportamiento.

    La resolución establece que «aquellos sujetos a sistemas impulsados ​​por IA deben recurrir a la reparación». Según la legislación de la UE, según el documento, «una persona tiene derecho a no ser sometida a una decisión que produzca efectos jurídicos sobre ella o la afecte significativamente y se base únicamente en el tratamiento automatizado de datos».

    Al menos tres personas en los EE. UU., todas ellas hombres de etnia negra, han sido arrestadas injustamente debido a coincidencias deficientes en el reconocimiento facial. En Detroit, que comenzó a poner a prueba un software de reconocimiento facial en 2017, la policía en 2020 utilizó la tecnología para realizar más de 100 búsquedas de sospechosos y realizó más de 80 arrestos en los casos en que se identificó una posible coincidencia, según el registro público del Departamento de Policía. En Reino Unido, se descubrió que la tecnología de reconocimiento facial utilizada por la Policía Metropolitana en 2019 era un 81% inexacta, y señaló por error a 4 de cada 5 personas inocentes como sospechosos buscados, según un documento técnico de la Universidad de Essex.

    “Esta es una gran victoria para todos los ciudadanos europeos”, dijo Petar Vitanov (S&D), autor de la resolución. La resolución, aunque no vinculante, envía una fuerte señal sobre cómo es probable que el Parlamento vote en las próximas negociaciones de la Ley de IA. Esto contrasta radicalmente con las políticas implementadas en algunos países miembros de la UE, que anhelan utilizar estas tecnologías para reforzar sus aparatos de seguridad. Se espera que el mercado global de reconocimiento facial tenga un valor de 4.450 millones de dólares en 2021.