Etiqueta: AI

  • Explorando las posibilidades y desafíos de la IA de textos ChatGPT

    Abordo en este análisis reflexiones sobre las posibles implicaciones y retos del desarrollo y acceso generalizado a la inteligencia artificial de textos, en boca de tantos tras la activación a finales de noviembre de la herramienta ChatGPT, en acceso abierto.

    Incorporo nota metodológica al final.

    Transformación de negocios con la IA de textos

    El desarrollo de la IA de ChatGPT tiene el potencial de cambiar significativamente la forma en que la gente interactúa con la tecnología.

    Puede mejorar la eficiencia y precisión en tareas que requieren una interacción natural con el lenguaje humano. Por ejemplo, puede tener un impacto en la atención al cliente y la atención médica, ya que puede mejorar la eficiencia y precisión en la interacción con los clientes y pacientes.

    También puede tener un impacto en el sector financiero, ya que puede ayudar a realizar análisis y predicciones más precisos en el mercado financiero.

    Además, puede tener un impacto en el sector educativo, ya que puede utilizarse para crear programas de enseñanza personalizados y adaptativos.

    La IA también puede ser utilizada para crear herramientas y soluciones innovadoras en áreas como la logística, la energía y la producción.

    Mapa de riesgos

    Hay varios posibles riesgos y desafíos asociados con el desarrollo de la IA, como la privacidad y la seguridad de la información.

    Uno de los principales riesgos es la posibilidad de que la información personal sea recopilada, almacenada y utilizada de manera indebida por parte de terceros. Esto puede ocurrir a través de ataques cibernéticos, uso no autorizado de la información por parte de empleados de la empresa o incluso a través de vulnerabilidades en el propio software de la IA.

    Además, la IA también puede ser utilizada para fines malintencionados, como el spamming, el phishing o la difusión de noticias falsas. Por lo tanto, es importante desarrollar medidas de seguridad efectivas para proteger la privacidad y la seguridad de la información en el contexto del desarrollo de la IA.

    Medidas de seguridad

    Hay varias medidas de seguridad que pueden ser efectivas para proteger la privacidad y la seguridad de la información en el contexto del desarrollo de la IA.

    • Implementar medidas de cifrado efectivas para proteger la información contra el acceso no autorizado.
    • Establecer políticas de privacidad claras y transparentes para informar a los usuarios sobre cómo se recopila, almacena y utiliza su información personal.
    • Realizar regularmente auditorías y pruebas de seguridad para detectar y corregir vulnerabilidades en el software de la IA.
    • Capacitar y educar a los empleados sobre las buenas prácticas de seguridad informática y las políticas de privacidad de la empresa.
    • Colaborar con expertos en seguridad informática y privacidad para desarrollar medidas efectivas y estar al día con las últimas amenazas y tendencias en el campo de la seguridad de la IA.

    Es importante tener en cuenta la seguridad y la privacidad en todas las etapas del desarrollo de la IA, desde el diseño hasta la implementación y el mantenimiento, para garantizar la protección adecuada de la información personal.

    El papel del Estado

    Los gobiernos y la legislación tienen la responsabilidad de establecer marcos y normas para regular el desarrollo y el uso de la IA. Esto incluye la creación de leyes y regulaciones que protejan la privacidad y la seguridad de la información, así como la promoción de la ética y la transparencia en el desarrollo y uso de la IA. También pueden fomentar la investigación y el desarrollo en el campo de la IA, así como establecer estándares y mecanismos de evaluación para garantizar que la IA cumpla con ciertos requisitos de calidad y seguridad.

    Retos para la prensa

    El desarrollo de la IA en general, y de ChatGPT en particular, puede tener un impacto positivo en la generación de contenidos informativos y en la prensa.

    Por ejemplo, ChatGPT y otras tecnologías de IA pueden ayudar a los periodistas a crear contenido más rápido y preciso, lo que les permite enfocarse en otras tareas importantes, como la investigación y la verificación de hechos.

    Además, la IA también puede ayudar a la prensa a llegar a una audiencia más amplia y ofrecer contenido personalizado a sus lectores.

    Sin embargo, es importante tener en cuenta que la IA todavía tiene limitaciones y no puede reemplazar completamente el trabajo humano en la generación de contenidos informativos.

    Es posible que el desarrollo de la IA como ChatGPT pueda tener algún efecto negativo en la prensa. Si se utiliza en exceso o de manera inadecuada, la IA puede generar contenido que no sea preciso o que incluso sea engañoso. Además, si se utiliza para reemplazar completamente el trabajo humano en la generación de contenidos informativos, esto podría llevar a una reducción en la calidad del contenido y en la diversidad de opiniones en la prensa. Por lo tanto, es importante utilizar la IA de manera responsable y en combinación con el trabajo humano en la prensa.


    Nota metodológica:

    Este análisis ha sido redactado completamente con los textos generados por la herramienta de inteligencia artificial de textos ChatGPT, de acceso abierto en varios países, activada hace unos pocos días.

    La única intervención del firmante de este artículo es la entrada inicial, así como formular la serie de preguntas a ChatGPT para que produzca los textos.

    De los textos generados he seleccionado los que me han parecido más relevantes bajo mi criterio, haciendo puro “Copiar y pegar”, sin añadir ni una sola palabra mía.

    El título también es de la herramienta. He tenido que introducir únicamente una corrección, del número de un artículo determinado.The Conversation


    Francesc Pujol, Profesor en la Facultad de Económicas, Universidad de Navarra

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • AARON, vida y obra de la primera inteligencia artificial creativa

    Su nombre es AARON y pintaba bodegones, series de atletas y paisajes surrealistas, entre otras muchas cosas, cincuenta años antes de que DALL-E, BOTTO, Midjourney y toda una saga de inteligencias artificiales recién nacidas estén poniendo en jaque al universo de la pintura y la creatividad.

    El desarrollo de AARON se inició en 1973, en la década en la que la tecnología comenzaba a permear los lienzos, y funcionaba con 1,5 megabytes de código LISP (uno de los lenguajes de programación más antiguos todavía en uso). Nació de la mano de un artista británico llamado Harold Cohen, que exploró los algoritmos como pinceles. Las obras de AARON se expusieron en grandes galerías de arte.

    ¿Soy yo el artista?

    “¿Soy yo el artista o es AARON el artista?” Harold Cohen, creador del robot pintor AARON, dijo no saber responder a esa pregunta.

    Cohen fue un pintor pionero en el arte computacional, y estableció un puente entre el arte y la computación con la creación de AARON, uno de los sistemas inteligentes creativos más longevos.

    Cohen definió el primer marco computacional para la generación de arte, formalizando el proceso creativo y reduciéndolo a una serie de reglas y cierta aleatoriedad. Esta formalización cobró vida en un sistema experto que modelaba el hacer de un artista. Su nombre comienza por A porque Cohen estimaba que sería el primero de varios programas creativos. Sin embargo, dedicó su vida entera solo a AARON.

    La mano humana

    Cohen nació en Gran Bretaña en 1928, pero se marchó a EE UU donde se convirtió en artista y profesor en la Universidad de California. Comenzó a trabajar en AARON en la década de los años 70 en su intento de responder a la cuestión “¿cuál es la mínima condición para que una serie de marcas se consideren una imagen?”. Según Cohen, se requería que el espectador creyera que las marcas habían sido creadas en un acto humano o similar. Así surge la idea de crear a AARON, inteligencia computacional que exhibió capacidades cognitivas como las de los humanos para crear imágenes.

    A lo largo de su niñez, partiendo de representaciones sencillas del conocimiento de su creador, AARON sólo podía distinguir entre formas cerradas o abiertas, y realizar simples manipulaciones con las mismas.

    AARON aprendió a pintar como los niños

    Un punto de inflexión tiene lugar en 1980, cuando Cohen observa cómo los niños pintan sus primeros garabatos buscando una pista para mejorar a AARON. Algo tan sencillo como trabajar con formas que se conectan entre sí, con unas reglas que modelan las articulaciones, permite que AARON comience a dibujar sus primeros garabatos.

    En 1985 pinta unas figuras que evocan a la Estatua de La Libertad, y progresa con creaciones cada vez más complejas, como pinturas de atletas o pinturas que incluyen vegetaciones.

    AARON no era capaz de proporcionar una perspectiva tridimensional, aunque los objetos se superpusieran correctamente en el espacio. Por ello, a mediados de los años 80, Cohen incorpora en AARON representaciones sofisticadas codificadas por muchos más puntos.

    AARON comienza así a generar figuras más realistas, proyectando una representación del mundo tridimensional en un cuadro bidimensional.

    La obra:

    Harold Cohen Art Main Gallery.

    AARON aprende a pintar en color

    En 1992 AARON comienza a pintar con colores. La complejidad de modelar cómo trabajan los pintores con los colores había llevado a Cohen a posponer esta faceta.

    Como a Cohen no le gustaban mucho las imágenes electrónicas, ingeniaba grandes máquinas impresoras que AARON utilizaba para plasmar sus cuadros, usando pinceles y pinturas reales. Además de almacenar información sobre objetos y sus relaciones, almacenaba normas relativas al uso de pinceles, teoría de colores, composición, etc. Más aún, el robot aprendía de lo pintado previamente, y tenía como norma no repetir lo anteriormente creado, generando siempre obras únicas.

    Si bien es cierto que esto le dotaba de gran capacidad de creación, se veía limitado por el hecho de que se rigiera por un conocimiento establecido inviolable, por ejemplo, nunca pintaría personas con dos cabezas o una sola pierna.

    AARON fue creciendo hasta el fallecimiento de Cohen en 2016. Sus obras han sido expuestas en muchos museos y el propio AARON ha sido objeto del fascinante debate sobre si las máquinas pueden ser creativas.

    La discusión sobre la creatividad

    La creatividad implica que existe un pensamiento que produce un resultado novedoso y de valor. Este valor puede venir dado porque sea útil, interesante o simplemente bonito, como puede ser una obra de AARON. La novedad puede darse respecto al propio individuo o desde un punto de vista histórico. Los niños pueden ser creativos en sus dibujos (novedad respecto al individuo), sin necesidad de hacer obras de arte (novedad respecto a la historia).

    AARON es creativo en ambos sentidos, innovando en cada uno de sus cuadros que son admirados en museos y galerías de arte.

    Por otra parte, para que una obra sea creativa, el pensamiento que la produce no debe ser convencional. En este sentido, algunos argumentan que AARON al fin y al cabo sólo sigue las reglas introducidas por Cohen, pero éste responde “el programa se compone de las reglas pero, independientemente del origen de dichas reglas, el programa genera un material que yo nunca hubiera generado por mí mismo ni imaginado”.

    Retomando la pregunta planteada por Cohen sobre quién es el artista, sin duda Cohen es un artista y AARON es arte. ¿Pero es AARON también un artista? AARON es un reflejo pictórico del arte de Cohen pero crea de forma autónoma y, tal y como expone Cohen, “Si lo que hace AARON no es arte, ¿qué es exactamente, y en qué maneras, al margen de sus orígenes, se diferencia de «lo real”?“.The Conversation

    Elena Verdú Pérez, Profesora Titular de Universidad – Área de Ciencias de la Computación y Tecnología, UNIR – Universidad Internacional de La Rioja

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Los algoritmos guían la selección de personal en las empresas y eso puede ser un problema

    Ante una tarea compleja, tendemos a fiarnos más de los algoritmos que de nosotros mismos.

    “No soy un producto de mis circunstancias. Soy un producto de mis decisiones”.

    Los siete hábitos de las personas altamente efectivas (Stephen Covey).

    Desde que abrimos los ojos para despertarnos hasta que se acaba el día estamos constantemente tomando decisiones. Muchas son inconscientes. No las pensamos, simplemente actuamos.

    Nuestro cerebro no está dispuesto a gastar energía en cosas tan simples como una primera impresión de una persona o contexto. Por lo general, no pensamos o reflexionamos sobre estas decisiones que tomamos de manera rápida.

    La realidad es que estas decisiones impulsivas pueden tener consecuencias negativas, como la discriminación en una entrevista de trabajo.

    En psicología decimos que juzgar rápidamente a una persona por su apariencia es como juzgar un libro por su tapa. Es fácil hacerlo, pero puede ser fácil fallar. En los procesos de selección de personal puede estar sucediendo lo mismo, aunque sea un algoritmo el que tome las decisiones.

    Tenemos que saber que no tomamos todas las decisiones de manera independiente. La gran mayoría están apoyadas en la tecnología. Esto es así por la economía de esfuerzo. Muchas veces para decisiones complejas hay que manejar un gran volumen de datos, y esto nos genera un gasto de energía importante. La confianza hacia estas tecnologías suele ser ciega: todo lo tecnológico nos da cierta sensación de veracidad.

    Pero, ¿cómo es posible que un algoritmo esté sesgado?

    El sesgo es una inclinación hacia una persona, cosa o grupo que produce un desequilibrio que perjudica a la otra parte. Estamos sesgados cuando no somos neutros ante una persona, grupo, situación, etc. Eso produce un error.

    Estos errores, que se pueden dar en las interpretaciones de diferentes contextos, individuos o información, se pueden ver reflejados tanto en la toma de decisiones humanas como en la inteligencia artificial (IA). Al ser los humanos los que diseñan esta tecnología, es posible que estén reproduciendo datos sesgados o manipulados.

    Introducción de la IA en los puestos de trabajo

    El razonamiento más común para la introducción de nuevas tecnologías en nuestros trabajos suele ser la objetividad y la eficiencia. Se podría decir que, a nivel social, todo lo tecnológico nos da más seguridad. Ante una tarea compleja, tendemos a fiarnos más de los algoritmos que de nosotros mismos.

    Así, el aumento de la utilización de la IA está siendo exponencial. Por ejemplo, en el área de los recursos humanos estas nuevas tecnologías se están aplicando en el reclutamiento y selección del personal, la evaluación del desempeño y desarrollo del personal. Estos recursos están ayudando a la automatización de diferentes tareas que se puede interpretar como eficiencia organizacional.

    En el mercado actual tenemos herramientas digitales que nos ayudan a escoger al mejor candidato utilizando una búsqueda semántica automatizada basada en la información escrita por el candidato en su currículum. Pero también teniendo en cuenta el número de palabras técnicas que utiliza en la entrevista o en la conversación que puede llegar a mantener con un chatbot.

    Ejemplos de la actuación de los sesgos en la IA

    Existen plataformas de búsquedas de empleo que hacen uso de la IA para poder ofrecer un resultado objetivo a la hora de escoger al candidato idóneo para un puesto de trabajo específico.

    La realidad es que la selección final que hacen estos algoritmos hacia los candidatos seleccionados está sesgada. Se ha visto que los algoritmos pueden generar discriminación étnica y de género para ofrecer, en el 85 % de los casos, puestos de trabajo de cajera de supermercado a mujeres, o puestos de taxista al 75 % de perfiles afroamericanos.

    A su vez, los algoritmos pueden tener en cuenta las tendencias de búsqueda del reclutador y sus interacciones con perfiles específicos. Y, así, recomendar perfiles de empleados con características similares. En estos casos no es una sorpresa encontrarnos con perfiles muy similares a las características personales del reclutador. Por ejemplo, haber estudiado en la misma universidad, ser de la misma etnia, tener un estilo de vida similar, mismo aspecto físico y lugar de residencia.

    La explicación se debe a que la IA aprende a tomar decisiones basándose en la reproducción de datos que se pueden apoyar en el aprendizaje de las decisiones humanas. Estas últimas puede que estén sesgadas y, en consecuencia, reflejar disparidades históricas o sociales. A su vez, eliminar algunas variables sensibles como el género, la etnia o la orientación sexual puede llevar a la reproducción de resultados sesgados.

    No hay que tener fe ciega en la IA

    Se están dando muchos avances en la inteligencia artificial. A raíz de la pandemia, los procesos de e-recruitment (reclutamiento por medios digitales) han experimentado cierto crecimiento apoyado en estas tecnologías.

    Se han creado algoritmos que interpretan semánticamente el contenido escrito (carta de recomendación o currículum) o verbal (entrevista por plataformas digitales). Como resultado se ofrece un diagnóstico del candidato (perfil de personalidad, inteligencia) que es determinante para la toma de decisiones en el proceso de selección.

    Sin embargo, hay que tener en cuenta que, como sucede en casi toda la tecnología, la parte vulnerable es la persona. Es decir, el algoritmo no falla, pero puede fallar la persona que lo programa. Esto se puede producir por un error humano, por falta de conocimiento psicológico, por influencias externas y por intereses de empresas.

    La tecnología nos está ayudando en el campo de los recursos humanos, al igual que en otros como salud, marketing, automoción, sector jurídico y asegurador y banca. Su implementación ha crecido en los últimos años e irá a más.

    ¿Significa esto que no debemos dejarnos guiar por la inteligencia artificial? Podemos apoyarnos en ella, pero siempre con reservas. Debemos entender que un algoritmo no es un genio mágico y sabelotodo, sino que detrás tiene, como sucedía en El mago de Oz, a una persona imperfecta.The Conversation

    Elene Igoa Iraola, Investigadora Predoctoral, Universidad de Deusto y Fernando Díez Ruiz, Profesor doctor Facultad de Educación y Deporte, Universidad de Deusto

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Qué es y qué no es inteligencia artificial

    En los últimos años el término inteligencia artificial y todo lo que tiene que ver con ello está adquiriendo un gran protagonismo y sobredimensionamiento. La expresión inteligencia artificial está siendo abusada y utilizada de forma básicamente incorrecta diariamente y en múltiples ámbitos cotidianos, desde el político al empresarial.

    ¿Existen realmente máquinas inteligentes, similares a las personas? Si respondemos a esta pregunta con cierto rigor, desde las bases de las ciencias fundamentales que soportan los pilares de este área –matemáticas y física–, la respuesta es que no. Y muchos científicos conjeturan y argumentan seriamente que probablemente nunca existirán.

    Computar no es lo mismo que pensar

    Fotografía de Alan Turing sentado en una silla.
    Alan Turing.
    Alan Turing diseñó el bombe, un dispositivo empleado por Reino Unido para descodificar los mensajes cifrados por la máquina alemana Enigma durante la Segunda Guerra Mundial.

    Partamos de las áreas de conocimiento adyacentes a las matemáticas y la física que se expandieron desde los años 30 y 40 del siglo XX, como la ciencia de la computación, la electrónica, la automática o el propio área de inteligencia artificial.

    En el año 1937 vieron la luz dos publicaciones científicas de enorme importancia: la primera, Sobre los números computables, con una aplicación al Entscheidungsproblem del matemático Alan Turing, y la segunda, Análisis simbólico de relés y circuitos de conmutación, del matemático e ingeniero electrónico Claude Shannon. Estos trabajos fundaron la forma inicial de crear máquinas electrónicas capaces de computar, manejar información y manipular símbolos mediante programación algorítmica.

    Sin embargo, la inteligencia artificial, entendida como aquella que pretende replicar capacidades intelectuales similares a animales o personas (llamada inteligencia general o inteligencia fuerte) no se ha demostrado en absoluto. Esto es: no hay evidencia ni matemática, ni física, ni se conoce la existencia de ningún prototipo equivalente a las capacidades pensantes de un cerebro humano.

    Decisión vs. elección

    En 1966 el matemático y profesor de Ciencias de la Computación en el Instituto Tecnológico de Massachusetts (MIT) Joseph Weizenbaum creó en su laboratorio un programa llamado ELIZA capaz de realizar procesamiento de lenguaje natural.

    Joseph Weizenbaum, creador de ELIZA.
    Ulrich Hansen / Wikimedia Commons, CC BY-SA
    Pantalla negra donde aparece una conversación escrita en inglés con el chatbot ELIZA.
    Ejemplo de conversación con ELIZA.

    Esta sencilla herramienta reconocía palabras clave en las frases del usuario para elegir una frase modelo de su base de datos con la que contestar.

    ELIZA era capaz de entablar una conversación con seres humanos simulando a una psicóloga empática. Weizenbaum modeló su estilo de conversación como preguntas abiertas para animar a los pacientes a comunicarse más eficazmente con la terapeuta, y le sorprendió que su programa fuera tomado en serio por muchos usuarios.

    A la vista de que gran número de admiradores consideraron el programa como verdadero precursor de las máquinas pensantes, el propio autor se vio obligado a dejar claro que consideraba esta interpretación totalmente errónea e intentó vehementemente corregir en sus intervenciones posteriores estas ideas.

    Entre otros muchos escritos, Weizenbaum publicó en 1976 el libro El poder informático y la razón humana: del juicio al cálculo. Con él trataba de explicar al público en general su trabajo y sus consecuencias desde la filosofía de la ciencia, sin incluir turbadoras fórmulas matemáticas en el texto.

    En el libro, el autor distingue entre las capacidades de los computadores y el razonamiento humano, y establece una distinción crucial entre decidir y elegir. Lo mismo que en la automática la decisión y control de un proceso industrial se implementa con un circuito o un computador como controlador programado de dicho proceso, Weizenbaum explica que decidir es una actividad computacional, algo que en última instancia puede programarse y, sin embargo, la elección es el producto del juicio, no del cálculo.

    El papel de la mecánica cuántica

    En 1989, el físico, matemático y Premio Nobel en el año 2020 Roger Penrose publicó su influyente libro La nueva mente del emperador en el que demuestra que el pensamiento humano no es básicamente algorítmico.

    Retrato de Roger Penrose.
    Roger Penrose.
    Festival della Scienza / Cirone Musi / Flickr, CC BY-SA

    A caballo entre las matemáticas, la filosofía de la ciencia y la física, el texto incorpora tanto demostraciones matemáticas como ilustradas discusiones de los famosos exámenes de inteligencia (como el test de Turing y el experimento de la habitación china). Además conjetura la posible necesidad de las leyes de la mecánica cuántica para poder explicar correctamente nuestras mentes.

    La obra fue devastadora para la tradicional inteligencia artificial fuerte. Inspiró contestaciones de múltiples autores en diversas áreas de conocimiento, pero sus tesis no pudieron ser refutadas convincentemente.

    Penrose avanzó aún más en sus ideas con el segundo de sus libros sobre la conciencia humana, publicado en 1994: Las sombras de la mente. En él incluye una propuesta detallada sobre cómo podrían implementarse esos procesos cuánticos en el cerebro.

    Las nuevas conjeturas, en colaboración con la biología y la neurociencia médica sugeridas por Penrose, incluyen en particular el citoesqueleto de las neuronas. En concreto los microtúbulos, importantes componentes del citoesqueleto, son lugares plausibles para el procesamiento cuántico y, en última instancia, para la conciencia.

    Estas ideas pueden perfectamente ser incorrectas, tal y como el propio Penrose argumenta. Muchos investigadores multidisciplinares en estos campos intentaron refutar parte de estas propuestas, pero actualmente siguen en vigor.

    Sin inteligencia artificial a la vista

    Desde un punto de vista global, sabemos que se han estudiado múltiples enfoques desde hace décadas para tratar de expandir la inteligencia artificial. Las redes neuronales, los sistemas expertos, la lógica fuzzy y en los últimos tiempos el deep learning y el big data han dado lugar a útiles herramientas para resolver problemas con fines específicos.

    Estas herramientas pueden ser impresionantes, pero debemos tener muy claro que no nos hemos acercado al desarrollo de la inteligencia artificial general. La llamada inteligencia débil (o inteligencia estrecha) corresponde con las aplicaciones que hoy tenemos, pero las afirmaciones exageradas sobre sus éxitos, de hecho, dañan la reputación de la inteligencia artificial como ciencia.

    En más de ochenta años de investigación en este área no se ha producido ninguna prueba firme de niveles humanos de inteligencia artificial general. Sabemos que los circuitos artificiales son incapaces de modelar los sistemas nerviosos incluso de los invertebrados más simples. Aún con computadores muy rápidos y con enormes bases de datos, confiar en que el razonamiento, la inteligencia y la conciencia surjan de alguna manera simplemente aumentando más y más la complejidad no parece más que un camino sin salida.

    Las herramientas informáticas son muy útiles, pero aunque una máquina gane a los ajedrecistas profesionales o sea capaz de proponer un recurso legal buscando jurisprudencia en su gran base de datos, no es una máquina pensante. Es importante no banalizar, diferenciar entre herramientas tecnológicas y entes inteligentes, así como dejar a la ciencia seguir trabajando con rigor en esta apasionante materia.The Conversation

    Victor Etxebarria Ecenarro, Catedrático, Universidad del País Vasco / Euskal Herriko Unibertsitatea

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • ¿Puede la inteligencia artificial predecir la nota de un alumno sin necesidad de examen?

    Dado que tenemos un sistema que predice la nota que obtendrá un alumno en el examen con un margen de error razonable, ¿podemos utilizar la predicción como nota final, y nos olvidamos del examen?

    La inteligencia artificial y el análisis de datos tienen impacto en nuestras vidas a prácticamente todos los niveles. El contexto educativo no es una excepción. Así surge lo que llamamos Learning Analytics, una disciplina de investigación que trata de aplicar el análisis de datos para mejorar el proceso de enseñanza y aprendizaje.

    Entre otros muchos tipos de estudios, son varias las iniciativas de investigación que trabajan con algoritmos predictivos cada vez más sofisticados que buscan anticipar factores como el riesgo de abandono de un alumno o incluso la calificación que éste pudiera obtener.

    Programar para predecir

    Los primeros trabajos enfocados a la predicción de notas se basaban en la aplicación de una serie de reglas preestablecidas sobre un conjunto de hechos relativamente simple. Más recientemente, sin embargo, los trabajos propuestos analizan todo el registro de interacción de un alumno con su plataforma educativa y utilizan complejas redes neuronales para lograr esa predicción de nota. De hecho, se obtienen resultados realmente sorprendentes.

    Por ejemplo, en el trabajo presentado por Alonso-Misol et al. se compara el rendimiento de diferentes algoritmos, obteniendo una precisión del 96 % a la hora de predecir la nota de un examen. Eso quiere decir que, en 96 de cada 100 alumnos, el humano pone una nota muy cercana a la que el algoritmo dijo que iba a poner.

    Se trata de una disciplina relativamente reciente. Es de esperar que los resultados sean cada vez mejores por lo que en algún momento se podría plantear la siguiente pregunta: dado que tenemos un sistema que predice la nota que obtendrá un alumno en el examen con un margen de error razonable, ¿podemos utilizar la predicción como nota final, y nos olvidamos del examen?

    Un deseo utópico

    Suena tentador, los exámenes son la actividad más odiada por los alumnos. Tampoco gozan de gran simpatía entre el profesorado ya que la calificación es una tarea realmente costosa. A buen seguro, ambos colectivos aplaudirían el fin de los exámenes. Sin embargo, la realidad es bien diferente y es muy probable que la predicción, ahora exitosa, sólo produzca números sin sentido si el examen desaparece.

    En primer término, un cuaderno de notas en el pupitre de una clase en la que los alumnos escriben (probablemente un examen).
    No se pueden predecir los resultados de los exámenes sin exámenes previos de referencia.
    Yustinus Tjiuwanda / Unsplash

     

    Esto es así por el modo en el que funcionan los sistemas predictivos que se apoyan en técnicas de aprendizaje supervisado. En esencia, el principio de funcionamiento es el siguiente: se analizan datos del curso presente y se comparan con datos de cursos pasados. Si en cursos pasados existe un patrón de actividad que se pueda relacionar con la obtención de una determinada calificación, entonces se predecirá que los alumnos que en el presente curso tienen ese patrón tendrán esa calificación. Dicho de otra forma: es muy probable que un alumno obtenga una calificación similar a la que obtuvieron los alumnos que tuvieron una interacción con la plataforma similar a la suya.

    Así, los sistemas predictivos tendrán éxito en la medida en que el curso que está siendo analizado tenga un funcionamiento equivalente a ediciones previas del mismo curso.

    Para entender esto adecuadamente, imaginemos un curso de un mes en el que los alumnos tienen que entregar una actividad el viernes de cada semana. Habrá alumnos que sólo generen actividad el viernes, para realizar la entrega. Habrá otros alumnos que generarán actividad durante toda la semana, con más intensidad el viernes. Lo que parece que está claro es que será un patrón de actividad semanal.

    Imaginemos ahora que entra un nuevo profesor y decide que las actividades correspondientes a las cuatro semanas se entregan todas al final del mes. A buen seguro, el patrón de actividad de los alumnos cambiará e incluso habrá alumnos que no entren al curso hasta la última semana. Este cambio en la metodología docente hará que deje de tener sentido la comparativa entre el curso actual y los cursos previos. Como resultado, los sistemas predictivos perderán todo su potencial.

    Algo similar ocurriría al eliminar el examen. A pesar de que existen alumnos que tienen una fuerte motivación intrínseca para seguir adelante con su aprendizaje, la motivación extrínseca que impone un examen es el principal factor motivante para seguir con la actividad en el curso. Dicho de otra forma: sin examen, los alumnos trabajarían menos en el curso y con un patrón de trabajo muy diferente. Los sistemas predictivos, por tanto, perderían su valor.

    Otras posibilidades de evaluación

    Si queremos (quisiéramos) eliminar el examen, entonces debemos pensar en todo el catálogo de actividades alternativas descrito en este otro artículo. En cualquier caso, lo llamemos “examen”, “rúbrica”, “portfolio”, o de cualquier otra manera, la actividad de los alumnos está muy modulada por las fechas de entrega de las actividades que cuentan para la nota.

    El objetivo de los sistemas predictivos para la calificación de los alumnos es, principalmente, el de detectar alumnos en riesgo de abandono para ofrecerles un apoyo adecuado. También son útiles para anticipar los recursos que se vayan a necesitar. Entre los objetivos de los sistemas predictivos de calificación no está, sin embargo, la eliminación del examen final.The Conversation

    Luis de la Fuente Valentín, Profesor del Máster Universitario en Análisis y Visualización de Datos Masivos, UNIR – Universidad Internacional de La Rioja

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Super Bowl 2022: la tecnología detrás del macro evento deportivo.

    El Super Bowl ha sido escenario de muchas innovaciones tecnológicas a lo largo de los años, y 2022 no ha sido una excepción, ofreciendo a los millones de fanáticos de todo el mundo una experiencia intensa y envolvente.

    Este espectáculo deportivo, sigue siendo el evento más importante del calendario publicitario, uno de los eventos deportivos más emocionantes de la historia, un evento cultural que atrae a una gran audiencia incluso cuando la televisión en vivo pierde terreno frente a las plataformas de transmisión y el entretenimiento móvil.

    El estadio SoFi en California, reunió este domingo una variedad de innovaciones tecnológicas. Los espectadores del juego tuvieron acceso a pagos sin efectivo, señalización 100% digital, contenido de alta calidad, incluso operación inalámbrica analógica, entre otros. Lo anterior, fue posible gracias a que la compañía Cisco autorizó instalar tecnología de red en el estadio, lo que ayudó a optimizar las operaciones y redefinir la experiencia que obtuvo las audiencia durante el evento en vivo.

    Los gráficos de este año contaron con habilidades de realidad aumentada (AR) que cambiaron el juego. Verizon, la empresa principal de CES® 2021, está mostrando el poder de AR en la aplicación móvil de la NFL. En el 5G SuperStadium, los fanáticos pueden acceder a varios ángulos de visión y proyectar superposiciones de Next Gen Stats for Players de la NFL.

    CBS Sports también desarrolló cuatro cámaras AR para proporcionar el motivo del mar y la arena del Super Bowl LVI, creando atractivas experiencias de visualización en el hogar y ofreciendo ángulos de visión nunca antes vistos, como ‘Trolley Cam’: la cual puede desplazarse en tirolesa de un extremo del estadio al otro a velocidades de hasta 65 mph, lo que ofrece un ángulo de visión incomparable de un aficionado en la octava fila de las gradas. Además, ‘Cámaras Venice’: dos cámaras Sony Venice, que normalmente se usan para aplicaciones de estilo cinematográfico, se usaron en vivo en el Super Bowl LVI. Proporciona tomas de fotograma completo y poca profundidad para una sensación cinematográfica. Por último, ‘Movie Bird Crane’: una grúa Move Bird de 53 pies, reservada para películas y producciones importantes, se aprovechará para mostrar la acción del juego y servir como una cámara habilitada para AR.

    Los dos finalistas del Super Bowl, los Rams de Los Ángeles y los Bengals de Cincinnati, también han acuñado NFT específicos en su honor para la ocasión. El ganador del concurso verá su propio NFT conmemorativo del campeonato lanzado a finales de este mes, dijo la NFL. Este no es el primer experimento de la NFL con los activos digitales en auge. La liga comenzó a ofrecer «NFT de boletos conmemorativos virtuales» durante la temporada regular y «fue testigo de un gran éxito» con el esfuerzo, dijo. El Super Bowl de este año solo contará con boletos móviles, lo que le otorga a la NFL otra oportunidad de experimentar con NFT.

    «Ofrecer NFT de Super Bowl personalizados nos permite mejorar la experiencia del día del juego, al mismo tiempo que nos permite evaluar más a fondo el espacio de NFT para futuras oportunidades de participación en eventos y venta de boletos», dijo Bobby Gallo, vicepresidente senior de desarrollo de negocios de clubes de la NFL, en un comunicado.

    Asimismo, al menos tres servicios en línea para comprar y vender monedas digitales (EToro, Crypto.com y FTX) están programados para publicar anuncios durante el juego del domingo. BitBuy, un intercambio de cifrado canadiense, ejecutará uno durante la transmisión canadiense del juego. En los foros de Reddit y en Madison Avenue, el juego incluso ha sido rebautizado como «Crypto Bowl».

    Por último, la plataforma de influencers impulsada por IA, ‘Influential’, rastreó 288 millones de menciones sociales durante el evento. Tampoco es sorprendente, dado su interés en las personalidades, que hayan clasificado a las celebridades que aparecen en los anuncios de este año por la cantidad de menciones sociales obtenidas durante el juego. De esta manera, los anuncios del Super Bowl pueden verse como esfuerzos influyentes con ‘superpoderes’. La IA también fue utilizada por los comentaristas gracias a Amazon Web Services. para tener una información más detallada y precisa de cada jugador y poder así hacer una mejor valoración en vivo del partido.

    “Este será el Super Bowl tecnológicamente más avanzado de todos los tiempos”, dijo Keith Bruce, director ejecutivo del Comité Anfitrión del Super Bowl. “Marcará el comienzo de una nueva era para los Super Bowls en la forma en que se utiliza la tecnología para mejorar la experiencia de los fanáticos”.

  • Ameca, el robot humanoide que nos señala el futuro

    Ameca, la cara del futuro de la robótica

    Los desarrollos de la inteligencia artificial y la robótica tienen como propósito recrear a los humanos de pies a cabeza. Aunque los prototipos todavía son lentos, sorprende la rapidez con la que avanzan por imitar la realidad. Es el caso de Ameca, el robot humanoide que ha logrado conquistar las redes sociales por sus movimientos y gestos consiguiendo impresionar a tanta gente que se ha convertido en un fenómeno viral.

    Su fabricante, Engineered Arts, con sede en Reino Unido, lo describe como «el robot con forma humana más avanzado del mundo que representa la vanguardia de la tecnología robótica humana» y añadió que es «una plataforma para desarrollar IA» y está permitiendo que otros desarrollen los algoritmos de aprendizaje automático necesarios.

    La empresa diseña y fabrica robots de entretenimiento con apariencia humana para centros científicos, parques temáticos y empresas. Para ello, han ido creando una serie de robots con expresiones cada vez más realistas. Sus modelos anteriores, Mesmer y RoboThespian, son capaces de demostrar una amplia gama de emociones.

    Este androide ha sido diseñado como una plataforma robótica: los clientes que la compran pueden agregar IA y otro software para darle al robot las habilidades deseadas. El software con el que viene está diseñado para crear expresiones realistas.

    Si bien, este robot humanoide mantiene una esencia bastante robótica en su estructura corporal además de su cara grisácea, se puede notar la particularidad de su rostro. Los videos que ofrecen un primer vistazo a Ameca muestran al robot que parece despertarse, aflojar sus articulaciones y mirar con asombro el mundo que lo rodea. Las expresiones y gestos son increíblemente naturales. El robot Ameca tiene la piel de color gris, con características deliberadas de género y raza neutrales.

    Cada robot está diseñado y construido a partir de escaneos internos en 3D de personas reales. Lo que permite imitar la estructura ósea humana, la textura de la piel y cabello y las expresiones de manera convincente. Parece tener una cabeza, cara, cuello, hombros, brazos y manos completamente articulados, pero Engineered Arts señala que ninguno de sus robots puede caminar, aunque la compañía está estudiando esa capacidad.

    Engineered Arts utiliza motores «potentes, silenciosos y de alto par» para impulsar los movimientos del cuerpo y la cabeza, con todo diseñado desde cero para trabajar en conjunto a la perfección. También utiliza sensores como cámaras, sensores de profundidad, LiDAR y micrófonos. Para controlar los movimientos, ha desarrollado un software basado en navegador que funciona con muchas aplicaciones 3D utilizadas para efectos visuales o animación de juegos.

    Will Jackson, fundador de Engineered Arts, afirmó que las habilidades de Ameca y los robots anteriores de la compañía son el resultado de más de 15 años de investigación y desarrollo, declarando que el objetivo de la empresa sigue siendo el mismo: desarrollar robots que sean capaces de interactuar de manera similar a los humanos y establecer rápidamente una relación con cualquier persona, cerrando la brecha entre los humanos y el mundo digital. Su precio supera los $ 133,000.

  • El Parlamento Europeo pide la prohibición del reconocimiento facial en espacios públicos

    El Parlamento Europeo ha votado a favor de la prohibición del uso policial de la tecnología de reconocimiento facial en lugares públicos y de la vigilancia policial predictiva, una práctica controvertida que implica el uso de herramientas de inteligencia artificial con la esperanza de identificar a los posibles delincuentes antes de que cometan un delito.

    Al explicar la resolución, el Parlamento Europeo afirmó que el uso de inteligencia artificial (IA) por parte de las fuerzas del orden plantea actualmente varios riesgos que abarcan la toma de decisiones opaca, la discriminación, la intrusión de la privacidad, los desafíos a la protección de datos personales, la dignidad humana y la libertad de expresión e información.

    Los representantes de la Cámara concluyeron que los ciudadanos solo deben ser monitoreados cuando sean sospechosos de un delito, y citaron asimismo preocupaciones sobre sesgo algorítmico en IA y señalaron hay evidencia que sugiere que los sistemas de identificación basados ​​en inteligencia artificial identifican erróneamente grupos basados ​​en etnia, género, orientación política u sexual. Como resultado, dicen los eurodiputados, «los algoritmos deben ser transparentes, rastreables y suficientemente documentados», con opciones de código abierto que se utilicen siempre que sea posible, siendo tanto la supervisión humana como la protección legal necesarias para evitar la discriminación.

    Los eurodiputados también pidieron la prohibición de las bases de datos privadas de reconocimiento facial, como las que utiliza la controvertida empresa Clearview AI. El Parlamento apoya además el intento de la Comisión Europea en su proyecto de ley de IA de prohibir los sistemas de puntuación social, como los lanzados por China, que califican la confiabilidad de los ciudadanos en función de su comportamiento.

    La resolución establece que «aquellos sujetos a sistemas impulsados ​​por IA deben recurrir a la reparación». Según la legislación de la UE, según el documento, «una persona tiene derecho a no ser sometida a una decisión que produzca efectos jurídicos sobre ella o la afecte significativamente y se base únicamente en el tratamiento automatizado de datos».

    Al menos tres personas en los EE. UU., todas ellas hombres de etnia negra, han sido arrestadas injustamente debido a coincidencias deficientes en el reconocimiento facial. En Detroit, que comenzó a poner a prueba un software de reconocimiento facial en 2017, la policía en 2020 utilizó la tecnología para realizar más de 100 búsquedas de sospechosos y realizó más de 80 arrestos en los casos en que se identificó una posible coincidencia, según el registro público del Departamento de Policía. En Reino Unido, se descubrió que la tecnología de reconocimiento facial utilizada por la Policía Metropolitana en 2019 era un 81% inexacta, y señaló por error a 4 de cada 5 personas inocentes como sospechosos buscados, según un documento técnico de la Universidad de Essex.

    “Esta es una gran victoria para todos los ciudadanos europeos”, dijo Petar Vitanov (S&D), autor de la resolución. La resolución, aunque no vinculante, envía una fuerte señal sobre cómo es probable que el Parlamento vote en las próximas negociaciones de la Ley de IA. Esto contrasta radicalmente con las políticas implementadas en algunos países miembros de la UE, que anhelan utilizar estas tecnologías para reforzar sus aparatos de seguridad. Se espera que el mercado global de reconocimiento facial tenga un valor de 4.450 millones de dólares en 2021.

  • Yara Birkeland, el primer buque de carga totalmente eléctrico y autónomo está listo para surcar los mares de Noruega

    Se espera que Yara Birkeland, el nuevo buque portacontenedores eléctrico de batería noruego, se convierta en el primer buque de carga autónomo con cero emisiones del mundo. La empresa química Yara International anunció el concepto en 2017. El barco se ha desarrollado en asociación con la empresa de tecnología Kongsberg.

    No es el primer barco autónomo, le precede un ferry autónomo lanzado en Finlandia en 2018, pero es el primer buque portacontenedores totalmente eléctrico, dicen sus fabricantes.

    Yara International es una empresa noruega que se fundó en 1905 para combatir la creciente hambruna en Europa en ese momento. La compañía creó el primer fertilizante nitrogenado del mundo, que sigue siendo su mayor enfoque comercial en la actualidad.

    Además Yara se centra en la reducción de emisiones y las prácticas agrícolas sostenibles. Para combatir las emisiones tóxicas de óxidos de azufre (SOx) y óxidos de nitrógeno (NOx) de los motores diesel en los barcos, la empresa noruega creó Yara Marine Technologies. En 2017, la compañía comenzó a conceptualizar la posibilidad de un barco autónomo y completamente eléctrico para eliminar las emisiones tóxicas por completo. La industria del transporte marítimo representa actualmente entre el 2,5% y el 3% de las emisiones globales de gases de efecto invernadero, según la Organización Marítima Internacional.

    El casco se completó en Rumania en febrero de 2020 y luego se entregó a un astillero noruego en 2020 para la instalación de varios sistemas de control y navegación, así como las pruebas finales. El lanzamiento se pospuso debido al COVID-19, pero después de que el barco fue entregado a Yara desde el astillero noruego Vard Brattvåg en noviembre de 2020, ahora se encuentra en la recta final para operaciones autónomas. Su primer viaje lo hará entre las ciudades noruegas de Herøya y Brevik.

    Más allá de su sistema de propulsión amigable con el medio ambiente, la embarcación también se destaca por otra cuestión, no necesita tripulación, es decir, es un barco completamente autónomo.

    El Yara Birkeland está equipado con una batería de 7 MWh, con la que impulsa 2 hélices eléctricas Azipull de 900 kW y dos propulsores de túnel de 700 kW; todo esto se traduce en que el barco es capaz de alcanzar una velocidad máxima de 13 nudos, una cifra no muy alta, considerando que el estándar para este tipo de embarcaciones es de 16 a 25 nudos. Por otro lado, el Yara Birkeland puede transportar un total de 120 TEU. Según sus diseñadores, este barco autónomo debería ser capaz de reemplazar 40.000 viajes de camión al año.

    Aun así, cabe aclarar que por más que el barco sea autónomo, lo cierto es que siempre es vigilado por controladores a distancia, para asegurar que todo esté bajo control. Además, sí necesita de la presencia de personas a la hora de cargar y descargar el barco.
    El proyecto también ha requerido que se desarrollen regulaciones junto con las autoridades marítimas noruegas para permitir que un barco autónomo navegue por las vías fluviales del país. El Yara Birkeland opera a lo largo de la costa noruega, pero si fuera más lejos, entonces podría encontrarse con otras regiones territoriales con reglas y regulaciones diferentes a cumplir.

    Aunque Yara International no tiene planes de agregar más barcos autónomos a sus operaciones, es posible que veamos más elementos de la tecnología de inteligencia artificial utilizados en barcos comerciales en el futuro.

  • Colmena robótica israelí irrumpe un trabajo tradicional

    El zumbido de las abejas ahoga el retumbe del brazo robótico. Es la colmena robótica que trabaja con una eficacia que ningún apicultor humano podría igualar. Una tras otra, la máquina escanea pilas de panales que, en conjunto, podían albergar hasta dos millones de abejas, inspeccionándolas en busca de enfermedades, controlando la presencia de pesticidas e informando en tiempo real de cualquier peligro que amenazara a la colonia.

    La colmena robótica de nueva generación ha sido desarrollada por la empresa israelí Beewise, que afirma que este tipo de atención permanente es lo que se necesita para minimizar el riesgo de colapso de las colonias.

    El número de abejas ha disminuido drásticamente en todo el mundo, en gran parte debido a la agricultura intensiva, el uso de pesticidas, las plagas y el cambio climático.

    Las empresas han buscado diferentes tecnologías para intentar frenar el colapso masivo de las colonias, como la colocación de sensores en las colmenas tradicionales de madera o métodos para hacer frente a la pérdida de abejas, como la polinización artificial.

    La colmena robótica de Beewise,  llamada Beehome, del tamaño aproximado de un remolque de carga, alberga 24 colonias que son alimentadas por paneles solares. En su interior, está equipada con un brazo robótico que se desliza entre los panales, visión por ordenador y cámaras. Las aberturas con códigos de colores en los laterales permiten a las abejas entrar y salir.

    Los beehomes usan inteligencia artifical (IA) para identificar cuándo una colonia podría estar preparándose para el enjambre, y automáticamente previene este evento ajustando las condiciones. Los apicultores tradicionales delegan las tareas más peligrosas a un robot que se controla a traves de una aplicación desde la comodidad de un samrtphone.

    Las beehomes detectan también cuando los panales y su miel están listos  para ser extraídos, y los recolecta dentro del beehome. Una vez que un recipiente de miel alcanza su capacidad (100 galones), se genera una alerta para que el apicultor vaya y lo vacíe, haciendo que el proceso sea limpio y eficiente.

    Las beehomes vigilan en forma permanente el mantenimiento de las colmenas. Manejan de forma automática y autónoma la mayoría de los problemas asociados con el apoyo a las colonias. Sin embargo, si surgen problemas que requieren atención personalizada, emiten alertas en tiempo real para que los apicultores humanos puedan intervenir oportunamente. Es decir, el rol tradicional de mayor peligro queda relegado a un robot, pero la toma de decisiones, el control y supervisión seguirán siendo humanos. No es un reemplazo o eliminación del puesto de trabajo, sino una tarea o rol diferente.

    «Todo lo que haría un apicultor, el mecanismo robótico puede imitarlo y hacerlo más eficazmente sin cansarse, sin irse de vacaciones y sin quejarse», dice el director general Saar Safra. Esto incluye la recolección de miel, la aplicación de medicamentos y la combinación o división de colmenas.

    Si bien las quejas de los trabajadores pudieran tener cierto sustento cuando ahora las tareas se hacen más eficientes y un robot reemplaza a 4 o 5 de ellos y solo quedarían un par de puestos nuevos de supervisión, del otro lado, el costo de producir se reduce enormemente con las consecuencias beneficiosas para los consumidores que obtendrán un buen producto a un precio menor.

    Pueden argumentar que los productores de miel quizás se queden con ese diferencial y no bajen los precios. Pero hay que considerar que los extremadamente bajos costos de manejar un beehome (unos 400 dólares mensuales sin gastos adicionales según el anuncio en su web) podrían hacer surgir muchos nuevos emprendedores que plantarán competencia; y a mayor competencia, los precios siempre bajan.

    Esos mismos apicultores que pudieran perder su trabajo, podrían perfectamente, debido a su especialización, montar sus propios emprendimientos con esos bajos costos mencionados. O pudieran surgir nuevas ideas/mercados para un producto que pudiera ser premium, orgánico, artesanal con incluso precios más altos debido al nicho especializado.

    La empresa israelí se llama Beewise, parafraseando su nombre, los posibles apicultores tradicionales deberían ser más inteligentes aún y utilizar su especialización a su favor. Be wise.