Etiqueta: machine learning

  • Inteligencia Artificial

    La palabra “inteligencia” tiene que ver con la facultad del entendimiento, el saber y la comprensión, razón por la cual el nombrecito de “inteligencia artificial” o AI es irreal o sacado de los pelos; y, bien vale la pena ahondar en el asunto ya que casi todos, sino todos, los problemas de la humanidad surgen a partir del mal uso de las palabras. El asunto lo pintaron desde la Biblia en la parábola de la Babel, como también en el decir “Dios es Palabra”. Pero el tema se torna mucho más embrollado debido a que la llamada AI es uno de los factores más impactantes de la singularidad que deviene la humanidad hoy día. Que, si la manzana la podemos usar para bien o mal, ni se diga la AI, la cual nos puede llevar al Paraíso o al mismo Infierno. En fin, el vocablo “artificial” también es primo del vocablo “artificio”, vocablo que indica falta naturalidad.

    El asunto gira es que la AI no puede hacer conexiones mentales creativas y si usamos esa herramienta como y para lo que no es, los resultados pueden ser terribles. En resumen, los humanos no nos salvamos de ser los gestores de nuestro destino; sea brillante o lúgubre. Jamás olvido el dicho que lo dice todo respecto a las computadoras: “si les metes basura, te responden con basura”. Pero el peligro va mucho más allá porque en el juego de póker que es la vida, el pote o “pot” hoy día es más grande que jamás en la historia humana.

    La AI funciona con analogías o semejanzas y los científicos han visto que la AI no se gana al ser humano resolviendo problemas de matrices, que son formaciones numéricas u de otros objetos matemáticos, conocidos como entradas de la matriz, que requieren un sentido que no tiene la AI. El problema comienza cuando pretendemos usar la AI para lo que no es y, de salida, cuando le ponemos un nombre que tampoco es. Tal es el caso del llamado “metrobus” de Panamá, que no es tal cosa; de manera que si lo tratas de usar para resolver los problemas de tránsito y transporte, te ira muy mal… ¿o es que no lo hemos notado?

    Otro aspecto que debemos considerar cuando intentamos, erróneamente, comparar al ser humano con la AI, es que nuestras prácticas educativas en siglos recientes, ha sido terribles y la humanidad, en muchos sentidos, ha perdido capacidad intelectual. Hoy día ya contamos con el entendimiento y capacidad de tornar a todo niño en genio; pero, insistimos en delegar y centralizar la educación; más que nada, con fines de adoctrinamiento y fines politiqueros.

    Y para mayor ilustración del tema, tomemos el caso de el “aprendizaje de disparo cero o ‘Zero-shot learning’, que es una técnica de aprendizaje automático que permite a un modelo reconocer y clasificar objetos o conceptos sin haberlos visto previamente durante el entrenamiento, utilizando información semántica y transferencias de conocimiento. ¿Me explico o me entiende el lector? ¿No? No se preocupen, que a mí tampoco me queda muy claro el asunto.

    Y, para resumir y enredarles más, termino comentando algo sobre el razonamiento analógico. Una cosa es intentar comprensión a base de razonamiento abstracto en contraposición del atajo de resolver incógnitas basándose en conocimientos que no fueron dados durante las clases o los estudios; conocimientos que ya tenías en tu alacena mental. ¿Puede la AI resolver cuándo no le has provisto toda la información? Por ejemplo; Einstein resolvió o imaginó la Teoría de la Relatividad cuando mentalmente montó un rayo de luz en el espacio.

  • Kathleen Booth: La precursora de las redes neuronales

    Cuando hablamos de pioneros en la informática, muchos nombres masculinos suelen dominar la conversación, pero hay figuras femeninas cuya contribución ha sido fundamental y, a menudo, subestimada. Una de esas figuras es Kathleen Booth, una matemática e ingeniera británica que, hace casi 80 años, sentó las bases para lo que hoy conocemos como redes neuronales y programación informática.

    Una mente brillante en tiempos de cambio

    Nacida en 1922, Kathleen Hylda Valerie Britten —su nombre de soltera— mostró desde joven una gran habilidad para las matemáticas. Se graduó en matemáticas en la Universidad de Londres en 1944, en una época en la que las mujeres enfrentaban enormes barreras educativas y laborales. Sin embargo, Kathleen no solo superó esos obstáculos, sino que los desafió con su incesante búsqueda de conocimiento en campos emergentes como la informática y la inteligencia artificial.

    Su incursión en la programación y la IA

    Durante los años 40 y 50, Kathleen trabajó junto a su esposo, Andrew Booth, en el Birkbeck College de la Universidad de Londres, donde ambos fueron pioneros en el desarrollo de algunos de los primeros computadores británicos. Kathleen fue la responsable de escribir los primeros manuales de programación para estas máquinas, un logro impresionante en un tiempo en que la programación se realizaba casi desde cero.

    Uno de sus aportes más significativos fue el diseño de uno de los primeros lenguajes ensambladores para computadoras, lo que facilitó que las máquinas pudieran recibir instrucciones de manera más comprensible para los humanos. Este fue un paso crucial para la comunicación entre humanos y máquinas, y un precursor esencial de las redes neuronales, que buscarían replicar la forma en que el cerebro humano procesa la información.

    Un hito inesperado: Las redes neuronales

    En los años 50, Kathleen Booth se interesó por los modelos matemáticos que intentaban imitar el cerebro humano. Aunque no fue la única en explorar estas ideas, su trabajo en la programación de computadoras para que pudieran «aprender» marcó un hito inesperado en su carrera. A diferencia de otros enfoques de la época, Booth se centró en cómo hacer que las máquinas pudieran interpretar, aprender y responder a patrones, sentando las bases para lo que hoy conocemos como redes neuronales.

    El concepto de una máquina que «aprende» era revolucionario para su tiempo, y aunque el término «inteligencia artificial» aún no era común, Booth ya estaba abriendo camino para lo que décadas más tarde sería una de las áreas más emocionantes y disruptivas de la tecnología moderna.

    Curiosidades y desafíos inesperados

    Kathleen Booth no solo tuvo que enfrentarse a los desafíos técnicos de su trabajo; también tuvo que lidiar con la discriminación de género de la época. Como mujer en un campo dominado por hombres, Booth no siempre recibió el reconocimiento que merecía. Sin embargo, eso no la detuvo. Además de sus logros técnicos, Kathleen fue una de las primeras en defender la inclusión de más mujeres en la informática, mucho antes de que el feminismo se asociara con la tecnología.

    Una de las curiosidades menos conocidas sobre ella es su afición por la danza, que practicó durante años como una forma de equilibrar su intensa carrera académica. Esta disciplina le enseñó la importancia de la perseverancia y la precisión, cualidades que trasladó a su trabajo en programación.

    Legado y reconocimiento tardío

    A pesar de su influencia, Kathleen Booth permaneció en gran parte fuera del foco mediático durante gran parte de su vida. No obstante, su legado comenzó a ser reconocido más ampliamente en las últimas décadas, cuando la historia de la informática empezó a revisarse con una mirada más inclusiva y justa hacia las mujeres que contribuyeron al desarrollo de la tecnología.

    Hoy, Booth es recordada no solo como una pionera de la programación, sino también como una de las primeras en concebir la idea de máquinas capaces de aprender, un concepto que está en la base de la inteligencia artificial moderna y de las redes neuronales que nos permiten, entre otras cosas, «hablar» con las máquinas de manera tan natural como lo hacemos hoy.

    Kathleen Booth nos enseñó que no hay barreras insuperables cuando la curiosidad, el talento y la determinación se alinean. Su historia es un recordatorio de que muchas de las mentes que transformaron el mundo fueron mujeres cuya pasión rompió moldes y abrió puertas, a menudo sin el reconocimiento que merecían.

  • No todo es ChatGPT: las redes neuronales gráficas también han revolucionado la inteligencia artificial

    Aunque las noticias sobre inteligencia artificial generativa, como ChatGPT y DALL-E, han dominado los titulares, las redes neuronales gráficas ya se utilizan en diversas aplicaciones con un impacto similar en nuestras vidas.

    Tanto las redes sociales como las redes de carreteras se pueden representar mediante grafos, esto es, objetos matemáticos que nos permiten describir y analizar sistemas donde sus elementos están relacionados. Por ejemplo, en una red social, podemos representar a las personas como nodos y las conexiones de amistad entre ellas como aristas. Otro caso es el de los sistemas de transporte, donde las ciudades son los nodos y las carreteras que las conectan son las aristas.

    La teoría de grafos moderna nace en 1736 con el famoso problema de los puentes de Königsberg planteado por Leonhard Euler. Desde entonces, esta teoría se ha consolidado como una importante rama de las matemáticas, tanto teórica como aplicada. Sin embargo, solo recientemente los avances en aprendizaje profundo (del inglés deep learning) han comenzado a integrarse en este área.

    El problema de los puentes de Konigsberg.
    Bogdan Giuşcă, CC BY

    La razón fundamental es que el aprendizaje automático se ha centrado tradicionalmente en el análisis y procesamiento de datos tabulares, imágenes, texto y audio. Desde hace algo más de diez años, algunas arquitecturas sofisticadas de redes neuronales han revolucionado campos como el reconocimiento de imágenes (redes de convolución) y el procesamiento del lenguaje natural (redes recurrentes y transformadores).

    Sin embargo, estas arquitecturas no son adecuadas para datos en forma de grafos, donde la relación entre los datos es tan importante como los datos mismos.

    El problema de las permutaciones

    Matemáticamente, la principal limitación de estas técnicas de aprendizaje profundo para manejar y analizar grafos es que no son invariantes a las permutaciones de los datos.

    Para entender esto, veamos un ejemplo sencillo:

    Imaginemos que tenemos un grafo que representa las amistades entre cuatro personas: Adán Benítez, Belén Antúnez, Carlos Díaz y Diego Canales. Estas personas están conectadas de la siguiente manera: Adán es amigo de Belén y Carlos; Belén es amiga de Adán y Carlos; Carlos es amigo de todos los demás y, finalmente, Diego es amigo solamente de Carlos.

    El grafo que representa las relaciones entre las personas no depende de si identificamos los nodos mediante la inicial del nombre o del apellido de cada persona. Sin embargo, la tabla que recoge las relaciones (matriz de adyacencia) puede cambiar según cómo nombremos los nodos a pesar de representar la misma realidad.

    En la figura siguiente se observa que ambos grafos son iguales (mismas conexiones entre las mismas personas), pero los patrones de las matrices de adyacencia son diferentes.

    Una red neuronal tradicional podría interpretar este cambio de orden como un grafo diferente. Esto es problemático, porque queremos que nuestra red neuronal entienda que la estructura de las amistades es la misma independientemente del orden en que se considere a las personas.

    La solución de las redes neuronales gráficas

    Para resolver este problema, las redes neuronales gráficas (Graph Neural Networks o GNN en inglés) se basan en la propagación de mensajes y la agregación de información. Cada nodo del grafo recibe información de sus nodos vecinos a través de las aristas que los conectan. Este proceso se repite en varias capas, permitiendo que la información fluya a través del grafo.

    Propagación de mensajes: En cada capa de una red neuronal gráfica, cada nodo envía y recibe mensajes de sus nodos vecinos. Imagine que cada persona en nuestra red de amistades envía un mensaje a todos sus amigos. Estos mensajes contienen información relevante sobre cada persona, como sus características y estados.

    Agregación de información: Después de recibir los mensajes, cada nodo (o persona) combina la información recibida de sus amigos. Esto se hace mediante una operación de agregación, como una suma, una media o un máximo. Por ejemplo, si Ana, Ben y Carla se envían mensajes entre sí, cada uno de ellos sumará, promediará o tomará el valor máximo de los mensajes recibidos.

    El hecho de que la agregación se base en operaciones como la suma o el promedio es lo que garantiza la invariancia a las permutaciones. No importa en qué orden recibamos los mensajes, el resultado final de la agregación será el mismo. Por ejemplo, sumar 2, 3 y 5 dará el mismo resultado independientemente del orden en que sumemos estos números.

    Aprendiendo a varios niveles

    Las redes neuronales gráficas son capaces de analizar, encontrar patrones y realizar predicciones a diferentes niveles:

    1. Nivel de nodo: predicción de propiedades específicas de nodos individuales, como la detección de fraudes en transacciones de bitcoins.
    2. Nivel de arista: predicción de conexiones futuras en redes sociales, como identificar quién podría convertirse en amigo de quién o recomendaciones de artículos en plataformas de compra online.
    3. Nivel de grafo completo: análisis de propiedades globales del grafo, como la predicción de la solubilidad de compuestos químicos.

    Aplicaciones de las redes neuronales gráficas

    Aunque las noticias sobre inteligencia artificial generativa, como ChatGPT y DALL-E, han dominado los titulares, las redes neuronales gráficas ya se utilizan en diversas aplicaciones con un impacto similar en nuestras vidas:

    Las redes neuronales gráficas ya se encuentran en nuestras vidas sin que lo sepamos, y las empleamos cuando utilizamos Google Maps o recibimos recomendaciones de productos para comprar en internet. Aunque poco conocidas por el público general, suponen uno de los grandes avances en el campo de la inteligencia artificial de los últimos años.The Conversation

    Diego Canales Aguilera, Profesor de Inteligencia Artificial, Universidad Loyola Andalucía

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Singularidad: ¿se saldrá la inteligencia artificial de nuestro control?

    En física, una singularidad es un punto en el espacio-tiempo donde se produce un evento que no cumple ninguna de las leyes físicas previstas para el mismo. A nivel informático, la singularidad sería aquel evento en el que los sistemas no solo no se comportan como está previsto, sino que, súbitamente, ofrecen una respuesta no esperada basada en un criterio propio.

    En este punto, cualquier predicción sobre lo que ocurrirá después fallaría. Y cuando el ser humano no puede, ni siquiera, controlar de forma imaginaria los posibles escenarios futuros, se comienza a inquietar.

    Voces de alarma

    Para algunos, no es algo lejano. Por ejemplo, el informático futurista Ray Kuzweil, en una entrevista del 2023, aseguraba que el comienzo de la singularidad tendría lugar en 2045.

    Mientras, investigadores de gran prestigio, como Geoffrey Hinton, Yoshua Bengio o Stuart Russell aparecen en los medios de comunicación alertándonos de un grave peligro emergente. Incluso uno de los fundadores de OpenAI, Sam Altman, ha llegado a pedir ante un comité del Senado de los Estados Unidos regular los avances de la inteligencia artificial (IA). ¿Realmente es tan preocupante?

    Este libro del informático futurista Ray Kurzweil anunciaba, en 2006, que ‘la singularidad está cerca’.
    Penguin Random House

    La consciencia en las máquinas

    La clave de esta inquietud no está tanto en la singularidad, sino en el paso previo necesario para llegar a ella: la creación de una nueva inteligencia artificial general (AGI, por sus siglas en inglés).

    Nos referimos a aquella capaz de igualar a la inteligencia humana en sus procesos tanto cognitivos como relacionales, es decir, una IA capaz de dominar las 8 inteligencias múltiples.

    De conseguirse, conformaría la tercera gran revolución en la historia de la IA. Tanto es así que existe una carrera geopolítica silenciosa al respecto de quién será el primero en conseguirla.

    ¿Inteligencia artificial con intenciones?

    Aunque los sistemas de IA actuales, según algunos, puedan dar signos de cierta autoconsciencia –como publicó Blake Lemoine en sus “conversaciones” con LamDa o desde Microsoft a través de una publicación– las IA actuales, no “saben” o no son “conscientes” de lo que están generando.

    Son solo buenos predictores de píxeles o de palabras, en base a los ítems anteriores, pero siempre en base a un entrenamiento. No pueden “reflexionar” si esas inferencias son correctas, ni son capaces de formular hipótesis sobre las razones de sus propias conclusiones.

    Por lo tanto, tampoco son conscientes de su posicionamiento subjetivo ante las mismas. Simplemente, son muy buenas dando respuestas, pero no son capaces de desarrollar las preguntas adecuadas. Todavía.

    La clave, imitar al cerebro humano

    El psicólogo Frank Rosenblatt (11 de julio de 1928-11 de julio de 1971) inventó el perceptrón, la primera neurona artificial.
    CC BY

    La primera revolución en el mundo de la IA vino dada por la implementación simplificada, in silico, del modelo de una neurona natural. En 1906, Frank Rosenblatt diseñó el “perceptrón”, la base de todas las redes artificiales actuales.

    La segunda revolución en la IA vino, una vez más, al “copiar” una topología de redes neuronales humanas en un programa. Esta vez fue Kunihiko Fukushima quien, en 1980, inspirado en el modelo propuesto por los premios Nobel Hubel y Wiesel (1959), desarrolló la base de las actuales redes convolucionales y profundas.

    Fue el nacimiento de una revolución tecnológica sin precedentes, mejorada de forma progresiva por parte de los informáticos Jan LeCun y de Dan Ciresan.

    Actualmente, dentro de la neurocomputación, se está trabajando en una segunda versión de estas redes, muy prometedoras, denominadas redes neuronales de impulsos o spiking.

    Para llegar a una IA general –o AGI–, debemos ir de la mano de la neurocomputación, investigando sobre la topología de una red artificial capaz de generar reglas formales, matemáticas, semánticas o lingüísticas, que formule hipótesis sobre las respuestas obtenidas por la IA tradicional. Pero el nivel de computación actual ya ha llegado a su límite para este objetivo.

    La ley de Moore expresa que aproximadamente cada 2 años se duplica el número de transistores en un microprocesador.
    Seofilo / Wikimedia Commons, CC BY

    El mismo Moore pronosticaba que, en 2021, una nueva tecnología vendría a suplir su actual modelo de crecimiento computacional. Y acertó.

    La esfera de Bloch es una representación de un cúbit, el bloque de construcción fundamental de los computadores cuánticos.
    MuncherOfSpleens / Wikimedia Commons, CC BY

    Esta tecnología es la computación cuántica. Con solo 40 cúbits, podemos procesar por “fuerza bruta” y en paralelo tantos estados computacionales como neuronas tiene nuestro cerebro.

    Además, ciertas teorías indican que, no solo a nivel atómico, sino también a nivel cerebral, existe un comportamiento cuántico en la inferencia y comunicación entre neuronas de zonas no adyacentes.

    El premio nobel de física Roger Penrose es uno de los mayores defensores de esta teoría, que se ve complementada por otros enfoques, como la teoría de Kauffman o la teoría de Bleck y Eccles.

    ¿Los primeros signos de singularidad?

    Existen ya primeras aproximaciones a la AGI reflexiva, como los sistemas MuZero o LIDA. Centros de investigación muy punteros, como I3B (Ibermática Fundazioa), llevan años investigando en el desarrollo de una AGI basada en la inclusión de una topología de grafos semánticos dentro de sistemas profundos.

    Esto supone unir los mundos de la neurocomputación, la computación cuántica y la inteligencia artificial en un trabajo multidisciplinar entre neurocientíficos, humanistas, antropólogos, ingenieros, informáticos, científicos de datos y programadores cuánticos.

    En este contexto, una nueva AGI obligaría a implementar, necesariamente, una autoconsciencia artificial. El país que lo consiga liderará una cuarta revolución tecnológica consolidando una industria increíblemente rentable que lo posicionará como proveedor a nivel mundial. España posee de sobra capacidades y talento en IA, cuántica y en neurocomputación para conseguirlo.

    Por otro lado, será el nacimiento de nuevos sistemas capaces de ayudarnos a comprender mejor nuestro universo y a nosotros mismos, proponiendo preguntas que, quizás, jamás nos hayamos hecho.

    El superordenador Hal-9000 en la serie Odisea espacial analizando la conversación y realizando hipótesis sobre la misma.
    IMBD

    Entonces, seguramente, habremos llegado a una nueva singularidad. Nuestro propio afán de avanzar científicamente nos llevará a lograrlo.The Conversation

    Aitor Moreno Fdz. de Leceta, Profesor de Computación Cuántica, Inteligencia Artificial, Universidad de Deusto

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Algoritmo evolutivo: cuando la inteligencia artificial se inspira en la selección natural

    La idea de un algoritmo evolutivo es la de expresar el programa mediante un código, a imagen del código genético, capaz de representar un determinado comportamiento.

    En 1959, Arthur Samuel (1901-1990), trabajador de IBM y graduado por el Instituto Técnico de Massachussets, escribió un artículo que cambió el modo de programar los ordenadores.

    Arthur Samuel en el Laboratorio de Inteligencia Artificial de la Universidad de Standford en 1970. Standford InfoLab

    El problema que afrontó Samuel no era de capital importancia: se trataba simplemente de desarrollar un programa capaz de jugar al juego de damas. Analizaba una posición del tablero en la que tenía en cuenta diversos factores. A cada uno de ellos le daba una mayor o menor importancia mediante un valor numérico, y producía el movimiento con más probabilidad de ganar la partida a partir de esa configuración analizada.

    El inconveniente era que se desconocía qué factores eran más importantes para determinar el mejor movimiento a realizar. Y aquí es donde reside la gran aportación de Samuel.

    Un jugador de damas muy perspicaz

    En vez de asignar valores concretos, los asignó de manera aleatoria. Claro que de esta forma el resultado sería un programa con un pésimo rendimiento en el juego. La idea brillante fue la de hacerle jugar contra contrincantes humanos e intentar modificar los valores a partir de la experiencia en las partidas.

    Cuando el software perdía una jugada, la analizaba poniéndose en la piel del humano, comparando la acción que este realizó en cada movimiento con la que el programa hubiera hecho en su lugar. Así, mejoraba su rendimiento estudiando al adversario y aprendiendo de los errores cometidos.

    algoritmo evolutivo
    Las investigaciones de Samuel fueron el punto de partida para el desarrollo de la inteligencia artificial en IBM durante la década de 1990.
    IBM

    Samuel no había programado un algoritmo para jugar a las damas, lo había diseñado para que aprendiera a jugar a las damas. Y fue capaz de hacerlo incluso por encima de las capacidades de su programador.

    Fue una experiencia pionera de lo que hoy se conoce como aprendizaje automático, que está detrás de avances tan extendidos como el diagnóstico médico por inteligencia artificial, el reconocimiento de voz, los vehículos autónomos, los asistentes virtuales o los últimos modelos del lenguaje.

    Autonomía para aprender

    Muchos de ellos se han nutrido del perfeccionamiento de unos modelos, también paramétricos, que llamamos redes neuronales. En estos nuevos modelos no hay una función fija como en el programa de Samuel, sino que se puede aproximar cualquier función, y se pasa de unos pocos parámetros a cientos de millones de ellos.

    Además, ya no hace falta un humano para que el programa aprenda de él: los sistemas actuales aprenden a partir de la miríada de datos que están disponibles en todos los dominios del conocimiento.

    Sin embargo, la tecnología que hay detrás de todos estos modelos recientes no es demasiado revolucionaria. La manera de ajustar sus parámetros es una modificación del método de ajuste mediante descenso de gradiente, que data de finales del siglo XIX, aplicado a las redes neuronales en la década de los 80.

    El éxito reciente reside en la sofisticación de los modelos y su complejidad, además de la enorme disponibilidad de datos de entrenamiento. Pero los científicos no han pasado por alto otro aspecto importante del aprendizaje automático: la evolución.

    Algoritmos genéticos

    Los seres vivos pueden, de manera simplificada, describirse también como funciones parametrizadas, cuyos parámetros son los genes. Dependiendo de los valores que tomen dichos genes, se produce un ser vivo u otro, con unas u otras características.

    Es la evolución la que, de manera similar al programa de Samuel, ha ido seleccionado los valores adecuados de los genes, para generar seres vivos con mayor probabilidad de sobrevivir, descartando por el camino ingentes cantidades de valores inapropiados.

    John Henry Holland desarrolló el primer programa de aprendizaje evolutivo en 1975.
    Wikimedia Commons, CC BY

    Incluso los sistemas neuronales de los seres vivos son el producto de un proceso que ha ido probando soluciones alternativas, durante millones de años, hasta dar con la combinación más eficaz desde el punto de vista evolutivo.

    Es a partir de esta idea que John Holland (1929-2015) diseñó, en el año 1975, el primer programa de aprendizaje evolutivo y desarrolló lo que denominó algoritmos genéticos.

    La idea de un algoritmo evolutivo es la de expresar el programa mediante un código, a imagen del código genético, capaz de representar un determinado comportamiento. Si se modifica el código, el programa se comporta de manera diferente.

    Si damos con una determinada codificación, será capaz de mostrar un comportamiento altamente eficaz. Como en los sistemas neuronales, se parte de un código aleatorio que se va mejorando mediante una versión artificial de la selección natural.

    Los programas que tengan mejores rendimientos cruzarán su codificación, generando nuevos programas, en una versión computacional de la reproducción sexual.

    Desde su aparición, se han producido innumerables avances en este tipo de algoritmos. Asimismo, se han aplicado con éxito en la selección de parámetros en problemas que son inabordables de otra manera.

    La antena 2006 de la nave espacial de la NASA ST5. Esta forma complicada fue encontrada por un programa evolutivo del diseño de computadora para crear el mejor patrón de la radiación.
    Wikimedia Commons, CC BY

    El futuro de la inteligencia artificial podría estar en combinar estas dos perspectivas, la neuronal y la evolutiva. Los sistemas evolutivos podrían ser útiles en la generación automática de modelos neuronales cada vez más complejos o, incluso, nuevos métodos de aprendizaje.

    De la misma manera que la selección natural ha sido capaz de producir sistemas neuronales capaces de generar comportamientos más y más complejos a partir de una evolución gradual de los mismos, los algoritmos evolutivos podrían ser la clave para producir modelos de inteligencia artificial cada vez más sofisticados, mejor adaptados a los requerimientos que se necesiten y más inteligentes.

    El campo de los sistemas evolutivos y los sistemas de inspiración biológica tiene un gran potencial que apenas estamos vislumbrando. Sin duda, será objeto de gran atención en los años venideros.The Conversation

    Pedro Isasi Viñuela, Catedrático de Universidad. Área de Inteligencia Artificial. Universidad Carlos III de Madrid, Universidad Carlos III

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • MANIAC, la primera máquina que ganó al ajedrez a un humano y el comienzo de la locura

    La publicación del libro MANIAC, de Benjamin Labatut, renovó la atención sobre uno de los padres de la computación moderna, Jonh Von Neumann. A lo largo del texto, el lector percibe el relato como una herramienta cuyo destino es el verdadero tema de la obra: la influencia mutua que tienen la inteligencia artificial y la mente humana. Para ello, como no podía ser menos, dedica un buen número de páginas a la computadora MANIAC.

    De esta forma, Labatut presenta MANIAC (Mathematical Analyzer, Numerical Integrator, and Computer) como una máquina capaz de hacer cualquier cálculo inimaginable para humanos. Es más, la presenta como una herramienta significativamente más poderosa que la mente humana y un artilugio al alcance de sólo unos pocos. Sin embargo, vista desde 2024, MANIAC no es más que un simple juguete computacional, un mero prototipo de lo que el futuro (nuestro presente) iba a deparar en materia de computación.

    ¿Qué tenía MANIAC de especial?

    ¿Qué hace de MANIAC una computadora tan singular como para situarla en el mismo eje del origen de la inteligencia artificial? No se trata de la computadora más potente, tampoco de la primera computadora. Es algo más.

    El crédito de la creación de MANIAC hay que atribuírselo a Nicholas Constantine Metropolis, pero en el diseño hay una contribución muy importante por parte de Von Neumann.

    MANIAC fue construida en 1952, pero sus bases de funcionamiento se crearon años antes, en 1945. Se trata de la arquitectura Princeton, también llamada arquitectura Von Neumann en reconocimiento a su creador.

    Esta arquitectura aportaba una novedad muy importante sobre sus predecesoras, como puede ser la famosa ENIAC. Se trata de la posibilidad de almacenar programas en memoria, que serían leídos a partir de tarjetas perforadas.

    Hasta entonces, los ordenadores (los pocos que había) requerían de cambios manuales para recibir nuevas instrucciones. Es decir, para cambiar las instrucciones los programadores debían cambiar cables y clavijas de sitio. Para poder dar instrucciones de funcionamiento a MANIAC, el programador las escribía en forma de tarjetas perforadas, que posteriormente introducía en la computadora.

    Puede parecer un mero formalismo técnico, pero tiene implicaciones muy importantes. Con los cambios manuales de cables y clavijas, pasar de un programa a otro podía suponer semanas. Sin embargo, con los programas almacenados en memoria, en tarjetas, el proceso era mucho más ágil. Se podían ejecutar programas diferentes incluso el mismo día.

    A pesar de su relevancia, MANIAC no fue la primera máquina en basarse en esta arquitectura. Von Neumann realizó el diseño en los trabajos de creación de EDVAC, que fue presentada en 1949. Incluso en 1948 se presentó SSEM, que se basaba en el mismo concepto.

    Primera victoria en el ajedrez para una máquina

    Hay que atribuirle a MANIAC un récord notable: en 1956 fue la primera computadora capaz de ganar una partida de ajedrez a una persona.

    Los científicos de Los Álamos organizaron tres partidas de ajedrez para ponerla a prueba. La primera fue MANIAC contra MANIAC. La segunda fue MANIAC contra Martin Kruskal, que era matemático y físico de la Universidad de Princeton, además de un hábil jugador de ajedrez. La tercera fue MANIAC contra un anónimo que recibió un curso intensivo sobre conceptos básicos de ajedrez durante el lapso de una semana.

    Es cierto que se trataba de una versión simplificada del juego (sin alfiles) y que MANIAC tardaba 20 minutos en emitir cada movimiento. También es cierto que la persona que jugó dicha partida apenas había aprendido a jugar una semana antes. Sin embargo, así se inició una batalla máquina-humano que, finalmente, concluyó con la victoria de Deep Blue sobre Kasparov 41 años después,en 1997. Esta vez, sin limitaciones.

    Objetivo: la bomba H

    La computadora no se construyó, ni mucho menos, para un propósito tan lúdico como el ajedrez. El propósito principal de la máquina fue la realización de los cálculos requeridos para la construcción de la bomba H, la bomba de fusión nuclear, 600 veces más potente que la lanzada sobre Hirosima y que requería de procesos mucho más complejos.

    Sin embargo, la facilidad con la que MANIAC podía ser reprogramada permitía que se utilizara para otras tareas mientras no había nuevos cálculos por hacer. Por ejemplo, con MANIAC se consiguió la primera predicción meteorológica que tardaba menos de 24 horas en generarse, así como la primera ecuación de estado calculada con métodos de simulación de Monte Carlo.

    MANIAC no sólo destacó por ser reprogramable. También presentó un innovador esquema de memoria en forma de matriz bidimensional. Esa forma de disponer las celdas de memoria conseguía una notable mejora de rendimiento, gracias a la cual se consiguieron los récord ya mencionados.

    Setenta años después de la aparición de MANIAC, la computación ha evolucionado de forma asombrosa. Los supercomputadores actuales, como el español MareNostrum, dejan a MANIAC a la altura de un simple juguete de niños. En nuestros bolsillos llevamos dispositivos que sobradamente multiplican la capacidad de aquellas máquinas primigenias. Sin embargo, buena parte de los computadores actuales siguen utilizando la misma arquitectura o versiones con ligeras modificaciones. No es desencaminado, por tanto, hablar de John Von Neumann como uno de los padres de la computación, y con ello de la inteligencia artificial.

    El juego (o la batalla) humano-máquina continuará…The Conversation

    Luis de la Fuente Valentín, Profesor del Máster Universitario en Análisis y Visualización de Datos Masivos, UNIR – Universidad Internacional de La Rioja

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Snowden marca los desafíos de la inteligencia artificial

    En la Conferencia que se llevó a cabo la semana pasada, Consensus 2023, el  actual presidente de Freedom of the Press Foundation, Edward Snowden, compartió sus puntos de vista sobre el futuro de la inteligencia artificial (IA). Snowden, conocido por su papel en revelar el programa de vigilancia de la Agencia de Seguridad Nacional (NSA), se unió virtualmente a la conferencia desde Rusia. Su discurso fue cautelosamente optimista, argumentando que si queremos que la IA supere las capacidades humanas, debemos dejar de enseñarles a pensar como nosotros y permitir que sean «mejores que nosotros».

    Aunque Snowden reconoce que las tecnologías de IA pueden empoderar a los actores malintencionados, también considera que hay casos de uso positivos para esta tecnología emergente. Por ejemplo, Snowden sugiere que las IA podrían impedir la vigilancia gubernamental en lugar de alimentar programas de inteligencia invasivos. «Quizás podrían dejar de espiar al público y empezar a espiar para el público», dijo Snowden. «Eso sería un beneficio neto».

    Sin embargo, Snowden también advierte que el lanzamiento de modelos de IA cada vez más sofisticados, como ChatGPT, podría alentar a las grandes empresas tecnológicas y al gobierno a invadir la privacidad de los usuarios. Para evitar que esto suceda, Snowden argumenta que las personas deben luchar por mantener los modelos de IA abiertos. «La gente levantará la bandera roja del ‘ software comunista’, donde debemos declarar que los modelos deben ser abiertos», dijo Snowden.

    En su discurso, Snowden también criticó los métodos actuales de entrenamiento de IA, que implican alimentar a la IA grandes cantidades de contenido en línea, incluidos comentarios de redes sociales. Snowden argumenta que esto no es ideal. «Los están entrenando en hilos de Reddit», dijo Snowden. «Es como el equivalente en internet de los comentarios de YouTube. Pero quieres crear algo decente, bueno, creativo y útil».

    Además, Snowden señala que los métodos de entrenamiento actuales se basan en enseñar a las IA a «pensar como nosotros», lo que podría limitar su potencial para mejorar la humanidad. «Al igual que con los niños, no necesitamos que las máquinas sean como nosotros», dijo Snowden. «Necesitamos que sean mejores que nosotros. Y si no son mejores que nosotros, hicimos un trabajo terrible».

    Concluyendo, Snowden destaca que la forma en que se utiliza la tecnología de IA depende de cómo se entrena a los motores de IA. Para aprovechar al máximo su potencial, debemos dejar de enseñarles a pensar como nosotros y permitir que la IA sea mejor que nosotros. Al mismo tiempo, debemos luchar por mantener los modelos de IA abiertos y transparentes para evitar que los actores malintencionados los utilicen para sus propios fines.

  • Explorando las posibilidades y desafíos de la IA de textos ChatGPT

    Abordo en este análisis reflexiones sobre las posibles implicaciones y retos del desarrollo y acceso generalizado a la inteligencia artificial de textos, en boca de tantos tras la activación a finales de noviembre de la herramienta ChatGPT, en acceso abierto.

    Incorporo nota metodológica al final.

    Transformación de negocios con la IA de textos

    El desarrollo de la IA de ChatGPT tiene el potencial de cambiar significativamente la forma en que la gente interactúa con la tecnología.

    Puede mejorar la eficiencia y precisión en tareas que requieren una interacción natural con el lenguaje humano. Por ejemplo, puede tener un impacto en la atención al cliente y la atención médica, ya que puede mejorar la eficiencia y precisión en la interacción con los clientes y pacientes.

    También puede tener un impacto en el sector financiero, ya que puede ayudar a realizar análisis y predicciones más precisos en el mercado financiero.

    Además, puede tener un impacto en el sector educativo, ya que puede utilizarse para crear programas de enseñanza personalizados y adaptativos.

    La IA también puede ser utilizada para crear herramientas y soluciones innovadoras en áreas como la logística, la energía y la producción.

    Mapa de riesgos

    Hay varios posibles riesgos y desafíos asociados con el desarrollo de la IA, como la privacidad y la seguridad de la información.

    Uno de los principales riesgos es la posibilidad de que la información personal sea recopilada, almacenada y utilizada de manera indebida por parte de terceros. Esto puede ocurrir a través de ataques cibernéticos, uso no autorizado de la información por parte de empleados de la empresa o incluso a través de vulnerabilidades en el propio software de la IA.

    Además, la IA también puede ser utilizada para fines malintencionados, como el spamming, el phishing o la difusión de noticias falsas. Por lo tanto, es importante desarrollar medidas de seguridad efectivas para proteger la privacidad y la seguridad de la información en el contexto del desarrollo de la IA.

    Medidas de seguridad

    Hay varias medidas de seguridad que pueden ser efectivas para proteger la privacidad y la seguridad de la información en el contexto del desarrollo de la IA.

    • Implementar medidas de cifrado efectivas para proteger la información contra el acceso no autorizado.
    • Establecer políticas de privacidad claras y transparentes para informar a los usuarios sobre cómo se recopila, almacena y utiliza su información personal.
    • Realizar regularmente auditorías y pruebas de seguridad para detectar y corregir vulnerabilidades en el software de la IA.
    • Capacitar y educar a los empleados sobre las buenas prácticas de seguridad informática y las políticas de privacidad de la empresa.
    • Colaborar con expertos en seguridad informática y privacidad para desarrollar medidas efectivas y estar al día con las últimas amenazas y tendencias en el campo de la seguridad de la IA.

    Es importante tener en cuenta la seguridad y la privacidad en todas las etapas del desarrollo de la IA, desde el diseño hasta la implementación y el mantenimiento, para garantizar la protección adecuada de la información personal.

    El papel del Estado

    Los gobiernos y la legislación tienen la responsabilidad de establecer marcos y normas para regular el desarrollo y el uso de la IA. Esto incluye la creación de leyes y regulaciones que protejan la privacidad y la seguridad de la información, así como la promoción de la ética y la transparencia en el desarrollo y uso de la IA. También pueden fomentar la investigación y el desarrollo en el campo de la IA, así como establecer estándares y mecanismos de evaluación para garantizar que la IA cumpla con ciertos requisitos de calidad y seguridad.

    Retos para la prensa

    El desarrollo de la IA en general, y de ChatGPT en particular, puede tener un impacto positivo en la generación de contenidos informativos y en la prensa.

    Por ejemplo, ChatGPT y otras tecnologías de IA pueden ayudar a los periodistas a crear contenido más rápido y preciso, lo que les permite enfocarse en otras tareas importantes, como la investigación y la verificación de hechos.

    Además, la IA también puede ayudar a la prensa a llegar a una audiencia más amplia y ofrecer contenido personalizado a sus lectores.

    Sin embargo, es importante tener en cuenta que la IA todavía tiene limitaciones y no puede reemplazar completamente el trabajo humano en la generación de contenidos informativos.

    Es posible que el desarrollo de la IA como ChatGPT pueda tener algún efecto negativo en la prensa. Si se utiliza en exceso o de manera inadecuada, la IA puede generar contenido que no sea preciso o que incluso sea engañoso. Además, si se utiliza para reemplazar completamente el trabajo humano en la generación de contenidos informativos, esto podría llevar a una reducción en la calidad del contenido y en la diversidad de opiniones en la prensa. Por lo tanto, es importante utilizar la IA de manera responsable y en combinación con el trabajo humano en la prensa.


    Nota metodológica:

    Este análisis ha sido redactado completamente con los textos generados por la herramienta de inteligencia artificial de textos ChatGPT, de acceso abierto en varios países, activada hace unos pocos días.

    La única intervención del firmante de este artículo es la entrada inicial, así como formular la serie de preguntas a ChatGPT para que produzca los textos.

    De los textos generados he seleccionado los que me han parecido más relevantes bajo mi criterio, haciendo puro “Copiar y pegar”, sin añadir ni una sola palabra mía.

    El título también es de la herramienta. He tenido que introducir únicamente una corrección, del número de un artículo determinado.The Conversation


    Francesc Pujol, Profesor en la Facultad de Económicas, Universidad de Navarra

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Qué es y qué no es inteligencia artificial

    En los últimos años el término inteligencia artificial y todo lo que tiene que ver con ello está adquiriendo un gran protagonismo y sobredimensionamiento. La expresión inteligencia artificial está siendo abusada y utilizada de forma básicamente incorrecta diariamente y en múltiples ámbitos cotidianos, desde el político al empresarial.

    ¿Existen realmente máquinas inteligentes, similares a las personas? Si respondemos a esta pregunta con cierto rigor, desde las bases de las ciencias fundamentales que soportan los pilares de este área –matemáticas y física–, la respuesta es que no. Y muchos científicos conjeturan y argumentan seriamente que probablemente nunca existirán.

    Computar no es lo mismo que pensar

    Fotografía de Alan Turing sentado en una silla.
    Alan Turing.
    Alan Turing diseñó el bombe, un dispositivo empleado por Reino Unido para descodificar los mensajes cifrados por la máquina alemana Enigma durante la Segunda Guerra Mundial.

    Partamos de las áreas de conocimiento adyacentes a las matemáticas y la física que se expandieron desde los años 30 y 40 del siglo XX, como la ciencia de la computación, la electrónica, la automática o el propio área de inteligencia artificial.

    En el año 1937 vieron la luz dos publicaciones científicas de enorme importancia: la primera, Sobre los números computables, con una aplicación al Entscheidungsproblem del matemático Alan Turing, y la segunda, Análisis simbólico de relés y circuitos de conmutación, del matemático e ingeniero electrónico Claude Shannon. Estos trabajos fundaron la forma inicial de crear máquinas electrónicas capaces de computar, manejar información y manipular símbolos mediante programación algorítmica.

    Sin embargo, la inteligencia artificial, entendida como aquella que pretende replicar capacidades intelectuales similares a animales o personas (llamada inteligencia general o inteligencia fuerte) no se ha demostrado en absoluto. Esto es: no hay evidencia ni matemática, ni física, ni se conoce la existencia de ningún prototipo equivalente a las capacidades pensantes de un cerebro humano.

    Decisión vs. elección

    En 1966 el matemático y profesor de Ciencias de la Computación en el Instituto Tecnológico de Massachusetts (MIT) Joseph Weizenbaum creó en su laboratorio un programa llamado ELIZA capaz de realizar procesamiento de lenguaje natural.

    Joseph Weizenbaum, creador de ELIZA.
    Ulrich Hansen / Wikimedia Commons, CC BY-SA
    Pantalla negra donde aparece una conversación escrita en inglés con el chatbot ELIZA.
    Ejemplo de conversación con ELIZA.

    Esta sencilla herramienta reconocía palabras clave en las frases del usuario para elegir una frase modelo de su base de datos con la que contestar.

    ELIZA era capaz de entablar una conversación con seres humanos simulando a una psicóloga empática. Weizenbaum modeló su estilo de conversación como preguntas abiertas para animar a los pacientes a comunicarse más eficazmente con la terapeuta, y le sorprendió que su programa fuera tomado en serio por muchos usuarios.

    A la vista de que gran número de admiradores consideraron el programa como verdadero precursor de las máquinas pensantes, el propio autor se vio obligado a dejar claro que consideraba esta interpretación totalmente errónea e intentó vehementemente corregir en sus intervenciones posteriores estas ideas.

    Entre otros muchos escritos, Weizenbaum publicó en 1976 el libro El poder informático y la razón humana: del juicio al cálculo. Con él trataba de explicar al público en general su trabajo y sus consecuencias desde la filosofía de la ciencia, sin incluir turbadoras fórmulas matemáticas en el texto.

    En el libro, el autor distingue entre las capacidades de los computadores y el razonamiento humano, y establece una distinción crucial entre decidir y elegir. Lo mismo que en la automática la decisión y control de un proceso industrial se implementa con un circuito o un computador como controlador programado de dicho proceso, Weizenbaum explica que decidir es una actividad computacional, algo que en última instancia puede programarse y, sin embargo, la elección es el producto del juicio, no del cálculo.

    El papel de la mecánica cuántica

    En 1989, el físico, matemático y Premio Nobel en el año 2020 Roger Penrose publicó su influyente libro La nueva mente del emperador en el que demuestra que el pensamiento humano no es básicamente algorítmico.

    Retrato de Roger Penrose.
    Roger Penrose.
    Festival della Scienza / Cirone Musi / Flickr, CC BY-SA

    A caballo entre las matemáticas, la filosofía de la ciencia y la física, el texto incorpora tanto demostraciones matemáticas como ilustradas discusiones de los famosos exámenes de inteligencia (como el test de Turing y el experimento de la habitación china). Además conjetura la posible necesidad de las leyes de la mecánica cuántica para poder explicar correctamente nuestras mentes.

    La obra fue devastadora para la tradicional inteligencia artificial fuerte. Inspiró contestaciones de múltiples autores en diversas áreas de conocimiento, pero sus tesis no pudieron ser refutadas convincentemente.

    Penrose avanzó aún más en sus ideas con el segundo de sus libros sobre la conciencia humana, publicado en 1994: Las sombras de la mente. En él incluye una propuesta detallada sobre cómo podrían implementarse esos procesos cuánticos en el cerebro.

    Las nuevas conjeturas, en colaboración con la biología y la neurociencia médica sugeridas por Penrose, incluyen en particular el citoesqueleto de las neuronas. En concreto los microtúbulos, importantes componentes del citoesqueleto, son lugares plausibles para el procesamiento cuántico y, en última instancia, para la conciencia.

    Estas ideas pueden perfectamente ser incorrectas, tal y como el propio Penrose argumenta. Muchos investigadores multidisciplinares en estos campos intentaron refutar parte de estas propuestas, pero actualmente siguen en vigor.

    Sin inteligencia artificial a la vista

    Desde un punto de vista global, sabemos que se han estudiado múltiples enfoques desde hace décadas para tratar de expandir la inteligencia artificial. Las redes neuronales, los sistemas expertos, la lógica fuzzy y en los últimos tiempos el deep learning y el big data han dado lugar a útiles herramientas para resolver problemas con fines específicos.

    Estas herramientas pueden ser impresionantes, pero debemos tener muy claro que no nos hemos acercado al desarrollo de la inteligencia artificial general. La llamada inteligencia débil (o inteligencia estrecha) corresponde con las aplicaciones que hoy tenemos, pero las afirmaciones exageradas sobre sus éxitos, de hecho, dañan la reputación de la inteligencia artificial como ciencia.

    En más de ochenta años de investigación en este área no se ha producido ninguna prueba firme de niveles humanos de inteligencia artificial general. Sabemos que los circuitos artificiales son incapaces de modelar los sistemas nerviosos incluso de los invertebrados más simples. Aún con computadores muy rápidos y con enormes bases de datos, confiar en que el razonamiento, la inteligencia y la conciencia surjan de alguna manera simplemente aumentando más y más la complejidad no parece más que un camino sin salida.

    Las herramientas informáticas son muy útiles, pero aunque una máquina gane a los ajedrecistas profesionales o sea capaz de proponer un recurso legal buscando jurisprudencia en su gran base de datos, no es una máquina pensante. Es importante no banalizar, diferenciar entre herramientas tecnológicas y entes inteligentes, así como dejar a la ciencia seguir trabajando con rigor en esta apasionante materia.The Conversation

    Victor Etxebarria Ecenarro, Catedrático, Universidad del País Vasco / Euskal Herriko Unibertsitatea

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • ¿Puede la inteligencia artificial predecir la nota de un alumno sin necesidad de examen?

    Dado que tenemos un sistema que predice la nota que obtendrá un alumno en el examen con un margen de error razonable, ¿podemos utilizar la predicción como nota final, y nos olvidamos del examen?

    La inteligencia artificial y el análisis de datos tienen impacto en nuestras vidas a prácticamente todos los niveles. El contexto educativo no es una excepción. Así surge lo que llamamos Learning Analytics, una disciplina de investigación que trata de aplicar el análisis de datos para mejorar el proceso de enseñanza y aprendizaje.

    Entre otros muchos tipos de estudios, son varias las iniciativas de investigación que trabajan con algoritmos predictivos cada vez más sofisticados que buscan anticipar factores como el riesgo de abandono de un alumno o incluso la calificación que éste pudiera obtener.

    Programar para predecir

    Los primeros trabajos enfocados a la predicción de notas se basaban en la aplicación de una serie de reglas preestablecidas sobre un conjunto de hechos relativamente simple. Más recientemente, sin embargo, los trabajos propuestos analizan todo el registro de interacción de un alumno con su plataforma educativa y utilizan complejas redes neuronales para lograr esa predicción de nota. De hecho, se obtienen resultados realmente sorprendentes.

    Por ejemplo, en el trabajo presentado por Alonso-Misol et al. se compara el rendimiento de diferentes algoritmos, obteniendo una precisión del 96 % a la hora de predecir la nota de un examen. Eso quiere decir que, en 96 de cada 100 alumnos, el humano pone una nota muy cercana a la que el algoritmo dijo que iba a poner.

    Se trata de una disciplina relativamente reciente. Es de esperar que los resultados sean cada vez mejores por lo que en algún momento se podría plantear la siguiente pregunta: dado que tenemos un sistema que predice la nota que obtendrá un alumno en el examen con un margen de error razonable, ¿podemos utilizar la predicción como nota final, y nos olvidamos del examen?

    Un deseo utópico

    Suena tentador, los exámenes son la actividad más odiada por los alumnos. Tampoco gozan de gran simpatía entre el profesorado ya que la calificación es una tarea realmente costosa. A buen seguro, ambos colectivos aplaudirían el fin de los exámenes. Sin embargo, la realidad es bien diferente y es muy probable que la predicción, ahora exitosa, sólo produzca números sin sentido si el examen desaparece.

    En primer término, un cuaderno de notas en el pupitre de una clase en la que los alumnos escriben (probablemente un examen).
    No se pueden predecir los resultados de los exámenes sin exámenes previos de referencia.
    Yustinus Tjiuwanda / Unsplash

     

    Esto es así por el modo en el que funcionan los sistemas predictivos que se apoyan en técnicas de aprendizaje supervisado. En esencia, el principio de funcionamiento es el siguiente: se analizan datos del curso presente y se comparan con datos de cursos pasados. Si en cursos pasados existe un patrón de actividad que se pueda relacionar con la obtención de una determinada calificación, entonces se predecirá que los alumnos que en el presente curso tienen ese patrón tendrán esa calificación. Dicho de otra forma: es muy probable que un alumno obtenga una calificación similar a la que obtuvieron los alumnos que tuvieron una interacción con la plataforma similar a la suya.

    Así, los sistemas predictivos tendrán éxito en la medida en que el curso que está siendo analizado tenga un funcionamiento equivalente a ediciones previas del mismo curso.

    Para entender esto adecuadamente, imaginemos un curso de un mes en el que los alumnos tienen que entregar una actividad el viernes de cada semana. Habrá alumnos que sólo generen actividad el viernes, para realizar la entrega. Habrá otros alumnos que generarán actividad durante toda la semana, con más intensidad el viernes. Lo que parece que está claro es que será un patrón de actividad semanal.

    Imaginemos ahora que entra un nuevo profesor y decide que las actividades correspondientes a las cuatro semanas se entregan todas al final del mes. A buen seguro, el patrón de actividad de los alumnos cambiará e incluso habrá alumnos que no entren al curso hasta la última semana. Este cambio en la metodología docente hará que deje de tener sentido la comparativa entre el curso actual y los cursos previos. Como resultado, los sistemas predictivos perderán todo su potencial.

    Algo similar ocurriría al eliminar el examen. A pesar de que existen alumnos que tienen una fuerte motivación intrínseca para seguir adelante con su aprendizaje, la motivación extrínseca que impone un examen es el principal factor motivante para seguir con la actividad en el curso. Dicho de otra forma: sin examen, los alumnos trabajarían menos en el curso y con un patrón de trabajo muy diferente. Los sistemas predictivos, por tanto, perderían su valor.

    Otras posibilidades de evaluación

    Si queremos (quisiéramos) eliminar el examen, entonces debemos pensar en todo el catálogo de actividades alternativas descrito en este otro artículo. En cualquier caso, lo llamemos “examen”, “rúbrica”, “portfolio”, o de cualquier otra manera, la actividad de los alumnos está muy modulada por las fechas de entrega de las actividades que cuentan para la nota.

    El objetivo de los sistemas predictivos para la calificación de los alumnos es, principalmente, el de detectar alumnos en riesgo de abandono para ofrecerles un apoyo adecuado. También son útiles para anticipar los recursos que se vayan a necesitar. Entre los objetivos de los sistemas predictivos de calificación no está, sin embargo, la eliminación del examen final.The Conversation

    Luis de la Fuente Valentín, Profesor del Máster Universitario en Análisis y Visualización de Datos Masivos, UNIR – Universidad Internacional de La Rioja

    Este artículo fue publicado originalmente en The Conversation. Lea el original.