GCCViews

  • Hashtags: su historia y tips para aprovecharlos al máximo

    Ya sea que los use para conectarse con un nicho al que pertenece o como una herramienta de marketing, es probable que ya esté usando hashtags en su vida cotidiana, pero, ¿cómo surgió esta herramienta tan valiosa?

    Hace no tanto tiempo atrás, en 2007, los hashtags era denominados «signos de libra», «símbolos hash» o «octothorpe» (por sus ocho puntos) y, a menos que estuviera trabajando en TI, nadie reparaba mucho en ellos.

    El origen etimológico del nombre está en disputa, pero lo que sí sabemos es que a fines de la década de 1960 y principios de la de 1970, los innovadores del teléfono de tonos, Bell Laboratories, enviaron a sus investigadores a entrevistar al público y descubrir qué signos preferiría usar el pueblo estadounidense en las nuevas tecnologías que estaban desarrollando. Los resultados redujeron las opciones a un asterisco (*) y un signo de número (#), lo que hizo modificar el teclado de los teléfono para agregarlos.

    En 1993, el símbolo encontró su uso en los canales de Internet Relay Chat (IRC) como un comando que permitiría a los usuarios unirse a varios canales, así como etiquetar grupos de temas, imágenes y mensajes. Los canales que tenían el prefijo «#» estaban disponibles en toda una red de IRC, mientras que los locales de un servidor tenían el prefijo «&».

    Para entonces, Octothorpe ya estaba muy bien establecido entre los profesionales de las TI y se dice que su uso en los canales de IRC fue exactamente lo que, el 23 de agosto de 2007, inspiró al actor Chris Messina a sugerir a sus seguidores que comenzaran a usarlo como una forma de categorizar grupos en Twitter.
    Al cabo de 2 días, el signo de «almohadilla» pasó a ser conocido como «etiqueta hash» y, finalmente, simplemente como «hashtag» gracias a un icónico tweet, de Stowe Boyd.

    Un par de meses después, en octubre de 2007, la comunidad de Twitter reconoció el valor de los hashtags, cuando Messina sugirió utilizarlos para los incendios forestales de San Diego como coordinación de emergencias y ayuda en casos de desastre. El hashtag #SanDiegoFire se convirtió en una de las herramientas importantes que los usuarios de Twitter utilizaban para comunicarse entre sí y compartir las actualizaciones sobre la situación en desarrollo en la ciudad.

    A pesar de que la comunidad reconoció el valor de los hashtags, Twitter no comenzó hasta julio de 2009 a vincular todos los hashtags en los tweets a los resultados de búsqueda de Twitter. Los temas de moda se introdujeron en la página principal, mostrando constantemente hashtags que se estaban volviendo rápidamente populares.

    Un par de meses después, Tumblr, fue el siguiente de los grandes sitios de redes sociales en comenzar a usar hashtags y los promocionó como «canales de etiquetas de Tumblr», ayudando a sus usuarios a filtrar las publicaciones etiquetadas en tiempo real.

    Dos años más tarde, en enero de 2011, Instagram también introdujo hashtags en su plataforma. Además, la red social hizo que cada hashtag tuviera su propia fuente RSS asociada, lo que hizo que suscribirse a nuevas fotos fuera increíblemente fácil.

    En octubre de 2011, Google+ introdujo la búsqueda en tiempo real y la compatibilidad con hashtags en toda la red social. Facebook decidió introducir hashtags en su plataforma en junio de 2013 y Youtube en junio de 2016, y posteriomente TikTok.

    Y ahora que sabemos su historia, ¿cómo podemos construir una estrategia de hashtags efectiva? Aquí unos consejos para ayudarlo para su implementación en el proceso de estrategia de marketing en redes sociales:

    – Primeramente, asegúrese de que tus cuentas sean públicas, de lo contrario, los no seguidores no verán el contenido etiquetado que escriba.
    – Mantenga las etiquetas al mínimo: el uso excesivo de hashtags hace que su contenido se sienta desenfocado. Use entre uno y cinco para cada publicación.
    – Hágalo breve: Elija hashtags más cortos sobre los más largos cuando sea posible. Es más fácil para los lectores escanear una etiqueta más corta.
    – Sea específico: No use etiquetas aleatorias para aparecer en más lugares si no están dirigidas a su público principal. De esta forma, logrará un mejor posicionamiento, porque muchas cuentas usan hashtags populares, aumentarán su alcance y al mismo tiempo se dirigirán a sus clientes ideales.
    – Reduzca su tema de enfoque tanto como sea posible con hashtags. Por ejemplo, si está patrocinando el maratón de New York, puede usar #NYMarathon para etiquetar su contenido en lugar de #Marathon.
    – Utilice mayúsculas: use mayúsculas al comienzo de cada palabra nueva para que su significado sea claro para los lectores y navegadores. Es más fácil entender #HouseoftheDragon rápidamente en lugar de #houseofthedragon.
    – Deshágase de la puntuación o espacios: los signos de puntuación como puntos y apóstrofes rompen el hashtag. Elimínelos, incluso cuando sean gramaticalmente correctos, para mantener todo en una sola etiqueta.
    – No encadene demasiadas palabras juntas. Los mejores hashtags tienden a ser relativamente cortos y fáciles de recordar.
    – Marque ud mismo: cree hashtags de marca usando el nombre de su empresa, el eslogan o el nombre del producto. Esto lo ayuda a escuchar en las redes sociales y seguir las conversaciones sobre su marca en línea.

  • Inflación global: cerrar los Bancos Centrales?

    No sé si Milei tiene razón en cuanto a la oportunidad y el método, pero definitivamente los bancos centrales son como un cáncer al que debería ponérseles fin.

    El petróleo se ha desplomado un 20% desde su máximo de junio, situándose en un mercado bajista, mientras que el oro perdió un 8% en el segundo trimestre, lo que supone su peor trimestre en cinco. Aunque varios factores macroeconómicos y relacionados con la demanda son importantes para los descensos, el máximo de dos décadas del dólar es sin duda el factor más definitorio.

    El billete verde no ha dejado de avanzar logrando la paridad con el euro por primera vez en 20 años y parece no tener techo a pesar de la subida récord del IPC y menos ahora que, por segunda vez consecutiva, la Fed decidió subir en otros 75 puntos base a las tasas de interés de referencia, en línea con su tendencia restrictiva o hawkish “para controlar la inflación” histórica de 9,1% en EE.UU.

    Por supuesto, como buenos burócratas que jamás reconocen la propia culpa ni lo destructivo de sus acciones, la Fed nada dice de la astronómica emisión y culpan a «la pandemia, el aumento de los alimentos y la energía y las presiones generales sobre los precios. La guerra de Rusia contra Ucrania”. No tienen vergüenza ni remordimiento alguno sabiendo que “en última instancia, la Fed quiere una desaceleración económica significativa para frenar la inflación, y un dólar más fuerte es parte de ese coctel». O sea, no les importa empobrecer sus ciudadanos con la inflación y, encima, castigarlos con una desaceleración de la economía.

    La subida del 16% del dólar en el último año -y el 6% de ganancia sólo desde finales de mayo- es «lo más extremo que se puede hacer, históricamente hablando» según muchos analistas. La última vez que el índice dólar (DXY) superó los 112 fue en mayo de 2002. El billete verde también ha despertado el interés de los inversionistas. En primer lugar, el halo de refugio que rodea ahora al dólar. Sí, el oro puede ser lo que típicamente viene a la mente cuando se habla de la necesidad de protegerse contra la inflación pero, insólitamente, el dólar ha superado al oro, arrebatándole la corona de refugio.

    Gráfico diario del oro, de skcharting.com con datos de Investing.com

    Ahora, por qué ocurre esto, no se supone que el oro es el refugio por excelencia frente a la inflación. Empecemos por aclarar que el dólar se fortalece frente a las otras monedas porque, a pesar de que EE.UU. se encamina a una recesión ya que el PIB se contrajo 1,6% en el primer trimestre y si las lecturas del segundo trimestre también fueran negativas el país ya estaría en recesión, aun así, seguiría estando mejor que Europa debido al desastre que trajeron las cuarentenas y las actuales sanciones a Rusia.

    Si hasta México tiene menos inflación que su vecino norteño y más de uno, cerca de las fronteras con Argentina, ahorra en paraguayos y bolivianos antes que en pesos argentinos o dólares.

    Suba del IPC mexicano comparado con el de EE.UU.

    Volviendo al tema, los bancos centrales han logrado inflacionar hasta el mismísimo oro -que para ellos es como la luz para los vampiros- y por ello no aumenta.

    Peter Hambro, una de las mayores autoridades mundiales en el mercado del oro, ha descrito detalladamente algo que es público y notorio pero pocos comentan. El detonante de estos comentarios fue el siguiente gráfico de la Oficina del Contralor de la Moneda (OCC) de EE.UU. que, debido a una reclasificación de datos que comenzó en el primer trimestre de 2022, ahora muestra la enorme medida en que los bancos de lingotes como JP Morgan han acumulado contratos de derivados de metales preciosos para mantener bajo el precio del oro.

    En este gráfico pueden verse los aumentos interanuales de los derivados de metales preciosos en bancos comerciales de EE.UU. hasta el 31 de marzo de 2022. O sea, lo que están haciendo es aplastar el precio del oro físico mediante la producción alquímica de ‘oro de papel’ con “la ayuda de los mercados de futuros y la connivencia de los alquimistas, los comerciantes de lingotes”, según describe Hambro.

    Lograron crear una percepción inquebrantable de que las onzas de oro que se acreditan en una cuenta con un banco o un distribuidor de lingotes eran los mismos que los reales. ¡Y mucho más fácil! No tienes que almacenarlo ni asegurarlo”. Ahora, esta inflación del oro por parte de la banca privada jamás hubiera sido posible sin el reaseguro de los bancos centrales y las directivas de BIS (el Banco Internacional de Pagos de Basilea, el “central de los centrales”).

    Explica Hambro que “para hacer que el oro papel exagerado pareciera aún más seguro, el Banco de Inglaterra esta dispuesto a prestar oro físico a los Miembros del Mercado del Oro de Londres, en caso de que las cosas se pongan complicadas y las bóvedas estuvieran vacías”. En 1987, el central de Inglaterra instruyó a los bancos de lingotes para que formalizaran su cartel, lo que se hizo mediante el lanzamiento de la London Bullion Market Association (LBMA). Así, hoy el Banco de Inglaterra y la LBMA están entrelazados simbióticamente a través del mercado de préstamos de oro en el que los bancos centrales prestan oro físico.

    Por cierto, este esquema global de ‘oro de papel’ tiene una oferta ilimitada ya que, como dice Hambro, los gobiernos y los bancos centrales y el BIS «pueden imprimir hasta el infinito» total que después coactivamente imponen sus caprichos sobre el mercado. De momento, el único peligro para este esquema de falsificación de oro, es que grandes tenedores de lingotes como Vladimir Putin y Xi Jinping, decidan romper el juego.

    Por si acaso, para que no queden dudas de que los “valores tradicionales” no solo no han bajado de precio sino que han aumentado en relación al IPC-como debería haber ocurrido con el oro- les dejo esta tabla, el índice global de precios de la vivienda de Knight Frank, para el primer trimestre del 2022:

  • Qué es y qué no es inteligencia artificial

    En los últimos años el término inteligencia artificial y todo lo que tiene que ver con ello está adquiriendo un gran protagonismo y sobredimensionamiento. La expresión inteligencia artificial está siendo abusada y utilizada de forma básicamente incorrecta diariamente y en múltiples ámbitos cotidianos, desde el político al empresarial.

    ¿Existen realmente máquinas inteligentes, similares a las personas? Si respondemos a esta pregunta con cierto rigor, desde las bases de las ciencias fundamentales que soportan los pilares de este área –matemáticas y física–, la respuesta es que no. Y muchos científicos conjeturan y argumentan seriamente que probablemente nunca existirán.

    Computar no es lo mismo que pensar

    Fotografía de Alan Turing sentado en una silla.
    Alan Turing.
    Alan Turing diseñó el bombe, un dispositivo empleado por Reino Unido para descodificar los mensajes cifrados por la máquina alemana Enigma durante la Segunda Guerra Mundial.

    Partamos de las áreas de conocimiento adyacentes a las matemáticas y la física que se expandieron desde los años 30 y 40 del siglo XX, como la ciencia de la computación, la electrónica, la automática o el propio área de inteligencia artificial.

    En el año 1937 vieron la luz dos publicaciones científicas de enorme importancia: la primera, Sobre los números computables, con una aplicación al Entscheidungsproblem del matemático Alan Turing, y la segunda, Análisis simbólico de relés y circuitos de conmutación, del matemático e ingeniero electrónico Claude Shannon. Estos trabajos fundaron la forma inicial de crear máquinas electrónicas capaces de computar, manejar información y manipular símbolos mediante programación algorítmica.

    Sin embargo, la inteligencia artificial, entendida como aquella que pretende replicar capacidades intelectuales similares a animales o personas (llamada inteligencia general o inteligencia fuerte) no se ha demostrado en absoluto. Esto es: no hay evidencia ni matemática, ni física, ni se conoce la existencia de ningún prototipo equivalente a las capacidades pensantes de un cerebro humano.

    Decisión vs. elección

    En 1966 el matemático y profesor de Ciencias de la Computación en el Instituto Tecnológico de Massachusetts (MIT) Joseph Weizenbaum creó en su laboratorio un programa llamado ELIZA capaz de realizar procesamiento de lenguaje natural.

    Joseph Weizenbaum, creador de ELIZA.
    Ulrich Hansen / Wikimedia Commons, CC BY-SA
    Pantalla negra donde aparece una conversación escrita en inglés con el chatbot ELIZA.
    Ejemplo de conversación con ELIZA.

    Esta sencilla herramienta reconocía palabras clave en las frases del usuario para elegir una frase modelo de su base de datos con la que contestar.

    ELIZA era capaz de entablar una conversación con seres humanos simulando a una psicóloga empática. Weizenbaum modeló su estilo de conversación como preguntas abiertas para animar a los pacientes a comunicarse más eficazmente con la terapeuta, y le sorprendió que su programa fuera tomado en serio por muchos usuarios.

    A la vista de que gran número de admiradores consideraron el programa como verdadero precursor de las máquinas pensantes, el propio autor se vio obligado a dejar claro que consideraba esta interpretación totalmente errónea e intentó vehementemente corregir en sus intervenciones posteriores estas ideas.

    Entre otros muchos escritos, Weizenbaum publicó en 1976 el libro El poder informático y la razón humana: del juicio al cálculo. Con él trataba de explicar al público en general su trabajo y sus consecuencias desde la filosofía de la ciencia, sin incluir turbadoras fórmulas matemáticas en el texto.

    En el libro, el autor distingue entre las capacidades de los computadores y el razonamiento humano, y establece una distinción crucial entre decidir y elegir. Lo mismo que en la automática la decisión y control de un proceso industrial se implementa con un circuito o un computador como controlador programado de dicho proceso, Weizenbaum explica que decidir es una actividad computacional, algo que en última instancia puede programarse y, sin embargo, la elección es el producto del juicio, no del cálculo.

    El papel de la mecánica cuántica

    En 1989, el físico, matemático y Premio Nobel en el año 2020 Roger Penrose publicó su influyente libro La nueva mente del emperador en el que demuestra que el pensamiento humano no es básicamente algorítmico.

    Retrato de Roger Penrose.
    Roger Penrose.
    Festival della Scienza / Cirone Musi / Flickr, CC BY-SA

    A caballo entre las matemáticas, la filosofía de la ciencia y la física, el texto incorpora tanto demostraciones matemáticas como ilustradas discusiones de los famosos exámenes de inteligencia (como el test de Turing y el experimento de la habitación china). Además conjetura la posible necesidad de las leyes de la mecánica cuántica para poder explicar correctamente nuestras mentes.

    La obra fue devastadora para la tradicional inteligencia artificial fuerte. Inspiró contestaciones de múltiples autores en diversas áreas de conocimiento, pero sus tesis no pudieron ser refutadas convincentemente.

    Penrose avanzó aún más en sus ideas con el segundo de sus libros sobre la conciencia humana, publicado en 1994: Las sombras de la mente. En él incluye una propuesta detallada sobre cómo podrían implementarse esos procesos cuánticos en el cerebro.

    Las nuevas conjeturas, en colaboración con la biología y la neurociencia médica sugeridas por Penrose, incluyen en particular el citoesqueleto de las neuronas. En concreto los microtúbulos, importantes componentes del citoesqueleto, son lugares plausibles para el procesamiento cuántico y, en última instancia, para la conciencia.

    Estas ideas pueden perfectamente ser incorrectas, tal y como el propio Penrose argumenta. Muchos investigadores multidisciplinares en estos campos intentaron refutar parte de estas propuestas, pero actualmente siguen en vigor.

    Sin inteligencia artificial a la vista

    Desde un punto de vista global, sabemos que se han estudiado múltiples enfoques desde hace décadas para tratar de expandir la inteligencia artificial. Las redes neuronales, los sistemas expertos, la lógica fuzzy y en los últimos tiempos el deep learning y el big data han dado lugar a útiles herramientas para resolver problemas con fines específicos.

    Estas herramientas pueden ser impresionantes, pero debemos tener muy claro que no nos hemos acercado al desarrollo de la inteligencia artificial general. La llamada inteligencia débil (o inteligencia estrecha) corresponde con las aplicaciones que hoy tenemos, pero las afirmaciones exageradas sobre sus éxitos, de hecho, dañan la reputación de la inteligencia artificial como ciencia.

    En más de ochenta años de investigación en este área no se ha producido ninguna prueba firme de niveles humanos de inteligencia artificial general. Sabemos que los circuitos artificiales son incapaces de modelar los sistemas nerviosos incluso de los invertebrados más simples. Aún con computadores muy rápidos y con enormes bases de datos, confiar en que el razonamiento, la inteligencia y la conciencia surjan de alguna manera simplemente aumentando más y más la complejidad no parece más que un camino sin salida.

    Las herramientas informáticas son muy útiles, pero aunque una máquina gane a los ajedrecistas profesionales o sea capaz de proponer un recurso legal buscando jurisprudencia en su gran base de datos, no es una máquina pensante. Es importante no banalizar, diferenciar entre herramientas tecnológicas y entes inteligentes, así como dejar a la ciencia seguir trabajando con rigor en esta apasionante materia.The Conversation

    Victor Etxebarria Ecenarro, Catedrático, Universidad del País Vasco / Euskal Herriko Unibertsitatea

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Instituciones y pragmatismo: atención al gato.

    Las discusiones que se están generando estos días «son pragmáticas» me dice un analista, casi despreciando en su respuesta al planteamiento de las ideas; es decir, se plantea lo que se quiere y se deciden herramientas para obtenerlo. El problema con ésto es que siguen sin atenderse a las instituciones violentadas que generan estos pésimos resultados que padece la población en su conjunto. Entre oligopolios, privilegios, precios, inflación, corrupción y educación pasan desapercibidos los diseños que han dado origen a tal situación. Y si no se presta atención a las causas generadoras de la enfermedad, mal diagnóstico y peores resultados. Como los que estamos viendo.

    El problema es de diseño institucional y ello requiere mucho más que una mesa: por empezar, una República descansa sobre tres poderes y ellos deben o deberían ser entre sí un freno y contrapeso, por lo que a malas leyes violentadoras de los principios fundamentales, el Poder Judicial debería declararlas inconstitucionales; lo mismo debería hacer la Asamblea frenando al Ejecutivo ante extralimitaciones del poder y el Ejecutivo debería poder administrar la cosa pública sin demasiada intervención en los asuntos privados, que para ello está la sociedad que produce.

    Entonces, qué hacer?

    Ante todo, discutir los problemas donde reside el poder, que hasta donde rige la Constitución hoy día, es la Asamblea. A quien legitime otra situación, sería bueno refrescar lo que hiciera Fujimori en Perú en 1992, cuando disolvió la Asamblea y dicha medida fue aplaudida por el 80 % de la población, respaldándose así en una suerte de «legitimidad social» que tanto gusta al populismo. Pregúntense cómo terminó Fujimori y cómo transcurren sus días hoy. El apoyo de las masas cambia tan rápidamente como sus pretensiones e intereses;  y justamente para ello están las instituciones y su importancia.

    Pero atención, cuando hablamos de instituciones no nos referimos a edificios de ladrillos u oficinas gubernamentales. Las instituciones son los mecanismos que limitan al poder: división de poderes, el «rule of law», independencia judicial, libertad de prensa que funcionando, se limitan a garantizar el ejercicio de los derechos individuales (vida, libertad, propiedad) y miden con la misma vara al conjunto de la sociedad. A ello nos referimos con la igualdad de todos ante la ley.

    Por lo tanto, si un grupo de personas decide e impone reglas que deberá afrontar un grupo de la población para satisfacer al grupo que decide en forma circunstancial, estamos de facto violentando las instituciones y ello nos convierte en un grupo tribal, una sociedad cerrada y oscura como denominaba Karl Popper a este tipo de sociedades cavernarias. La aspiración debe ser a una Sociedad Abierta, donde la libertad y la propiedad sean los rectores de una sociedad de individuos que en el mercado realizan permanentemente acuerdos libres y voluntarios entre sí.

    Cómo hacerlo?

    El primer paso es no sonreír y pensar que ésto es academia, que «esto es en los papeles, pero que la realidad es otra». Son las ideas las que mueven el mundo, son el faro que ilumina el camino. No hay caminos medios: o se está con la libertad o se está contra ella. Aún cuando pequeñas intervenciones aparentemente sin importancia se imponen, se deben desestimar. A nadie parecía importarle mucho el control de precios hasta que le tocó; a nadie parecía importarle mucho los subsidios hasta que le tocó pagarlos; a nadie parecía importarle mucho la educación estatal hasta que le tocó padecerla; a nadie le importó mucho que el gobierno cerrara toda acción humana, hasta que le tocó sufrir sus consecuencias; a nadie le importó mucho el sistema de gestión estatal de salud y pensiones hasta que lo sufrió y así podrían enumerarse casi todas las actividades que deberían manejarse en el ámbito privado y el gobierno lo hace público. Y la lista es enorme y continúa.

    Sin embargo, con todo a la vista, se siguen cometiendo los mismos errores una y otra vez. Se debe terminar de una buena vez por todas con la idea del pragmatismo;  las políticas se deben decidir en razón de las ideas. Si no se tiene clara la Visión, nos puede pasar lo que a Alicia, la del país de las maravillas del famoso cuento de Lewis Carroll, cuando le pregunta al gato de Cheshire en un cierto punto qué camino debía tomar. Cheshire le contesta: “Eso depende mucho del lugar adonde quieras ir. Si no sabes adónde quieres ir, no importa qué camino sigas”.

  • Educación en libertad: el potenciador de la persona como centro del progreso

    La gobernanza en la educación no puede ser distante, ni centralizada.

    Cuando tratamos de conectar los conceptos de progreso económico y social con la persona como centro y protagonista de ese proceso, observamos que diversos conceptos se hacen presentes inmediatamente:

    •  En primer lugar la idea que el desarrollo dinámico y vigoroso de Panamá sólo puede pensarse en un esquema de integración al mundo que implica un desafío de productividad y competitividad claro. La autarquía es impensable.
    • Para poder competir es imprescindible incorporar tecnología y contar con gente en las empresas y en la sociedad preparadas para poder elegir la tecnología adecuada y poder usarla.
    •  Para contar con esta capacitación en la población, es imprescindible que la educación desde los primeros años de formación sea la adecuada.
    •  Por otra parte, se tiene la percepción de que la educación en Panamá no es de la calidad que se espera o exigen los nuevos desafíos.
    • Por último se suma la necesidad de reducir los niveles de pobreza y mejorar las tasas de capitalización para generar riqueza, traducido en más y mejores empleos para todos.

    Esta enumeración plantea varios desafíos a la sociedad panameña y sus responsables de política en particular. La respuesta a tales desafíos viene de la mano de marcos institucionales adecuados, en los cuales la educación definitivamente contribuye a lograr procesos de crecimiento económico y social, con mejores niveles de equidad (que no igualdad), y más estables en el mediano plazo. Tanto que puede afirmarse que la educación apoyada en la libertad de enseñanza es el basamento esencial del progreso y la riqueza y que los pueblos con poca educación están destinados a la miseria y el fracaso.

    El capital humano de un país se define básicamente por el nivel de educación acumulado en su población a través del tiempo. Diversas investigaciones muestran la relación que existe entre educación y desarrollo económico y social de los países, de tal manera que el conocimiento incorporado en las personas se convierte en un insumo estratégico para quienes gustan hablar de la competitivdad del país.

    Vistos estos fenómenos, resulta crucial entonces no sólo preocuparse por el acumulado de educación en la población sino también su distribución y junto con ésto no cualquier formación sino aquélla de calidad proporcionada desde los primeros años de escolaridad.

    Sin embargo, parecería por todas las discusiones públicas que se han venido sosteniendo por años, que el problema se reduce a qué porcentaje del PIB se invierte en el renglón contable de la Administración Pública. Aparentemente el 6 % sería el número mesurable a partir del cual la educación debería brillar. Cabe notar que para el año 2009, Panamá sí alcanzaba dicho ansiado porcentaje.

    La realidad es que el hecho de asignar contribuciones financieras importantes para educación, es una condición necesaria pero no suficiente para resolver los problemas existentes. Y la sociedad lo intuye. En efecto, dichos problemas o bien persisten o se superan con un ritmo demasiado lento. El país enfrenta la situación siguiente:

    • Baja calidad del servicio ofrecido desde los primeros años de la enseñanza. Calidad se define como conocimientos adquiridos en cada etapa de formación. Son menores que los previstos.
    • Acceso no universal a la educación media y fracaso en el intento por permanecer aún en el primario hasta cumplir con los años de escolaridad previstos como obligatorios. Alto nivel de fracaso escolar: repitencia y abandono temprano.
    • Fracaso elevado en el intento de ingresar a los estudios superiores universitarios y fracaso en el intento de permanencia y graduación.
    • Incluso estos dos puntos pueden verse como falta de calidad en la educación por cuanto el fracaso responde a las limitaciones de formación en la etapa previa de tal modo que impide abordar las exigencias que se presentan en los niveles superiores de la educación. La educación es acumulativa.
    • Los fracasos se concentran entre la población más pobre por diferentes razones entre las que podemos mencionar la urgencia por incorporarse al trabajo en edades tempranas e imposibilidad que tienen las familias de ofrecer ayudas especiales a los hijos ante la evidencia de dificultades particulares de aprendizaje.

    Entonces, qué hacer?

    En primer lugar se requiere definir políticas públicas que den las señales correctas o proporcionen los incentivos apropiados para que el sistema educativo en sí mismo funcione con mecanismos permanentes de superación de las falencias y las limitaciones.

    La experiencia internacional indica que aún cuando muchos de los países muestran índices de calidad y rendimiento mejores que los que observamos en nuestros países, no por ello abandonan su aspiración de mejora. Por esta razón encaran reformas o están en curso de implementarlas, tendiendo, en todos los casos, a introducir reglas de comportamiento, tanto para las instituciones como para los estudiantes, que los conduzca a hacerse responsables de los logros educativos, buenos o malos, que obtienen. Puede decirse que tratan de introducir mecanismos de competencia entre instituciones, reconociendo tácitamente que es una herramienta sumamente apropiada para lograr mejoras. Estas políticas pueden resumirse en las siguientes:

    Gestión y control del sistema:

    •  Todo aquello que está sucediendo en el sistema educativo, en particular el proceso de enseñanza-aprendizaje debe ser controlado y auditado rigurosamente y con precisión. Evaluación de la calidad de los resultados realizada externamente al sistema y con publicación de sus resultados, sólo así los padres, alumnos y la sociedad tienen la información adecuada para demandar apropiadamente por un servicio como el país reclama.
    • Un segundo instrumento es el financiamiento de las instituciones educativas públicas. En este sentido se observan cambios sustanciales en los países cuyos sistemas educativos funcionan bien. El concepto de gratuidad necesita ser desarrollado a efectos de considerar que el financiamiento educativo debe ser proporcional a las necesidades de las personas, superando los esquemas de financiamiento igualitario en pro de sistemas equitativos.
    • Los recursos se otorgan en función del logro de objetivos educacionales cuantificables, o del número de alumnos que cada escuela logra captar, voucher o cheque educativo, el que puede diseñarse de manera tan completa como para permitir diferenciaciones sobre la base de atender el nivel socio-económico de los alumnos, premiar la obtención de buenos resultados absolutos y hasta premiar el progreso en la obtención de saberes.
    • Como puede observarse los mecanismos, tanto de control del sistema como de financiamiento mencionados, conducen a que la responsabilidad de los directivos de las instituciones educativas se evidencia con toda claridad. Por consiguiente, para que puedan asumir cabalmente esta responsabilidad es necesario que cuenten con la autonomía necesaria para gestionar las instituciones que dirigen, particularmente en lo que respecta a la gestión del personal docente y reglas bajo las cuales funcionará la institución.
    • La diversidad está presente en todas las escuelas y aulas, sin embargo se sigue enseñando como si todos los alumnos fuesen iguales, esto explica muchas dificultades de aprendizaje y participación que afectan mayormente a las poblaciones cuyo capital cultural es diferente al predominante en las escuelas. La adaptabilidad de la enseñanza puede ser favorecida mediante procesos que conduzcan a la autonomía de las escuelas, distritos, provincias y regiones para diversificar y enriquecer el currículo y para la construcción de proyectos educativos pertinentes a su realidad.

    Cómo hacerlo? Educación y subsidiariedad

    Al hablar de la provisión pública de educación, una de las primeras cuestiones por definir, si no la primera, es en qué nivel de gobierno debe llevarse la administración de los colegios. Por ello, el tema de la descentralización es ineludible en el debate educativo, pero también es ineludible, y aún más importante, entender cómo el principio de subsidiariedad debe definir las responsabilidades en la provisión de una educación de calidad.

    Entendemos por subsidiariedad en la gobernanza que aquellos temas que afectan y pueden resolverse en un nivel inferior de gobierno, no sean gestionados por un nivel superior, así por ejemplo, que los problemas que sólo afectan a los municipios sean responsabilidad de cada municipio y no del gobierno central.

    En la educación también surge la interrogante sobre qué nivel de gobierno debe gestionar el tema. Sin duda alguna, la educación es un tema nacional, pero en tanto al acceso y provisión de servicios educativos, es ante todo un tema comunitario, familiar e individual. Esto quiere decir, que el cómo y el qué se enseña, si se quiere una educación de calidad que ataje lo que de ella requieren las personas, debe contar con la participación y control de los padres, primeros responsables en el proceso educativo.

    La gobernanza en la educación no puede ser distante, ni centralizada. El presidente y el ministro de la cartera no pueden saber qué desean los padres de cada una de las comunidades del país para la educación de sus hijos, porque sencillamente no pueden recibir regularmente la retroalimentación de éstos. Si hay un nivel de gobierno que por proximidad puede recoger e incorporar la opinión de los padres –que a fin de cuentas representan a los consumidores del sistema, en tanto acudientes de los estudiantes– es el del gobierno local.

    Las reformas al sistema educativo que sugerimos representan un reto de gobernanza para los gobiernos locales, que deben asumir nuevas responsabilidades en la gestión de nuestra enseñanza pública. Es entonces la subsidiariedad en la gobernanza el gran reto político para el futuro de la educación en Panamá.

    Actualización del estudio del año 2009: LA PERSONA COMO GENERADORA DE RIQUEZA. Análisis y caracterización del sistema educativo panameño. Estudio realizado bajo la dirección de María Echart , con la colaboración de Ramón Barreiro, Irene Giménez y la asistencia de Omar Sanabria para la firma Goethals Consulting.

  • Satélites Starlink de Elon Musk hackeados por dispositivo casero de $25

    Con más de 3000 pequeños satélites en órbita, y desde hace 2 meses con presencia en Panamá, Starlink, la constelación de Internet satelital operada por SpaceX de Elon Musk, ha creado una excelente flota que actualmente orbita la Tierra, proporcionando cobertura de acceso a Internet por satélite en 36 países y que ya ha atraído a más de 500.000 suscriptores.

    Desde 2018, Starlink se ha establecido lentamente en la industria y se ha convertido, por ejemplo, en una herramienta vital para mantener conectados a los ucranianos durante la invasión rusa. Según Musk en mayo, Starlink ha frustrado hasta ahora todos los ataques cibernéticos provenientes de Rusia.

    Sin embargo, un investigador de seguridad cibernética belga ha encontrado una manera de piratear los platos debido a varias vulnerabilidades de hardware. Si se deja expuesto, esto daría rienda suelta a los actores de amenazas para acceder al sistema de Starlink y luego ejecutar un código personalizado en los dispositivos de la red.

    El jueves pasado en la conferencia de seguridad Black Hat en Las Vegas, este investigador, Lennert Wouters, mostró cómo pirateó el sistema de Internet Starlink usando una placa de circuito casera o un modchip, donde las piezas generales necesarias para el dispositivo cuestan solo $25.

    Para lograrlo, Wouters procedió a desmontar la antena parabólica, lo que le permitió conectar el modchip personalizado usando esas piezas baratas disponibles en el mercado. Una vez conectada, la placa de circuito impreso (PCB) hecha en casa es capaz de cortocircuitar el sistema, aunque sea temporalmente, a través de un ataque de inyección de fallas. Este método o falla, permite el acceso a las funciones de control que Starlink tenía la intención de mantener bloqueadas.

    Después de revelar el truco en su presentación, Wouters lanzó la herramienta en GitHub, que ofrece un desglose de cómo realizar el ataque en sí.
    «Como atacante, digamos que quisieras atacar el propio satélite», explicó Wouters, «podrías intentar construir tu propio sistema que te permita hablar con el satélite, pero eso es bastante difícil. Entonces, si quieres atacar los satélites, le gustaría pasar a través de la terminal de usuario, ya que probablemente le haga la vida más fácil».

    Starlink se dio cuenta de los defectos de seguridad el año pasado por el propio Wouters, e incluso pagó al investigador por sus esfuerzos a través de su esquema de recompensas por errores. Starlink, en respuesta al escaparate de Wouters, publicó un PDF de 6 páginas que explica cómo protege sus sistemas junto con una actualización de firmware que «hace que el ataque sea más difícil, pero no imposible, de ejecutar».

    Aunque la empresa matriz SpaceX reparó las vulnerabilidades en ese momento, lo que llevó a Wouters a modificar el modchip, parece que el problema central no se puede resolver sin que se produzca un nuevo modelo del chip principal. Como tal, afirmó que todos los terminales de usuario asociados con Starlink están actualmente expuestos.

    Starlink confirmó que se estaba trabajando en una actualización pública, pero Wouters enfatizó que la naturaleza de las operaciones de la compañía las expone de cualquier manera. “La amplia disponibilidad de terminales de usuario Starlink (UT) los expone a los piratas informáticos y abre la puerta para que un atacante explore libremente la red”, dijo.

    Wouters también tiene experiencia en piratear otro producto de una empresa de Elon Musk: creó un hardware que puede desbloquear un vehículo eléctrico Tesla en solo 90 segundos.

  • Bitcoin y surf disparan el turismo en El Salvador

    El Salvador ha sido muy criticado por su adopción de Bitcoin, en especial por muchos organismos internacionales como el Banco Mundial y el Fondo Monetario Internacional. Sin embargo, las autoridades del país siguen defendiendo su decisión de hacer de Bitcoin la moneda de curso legal en el país. Incluso, aunque con los precios actuales, lo comprado por El Salvador haya producido pérdidas para el país, si se analiza al muy corto plazo. Y atribuyen al mismo parte de su éxito con el turismo.

    El presidente Nayib Bukele es, sin duda, el principal promotor de la adopción de la criptomoneda. Ha seguido comprando y ha dicho que el precio subirá y que hay que tener calma. Ahora, además, el mandatario ha expresado en Twitter que sin duda Bitcoin es uno de los factores para que El Salvador haya sido uno de los 15 países cuyo turismo internacional aumentó este año hasta lograr niveles previos a la pandemia.

    Solo un puñado de países ha podido recuperar su turismo a los niveles previos a la pandemia.

    Y eso es turismo internacional, por lo que las razones detrás de esto son principalmente #Bitcoin y surf 

    Pero el turismo interno está creciendo aún más, principalmente debido a nuestra represión de las pandillas.

    El Salvador y el turismo

    Según la Organización Mundial del Turismo, El Salvador es el 13º país  a nivel mundial con mejor rendimiento en términos de ingresos generados por el turismo. Sería el único país latinoamericano, junto a México, en lograr aumentar los ingresos del turismo post-pandemia. Aquí está el gráfico que acompaña el dato:

    turismo

    En enero-mayo de 2022, las ganancias del turismo internacional volvieron a subir a los niveles previos a la pandemia en varios destinos pequeños en Europa, América y África comunicó en Twitter la Organización Mundial del Turismo días pasados.

    Según el último Barómetro OMT del Turismo Mundial, el turismo internacional experimentó un fuerte repunte en los primeros cinco meses de 2022, con casi 250 millones de llegadas internacionales registradas. Esto se compara con 77 millones de llegadas de enero a mayo de 2021 y significa que el sector ha recuperado casi la mitad (46%) de los niveles previos a la pandemia de 2019.

    “La recuperación del turismo se ha acelerado en muchas partes del mundo, superando los desafíos que se interponen en su camino”, dijo el Secretario General de la OMT, Zurab Pololikashvili. Al mismo tiempo, también recomienda precaución en vista de los “vientos económicos en contra y los desafíos geopolíticos que podrían afectar al sector en lo que resta de 2022 y más allá”.

    Europa y América lideran la recuperación

    Europa recibió más de cuatro veces más llegadas internacionales que en los primeros cinco meses de 2021 (+350%), impulsada por una fuerte demanda intrarregional y la eliminación de todas las restricciones de viaje en un número creciente de países. La región experimentó un desempeño particularmente sólido en abril (+458 %), lo que refleja un período de Semana Santa ajetreado. En las Américas, las llegadas se duplicaron con creces (+112%). Sin embargo, el fuerte repunte se mide frente a los débiles resultados en 2021 y las llegadas se mantienen en general un 36 % y un 40 % por debajo de los niveles de 2019 en ambas regiones, respectivamente.

    En cuanto a las subregiones, varias se han recuperado entre el 70 % y el 80 % de sus niveles previos a la pandemia, encabezadas por el Caribe y América Central, seguidas por el sur del Mediterráneo, el oeste y el norte de Europa. Es de destacar que algunos destinos superaron los niveles de 2019, incluidas las Islas Vírgenes de EE. UU., St. Maarten, la República de Moldavia, Albania, Honduras y Puerto Rico.

    El gasto turístico también aumenta

    El aumento del gasto turístico fuera de los principales mercados emisores es consistente con la recuperación observada. El gasto internacional de turistas de Francia, Alemania, Italia y Estados Unidos se encuentra ahora entre el 70% y el 85% de los niveles previos a la pandemia, mientras que el gasto de India, Arabia Saudita y Qatar ya superó los niveles de 2019.

    En términos de ingresos por turismo internacional obtenidos en destinos, un número creciente de países – República de Moldavia, Serbia, Seychelles, Rumania, Macedonia del Norte, Santa Lucía, Bosnia y Herzegovina, Albania, Pakistán, Sudán, Turquía, Bangladesh, El Salvador, México, Croacia y Portugal- han recuperado por completo sus niveles previos a la pandemia.

    La pregunta obligada es: ¿qué ha hecho El Salvador diferente al resto de los países vecinos para liderar esta tabla de recuperación total del turismo pre pandemia?.

  • David McCullough, autor de Un camino entre dos mares, in memoriam.

    David McCullough, uno de los historiadores más populares e influyentes de su época y una figura inmensa para Panamá, falleció el domingo pasado en Hingham, Massachusetts.

    McCullough, cuyo padre y abuelo fundaron la McCullough Electric Company, nació en Pittsburgh en 1933. Amaba la historia desde niño, y recordaba animadas conversaciones durante la cena, retratos de Washington y Lincoln que parecían colgar en cada hogar y la excursión al sitio donde Washington peleó una de sus primeras batallas. Estudió literatura inglesa en la Universidad de Yale y conoció al dramaturgo Thornton Wilder, quien lo animó a escribir.

    “David McCullough era un tesoro nacional. Sus libros hicieron vívida la historia para millones de personas. A través de sus biografías, ilustró dramáticamente las partes más ennoblecedoras del carácter estadounidense”, dijo el director general de Simon & Schuster, Jonathan Karp, en un comunicado.

    McCullough era uno de los historiadores más importantes de su generación y, además de por sus libros, su carrera se destacó por ejercer como presentador de televisión especializado en narrar los grandes eventos y las vidas de personajes históricos estadounidenses. McCullough recibió el Premio Nacional del Libro por “The Path Between the Seas” (1977), sobre la construcción del Canal de Panamá; y por “Mornings on Horseback” (1981), una biografía sobre Theodore Roosevelt. También ganó premios Pulitzer por “Truman” en 1992, y por “John Adams” en 2002.

    Su fascinación por la arquitectura y la construcción inspiró sus primeras obras sobre el Puente de Brooklyn y el ya mencionado Canal de Panamá,  mientras que su admiración por los líderes que creía que eran buenos hombres como Truman y Adams, cuyas reputaciones ayudó a enaltecer, lo volcaron a toda una serie de libros populares sobre la revolución estadounidense, incluyendo su propio “1776”. Cuando ya tenía más de 70 años, demostró su afecto por París con la publicación de “The Greater Journey” de 2011 y por la aviación con un éxito editorial sobre los hermanos Wright publicado en 2015.

    «Para muchas personas, las figuras, los personajes principales o protagonistas del drama de nuestros años fundacionales se perciben casi como personajes en un concurso de disfraces con el cabello empolvado y sus camisas con volantes y calzones de raso y todo lo demás», dijo McCullough a NPR’s Talk en una discusión de 2006 sobre la Guerra Revolucionaria. «Pero no eran nada de eso. Y no eran dioses, no eran sobrehumanos. Eran seres muy humanos. Y cada uno de ellos tenía sus defectos, sus fallas y sus errores».

    La celebración de McCullough del pasado de la nación también generó duras críticas de que su afecto se volvía con facilidad idealización. Su libro de 2019 “The Pioneers” fue criticado por minimizar las atrocidades cometidas contra los indígenas estadounidenses cuando los colonos del siglo XIX se trasladaron al oeste. En sus primeras obras, se le acusó de evitar las verdades más duras sobre Truman, Adams y otros y de anteponer la narración al análisis.

    Al ser entrevistado ese mismo año por The Associated Press, McCullough respondió a las críticas de que era demasiado complaciente diciendo que “algunas personas no solo quieren que sus líderes tengan pies de barro, sino que sean todos de barro”.

    McCullough también tenía una preocupación: la educación. Le preocupaba que los estadounidenses supieran tan poco de historia y no apreciaran los sacrificios de la época de la revolución. Habló a menudo en universidades y ante el Congreso, y una vez le dijo a un comité del Senado que “la historia se está poniendo en un segundo plano o se está retirando del centro por completo en muchas o la mayoría de las escuelas, a favor de las matemáticas y la lectura”.

    En 2006, recibió la Medalla Presidencial de la Libertad, considerada como la concesión civil más alta en los Estados Unidos. Los políticos estadounidenses solían decir que habían leído sus libros, especialmente sus biografías de Truman y Adams. Jimmy Carter citó “The Path Between the Seas” como un factor para negociar los tratados de 1977 que devolvieron el control del Canal de Panamá a Panamá, y políticos tanto demócratas como republicanos, citaron su libro durante el debate sobre el destino del Canal.

    Precisamente, el mencionado libro, que todo panameño debería leer en las escuelas, es una historia muy bien narrada, organizada en tres secciones: Libro primero: La visión (1870–1894), Libro segundo: Barras y estrellas para siempre (1890–1904), y Libro tercero: Los constructores (1904–1914). El autor, según el momento, se concentra en los aspectos político, económico, de infraestructuras, sanitario o social. Destaca a los protagonistas principales: a los promotores franceses, especialmente a Ferdinand de Lesseps y luego a Philippe Bunau-Varilla; finalmente a la etapa americana con los ingenieros al mando del canal: John Stevens y George Goethals, y al médico William Gorgas.

    A De Lesseps lo describe como un hombre muy peligroso porque luego de haber impulsado y terminado el canal de Suez, gozó, “como él mismo dijo en cierta ocasión, del “privilegio de ser creído sin necesidad de probar lo que se afirma”. Y tanto el autoengaño como al prójimo, contribuyó a la ruina de miles de familias.

    Las medidas sanitarias que se tomaron para erradicar las enfermedades e infecciones que atentaban contra el proyecto, fueron un logro de gran magnitud aunque, señala el autor, fue un éxito tan incuestionable como relativo: dependía del sector de la mano de obra del que se hablase porque, ya en la época norteamericana del canal, “sin duda, a los trabajadores blancos y a sus familias les iba muy bien; en cambio, para la inmensa mayoría negra, el cuadro era alarmante”. «Durante los primeros diez meses de 1906, la tasa real de mortalidad entre los empleados blancos fue de 17 por 1.000. Pero entre los indios occidentales negros fue de 59 por 1.000. Los trabajadores negros, los que se pensaba que eran idóneos para soportar el pernicioso clima, morían en una cantidad tres veces mayor que los trabajadores blancos. Panamá ya no era una tumba para los trabajadores blancos, pero seguía siendo casi tan mortal como antes para los trabajadores negros. Y puesto que los negros triplicaban a los blancos, la disparidad en el número de muertes entre los trabajadores negros resultaba todavía más impresionante».

    En cuanto a la obra, las grandes esclusas son una proeza de la ingeniería: hubo que diseñar, sin modelos previos, todos los mecanismos que las abrían y cerraban herméticamente, y luego fabricarlas en Pittsburg, donde funcionaban cincuenta fábricas para todo lo que necesitaba el canal. «Las grúas, los cables de transporte, las quebrantadoras y las mezcladoras de cemento funcionaban con electricidad. La energía motora del canal, todo su sistema nervioso, era la electricidad, y un canal todo eléctrico era algo enteramente nuevo bajo el sol e imposible solo diez años antes. El funcionamiento de las esclusas dependería nada menos que de 1.500 motores eléctricos. » También entonces, la General Electric, una empresa joven, obtuvo su primer gran contrato y preparó un sistema de control, semejante al de los ferrocarriles pero mucho más complejo, que nunca se había usado antes y que, medio siglo después, seguía en funcionamiento. «La única meta de todos los participantes era producir algo mejor, más seguro y fiable que todo lo hecho anteriormente.».

    Pero, a pesar de todos los logros, a pesar de que se puede decir que la generosidad de los Estados Unidos en muchos sentidos fue extraordinaria, indica el autor, comenzó entonces el gran resentimiento de América Latina hacia ellos, por haber favorecido el golpe de estado de un grupo de panameños contra Colombia y por haber incumplido los acuerdos firmados. También, las decisiones que provocaron grandes desplazamientos de poblaciones indígenas, y luego el comportamiento de la mayoría de los norteamericanos en la zona del Canal «los estadounidenses eran gritones, arrogantes, maleducados y bebedores», junto con la condescendencia de muchos hacia los nativos, se convirtieron en fuentes de resentimiento permanente.

    Por último, una consideración especial, que incluso determinó que uno de los socios de nuestra empresa, Goethals Consulting, adoptara el mismo en señal de reconocimiento a la excelencia. El autor explica cómo, entre los hombres clave para la construcción del Canal de Panamá, uno fue George Goethals, ingeniero civil y oficial del ejército norteamericano al frente de las obras desde 1907 hasta su apertura en 1913, y luego gobernador hasta 1916. Al final, al hacer balance de su trabajo y hacer notar su tenacidad, habilidad y valor, McCullough dice:

    “Asimismo, el hecho de que una obra tan enorme y costosa se llevara a cabo sin sobornos, comisiones encubiertas, nóminas engordadas ni ninguna de las muchas formas de corrupción endémicas en tales empresas parecía casi inconcebible al comienzo y no deja de ser menos notable visto en retrospectiva. Pero el canal, entre otras muchas cosas, era un proyecto limpio. Ninguna de las miles de empresas diferentes que negociaron con la Comisión del Canal del Istmo obtuvo ganancias exorbitantes. No hubo ni el más leve indicio de escándalo desde el momento en que Goethals obtuvo el mando, ni hay pruebas de corrupción de ningún tipo en todos los años sucesivos”.

    Un legado que Panamá debería mantener y honrar.

    McCullough , sobre su forma de trabajar, comentaba: «Me esfuerzo por escribir un libro que podría calificar como literatura. No quiero que solo sea legible. No quiero que solo sea interesante. Quiero que sea algo que conmueva al lector». Según contó él mismo en un corto documental para HBO titulado Painting With Words, pensaba en «escribir la historia como si fuera una obra de arte».

    La historia sobre la construcción del Canal de Panamá conmueve, el autor logró su cometido. Descanse en Paz, Mr. Mc Cullough.

  • ¿Puede la inteligencia artificial predecir la nota de un alumno sin necesidad de examen?

    Dado que tenemos un sistema que predice la nota que obtendrá un alumno en el examen con un margen de error razonable, ¿podemos utilizar la predicción como nota final, y nos olvidamos del examen?

    La inteligencia artificial y el análisis de datos tienen impacto en nuestras vidas a prácticamente todos los niveles. El contexto educativo no es una excepción. Así surge lo que llamamos Learning Analytics, una disciplina de investigación que trata de aplicar el análisis de datos para mejorar el proceso de enseñanza y aprendizaje.

    Entre otros muchos tipos de estudios, son varias las iniciativas de investigación que trabajan con algoritmos predictivos cada vez más sofisticados que buscan anticipar factores como el riesgo de abandono de un alumno o incluso la calificación que éste pudiera obtener.

    Programar para predecir

    Los primeros trabajos enfocados a la predicción de notas se basaban en la aplicación de una serie de reglas preestablecidas sobre un conjunto de hechos relativamente simple. Más recientemente, sin embargo, los trabajos propuestos analizan todo el registro de interacción de un alumno con su plataforma educativa y utilizan complejas redes neuronales para lograr esa predicción de nota. De hecho, se obtienen resultados realmente sorprendentes.

    Por ejemplo, en el trabajo presentado por Alonso-Misol et al. se compara el rendimiento de diferentes algoritmos, obteniendo una precisión del 96 % a la hora de predecir la nota de un examen. Eso quiere decir que, en 96 de cada 100 alumnos, el humano pone una nota muy cercana a la que el algoritmo dijo que iba a poner.

    Se trata de una disciplina relativamente reciente. Es de esperar que los resultados sean cada vez mejores por lo que en algún momento se podría plantear la siguiente pregunta: dado que tenemos un sistema que predice la nota que obtendrá un alumno en el examen con un margen de error razonable, ¿podemos utilizar la predicción como nota final, y nos olvidamos del examen?

    Un deseo utópico

    Suena tentador, los exámenes son la actividad más odiada por los alumnos. Tampoco gozan de gran simpatía entre el profesorado ya que la calificación es una tarea realmente costosa. A buen seguro, ambos colectivos aplaudirían el fin de los exámenes. Sin embargo, la realidad es bien diferente y es muy probable que la predicción, ahora exitosa, sólo produzca números sin sentido si el examen desaparece.

    En primer término, un cuaderno de notas en el pupitre de una clase en la que los alumnos escriben (probablemente un examen).
    No se pueden predecir los resultados de los exámenes sin exámenes previos de referencia.
    Yustinus Tjiuwanda / Unsplash

     

    Esto es así por el modo en el que funcionan los sistemas predictivos que se apoyan en técnicas de aprendizaje supervisado. En esencia, el principio de funcionamiento es el siguiente: se analizan datos del curso presente y se comparan con datos de cursos pasados. Si en cursos pasados existe un patrón de actividad que se pueda relacionar con la obtención de una determinada calificación, entonces se predecirá que los alumnos que en el presente curso tienen ese patrón tendrán esa calificación. Dicho de otra forma: es muy probable que un alumno obtenga una calificación similar a la que obtuvieron los alumnos que tuvieron una interacción con la plataforma similar a la suya.

    Así, los sistemas predictivos tendrán éxito en la medida en que el curso que está siendo analizado tenga un funcionamiento equivalente a ediciones previas del mismo curso.

    Para entender esto adecuadamente, imaginemos un curso de un mes en el que los alumnos tienen que entregar una actividad el viernes de cada semana. Habrá alumnos que sólo generen actividad el viernes, para realizar la entrega. Habrá otros alumnos que generarán actividad durante toda la semana, con más intensidad el viernes. Lo que parece que está claro es que será un patrón de actividad semanal.

    Imaginemos ahora que entra un nuevo profesor y decide que las actividades correspondientes a las cuatro semanas se entregan todas al final del mes. A buen seguro, el patrón de actividad de los alumnos cambiará e incluso habrá alumnos que no entren al curso hasta la última semana. Este cambio en la metodología docente hará que deje de tener sentido la comparativa entre el curso actual y los cursos previos. Como resultado, los sistemas predictivos perderán todo su potencial.

    Algo similar ocurriría al eliminar el examen. A pesar de que existen alumnos que tienen una fuerte motivación intrínseca para seguir adelante con su aprendizaje, la motivación extrínseca que impone un examen es el principal factor motivante para seguir con la actividad en el curso. Dicho de otra forma: sin examen, los alumnos trabajarían menos en el curso y con un patrón de trabajo muy diferente. Los sistemas predictivos, por tanto, perderían su valor.

    Otras posibilidades de evaluación

    Si queremos (quisiéramos) eliminar el examen, entonces debemos pensar en todo el catálogo de actividades alternativas descrito en este otro artículo. En cualquier caso, lo llamemos “examen”, “rúbrica”, “portfolio”, o de cualquier otra manera, la actividad de los alumnos está muy modulada por las fechas de entrega de las actividades que cuentan para la nota.

    El objetivo de los sistemas predictivos para la calificación de los alumnos es, principalmente, el de detectar alumnos en riesgo de abandono para ofrecerles un apoyo adecuado. También son útiles para anticipar los recursos que se vayan a necesitar. Entre los objetivos de los sistemas predictivos de calificación no está, sin embargo, la eliminación del examen final.The Conversation

    Luis de la Fuente Valentín, Profesor del Máster Universitario en Análisis y Visualización de Datos Masivos, UNIR – Universidad Internacional de La Rioja

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • ¿Te gustaría saber cómo ha evolucionado tu ciudad desde hace 750 millones hasta la actualidad? Este mapa interactivo te lo muestra.

    ¿Te has preguntado alguna vez cómo se vio tu ciudad hace millones de años? Todo lo que ha pasado en el territorio en el que creciste o en el que vives actualmente. Y no hablamos de la historia de la humanidad, sino de la formación geológica de la Tierra tal como la conocemos hoy. Pues bien, con este mapa interactivo llamado Ancient Earth, podrás conocer cómo se vio el mundo hace cientos de millones de años; una verdadera maquina del tiempo.

    Esta herramienta interactiva abarca casi toda la masa terrestre existente de la Tierra y retrocede en el tiempo para ver dónde estaba ubicada en tiempos como el del supercontiente pangea. El mapa cuenta con la división política de los países actuales, lo que permite ubicar dónde estaba cada nación en los distintos momentos, si es que existía. La herramienta ofrece 26 líneas de tiempo en las que los usuarios pueden ingresar una dirección, un punto de referencia o un estado o país, y luego elegir una fecha que va desde cero hasta hace 750 millones de años. También es posible no usar fechas y en su lugar seleccionar eventos cruciales de la historia de la Tierra, como los primeros vertebrados o cuándo surgió cierta flora y fauna.

    Este mapa interactivo ha sido creado por el ingeniero Ian Webster, formado en Google y la NASA, y responsable de que tengamos una de las bases de datos digitales sobre dinosaurios más completas y extensas hasta el momento. El proyecto lo ha realizado en conjunto con el paleontólogo Chrostopher R. Scotese, creador de Paleomap Projec t y experto en entender cómo se han ido moviendo las placas tectónicas a través de la historia.

    Nuestros siete continentes modernos se trazan contra la superficie cambiante del planeta. Con Ancient Earth, los usuarios pueden contextualizar la tierra en la que nos encontramos actualmente en términos geológicos, mientras aprenden sobre eventos emocionantes del pasado remoto, como la aparición de los arrecifes de coral (hace 470 millones de años), los primeros insectos (hace 400 millones de años), la formación del supercontinente Pangea en el Período Triásico Inferior (hace 240 millones de años), y la extinción de los dinosaurios en el Período Cretácico Superior (hace 66 millones de años).

    En el caso del continente americano, es hace 66 millones de años en el período cretácico superior, donde se empieza a visualizar su contorno aproximado como lo conocemos ahora, separándose de esa masa única que formaba con el actual europeo y africano. En una época donde se produce la extinción masiva que lleva a la desaparición de los dinosaurios, muchos reptiles marinos, todos los reptiles voladores y muchos invertebrados marinos y otras especies. Los científicos creen que este fenómeno fue causado por el impacto de un asteroide en la Península de Yucatán en México.

    Panamá en ese entonces todavía no es una masa de tierra formada uniendo el continente, empieza a formarse desde centroamérica para terminar por unirse con la actual Colombia, hecho que ocurre hace aproximadamente 35 millones de años.

    En definitiva, «el mapa ilustra datos científicos complejos e interesantes de una manera interactiva y fácil de usar para que los maestros, profesores y cualquier otra persona interesada en la historia y la ciencia de la Tierra puedan aprender», dijo Webster. «Está destinado a despertar la fascinación y, con suerte, el respeto por los científicos que trabajan todos los días para comprender mejor nuestro mundo y su pasado», afirmó. «También contiene sorpresas divertidas, por ejemplo, cómo los EE. UU. solían estar divididos por un mar poco profundo, los Apalaches solían ser montañas muy altas comparables al Himalaya y Florida solían estar sumergidas».
    Un mapa interactivo para viajar en el tiempo, sin moverse del sitio.