En la «Fábula de las Abejas», Mandeville destaca cómo la colmena de abejas prospera cuando actúan de acuerdo con su interés propio en lugar de obedecer normas altruistas aparentes. Aunque inicialmente puede parecer que estas abejas actúan de manera egoísta, “viciosa” para obtener beneficios personales, es lo que finalmente conduce a un orden espontáneo en el que el bienestar general emerge de sus acciones individuales egoístas.
Esta paradoja se relaciona con la discrepancia entre la oferta electoral y la demanda social de varias maneras. Primero, muestra cómo las agendas políticas que no se alinean con las verdaderas demandas y deseos de la sociedad pueden llevar a una especie de «virtuosidad aparente» similar a la de las abejas en la fábula. Los candidatos y partidos pueden prometer acciones altruistas o políticas moralmente elevadas, pero si estas promesas no están respaldadas por una comprensión genuina de las demandas reales de la población, pueden resultar ineficaces o incluso contraproducentes.
En segundo lugar, la «Fábula de las Abejas» sugiere que cuando se imponen agendas moralistas desde arriba, se corre el riesgo de desencadenar consecuencias no deseadas. Del mismo modo, cuando las políticas se diseñan sin tener en cuenta la información distribuida en la sociedad y las verdaderas preferencias de los ciudadanos, pueden surgir efectos adversos. Las políticas pueden carecer de la adaptabilidad y la eficiencia que emergen de la autoregulación en un orden espontáneo.
En el análisis de las diferencias entre los conceptos de orden creado y orden espontáneo, en las ideas de F.A. Hayek, en lo que el denominó taxis y nomos, se revela mejor aún la fascinante comprensión de cómo las sociedades y las normas emergen en la interacción humana. Este enfoque destaca la distinción entre dos tipos de órdenes: aquellos creados y planificados por alguien o grupo orgánico, y aquellos que surgen de manera natural no creado ni producto de designio alguno.
El orden creado se manifiesta a través de estructuras que se originan a partir de mandatos específicos emitidos por entidades reconocibles, como empresas, gobiernos y familias. Estas estructuras tienen propósitos concretos y se alinean con objetivos específicos, como el logro de beneficios económicos o el mantenimiento del orden legal y social. En contraste, el orden espontáneo es una concepción que subraya su carencia de origen preciso y finalidad predefinida. Este tipo de orden, abstracto y difícil de percibir sensorialmente, se desarrolla a partir de interacciones humanas complejas. La sociedad misma, los mercados, el lenguaje y otras redes de comportamiento humano son ejemplos de órdenes espontáneos en los que la estructura y las normas no son impuestas desde arriba, sino que emergen hacia arriba de manera inorgánica.
En resumen, la «Fábula de las Abejas» de Mandeville, las ideas de Hayek y la discrepancia entre la oferta electoral y la demanda social se conectan a través de la idea del orden espontáneo. Ambos casos resaltan la importancia de entender cómo las interacciones individuales y las preferencias personales pueden conducir a resultados beneficiosos y cómo las agendas o cambios impuestos desde arriba pueden tener consecuencias inesperadas, a pesar de sus muy buenas intenciones. Y para que las interacciones, este orden espontáneo pueda darse, sólo se necesita libertad. La respuesta está allí: más individuos y menos estado. Pensemos en todo esto en vista de las próximas elecciones.
Existen algunas cuestiones recurrentes en la didáctica de las ciencias que se mueven entre el mundo disciplinar, el escolar y el cotidiano. ¿Para qué enseñamos ciencia? ¿Qué ciencia debemos enseñar? ¿Qué implicaciones debe tener en la sociedad? ¿Qué valores debe fomentar? A estas cuestiones intemporales se ha añadido recientemente la que plantea la irrupción de la inteligencia artificial. ¿Cómo afrontar la existencia de esta tecnología y cómo garantizar un uso responsable en la enseñanza de las ciencias experimentales y sociales?
Debate sobre la formación de maestros
No existe una única forma de enseñar y aprender ciencias, pero la irrupción de tecnologías como ChatGPT abre un importante y necesario debate sobre la formación de maestros y sobre cómo enseñar ciencias sin dar la espalda al desarrollo tecnológico.
Cuando el docente (o el equipo docente) toma la decisión de introducir alguna tecnología en el proceso de enseñanza y aprendizaje de las ciencias, debe tener conocimientos específicos más allá de los técnicos en cuanto al manejo de la herramienta, incluyendo el conocimiento científico–disciplinar y el conocimiento sobre didáctica (general y específica).
Por otro lado, podemos atender a una cuarta variable transversal: la ética. Ética en la selección y planteamiento de los contenidos, ética pedagógica sobre la que se sustenta el proceso de enseñanza y aprendizaje, y ética en relación con el uso responsable de la tecnología.
Diferentes niveles de aceptación
A la hora de afrontar la introducción de la IA en la formación inicial (y continua) de maestros podemos plantear la siguiente progresión hacia un uso más eficiente y responsable de esta tecnología:
Prohibición del uso de la IA: es la vía más fácil a corto plazo. La IA no es una tecnología pasajera y el rechazo no va a impedir que los maestros en formación o los estudiantes la usen, por lo que el docente, tarde o temprano, deberá hacer frente a esta realidad. Los avances tecnológicos suelen venir acompañados de una mayor brecha digital o de resistencia al cambio, de manera que la reacción social no resulta excepcional. Sin embargo, cabe matizar que, como refleja la Ley de Inteligencia Artificial, la IA no es una tecnología exenta de riesgos.
Uso anecdótico y muy controlado de la IA: supone un primer paso para aquellos profesionales de la educación que son conscientes de la importancia de la IA, pero que aún tienen cierta inseguridad sobre cómo introducirla didácticamente en la enseñanza–aprendizaje de las ciencias. Buscar datos muy concretos, causalidad, etc., son posibles tareas a realizar con la herramienta en esta fase. No obstante, aunque la IA permite agilizar algunas tareas, desde el momento en el que se opta por introducirla en una situación de aprendizaje es fundamental instar al alumnado a que no confíe ciegamente en ella, a que contraste el resultado y lo analice críticamente.
Educar para un uso responsable y crítico de la IA, que incorpore la IA como un recurso didáctico más. La tercera vía es la que requiere un mayor esfuerzo por parte del docente porque implica un cambio metodológico y en el tipo de actividades que se plantea a los estudiantes; sin embargo, también es la que permite aprovechar de forma eficiente las posibilidades de esta tecnología.
En otras palabras y a modo de ejemplo, pedir un resumen de un texto, sin más, sería una actividad poco recomendable puesto que la puede hacer la IA en segundos. Esta es una realidad que los docentes, independientemente de la etapa educativa, no se pueden permitir ignorar.
Explicar procesos
La obtención del dato o el conocimiento de un hecho factual es una parte del proceso, no un fin en sí mismo. Lo que contribuye a una formación competencial y a un uso responsable de la IA es la gestión y uso que se hace de los datos e informaciones, cómo se seleccionan, secuencian, organizan, contrastan, se presentan, se exponen, cómo se explican los procesos o la variedad justificada de los mismos; si todos los estudiantes de un mismo grupo son capaces de explicar un proceso y si comprenden lo que están haciendo y el porqué, si son capaces de cuestionar la información que reciben y de argumentar su posición, si son capaces lo utilizar lo aprendido dentro y fuera del aula, etc.
Al tomar conciencia de la existencia de esta tecnología, es necesaria una práctica docente donde se planteen actividades en las que entren en juego cuestiones como la interacción multidireccional, la comunicación oral, la argumentación científica, la interacción con el entorno, la creatividad, el pensamiento crítico y la reflexión. Es necesario reformular algunas actividades de corte más mecánico y reproductivo.
Las implicaciones del uso de la IA en educación formal van más allá del alumno, alcanzan al docente y al desarrollo de su labor a todos los niveles.
Se trata de un impacto en la labor docente de gran alcance. Abarca desde las tareas burocráticas, que se reducirían significativamente, hasta el apoyo en la creación y el diseño de situaciones de aprendizaje, pasando por la atención a la diversidad con el desarrollo del DUA (diseño universal para el aprendizaje) y la respuesta a las necesidades educativas especiales, que, como plantea la UNESCO, son valores que deben desarrollarse desde un uso responsable de la IA.
En la elaboración de este artículo ha colaborado José Antonio Vela Romero, maestro de Pedagogía Terapéutica y coordinador de Transformación Digital Educativa del CEIP Luis Valladares.
En un mundo donde la tecnología financiera avanza a pasos agigantados, el debate sobre el uso del efectivo y la privacidad de las transacciones ha cobrado un nuevo y ardiente significado. El reciente anuncio del canciller austriaco, Karl Nehammer, sobre la propuesta de consagrar el derecho a pagar en efectivo en la constitución del país, refleja la creciente preocupación en Europa por el declive del uso del efectivo y la consiguiente pérdida de anonimato en las transacciones financieras.
El uso creciente de pagos electrónicos, tarjetas de crédito y aplicaciones móviles ha planteado inquietudes sobre la privacidad y el control gubernamental en la vida financiera de los ciudadanos. La noticia sobre la inclusión del derecho a pagar en efectivo en la constitución austriaca es una respuesta directa a esta preocupación, enmarcada en el contexto de una guerra cultural en curso en la Unión Europea.
El movimiento político encabezado por el Partido de la Libertad de Austria y su llamado a proteger el uso del efectivo surge como una reacción a la creciente popularidad de los pagos electrónicos y sin contacto en Europa. Este partido de derecha ha acusado al gobierno de conspirar para eliminar el efectivo, alegando que esta medida podría convertirse en una herramienta de seguimiento y control masivo de la población.
El derecho a pagar en efectivo no solo es una cuestión económica, sino que también tiene implicaciones culturales y políticas. El efectivo ha sido durante mucho tiempo un símbolo de independencia financiera y un recordatorio tangible de la libertad individual en las transacciones. La posibilidad de pagar en efectivo permite a los ciudadanos tener un mayor control sobre su dinero y proteger su privacidad, evitando que terceros, ya sean gobiernos o empresas, rastreen y analicen sus movimientos financieros.
La inclusión del derecho a pagar en efectivo en la constitución austríaca no solo busca mantener viva esta tradición, sino que también envía un mensaje fuerte sobre la importancia de salvaguardar la privacidad financiera en una era digital. Al reconocer el efectivo como opción de pago y garantizar el suministro básico de papel moneda, el gobierno austríaco está tomando medidas para proteger la elección individual y la autonomía financiera.
El declive en el uso del efectivo se ha observado en varios países, como Estados Unidos y algunas economías avanzadas de Europa. Si bien los pagos electrónicos pueden ofrecer comodidad y eficiencia, también plantean preocupaciones sobre la seguridad de los datos y la invasión de la privacidad. Las empresas de tarjetas de crédito y otras instituciones financieras han estado vendiendo datos de transacciones personales a anunciantes y especialistas en marketing, lo que ha suscitado inquietudes sobre el uso indebido de la información financiera de los individuos.
La tokenización, aunque diseñada para preservar la privacidad, no siempre es infalible y puede permitir que las empresas correlacionen datos anónimos con perfiles individuales. Esta posibilidad de rastrear patrones de consumo y otros aspectos de la vida de las personas plantea cuestiones éticas y de privacidad, especialmente en un mundo donde la información personal se ha convertido en una moneda de cambio en el mercado publicitario.
El debate sobre el derecho a pagar en efectivo y la privacidad de las transacciones financieras no se trata solo de la elección de un medio de pago. Es una discusión fundamental sobre los valores democráticos, la autonomía financiera y la protección de la privacidad individual en un entorno digital cada vez más conectado. El paso dado por Austria para consagrar este derecho en su constitución es un recordatorio importante de que la libertad de pagar en la forma que elijamos es un pilar esencial de una sociedad democrática y diversa.
La fiebre por la minería de Bitcoin continúa creciendo y nuevamente ha llegado a Paraguay, con la empresa Sazmining como protagonista. Esta plataforma de minería sostenible tiene planes ambiciosos para aprovechar la abundante energía hidroeléctrica que ofrece la represa de Itaipu, situada en la frontera entre Brasil y Paraguay.
Con la instalación prevista para septiembre, anunciada en Twitter, Sazmining se presenta como una opción atractiva para aquellos interesados en participar en la minería de Bitcoin de manera alternativa, sin tener que recurrir a los exchanges. La empresa ofrece a sus clientes la posibilidad de comprar equipos de minería de Bitcoin, que son mantenidos y alimentados con energía 100% renovable por parte de Sazmining.
Uno de los atractivos principales de Paraguay para la compañía es el bajo costo de la energía hidroeléctrica, lo que permitirá alojar los equipos de minería a un costo de $0.047 por kilovatio-hora, una tarifa significativamente más económica que la media de $0.16 por kilovatio-hora en los Estados Unidos.
Esta estrategia de Sazmining se alinea con su enfoque en la sostenibilidad y energías renovables. La compañía ya cuenta con una instalación hidroeléctrica en Wisconsin, EE. UU., capaz de generar 1,7 megavatios, pero la expansión en Paraguay promete una capacidad inicial de hasta 5 megavatios.
El potencial de crecimiento es evidente, especialmente si consideramos que el consumo anualizado de la red de Bitcoin es de 135 teravatios-hora. La apuesta por la energía renovable y la ubicación estratégica cerca de la represa Itaipu son factores clave para el desarrollo de esta granja minera y su atractivo para inversores y clientes.
Es importante señalar que, si bien la minería de Bitcoin ha sido objeto de controversia debido a su alto consumo de energía, la propuesta de Sazmining muestra una alternativa interesante al aprovechar el excedente energético de la represa y evitar que esta energía se pierda o se venda a pérdida.
Por otro lado, Paraguay se ha convertido en un destino atractivo para los mineros de Bitcoin, no solo por su bajo costo de electricidad, sino también por la estabilidad regulatoria que ofrece. El país presenta una baja probabilidad de revés regulatorio, lo que brinda confianza a las empresas mineras que buscan un ambiente propicio para desarrollar sus operaciones.
De hecho, la llegada de Sazmining se suma a la de la empresa canadiense Bitfarms, que también ha elegido a Paraguay como uno de sus destinos para establecer granjas de minería. Esta presencia creciente de empresas mineras en el país ha generado debates sobre la regulación de la actividad, y se han implementado mayores controles para evitar granjas ilegales y garantizar la competencia justa.
La llegada de Sazmining a Paraguay representa un paso importante en la expansión de la minería de Bitcoin en Sudamérica. Aprovechar la energía renovable y el ambiente regulatorio favorable son factores clave para el éxito de estas operaciones. Si bien la minería de Bitcoin sigue siendo objeto de debate en términos de su consumo energético, iniciativas como las de Sazmining muestran cómo es posible combinar la rentabilidad con el respeto al medio ambiente, abriendo nuevas oportunidades para inversores y entusiastas de las criptomonedas en la región.
La debilidad creciente de los sistemas democráticos es una percepción social cada vez más compartida, pero también una tendencia más analizada y confirmada por las ciencias sociales. En los últimos 15 años, la mayoría de democracias han ido viendo cómo se debilitaban sus mecanismos de autodefensa hasta perder parte del valor de lo que significa vivir en democracia. Mientras, de forma paralela, aumentaba la preocupación social e institucional por la desinformación y su importancia a la hora de desestabilizar sistemas democráticos más o menos consolidados.
Las percepciones –pero también sus limitaciones– se explican mejor con datos. En el Democracy Index de The Economist publicado en 2007, el número de democracias plenas era de 28. En la última edición de 2022 eran 24 países.
Pero no solo se han reducido el número de países que cuentan con estándares de mayor calidad democrática, también lo ha hecho el porcentaje de la población mundial. Si en 2007 el porcentaje de la población mundial que vivía en un régimen democrático pleno era el 13 %, en la actualidad es del 8 %. Si en el informe de 2007 había 55 países considerados regímenes autoritarios, en la actualidad la cifra alcanza los 59 países.
Hay varias explicaciones a este fenómeno. Entre ellas, destacan la consolidación de redes de colaboración entre países autocráticos, el aumento de las tecnologías de la vigilancia para monitorizar voces críticas, la importancia de la calidad democrática de los países vecinos, el papel de las redes sociales para amplificar movimientos populistas, pero también sociedades más polarizadas, la creciente desconfianza ciudadana en los medios de comunicación, la falta de transparencia de los gobiernos o las distintas estrategias de lawfare para debilitar los sistemas democráticos en diferentes países.
Magallón Rosa (2023), Author provided
Por su parte, los resultados de Varieties of Democracy señalan que las democracias liberales alcanzaron su punto máximo en 2012. Los datos de The Global State of Democracy Report del año 2022 destacaban que, entre 2016 y 2021 el número de países que se dirigían hacia el autoritarismo era más del doble del número de países que habían avanzado hacia la democracia.
Como podemos observar, y bajo el discontinuo espejismo tecnológico de progreso, éxito y sociabilidad, los distintos informes nos señalan que los sistemas democráticos han perdido parcialmente la capacidad para creer en ellos mismos.
(Des)información y polarización, un fenómeno global que se adapta a lo local
En la última década hemos hablado mucho del papel de las redes sociales, de la pérdida de confianza en los medios de comunicación, de una tecnología que nos iba a permitir aumentar el número de países democráticos de nuestro entorno, de las posibilidades para luchar contra la desigualdad de la globalización, etc.
Sin embargo, la realidad es que hay –al menos– una generación que está determinada por la crisis de 2008, la pandemia y ahora las consecuencias de la guerra en Ucrania y el consiguiente aumento de las desigualdades sociales y generacionales. Este nuevo escenario ha planteado cambios en la manera de consumir información –desde la saturación hasta la fatiga informativa–, pero también en lo que significa hoy en día estar informados.
Más información no ha traído un mundo donde nos sintamos mejor informados, pero tampoco un mundo más democrático. En el escenario actual, la desinformación se ha convertido en una disfunción más o menos normalizada e integrada en el sistema.
El clima de desinformación (in)voluntaria ha hecho que antes de hablar de cómo informarnos bien, tengamos que crear y pensar las herramientas necesarias para no sentirnos desinformados. ¿Puede llegar a ser la sobreinformación una nueva forma de censura y control social?
Si algo hemos aprendido desde el referéndum del Brexit o las elecciones en EE. UU. de 2016 es que la desinformación funciona mejor en escenarios de incertidumbre y desconfianza creciente en el sistema.
Si algo aprendimos de los años precedentes a la pandemia es que la desinformación no solo afecta a la política, sino también a la ciencia, la inmigración, los derechos sociales y, sobre todo, está vinculada a los ciclos de actualidad.
Si algo nos deja la resaca de estos acontecimientos es que hay narrativas globales que se adaptan a contextos locales.
La alfabetización mediática, digital y algorítmica en la lucha contra la desinformación
Hay muchas medidas y respuestas identificadas que se pueden tomar para mitigar y resolver determinados vectores de desinformación, pero todas necesitan pasar de los discursos a los hechos en lo que hace referencia a la alfabetización mediática, digital y algorítmica.
Si tomamos una cifra moderada del tiempo de uso y consumo de redes sociales por parte de las generaciones más jóvenes –unas cuatro horas diarias– tendríamos un total de 1 460 horas anuales de consumo de redes sociales. Pensemos que se estima que un estudiante de secundaria pasa entre 1 000 y 1 050 horas anuales en clase.
Es evidente que –si nuestros jóvenes pasan más tiempo en las redes que en las aulas– necesitamos integrar la formación sobre las posibilidades, riesgos, oportunidades, limitaciones, etc. de esas redes sociales en el currículo escolar. Y, como ocurrió con la alfabetización mediática, cualquier implementación de esta evidencia llega tarde.
Por lo tanto, retrasar su integración no hace sino ampliar los problemas que genera la normalización de sus disfunciones.
En este diálogo generacional, más que de competencias o conocimiento hay una brecha pasional y temporal, pero también de poder. Esas nuevas formas de contar y vivir en sociedad también nos enseñaron que detrás de un relato de innovación hay una lucha soterrada por el mantenimiento del poder y por la sustitución de sus correspondientes oligopolios.
La alfabetización digital y algorítmica ha de explicar también ese tipo de relatos, así como su influencia en la esfera pública digital. La desinformación no sólo está vinculada a la información falsa o errónea sino también a la falta de información contextualizada para entender escenarios de complejidad creciente.
Por el contrario, en comunicación siempre está la duda de la decisión correcta a la hora de distinguir entre “la comunicación del riesgo” y el “riesgo de la comunicación”. En una democracia, la respuesta más correcta –por encima del resultado– es aquella que busca generar más transparencia y confianza de la ciudadanía hacia nuestro sistema democrático.
Información, tecnología y democracia: retos y deberes
¿Cómo vincular las ideas de progreso, tecnología y democracia? ¿Qué papel tiene la información en esta relación?
Es evidente que la aparición continuada de nuevas tecnologías ha acabado desafiando nuestra percepción social sobre sus propias posibilidades. Entre otras razones por la saturación, sus propias limitaciones o, simplemente, por las brechas generacionales que estas inicialmente crean dependiendo de su acceso, pero también de su uso e interpretación.
En este escenario creciente y global de polarización son las batallas culturales vinculadas a los ciclos de actualidad las que determinan las narrativas preferentes de los debates públicos y políticos y en ellos muchos medios de comunicación no han sabido repensar su función para dejar de ser altavoces (a)críticos de los partidos políticos y establecer un marco de discusión orientado más hacia el medio y el largo plazo sobre qué diseño de políticas púbicas se están planteando.
En la actualidad, el periodismo no está más en conflicto que en otro tiempo con la búsqueda de la objetividad, la honestidad y la profundidad sino con la fragmentación, la falta de explicaciones a la complejidad creciente de nuestras sociedades y la omisión de posibles soluciones.
Si algo hemos aprendido de la última década es que la relación entre información y democracia no sólo está basada en la cantidad de información que circula, sino en las preguntas que hacemos antes y después de que esa información circule.
El recorrido que seguimos cada vez que visitamos un museo, un zoológico, una tienda o una página web no es fruto del azar. Normalmente ha sido planificado para ofrecernos la mejor experiencia de usuario posible (en tiempos de espera, interés o movilidad) en un intento de retenernos y fidelizarnos como clientes. ¿Cómo mejorar ese diseño, superando incluso las expectativas? Utilizando los datos (que el propio cliente genera en cada una de sus visitas) y la inteligencia artificial. Con estas herramientas, las organizaciones pueden modificar el comportamiento del cliente, optimizar su tiempo de visita, reducir la congestión de los espacios (reales o virtuales) y aumentar sus ventas.
Para ello, usamos los datos registrados por las guías multimedia de la pinacoteca en 2019. En concreto, hicimos una selección aleatoria de las decisiones de los visitantes durante un total de 25 000 recorridos. Alimentado con esos datos, nuestro modelo matemático predijo correctamente el 63 % de los recorridos realizados por los visitantes en los dos meses siguientes.
Pero nuestro algoritmo no solo fue capaz de predecir la probabilidad de que un visitante fuera a un lugar concreto. Lo más interesante es que nos permitió simular su comportamiento mediante pequeños cambios en el diseño de la experiencia.
Primero, alteramos el orden de aparición de la obra Boulevard de Clichy en el menú de preferencias de la guía. La pintura seguía en su sitio, pero la guía la destacaba como una visita imprescindible. Este experimento aumentó el visionado del cuadro del 30 % al 80 %.
A continuación, descartamos tres cuadros situados al final de la primera planta y, en su lugar, destacamos otros tres al principio. Queríamos observar si con este cambio conseguíamos reducir la intensidad y el cansancio acumulados en la parte final de esta planta. Lo logramos y el resultado fue que un 20 % más de usuarios alargaron su visita: al no cansarse en la primera planta, ascendían a las superiores, menos visitadas.
En suma, el análisis de los datos generados en el museo nos reveló las dinámicas de los visitantes y los puntos débiles de su experiencia. Gracias a nuestras intervenciones, mejoramos significativamente la experiencia de usuario y, con ella, el número de cuadros vistos, contribuyendo así a la misión social del museo.
Jugar con las variables
Al igual que hicimos nosotros, empresas e instituciones pueden gestionar activamente la experiencia de usuario con el fin de mejorar su diseño. Se trata de explorar qué intervenciones serían eficaces para sus intereses y los de sus clientes o usuarios.
Para empezar, hay que tener en cuenta que el recorrido del cliente se ve afectado por una serie de variables específicas de cada espacio. No serán las mismas en unos grandes almacenes que en un museo, un zoo o un aeropuerto, por ejemplo.
De nuevo, los datos permiten identificar esas variables. En nuestro caso, mostraron que el visitante del Museo Van Gogh elegía sucesivamente qué obras iba a ver valorando:
Su interés.
La distancia entre una y otra.
La duración de la visita.
Las aglomeraciones.
El paso final es introducir cambios en el diseño de la experiencia, realizar simulaciones, y medir el impacto de esos cambios. Se trataría de usar un gemelo digital que reproduce virtualmente el comportamiento del espacio físico real. Obviamente, los cambios a priorizar varían en función del objetivo de cada organización.
De lo intuitivo a lo cuantitativo
El diseño de experiencias no es algo nuevo, pero históricamente se ha venido haciendo de forma intuitiva. Para comprender el impacto real de nuestras decisiones es necesario diseñar y gestionar las experiencias de manera activa, precisa y cuantitativa. Y eso pasa, inevitablemente, por usar los datos.
Mercedes-Benz está llevando aún más lejos el uso de la inteligencia artificial e integrándola en el control por voz de sus vehículos. Al agregar ChatGPT, el control por voz a través del asistente de voz MBUX Voice Assistant, conocido como Hey Mercedes, se volverá aún más intuitivo. Un programa beta opcional comenzó el 16 de junio de 2023 en los Estados Unidos, dirigido a más de 900.000 vehículos equipados con el sistema de infoentretenimiento MBUX.
Los clientes podrán participar en el programa a través de la aplicación Mercedes me o directamente desde el vehículo utilizando el comando de voz «Hey Mercedes, quiero unirme al programa beta». La implementación del programa beta se realizará a través de actualizaciones en línea. Mercedes-Benz está integrando ChatGPT a través del servicio Azure OpenAI de Microsoft, aprovechando las capacidades de grado empresarial de la nube y la plataforma de inteligencia artificial de Microsoft.
Esta adición para el control por voz a través de Hey Mercedes complementa la ya reconocida operación intuitiva y amplio conjunto de comandos del Asistente de Voz MBUX de Mercedes-Benz. Mientras que la mayoría de los asistentes de voz están limitados a tareas y respuestas predefinidas, ChatGPT utiliza un modelo de lenguaje amplio para mejorar significativamente la comprensión del lenguaje natural y ampliar los temas a los que puede responder.
Mercedes-Benz combina lo mejor de ambos mundos al mejorar los datos validados del Asistente de Voz MBUX con el formato de diálogo más natural de ChatGPT. Los usuarios experimentarán un asistente de voz que no solo acepta comandos de voz naturales, sino que también puede mantener conversaciones. Pronto, los participantes que le pidan al Asistente de Voz detalles sobre su destino, sugerencias para una nueva receta de cena o respuestas a preguntas complejas, recibirán respuestas más completas, mientras mantienen las manos en el volante y los ojos en la carretera.
Mercedes-Benz se asegura de la privacidad de los datos
La colaboración con Microsoft permite la integración de ChatGPT. A través de Azure OpenAI Service, Mercedes-Benz está aprovechando los modelos de IA generativa a gran escala de OpenAI, combinados con las capacidades de seguridad, privacidad y confiabilidad de grado empresarial de Azure. Mercedes-Benz mantiene el control completo sobre los procesos de tecnología de la información en segundo plano. Los datos de los comandos de voz recopilados se almacenan en la Nube Inteligente de Mercedes-Benz, donde se anonimizan y se analizan.
La protección de datos es una prioridad fundamental para Mercedes-Benz. Los clientes siempre saben qué información se recopila y con qué propósito, y son libres de tomar sus propias decisiones. Mercedes-Benz protege todos los datos de los clientes contra manipulación y mal uso afirman desde la empresa.
«La integración de ChatGPT con Microsoft en nuestro entorno de nube controlado es un hito en nuestro camino hacia hacer que nuestros autos sean el centro de la vida digital de nuestros clientes. Nuestro programa beta potencia las funciones existentes de Hey Mercedes, como consultas de navegación, solicitudes de clima y otras, con las capacidades de ChatGPT. De esta manera, buscamos apoyar las conversaciones con diálogos naturales y preguntas de seguimiento. Nuestros clientes siempre pueden confiar en nosotros para garantizar la mejor protección posible de su privacidad de datos. Todo está bajo un gran objetivo: redefinir la relación con su Mercedes», afirmó Markus Schäfer, miembro de la Junta Directiva de Mercedes-Benz Group AG y Director de Tecnología, Desarrollo y Adquisiciones.
Mercedes-Benz brinda a los clientes la oportunidad de probar las últimas tecnologías en sus vehículos como adoptantes tempranos. Se espera que el programa beta se centre en los Estados Unidos y tenga una duración de tres meses. A cambio, los desarrolladores de Mercedes-Benz obtendrán conocimientos útiles sobre solicitudes específicas, lo que les permitirá establecer prioridades precisas en el desarrollo continuo del control por voz. Los hallazgos del programa beta se utilizarán para mejorar aún más el asistente de voz intuitivo y definir la estrategia de implementación de modelos de lenguaje amplio en más mercados e idiomas.
ChatGPT en línea con los principios de IA de Mercedes-Benz
GPT significa «Generative Pre-trained Transformer» (Transformador Pre-entrenado Generativo), una familia de modelos de lenguaje amplio que han sido entrenados para crear o resumir textos, responder preguntas, traducir idiomas e incluso generar código de programación. ChatGPT se basa en una red neuronal sofisticada desarrollada por la compañía OpenAI.
Mercedes-Benz está adoptando un enfoque de integración de ChatGPT que se alinea con los principios de IA de la compañía para hacer que los beneficios de las soluciones de IA innovadoras sean accesibles para los clientes. Mercedes-Benz vigila de cerca los posibles riesgos y el sistema se mejorará continuamente en beneficio de todos los clientes. Un enfoque responsable hacia las soluciones de IA generativas es una prioridad principal en Mercedes-Benz, señalan en un comunicado.
Con esta nueva integración de ChatGPT, Mercedes-Benz está llevando la experiencia de control por voz en el automóvil a un nivel superior. Los conductores y pasajeros podrán disfrutar de una interacción más intuitiva y natural con su vehículo, aprovechando el potencial de la inteligencia artificial para recibir respuestas más completas y mantenerse conectados mientras se mantienen seguros en la carretera. La combinación de la tecnología de vanguardia de Mercedes-Benz y la colaboración con Microsoft Azure OpenAI Service demuestra el compromiso de la compañía de ofrecer lo mejor en innovación y privacidad de datos a sus clientes. Y que la inteligencia artificial llegó para quedarse.
Helion Energy, una empresa respaldada por Sam Altman, está en camino de revolucionar la industria energética con su tecnología de fusión nuclear. Helion ha logrado asegurar una financiación significativa, habiendo recaudado más de $570 millones de inversores como Mithril Capital, Y Combinator y Sam Altman, CEO de OpenAI. Recientemente, Helion anunció que ha asegurado a Microsoft como su primer cliente para la futura central eléctrica de fusión. Esta asociación promete acelerar la disponibilidad de una fuente de energía libre de CO₂, lo que podría transformar drásticamente el panorama energético mundial en los próximos cinco años. Aunque algunos expertos plantean interrogantes sobre los avances de la empresa, si Helion tiene éxito, podría cambiar el juego en la denominada lucha contra el cambio climático y la demanda de electricidad.
Desafíos:
Helion Energy se ha fijado un ambicioso objetivo: poner en funcionamiento la primera central eléctrica de fusión del mundo en los próximos cinco años. Si bien algunos expertos han expresado dudas sobre la afirmación de la empresa de haber superado el desafío clave de obtener más energía de la que se consume en el proceso de fusión, esto no ha impedido que Helion asegure su primer cliente: Microsoft.
La asociación con Microsoft es un paso significativo para Helion. Se espera que la planta se construya en algún lugar del estado de Washington y que esté completamente operativa en 2028, con una capacidad de generación de al menos 50 megavatios. Aunque esto es mucho menor que la capacidad de una central eléctrica de gas natural típica en los Estados Unidos, el logro de Helion sería notable, ya que las centrales de fusión podrían ofrecer una fuente constante de electricidad limpia sin los problemas de intermitencia asociados con la energía solar y eólica.
La energía de fusión comercial y económica también podría desempeñar un papel crucial en la generación de energías limpias al ayudar a reducir las emisiones de gases de efecto invernadero en el sector energético. A medida que aumenta la demanda de electricidad y se busca eliminar la contaminación en el transporte, los hogares, las oficinas y las industrias, las centrales de fusión podrían desempeñar un papel importante en la transición hacia una energía más limpia y sostenible.
Aunque Helion no es la única empresa que busca lograr la fusión nuclear a gran escala, su enfoque ha despertado el interés de la comunidad científica. Helion utiliza un método de fusión pulsada sin ignición, que difiere de los enfoques tradicionales que requieren condiciones sostenidas de fusión. Este enfoque, aunque presenta sus propios desafíos técnicos, ofrece la posibilidad de superar algunas limitaciones asociadas con otros métodos y hacer que la ingeniería general del sistema sea más manejable.
Helion ha realizado avances significativos en los últimos años. La empresa ha desarrollado y probado seis prototipos hasta la fecha. En 2021, anunciaron que su último prototipo, llamado Trenta, alcanzó temperaturas superiores a los 100 millones de grados Celsius, un requisito crucial para la creación de una planta comercial. Actualmente, Helion está construyendo su séptimo prototipo, Polaris, con la esperanza de demostrar la capacidad de producir electricidad a partir de las reacciones de fusión en 2024.
El enfoque de Helion para la fusión se basa en un sistema de fusión pulsada sin ignición, que solo requiere que la fusión ocurra durante breves períodos de tiempo. Utilizando un acelerador de plasma con forma de barril y potentes imanes, la empresa ha logrado comprimir y calentar plasma a temperaturas extremadamente altas. Según Helion, este enfoque les permite recuperar electricidad directamente a medida que el plasma se expande y sus campos magnéticos impulsan un flujo de corriente eléctrica a través de bobinas electromagnéticas.
Sin embargo, los desafíos técnicos y regulatorios que enfrenta Helion no deben subestimarse. Aún no han alcanzado la «ganancia de ingeniería» necesaria para desarrollar sistemas de fusión comercialmente viables. Hasta la fecha, solo un grupo de investigación, la National Ignition Facility, ha logrado una «ganancia neta de energía científica» en la fusión nuclear. Esto significa que han producido más energía de fusión de la que se ha utilizado para impulsar el proceso.
Además, deben superarse obstáculos relacionados con la aprobación normativa: la Comisión Reguladora Nuclear de EE UU (NRC) ha tomado una decisión clave sobre la forma en que autorizará las centrales de fusión, dado que ha adoptado un enfoque que se emplea para los aceleradores de partículas de investigación, en lugar del proceso más oneroso utilizado para las centrales de fisión. Según los expertos, los sistemas de fusión producen residuos nucleares, lo que exige procedimientos y normas cuidadosas para manipular los materiales y, en última instancia, desmantelar las centrales. Pero estas instalaciones no generan los mismos residuos radiactivos de larga duración que las centrales de fisión, ni presentan los mismos problemas de almacenamiento, controversias y riesgos de proliferación de armas. El personal de la NRC tendrá ahora que desarrollar un proceso específico de «elaboración de normas» para la concesión de licencias de fusión dentro de este marco, lo que podría llevar meses o años.
Si todo sale según lo planeado y Helion supera esos dos obstáculos, espera poner en funcionamiento la primera central eléctrica de fusión del mundo en un plazo de cinco años. Esto representa un avance significativo en comparación con los esfuerzos previos de la comunidad científica, que ha estado persiguiendo esta meta durante más de 75 años.
Una central de fusión comercial y económica tendría el potencial de revolucionar la industria energética al proporcionar un flujo constante de electricidad limpia y sin emisiones. A diferencia de las fuentes de energía renovable como la solar y la eólica, la energía de fusión no está sujeta a la intermitencia y puede generar electricidad de manera constante. Además, la fusión nuclear no está asociada con los riesgos y las controversias de la fisión nuclear, lo que la convierte en una opción atractiva para abordar la generación de energías limpias y satisfacer la creciente demanda de electricidad en todo el mundo.
El Canal de Panamá, una de las infraestructuras más importantes del siglo pasado, se enfrenta a una crisis sin precedentes. Conectando dos océanos y siendo la ruta más corta entre ellos, ha sido vital para el transporte de mercancías por barco durante décadas. Sin embargo, la sequía prolongada está agotando sus recursos hídricos y afectando el comercio. En este artículo, exploraremos la situación actual del Canal de Panamá, las restricciones impuestas y las posibles consecuencias para la economía global.
El Canal de Panamá y su relevancia económica
El Canal de Panamá ha tenido un impacto significativo en la economía mundial. Con casi el 6% del comercio global pasando por sus aguas, más de 12,000 barcos cruzan el canal anualmente, transportando carga a más de 160 países. Esta vía ha sido fundamental para agilizar el transporte marítimo y reducir costos logísticos, permitiendo el flujo eficiente de mercancías en todo el mundo.
La peor sequía en la historia del canal
Lamentablemente, el Canal de Panamá se enfrenta actualmente a una sequía extrema que amenaza su funcionamiento. Desde 2019, la región ha experimentado una disminución del 20% en las precipitaciones, convirtiéndose en uno de los períodos más secos desde la década de 1950. A pesar de los esfuerzos de las autoridades para ahorrar agua reduciendo el tráfico de barcos y restringiendo el calado máximo, la situación no ha mejorado. Las precipitaciones durante los primeros meses de este año fueron menos del 50% de lo normal, según Everstream Analytics.
Impacto en el transporte y restricciones impuestas
La disminución de los niveles de agua ha llevado a la implementación de restricciones en el canal. Los buques más grandes ahora deben reducir su calado, lo que significa transportar menos carga o reducir el peso de los cargamentos. Según un artículo de Bloomberg, a partir del 24 de mayo, se permiten calados de hasta 13,56 metros para los buques Neo-Panamax, como los portacontenedores y transportadores de gas licuado de petróleo. Esto podría resultar en una disminución del 40% en la carga de algunos barcos, lo que representa un desafío significativo para la industria del transporte marítimo.
Tarifas adicionales y posibles alternativas
Las restricciones en el canal no solo generan demoras, sino también costos adicionales. Se requerirán más barcos para transportar la misma cantidad de mercancía, y en algunos casos, será necesario dividir la carga más pesada en contenedores separados. Según estimaciones de analistas, estas medidas podrían aumentar los costos en alrededor de $1,500 por contenedor para importadores y minoristas que utilizan esta ruta.
Ante estas circunstancias, los armadores podrían optar por buscar alternativas, como el canal de Suez, que se ha vuelto más competitivo en términos de costos. Otros también están observando el deshielo del Ártico debido al calentamiento global, que podría abrir una ruta competitiva por el norte. Además, algunos podrían considerar el uso de puertos en el sur de California, lo que implicaría cargar los contenedores en camiones o trenes con destino a los centros de población del medio oeste y la costa este. Incluso el proyecto de canal en Nicaragua ha surgido como una opción viable en el futuro.
Causas de la escasez de agua y posibles consecuencias
La falta de lluvias ha puesto en peligro el sistema de esclusas del Canal de Panamá. El lago Gatún, que proporciona el agua necesaria para su funcionamiento, está experimentando niveles históricamente bajos. Además, el paso de los barcos consume una enorme cantidad de agua dulce, aproximadamente 190 millones de litros por cada tránsito. Con más de 12,000 barcos cruzando el canal cada año, esta situación es alarmante.
La temperatura en la región ha aumentado en los últimos años, lo que ha provocado un aumento del 10% en los niveles de evaporación tanto del lago Gatún como del lago Alhajuela, según los expertos. Si la sequía persiste, el futuro del canal está en riesgo, ya que podría dejar de ser un paso seguro para las embarcaciones o incluso ¿cerrar permanentemente?.
Conclusiones
El Canal de Panamá, una maravilla de la ingeniería moderna, se enfrenta a una crisis sin precedentes debido a la prolongada sequía. Las restricciones impuestas a los buques y las tarifas adicionales están afectando al transporte marítimo y generando costos más altos para importadores y minoristas. Además, existe la preocupación de que los armadores busquen rutas alternativas o utilicen otros canales como el de Suez.
Es fundamental que se tomen medidas para abordar esta crisis hídrica y preservar la vitalidad del Canal de Panamá. La gestión sostenible del agua y la exploración de soluciones a largo plazo son cruciales. Asimismo, se deben considerar opciones como la inversión en infraestructuras de almacenamiento y sistemas de captación de agua para garantizar la viabilidad y la importancia económica de esta vía de navegación crucial en el futuro.
Fuente:
Everstream Analytics. «Canal de Panamá se seca a medida que la falta de lluvias golpea la economía mundial». [En línea]. Consultado el 4 de junio de 2023]. https://www.inboundlogistics.com/articles/panama-canal-drought-shipping-and-the-supply-chain/
Siri y Alexa se han colado en nuestras vidas: nos acompañan en nuestros smartphones, altavoces inteligentes, sistemas de navegación y dispositivos de domótica. Son asistentes virtuales de gran utilidad en muchos contextos. Por ejemplo, para utilizar nuestros teléfonos mientras cocinamos o para facilitar el acceso a internet a personas con diversidad funcional. Sin embargo, su uso no está exento de riesgos. Algunos, que quizá desconozcamos. ¿Hasta qué punto arriesgamos nuestra privacidad con ellos? ¿Realmente nos importa perder nuestra intimidad?
La cara B de los asistentes virtuales
Dada la variedad de dispositivos en los que se incorporan, es difícil tener cifras precisas sobre la penetración de asistentes virtuales en la actualidad. En el mercado americano más del 50 % de los hogares tiene ya un altavoz inteligente y en España las cifras se sitúan en torno al 7 %.
Hablamos de asistentes virtuales que funcionan con un conjunto de sistemas y algoritmos que reconocen el lenguaje natural y ejecutan distintas tareas. Pero, además de recopilar datos personales de la misma forma que otras aplicaciones, estos asistentes recogen un tipo de información especialmente sensible: las grabaciones de voz.
Aunque están diseñados para activarse únicamente cuando se mencionan los términos clave (“hey Siri”, “Alexa”), estos términos no siempre se detectan de manera correcta y los dispositivos pueden llegar a despertarseentre 20 y 40 veces en un día. Como resultado, realizan grabaciones de entre 6 segundos y 2 minutos antes de desconectarse.
Según datos del CIS, al 75 % de los ciudadanos españoles le preocupa la protección de sus datos. Sin embargo, no siempre actuamos de forma coherente y no hay evidencias de que premiemos o utilicemos en mayor medida aquellas aplicaciones más transparentes o respetuosas con nuestros datos.
Este fenómeno, denominado “la paradoja de la privacidad”, tiene distintas explicaciones.
Sabemos los riesgos, pero los asumimos porque el servicio que nos ofrecen nos resulta útil. Alternativamente, y de un modo más irracional, porque los beneficios que obtenemos son inmediatos, mientras que los riesgos en seguridad son costes futuros.
No somos conscientes de esos riesgos y utilizamos esos servicios sin conocer las potenciales consecuencias.
Para aclarar cuál de estas dos posibilidades predomina, la Universidad Pública de Navarra ha iniciado una investigación –pendiente de publicación– que mide en la red social Twitter el impacto de las noticias positivas y negativas relacionadas con la privacidad de los asistentes virtuales.
El objetivo no es otro que arrojar luz sobre la paradoja de la privacidad: si las noticias generan un impacto significativo en el tipo de conversación generada, será evidente que los usuarios no eran previamente conscientes de estos riesgos.
Para ello, este proyecto ha generado una base de datos de dos años de tuits que mencionan los asistentes de Google, Apple y Amazon (más de 600 000) y la ha cruzado con una base de datos de noticias positivas y negativas sobre los asistentes para este periodo. A continuación se estudió el volumen de conversación antes, durante y después de las noticias, así como el sentimiento medio que expresaban esos tuits (basado en el tipo de lenguaje que se utiliza).
Se observó que, en general, los aspectos ligados a la privacidad están poco presentes en la conversación: solo se mencionan en el 2 % de los casos, aunque esta cifra se duplica en el caso de Apple, marca que pone un énfasis mayor en el tratamiento de los datos personales.
Por otra parte, las noticias negativas sobre privacidad tienen un fuerte impacto, tanto en el volumen de conversación como en el sentimiento medio, que se hace más negativo. Las noticias positivas no tienen ningún efecto. Además, el impacto de las noticias negativas es mucho más fuerte para Apple que para Google, lo que indica que posicionarse en privacidad tiene sus riesgos, ya que los usuarios van a reaccionar más negativamente ante problemas relacionados con este ámbito.
Por tanto, los resultados de esta investigación indican que los usuarios no somos conscientes de los riesgos que asumimos y reaccionamos muy negativamente cuando se ponen al descubierto. Esto nos deja dos conclusiones principales:
Los individuos debemos ser más activos recabando información sobre los servicios que utilizamos.
Las administraciones deben asumir un mayor papel en la educación y control de los asistentes virtuales, ya que es improbable que sean las plataformas las que informen mejor a sus usuarios.