Etiqueta: AI

  • ¿Es capaz una inteligencia artificial de componer mejores sonetos que Shakespeare?

    La máquina siempre ha generado miedo entre nosotros, los humanos. En la literatura y el cine de ciencia ficción –que de primeras podrían parecer un canto a la creatividad del inventor o un intento feliz por aventurar cómo será el futuro– hemos tendido a narrar, de mil y una maneras distintas, esa desconfianza hacia lo mecánico y digital.

    Un buen ejemplo lo encontramos en la que muchos consideran la primera novela de ciencia ficción. El doctor Frankenstein es presentado desde el subtítulo del libro como un moderno Prometeo, esto es, un ladrón que juega a robarles a los dioses y termina siendo castigado. De ahí que el resultado de su experimento no salga como esperaba: crea un monstruo deforme, imperfecto, asesino, que desata el terror allá donde va. Y el doctor queda condenado a perseguirlo de por vida, con el único objetivo de enmendar su error.

    Desde entonces, la tecnología ha aparecido en las ficciones como un enemigo en potencia. Será María en Metrópolis, el sabueso mecánico en Farenheit 451, HAL en 2001, la ciudad de las máquinas en Matrix, la ginoide rebelada en Ex Machina. Y hoy todavía más: desde el primer tercio del siglo XX estamos viviendo el auge de las distopías, que amplían la historia de nuestra sociedad hacia comunidades podridas, corruptas, autoritarias.

    Los progresos científicos del presente son fuente de ficciones especulativas desencantadas. El género scifi nos recuerda que el futuro en realidad está naciendo en este mismo ahora. Terminator, aún inexistente, nos vigila desde los años que están por venir.

    Si la IA nos gobernara

    En Membrana, Jorge Carrión (2021) presenta un mundo organizado por máquinas todavía más poderosas que el monstruo de Frankenstein o Terminator: redes rizomáticas, algoritmos autoconscientes, circuitos, resistencias y transistores interconectados que forman una enorme mente digital que todo lo sabe y domina.

    Portada de _Membrana_, el libro de Jorge Carrión.
    Portada de Membrana, el libro de Jorge Carrión.
    Galaxia Gutenberg

    Membrana especula: ¿qué sucedería con nosotros en ese mundo?, ¿qué sucedería con la humanidad? Desde luego, las máquinas tendrían un poder absoluto sobre nuestra supervivencia. Como de alguna manera lo tienen ahora: imaginen el colapso causado por un apagón tecnológico (o no lo imaginen y vean uno de los temores más habituales en tiempos recientes plasmados en series como El colapso o Apagón).

    Pero, además, las máquinas también tendrían un poder casi absoluto sobre nuestra identidad. ¿Qué es lo que nos hace humanos? En Membrana, la IA narradora es capaz de reconfigurar el discurso que nos define: relata otra historia de Occidente, describe a mujeres y hombres desde una lógica distinta a la del Homo sapiens, reinventa nuestros museos, libros de texto y recuerdos a través de una óptica alternativa. Estas instituciones, que en tiempo pasado fueron mitologías de nuestra especie, terminan por resquebrajarse ante otra perspectiva.

    El miedo a la máquina, por tanto, no es totalmente irracional. Un colapso económico, energético, industrial… pondría en riesgo la vida de millones de personas y, en ese sentido, es normal que nos resulte poco deseable. Pero no está tan claro que un «colapso cultural» pudiera provocar un efecto negativo análogo.

    La identidad humana, más que humana

    Tampoco se puede afirmar que las creaciones tecnológicas no tengan su lado perverso en el ámbito de la cultura. Generan dependencia, permiten usos malévolos. Ahora bien, en lo que tiene que ver con la configuración de la identidad humana, terreno siempre móvil, siempre inestable, no está probado que lo digital conlleve pobreza.

    El poshumanismo de Membrana sugiere que, en ciertos contextos, el dominio de la máquina no tendría por qué ser tan malo como los tecnófobos nos han hecho creer. Solo sería una etapa más, incluso podría decirse que una etapa lógica de nuestro desarrollo: somos nosotros los que, de alguna manera, hemos llegado hasta ahí y hemos creado nuestro futuro «no-humano». Inventar nueva tecnología es una habilidad fundada en la genética, en la evolución de la especie. Desde ese punto de vista, la máquina es una extensión de nuestra biología.

    Así, si bien la tendencia general en la cultura de Occidente es temer a la máquina, hay que admitir que, en el campo de lo estético, ceder el poder a la tecnología no nos aboca obligatoriamente al desastre. De hecho, en el arte lo natural es el cambio. Y las IA (nos) ofrecen una nueva revolución del paradigma. La novela de Carrión viene a recordar que adoptar nuevas perspectivas de vez en cuando puede ayudarnos a entender nuestra realidad (también, paradójicamente, nuestra identidad) un poco mejor.

    Arte autónomo vs. código binario

    Existen, sin embargo, muchos prejuicios que todavía minusvaloran la ficción de autoría digital. Un argumento esgrimido habitualmente para desprestigiarla, quizá el más consagrado en nuestra tradición, señala que una máquina nunca podrá producir una obra plenamente autónoma.

    Este razonamiento se fundamenta en el dogma de que lo estético no puede tener otra función que su esteticidad. La obra ha de provenir de una mente genial, en el sentido romántico del término, una mente distinta y única, y deberá ser independiente del sistema establecido. Solo el gran artista encuentra un lenguaje propio para describir el mundo. Esto quiere decir que no es posible crear arte mediante el reciclaje, el plagio o el remake. No entra dentro de nuestros ideales que un epígono pueda estar a la altura del maestro.

    máquina
    Una robot con apariencia femenina acaricia unas máscaras humanas en un pasillo blanco.
    Ava, ¿mujer o robot?, en Ex Machina.
    FilmAffinity

    Si aceptamos esta óptica, las inteligencias artificiales serán el último eslabón de la cadena: el elemento más alejado de la originalidad estética, al lado de otros poco valorados como la copia, la reproducción, el facsímil o el duplicado. Porque las IA están preconfiguradas. Responden a unas normas impuestas de antemano, a un código preescrito. Y, por tanto, son el epítome de lo anticreativo.

    Pero, si nos detenemos a pensar en obras concretas, pronto nos daremos cuenta de que no existe ninguna verdaderamente autónoma, aislada de la realidad, sin componentes intertextuales más o menos explícitos.

    El Quijote recoge crítica literaria, a veces muy áspera, en contra de algunos libros de renombre (y cita títulos), al mismo tiempo que satiriza los comportamientos picarescos de la España del XVII. Se basa en la realidad y en los textos que le preceden para construir su propia ficción. Y, pese a todo, nadie diría que el Quijote sea una mala obra de arte. Ni que Cervantes sea un mal autor.

    No queda otra que aceptar que no hay obra que se erija sobre la nada, con independencia de su realidad más cercana, según los gustos y las claves literarias de su época. Humanistas y filósofos como Boris Groys han expuesto con acierto cómo la innovación solo es posible desde la tradición. El argumento de la autonomía del arte se estrella contra el empirismo de la lectura y deja el camino abierto a la estética maquinal.

    Telos

    El paradigma cíborg y la importancia del efecto

    Es desde estas premisas, ni demasiado entusiastas ni demasiado derrotistas, como creo que deben observarse las inteligencias artificiales en lo que respecta a la creación estética. Porque, en realidad, la obra de arte solo funciona en relación con lo establecido: renovando una forma literaria fosilizada, mezclando géneros, formas y temas preexistentes, buscando las cosquillas a prejuicios asumidos como certezas… Y todos estos «datos» pueden ser alimento de una IA literata en potencia.

    No nos queda otra que abrazar la idea de que la tecnología se ha ganado su hueco en el Parnaso. Y eso está bien: no hemos de tenerle miedo a la máquina que teclea versos; no debería preocuparnos que la cultura mute, que nuestra identidad se deforme o que el canon artístico se desmorone (una vez más).

    Otra cosa será que esta situación nos obligue a repensar muchas rutinas, instituciones y valores. La palabra autor no podrá ser ya la misma. Las asignaturas de primaria y secundaria deberán virar hacia otros contenidos. El concepto de obra tendrá que renovarse o morir. Pero siempre hay que dejar algo atrás para continuar en movimiento.

    Las inteligencias artificiales no van a poder encontrar la fórmula mágica de la literatura. Más que nada porque no existe tal fórmula. Cada obra tiene sus propios códigos y resuelve un diálogo con sus lectores desde términos particulares. Pero de ahí no se deduce que una inteligencia artificial sea incapaz de componer eso que llamamos «una gran novela» o «un buen poema», entre muchas novelas y poemas fallidos.

    Los escritores humanos seguirán escribiendo. A su lado estarán las escritoras máquina. Y, por supuesto, lxs escritorxs cíborgs, una simbiosis inevitable y de lo más interesante, que sin duda dará que hablar.

    Tal vez, por fin, esté llegando el día en que la literatura pasará de ser valorada principalmente por quién la hizo (o cuándo, cómo, por qué) y entrará a considerarse su efecto sobre los lectores. Pues, por mucho que los libros de texto de las escuelas todavía estén organizados como una lista de nombres propios, ¿quién duda, en el fondo, de que lo más importante de la literatura ha sido siempre lo que nos ha hecho sentir y pensar?

    Las IA, con sus muchas trabas (éticas, creativas, políticas…), pueden ser la mecha que ponga fin al paradigma biografista y memorístico en pos de un paradigma receptivo e interpretativo. Our machines are disturbingly lively (“nuestras máquinas están inquietantemente vivas”), y eso es una gran oportunidad para la estética.


    Este artículo fue publicado originalmente en la revista Telos de Fundación Telefónica.The Conversation


    Laro del Río Castañeda, Investigador predoctoral en Teoría de la Literatura y Literatura Comparada, Universidad de Oviedo

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • GPT-4 aprueba el examen de medicina y sorprende en diagnósticos médicos

    Atentos profesionales de la salud, la inteligencia artificial (IA) podría muy pronto estar lista para «quitarles sus empleos». La última versión Chat GPT-4, el chatbot de IA desarrollado por OpenAI, se acaba de convertir en el primer modelo de IA en superar con éxito el examen de medicina de los Estados Unidos.

    Aunado a ello, recientemente, un equipo encabezado por el médico y científico informático de la Universidad de Harvard, Isaac Kohane, llevó a cabo una serie de experimentos para determinar si el sistema GPT-4 podría tener un desempeño adecuado en un entorno médico. Los resultados sorprendieron al equipo, ya que el sistema demostró una precisión equiparable a la de un profesional, lo que hace que sea una herramienta valiosa para la toma de decisiones médicas. Los descubrimientos de Kohane han sido compilados en un libro recién publicado titulado «La revolución de la IA en la medicina», escrito en colaboración con el periodista independiente Carey Goldberg y el vicepresidente de investigación de Microsoft, Peter Lee.

    Es una noticia impactante, sin duda. Pero, ¿qué significa realmente para los profesionales de la salud y para los pacientes?

    En primer lugar, es importante tener en cuenta que la IA no es un sustituto completo para los médicos y otros profesionales de la salud. Aunque Chat GPT-4 ha demostrado ser capaz de diagnosticar correctamente una condición médica rara, la IA aún no tiene la capacidad de realizar procedimientos médicos complejos o tomar decisiones difíciles en situaciones de emergencia.

    Sin embargo, la IA puede ser una herramienta útil para los médicos y otros profesionales de la salud. Por ejemplo, la IA puede ayudar a los médicos a identificar patrones en los datos de los pacientes que pueden no ser evidentes para los seres humanos. Esto puede ayudar a los médicos a identificar posibles problemas de salud antes de que se conviertan en problemas graves.

    Además, la IA puede ayudar a los médicos a tomar decisiones más informadas sobre el tratamiento de los pacientes. La IA puede analizar grandes cantidades de datos médicos y proporcionar recomendaciones basadas en la evidencia. Esto puede ayudar a los médicos a proporcionar tratamientos más efectivos y personalizados a los pacientes.

    Sin embargo, también es importante reconocer que la IA tiene limitaciones. La IA todavía puede cometer errores y puede ser terca para admitir sus errores. Además, la IA no puede reemplazar completamente la experiencia y el juicio clínico de los profesionales de la salud.

    Por lo tanto, es importante que los médicos y otros profesionales de la salud trabajen en colaboración con la IA para garantizar que los pacientes reciban la mejor atención posible. Los profesionales de la salud pueden proporcionar información importante que la IA puede usar para tomar decisiones más informadas. Los médicos también pueden ayudar a la IA a comprender mejor las necesidades y preferencias de los pacientes.

    En última instancia, la IA tiene el potencial de revolucionar la atención médica y mejorar la vida de los pacientes. Pero es importante recordar que la IA no es un sustituto completo para los profesionales de la salud. Los médicos y otros profesionales de la salud seguirán siendo esenciales para proporcionar atención médica de alta calidad y personalizada a los pacientes.

    En conclusión, aunque la noticia de que Chat GPT-4 ha superado con éxito el examen de medicina de los Estados Unidos es impresionante, es importante no exagerar el impacto de la IA en la atención médica. La IA tiene el potencial de ser una herramienta útil para los médicos y otros profesionales de la salud, pero también tiene limitaciones y no puede reemplazar completamente la experiencia y el juicio clínico de los profesionales de la salud. Los profesionales de la salud deben trabajar en colaboración con la IA para garantizar que los pacientes reciban la mejor atención posible.

  • Pausar el desarrollo avanzado de Inteligencia Artificial: ¿precaución o exageración?

    Más de mil CEOs y académicos han firmado una carta abierta pidiendo una pausa de seis meses en el desarrollo de sistemas avanzados de inteligencia artificial (IA). La carta detalla los posibles riesgos para la sociedad y la civilización de la circulación de sistemas de IA competitivos entre humanos en forma de interrupciones económicas y políticas. La petición se produce después del lanzamiento de la cuarta versión del programa de inteligencia artificial GPT-4 de OpenAI, respaldado por Microsoft.

    El Future of Life Institute, organización sin fines de lucro, emitió la carta pidiendo una pausa en el desarrollo avanzado de la IA hasta que expertos independientes desarrollaran, implementaran y auditaran protocolos de seguridad compartidos para tales diseños. Los sistemas de IA poderosos solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables, dice la carta.

    La Union Europea (UE) se une al coro de preocupaciones éticas y legales sobre el desarrollo de inteligencia artificial (IA) avanzada como ChatGPT, advirtiendo sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia. Mientras tanto, el gobierno del Reino Unido dio a conocer propuestas para un marco regulatorio «adaptable» en torno a la inteligencia artificial. El enfoque del gobierno dividiría la responsabilidad de gobernar la IA entre sus reguladores de derechos humanos, salud y seguridad y competencia, en lugar de crear un nuevo organismo dedicado a la tecnología.

    La IA de ChatGPT de OpenAI ha llevado a los rivales a acelerar el desarrollo de modelos de lenguaje similares y a las empresas a integrar modelos de IA generativa en sus productos. La semana pasada, OpenAI anunció que se había asociado con alrededor de una docena de empresas para incorporar sus servicios en su chatbot, lo que permite a los usuarios de ChatGPT pedir comestibles a través de Instacart o reservar vuelos a través de Expedia.

    Aunque el desarrollo de inteligencia artificial  y sistemas IA han avanzado mucho en los últimos años, todavía hay preocupaciones éticas y legales en torno a su uso y desarrollo sostienen los firmantes de la carta. Del otro lado, desarrolladores que son más escépticos ante lo que puede hacer la regulación, han acusado a los firmantes de la carta de promover la «exageración de la IA». Ha argumentado que las afirmaciones sobre el potencial actual de la tecnología han sido muy exageradas. La carta destaca la necesidad de trabajar con legisladores y autoridades reguladoras para garantizar que la IA se desarrolle de manera responsable y ética. Es destacable que Sam Altman, director ejecutivo de OpenAI, no ha firmado la carta, dijo a Reuters un portavoz de Future of Life.

    Este debate sobre la necesidad de algún tipo de regulación al desarrollo de la inteligencia artificial recién comienza e indica una creciente preocupación en torno a su uso y desarrollo. Aunque hay preocupaciones éticas y legales en torno a la IA, también hay un gran potencial para la tecnología y el progreso humano. Por lo tanto, es importante estar alertas ante legisladores y autoridades reguladoras para garantizar que la IA se desarrolle de manera autónoma, libre, responsable y ética, lejos de los políticos, para que podamos aprovechar al máximo sus beneficios mientras minimizamos sus riesgos como sociedad adulta.

    La carta completa, que puede ser encontrada en original aquí:

    «Los sistemas de Inteligencia Artificial (IA) con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y es reconocido por los principales laboratorios de IA. Como se establece en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, lo cual debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable.

    Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los que nos placen? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La declaración reciente de la empresa OpenAI con respecto a la inteligencia artificial en general, establece que: “En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos”. Estamos de acuerdo. Ese punto es ahora.

    Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes como GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

    Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar mancomunadamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que son rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieren a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.

    La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

    Paralelamente, los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA. Estos deben incluir como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados por IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA.

    La humanidad puede disfrutar de un futuro floreciente con la IA. Habiendo tenido éxito en la creación de poderosos sistemas de IA, ahora podemos disfrutar de un “verano de IA” en el que cosechamos las recompensas, diseñamos estos sistemas para el claro beneficio de todos y le damos a la sociedad la oportunidad de adaptarse. La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos apresuremos a caer sin estar preparados.»

  • Pánico al futuro próximo

    El miedo o pánico a lo desconocido produce curiosas reacciones. En mi caso, que me gusta anticipar el mundo próximo a nosotros y cosas como la AI o Inteligencia Artificial, me he tropezado con personas que, al escucharme habar de las maravillas que están a la vuelta de esquina, se disgustan conmigo. Me parece que las razones son variadas. Para algunos, realidades como que la nevera de casa sea más inteligente que uno les deja patidifusos. Para otros, es la perspectiva de la destrucción del empleo. Pero… ¿qué si les digo que será todo lo contrario? Y, allí está el meollo del asunto, que la mayoría carece de luces largas y miran hacia delante como mirando hacia atras.

    Pregunto ¿acaso la adopción de automotor y abandono del caballo como medio de transporte acabó con el empleo? No, todo lo contrario. Pero, ¿cómo convencer a tía Clotilde de que la nevera con AI no irá a su cuarto en la noche a congelarla?

    Aunque no soy genio futurista, lo que veo a futuro es que la IA nos abrirá horizontes inesperados y nuevos caminos; entre los cuales están grandes reducciones en los costos de productos y servicios que serán el rescate de los pobres. Tal es el caso de las neveras, que en un tiempo sólo las tenían los ricos.

    Me llama poderosamente la atención cuando hablo con muchos y uso términos que no entienden, lo cual leo en sus miradas; y doy riendas al atrevimiento de preguntar: ¿Conoces el significado…? Normalmente contestan con un simple “no”. Y sigo ¿Por qué no si tienes la respuesta en la mano…? Simplemente pregúntale a tu celular. ¡Ah!, pero pocos platican o se escriben con su ordenador, teléfono, celular, computadora y el nombre que sea con que nos referimos al aparato de AI que llevan hoy día hasta los sin hogar o, “piedreros” en panameñes.

    El secreto de adaptarse a los cambios se da en sociedades productivas y no aquellas en las cuales se vilipendia el emprendimiento o la “privatización”, como hemos hecho en Panamá. La tecnología de AI es una herramienta nueva con mayor capacidad que nos ayuda a aumentar la productividad a menos costo, lo cual se traduce en menor precio y mayor demanda. Lo que sí hará la AI, si es que la usamos, es crear nuevas áreas de trabajo o empleo, que requerirá mejor uso del capital, cápita o cabeza; lo cual no es nada malo.

    Espero no ver un renacimiento del ludismo de principios del siglo XIX, cuando los sindicalistas textiles entraban a las fábricas a destruir las máquinas hilanderas. La realidad deambula por otros recodos del andar humano al desplazar el trabajo monótono por otros más creativos y entretenidos. Veamos que el Uber no eliminó al taxi, sino permitió mayores puestos de trabajo y reducciones en el tiempo y costo del transporte. Más aún, la AI se ha convertido en alcahuete del amor conyugal ¿Será ello algo malo?

    En fin, cuando los autos reemplazaron a los caballos muchos se pusieron tristísimos ya que añoraban el olor a esa caca equina que éstos derramaban por doquier. O como áreas en Panamá dónde no hay sistema séptico y los efluvios humanos se derraman por laderas inundando la atmósfera con aliento escatológico. Muchos ni dan mantenimiento a sus tanques sépticos por miedo a perder ese perfume que la nariz desde la infancia sin tregua olfateó.

  • ¿Peligra su trabajo con la inteligencia artificial?

    Ante el acceso generalizado a la Inteligencia Artificial, hay preocupación sobre su impacto en el plano laboral. Algunos expertos creen que habrá cambios en casi todas las profesiones, y otros opinan que la tecnología ayudará a las personas a realizar sus tareas y creará nuevo trabajo.

    Google anunció el miércoles herramientas operadas con inteligencia artificial que se encuentran en proceso de prueba y pronto estarán disponibles para el público general.

    Las herramientas asistirán en escribir y organizar correos electrónicos, tomar notas durante una reunión, crear documentos con textos completos y presentaciones a través de aplicaciones que ya se utilizan popularmente, como Gmail, Google Doc o Slides. Las herramientas tienen como objetivo darle un “colaborador” a los humanos en tiempo real, dijo durante el anuncio Thomas Kurian, director de Google Cloud.

    Recientemente, Microsoft lanzó su nuevo motor de búsqueda con IA, que integra al ChatGPT, de la compañía OpenIA, que tiene la capacidad de generar largos y coherentes textos, códigos, explicar y razonar y proveer casi cualquier información.

    En los últimos 200 años, desde la Revolución Industrial, las nuevas invenciones han revolucionado los mercados laborales. Pero con la llegada de la IA, los expertos auguran que habrá cambios en casi todas las áreas profesionales.

    “A diferencia de estas otras innovaciones, la IA interactúa directamente con los humanos y la cognición humana: puede acceder a nuestras mentes. ChatGPT es solo el comienzo», dijo a la Voz de América Ashlesha Nesarikar, fundadora y directora de Plano Intelligence, una empresa de IA con sede en Texas. «Los trastornos causados por la IA superarán con creces nuestras experiencias”.

    Los artistas, por ejemplo, podrían ver su arte utilizado en obras derivadas. Los escritores creativos podrían ver copiados sus estilos. Los audios o videos podrían modificarse para cumplir nuevos propósitos, y equipos enteros creativos pueden ser reemplazados por una AI autónoma, explicó Nesarikar.

    Otros trabajos administrativos en contabilidad, derecho, finanzas, atención médica o educación, entre otros, podrían verse afectados gravemente a menos que impliquen una interacción directa con los clientes a nivel personal, indicó Nesarikar.

    Pero pese a los riesgos para profesiones tradicionales, Maura Grossman, profesora de Ciencias de la Computación de la Universidad de Waterloo, en Canadá, augura que se ganarán nuevos puestos de trabajo.

    “Ya podemos ver empresas que anuncian nuevos puestos para científicos informáticos y de datos familiarizados con ChatGPT, y para ‘ingenieros rápidos’ que pueden desarrollar consultas para generar resultados útiles”, dijo a la VOA.

    Selmer Bringsjord, director del Departamento de Ciencias Cognitivas del Instituto Politécnico Rensselaer de Nueva York, dijo que “en general, cualquier cosa que se pueda predecir con bastante precisión a partir de datos masivos sobre actividades pasadas debería ser posible de conquistar para la IA, lo que significa que cualquier trabajo humano que se base en datos anteriores está en riesgo».

    «Realmente, la creatividad es un gran factor decisivo”, dijo.

    Bringsjord apuntó que, tradicionalmente, los economistas usan modelos que implican que a medida que aumenta la automatización, la productividad humana también aumenta, y si esa automatización reemplaza a un humano, ese humano puede pasar a otro trabajo en otro sector del mercado.

    Sin embargo, “lo que los economistas hasta este punto nunca tomaron en cuenta explícitamente en sus modelos es la posibilidad de una inteligencia artificial que literalmente iguale o supere a la inteligencia humana en algunos dominios».

    «Esto ahora está empezando a suceder. Hay trabajos que ChatGPT puede hacer en todos los ámbitos, y mejor que cualquier humano”, indicó.

    ¿Cómo ser competitivos frente a la IA?

    La rapidez con que las herramientas de IA pueden realizar tareas es uno de los aspectos con los que los humanos tendrán dificultad compitiendo, por lo que es necesario adquirir nuevas habilidades, apuntaron los expertos.

    Grossman, por su parte, aseguró que “debido a que la IA no es completamente autónoma y puede cometer errores, todavía existe la necesidad de que un humano esté al tanto para verificar su trabajo».

    «Por el momento, las herramientas de IA aumentarán el trabajo de los humanos, en lugar de reemplazarlos por completo, permitiéndoles hacer más”, dijo.

    Esto trae consigo una nueva realidad. En el pasado, los estudiantes completaban su educación y capacitación e ingresaban a la fuerza laboral. Ahora “es posible que nos estemos moviendo hacia un mundo donde los trabajadores regresan periódicamente a la escuela a lo largo de sus vidas para volver a capacitarse a medida que avanza la tecnología”, agregó Grossman.

    Una estrategia sería vincularse a trabajos que hacen y mejoran la IA y los robots, dijo Bringsjord.

    Otros trabajos competitivos son aquellos que valoran la capacidad para resolver problemas únicos que requieran una gran precisión. Por ejemplo, personas especializadas en reparaciones graves en áreas como plomería o carpintería.

    Estos, aunque son servicios difíciles de ejercer por la AI, son mal remunerados, dijo David Autor, profesor de economía en el Instituto de Tecnología de Massachusetts, el miércoles durante un evento del Instituto Brookings, un centro de investigación en Washington DC.

    “Tenemos muchas personas altamente estudiadas que realizan tareas profesionales, técnicas y gerenciales, ya sea investigación, medicina, derecho, o tareas creativas. Y luego tenemos muchas personas que están haciendo servicios en persona que son difíciles de automatizar pero también difíciles de hacer más productivos, y como consecuencia están bastante mal pagados y usan habilidades relativamente genéricas”, indicó.

    “Mucha gente podría ser un buen mesero o guardia de seguridad o limpiador con un poco de entrenamiento, y eso significa que esos no tenderán a pagar bien. Así que el desafío también es grande, ¿cuál es el nuevo terreno que se abrirá?”, agregó.

    Nesarikar, por su parte, apuntó que “la demanda de trabajo relacionado con la capacitación, las pruebas, el mantenimiento y el aprovisionamiento de aplicaciones de IA aumentará, aunque estos trabajos pueden requerir una educación técnica de nivel de maestría o experiencia equivalente”.

    Lo cierto es que no hay forma de detener la proliferación de la IA, según los expertos, así que los trabajadores deben evitar luchar contra los desarrollos y en cambio adoptarlos.

    «Es difícil proclamar cualquier trabajo como ‘a salvo’ de la automatización. Dicho esto, sigue siendo valioso desarrollar habilidades blandas, como la empatía, las habilidades de negociación y el sentido del humor, que serán difíciles de reemplazar con IA”, concluyó.

  • Los secretos de Tefi, el perro robot para invidentes

    Tefi, el perro robot pensado para invidentes, no ha nacido de la nada. Para su desarrollo, antes ha sido necesario desvelar los muchos secretos que albergan los robots que caminan.

    En el año 1989, en el MITLegLaboratory, Marc H. Raibert y otros autores presentaron el informe Dynamically Stable Legged Locomotion. Aquel trabajo fundamental revelaba esos secretos, las bases de la locomoción de los robots con patas. El informe incluía una serie de ecuaciones dinámicas y de control que supusieron el origen de robots como Tefi, los robots cuadrúpedos que caminan.

    Desde aquel momento hasta el nacimiento de Tefi, el primer perro robot guía para invidentes, han transcurrido cuatro décadas de avances y conocimiento.

    De una pata a subir escaleras

    Todo empezó con el control de un robot saltarín de una sola pata, que evolucionó a dos y finalmente a cuatro. Con él, había nacido el perro robot.

    El 23 de junio del 2016 Boston Dynamics presentó el robot Spot Mini, el primero a la venta, pero con un precio prohibitivo de 74 500 dólares.

    Spot robot cuadrúpedo de Boston Dynamics.
    Boston Dynamics

    Era una buena noticia, pero su elevado precio solo lo hacía accesible a empresas y a la industria militar.

    A partir de 2020, conocidos los secretos básicos para hacer andar a un robot de cuatro patas, la investigación aumentó de tal manera que se optimizaron los diseños y disminuyó el coste de una manera significativa.

    Los primeros robots cuadrúpedos de bajo precio los presentó Unitree. Su modelo Go1 se vende por 2 500 dólares. Xiaomi bajó aún más los precios con su perro robot Cyberdog, que puede comprarse por menos de 1 500 euros, de momento solo en China y para desarrolladores.

    Hasta el año 2022 la tendencia del uso de estos robots seguía siendo industrial y militar, despertando en este caso, temor en la sociedad, y alimentando el estigma negativo de la robótica.

    Más barato que un perro entrenado

    Conocedores de las tripas y engranajes de los perros robot, desde el Instituto de Tecnologías Físicas y de la Información (ITEFI) nos planteamos darles un uso social e inclusivo.

    Inspirados en los perros guía para invidentes, y pensando en personas dependientes, propusimos desarrollar un robot cuadrúpedo de características similares a un perro, lo que le permite tener una gran movilidad en terrenos complejos, subir escaleras, caminar por superficies accidentadas, etc.

    La forma cuadrúpeda de un robot facilita que se mueva en la ciudad, con la diversidad de obstáculos que presenta.

    La idea siguió adelante teniendo en cuenta que el precio de un perro guía entrenado supera los 30 mil euros y la persona que lo solicita ha de esperar un tiempo hasta que se lo asignan. Además, un perro requiere cuidados constantes por parte de su dueño y su tiempo de servicio no va más allá de 7 a 10 años. El precio de un perro robótico como Tefi no superaría los 5 000 euros.

    Tefi, el perro-robot para guiar a personas dependientes o con discapacidad / ITEFI-CSIC.

    El nacimiento de Tefi

    Así nació Tefi, un perro robot de color plateado y dotado de inteligencia artificial cuyo nombre hace referencia al instituto en el que nació, el ITEFI.

    Tefi está programado para acompañar y guiar a personas dependientes e invidentes. Se ha desarrollado en base a una plataforma robótica comercial a partir de la que se han hecho modificaciones tanto en hardware como en software.

    Para mejorar su autonomía e inteligencia, se mejoraron aspectos como cámaras, micrófonos, gps-rtk, altavoces, LIDAR, diversos sensores ambientales y un procesador capaz de soportar tanto el sistema de control como los modelos de inteligencia artificial que se ejecutan en paralelo.

    Tefi trabaja con diferentes modelos de inteligencia artificial, entre ellos el reconocimiento de voz, para que la persona pueda interactuar con el robot mediante comandos. Su dueño podrá pedirle lo que quiera que haga sin ningún interfaz, solo con la voz. También cuenta con un sistema de navegación automática para guiar a las personas tanto en el interior de un local como en el ambiente dinámico de las calles.

    “Tefi, llévame a la oficina”

    Tefi realiza un mapa preciso de los lugares que frecuenta. Una vez que ha ubicado en su mapa la casa, la oficina o la cafetería habitual, la persona solo tiene que darle un orden: “Tefi llévame a la oficina”, y el perro guía llevará a su dueño a la oficina, creando la ruta óptima y esquivando los obstáculos.

    En el exterior puede hacer uso de Google Maps para encontrar la ruta a destinos que no estén recogidos en su mapa.

    Mapa generado por TEFI.

    Otros aspecto que consideramos de importancia vital es que Tefi pudiera hacer llamadas o enviar mensajes a amigos, familiares e incluso a hospitales si se trata de una emergencia. El pequeño perro robot también cumple funciones sanitarias: sus sensores le permiten evaluar en tiempo real la acumulación de dióxido de carbono, temperatura ambiente, incluso la presión arterial de su dueño.

    Esto es un coche y no una zapatilla

    Entre los muchos modelos de inteligencia artificial integrados en Tefi, destaca el que le permite reconocer objetos. Puede identificar coches, mesas, sillas, etc, incluso personas. Así puede informar a su dueño sobre lo que está viendo, acercarle a una silla si es lo que le han pedido, o a las zapatillas.

    También queríamos que Tefi captara información del exterior, como los letreros de la calle. Por esto tiene capacidad para leer códigos QR y otros derivados que le permiten recoger información relevante como el cierre de un local, cambio de ruta en los autobuses, el corte de calles por obras, etc.

    Visión artificial de TEFI.

    Tefi aún tiene mucho desarrollo por delante, pero antes de salir a la calle ya anuncia el prometedor uso de la robótica en la sociedad, y que muy pronto Tefi y los suyos formarán parte de nuestra vida cotidiana.The Conversation

    Gerado Portilla, Doctor en Robótica, Universidad Politécnica de Madrid (UPM)

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • Keanu Reeves califica de “increíble” la idea detrás de Bitcoin

    La estrella de «The Matrix», Keanu Reeves, se ha convertido en un entusiasta de las criptomonedas, llamando a las criptomonedas «herramientas increíbles para el intercambio y la distribución de recursos».

    En una entrevista reciente con Wired para promocionar su nueva película «John Wick 4», Reeves dijo: «Creo que el principio, las ideas detrás de una moneda independiente, son increíbles», y agregó que, «Pooh-pooh crypto, o la volatilidad de las criptomonedas, solo mejorarán en términos de cómo se salvaguarda».

    La película de 1999 «The Matrix», en la que Reeves interpretó al héroe Neo, fue un texto ciberpunk fundamental que predijo muchas de las tendencias tecnológicas emergentes de la actualidad, desde la inteligencia artificial (IA) hasta el metaverso . Por lo tanto, no sorprende que los fanáticos de Web3 hayan tenido curiosidad por saber qué piensa Reeves sobre las criptomonedas y las tecnologías relacionadas, como los NFT .

    En particular, Reeves está interesado en las implicaciones de las tecnologías de arte digital como AI y NFT, y señala que «la gente está creciendo con estas herramientas: ya estamos escuchando música hecha por AI al estilo de Nirvana, hay NFT  de arte digital.»

    Mientras admite que «es genial, ¡mira lo que pueden hacer las lindas máquinas!» Reeves agregó que está preocupado por la «corporatocracia detrás de esto que busca controlar esas cosas».

    Reeves explicó que recientemente trató de explicarle a un adolescente que en «The Matrix», Neo está «luchando por lo que era real», solo para que le preguntaran: «¿A quién le importa si es real?». 

    “Cultural y socialmente, nos enfrentaremos al valor de lo real o al no valor”, dijo el actor. “¿Y entonces qué nos van a imponer? ¿Qué se nos va a presentar?

    Las revoluciones del metaverso

    El actor se ha involucrado cada vez más en el espacio NFT en los últimos años;  se ha convertido en asesor de la organización benéfica de arte digital The Futureverse Foundation, que financia a artistas que buscan ingresar al espacio NFT.

    La organización benéfica, respaldada por los proyectos Non-Fungible Labs y Fluf World de NFT, tiene como objetivo «hacer que el metaverso sea accesible para más personas, especialmente de entornos desfavorecidos», según la pareja de Reeves y asesora de la Fundación Futurevese, Alexandra Grant.

    «Me estoy montando en sus faldones», dijo Reeves a Wired . “Ayudé a preparar el lanzamiento. Estamos tratando de tomar esta tecnología que le interesa a la gente y dar oportunidades a artistas con diferentes puntos de vista”.

    A pesar de estos esfuerzos, mantiene una aterrizada suspicacia frente al espacio virtual, que calificó como un “sensorium” y un “espectáculo”. Reeves hizo referencia a la alegoría de la caverna de Platón para sugerir que el metaverso podría verse como un “sistema de control y manipulación” que mantiene a los humanos engañados mientras estos se deleitan con elaboradas imágenes.

    “Estamos de rodillas mirando las paredes de la cueva y viendo las proyecciones, y no tenemos la oportunidad de observar detrás de nosotros. O a los lados”, dijo. Continuó la reflexión, y en un tono menos severo, pero igualmente reflexivo, justificó que la “fascinación” por la tecnología podría ser parte del deseo humano de vencer a la muerte y permanecer en el tiempo.

    A pesar de estas advertencias entorno a las posibilidades que ofrecen las nuevas tecnologías, Reeves se mostró optimista sobre su impacto en áreas diversas más allá del arte y el entretenimiento.

    En una entrevista anterior , bromeó: «¿No podemos dejar que Facebook invente el metaverso? El concepto de metaverso es mucho más antiguo que eso».

    Reeves y las criptomonedas

    Reeves se ha mantenido entusiasta del espacio criptográfico: una vez dijo que tiene «un poco en HODL», después de que «un amigo mío me compró algunos hace un tiempo» y que no ha hecho nada con eso porque «no lo he hecho».

    Elogió el fundamento detrás de los activos descentralizados como Bitcoin y aseguró que las críticas solo los harán más fuertes.

    «El principio, la idea detrás de una moneda independiente, es increíble. Son herramientas fantásticas para el intercambio y la distribución de recursos. Así que despreciar las criptomonedas, o la volatilidad de estas, solo mejorará su protección.»

    En 2015, Reeves narró el documental «Deep Web», dirigido por su coprotagonista de «Bill & Ted», Alex Winter, que contaba la historia de Ross Ulbricht, el fundador del mercado de la dark web de Silk Road.

    Aunque algunas innovaciones parecen entusiasmarle más que otras, el aclamado actor parece muy consciente del potencial y las transformaciones que muchos de estos desarrollos podrían plantear para la sociedad. (La perspectiva de Reeves no es poca cosa, estamos hablando de alguien que interpretó a un personaje conocido por liderar la revolución contra las máquinas).

    “Me interesa la historia de los humanos y su interacción con la tecnología”, comentó cuando fue consultado sobre su postura frente a la ciencia ficción en una frase que marcaría el tono de la entrevista.

    Reeves reflexiona sobre el lado oscuro de la tecnología

    Más allá de los personajes de ficción que ha encarnado, el actor se mostró un tanto consternado, al tiempo que fascinado, por el potencial de las tecnologías de IA para cambiar la industria del entretenimiento e impactar el mundo en general.

    Reeves reveló a Wired que sus contratos de cine incluyen desde hace años una cláusula que impide alterar sus actuaciones sin su autorización expresa. Según explicó, la cláusula surgió a raíz de una experiencia a inicios de su carrera y aplica a los retoques digitales, por ejemplo mediante tecnologías como IA, y no al proceso tradicional de montaje de una película.

    “No me importa si alguien quita un parpadeo durante una edición. Pero a principios de la década de 2000, o quizá de los 90, modificaron una actuación mía. (No revelará de cuál se trata). Añadieron una lágrima a mi cara, y yo me quedé diciendo: “¿Eh?”. Fue como si ni siquiera tuviera que estar aquí”, rememoró.

    Su preocupación parece centrarse en el potencial de las nuevas herramientas tecnológicas para suprimir la creatividad humana y restarle agencia a los creadores. El actor de John Wick así lo apuntó cuando expresó su impresión poco favorable de los deepfake, (una tecnología que básicamente aprovecha IA para recrear rostros y movimientos).

    Lo frustrante (de los deepfakes) es que pierdes tu agencia. Cuando actúas en una película, sabes que te van a editar, pero estás participando en eso. Si entras en la tierra del deepfake, no tiene ninguno de tus puntos de vista. Eso asusta.

    Si el mundo terminará en una suerte de rebelión de humanos vs máquinas, aún está por verse. Reeves, mientras tanto, parece luchar por mantenerse real en un mundo cada día más lleno de espejismos digitales. Tal y como Neo lo hizo en “The Matrix».

    Fuentes: Wired, DiarioBitcoin.

  • Presentadores en inteligencia artificial de China difunden desinformación en las redes sociales

    El grupo de investigación estadounidense Graphika dice que los presentadores de inteligencia artificial (IA) están reforzando la propaganda de Beijing y hablando mal de Washington.

    Los presentadores de noticias generados por inteligencia artificial se han desplegado por primera vez para hacer propaganda de contenido político en las redes sociales, dijo una firma de investigación estadounidense en su último informe.

    Graphika, con sede en Nueva York, dijo en el informe ‘Deepfake It Till You Make It‘ que Spamouflage, una operación de influencia alineada con el estado de China, ha estado utilizando personas ficticias generadas por IA para promover el papel global de China y difundir desinformación contra Estados Unidos desde finales de 2022.

    Spamouflage, una combinación de Spam y Camouflage, es una táctica utilizada por los spammers para evadir los filtros de spam de correo electrónico reemplazando ciertas letras con números. Los investigadores de seguridad cibernética usan el término, así como otros términos como Dragonbridge o Spamouflage Dragon, para referirse a la red de propaganda pro china en Internet.

    Spamouflage es responsable de publicar, a través de cuentas falsas dirigidas a usuarios de redes sociales, miles de activos que elogian a China, critican a Estados Unidos y atacan el movimiento prodemocracia de Hong Kong, así como la independencia de Taiwán.

    Recientemente ha estado “promoviendo una forma nueva y distintiva de contenido de video en plataformas de redes sociales como Facebook, Twitter y YouTube”, dijo Graphika.

    Los investigadores de la empresa detectaron y analizaron dos videos «únicos» que mostraban a un presentador masculino y femenino, ambos hablando inglés y con aspecto caucásico.

    Los videos usaban el logotipo de una «compañía de medios probablemente ficticia» llamada ‘Wolf News’ con el eslogan que lo acompañaba «Enfóquese en los puntos calientes y transmita en tiempo real».

    El presentador masculino criticó al gobierno de EE. UU. por su «repetición hipócrita de retórica vacía» al abordar la violencia armada, mientras que la mujer destacó la importancia de la cooperación entre China y EE. UU. para la recuperación económica mundial.

    Ambos videos reflejaron “esfuerzos anteriores de Spamouflage para pasar como medios de comunicación legítimos”, dijo el informe de Graphika.

    Alex, Jason y James

    Las abundantes similitudes detectadas en los videos y otros activos de Spamouflage en Internet llevaron a la conclusión sobre la conexión entre los dos.

    China aún no ha respondido al informe de Graphika que apunta al alarmante posible mal uso de la sofisticada tecnología de IA en campañas de desinformación por parte de actores estatales.

    Hasta ahora, las operaciones de influencia en línea se han limitado a rostros falsos generados por computadora y videos fabricados, pero los nuevos videos presentaban personas ficticias generadas por IA que parecían casi reales.

    “A primera vista, los presentadores de Wolf News se presentan como personas reales. Nuestra hipótesis inicial fue que eran actores pagados que habían sido reclutados para aparecer en los videos”, dijo el equipo detrás del informe.

    Después de una mayor investigación, detectaron el habla robótica de los presentadores que no se sincroniza con los movimientos de los labios, así como numerosos errores gramaticales en los subtítulos.

    El equipo de Graphika dijo que los anclajes probablemente se crearon con tecnología proporcionada por Synthesia, una compañía británica de video de IA.

    Encontraron varios videos de marketing usando el mismo dúo generado por IA que hablaba varios idiomas además del inglés. El avatar masculino, llamado Alex en el video de Wolf News, también se llamaba Mr Curtis, Jason y James.

    “El principal beneficio de esta tecnología para los creadores de videos de Spamouflage parece ser una mayor eficiencia, específicamente la producción de contenido de alta velocidad y bajo costo”, dice el informe, y agrega que los productos de Synthesia pueden crear videos generados por IA en cuestión de los minutos y las suscripciones comienzan en solo US $ 30 por mes.

    ‘Deepfakes, problemas reales’

    Los actores de operaciones de influencia “continuarán experimentando con tecnologías de IA, produciendo artefactos de medios cada vez más convincentes que son más difíciles de detectar y verificar”, advirtió Graphika.

    En 2018, la agencia de noticias estatal china Xinhua reveló el primer presentador de noticias de inteligencia artificial del mundo, que era una imagen masculina con voz, expresiones faciales y acciones de una persona real.

    El avatar fue desarrollado conjuntamente por Xinhua y la empresa china de motores de búsqueda Sogou.com.

    Xinhua dijo que el presentador de habla inglesa “puede trabajar las 24 horas del día en su sitio web oficial y en varias plataformas de redes sociales, reduciendo los costos de producción de noticias y mejorando la eficiencia”.

    presentadores
    Xinhua reveló el primer presentador de noticias de inteligencia artificial del mundo en 2018. Crédito: Xinhua

     

    En la última década, China ha puesto gran atención en el desarrollo de tecnología de IA.

    El Índice de IA 2022 de la Universidad de Stanford , que evalúa los avances en IA en todo el mundo, clasifica a China en el segundo lugar en inversión privada total en IA y en el número de empresas de IA recién financiadas, solo después de Estados Unidos.

    Beijing introdujo la primera regulación de su tipo sobre imágenes y videos generados por IA, o «deepfakes», en enero. Según él, «los servicios de síntesis profunda no pueden usar la tecnología para difundir noticias falsas».

    La nueva regulación también dijo que está prohibido el contenido que pone en peligro la seguridad y los intereses nacionales, daña la imagen nacional o perturba la economía.

    Sin embargo, la regulación no se aplica a las falsificaciones profundas generadas fuera del país. Los críticos dicen que su prioridad es reforzar la censura en línea y sofocar la disidencia.

     

  • Inteligencia Artificial de Google genera música sorprendente

    Google ha desarrollado un nuevo y sorprendente sistema de inteligencia artificial (IA) llamado MusicLM, que puede generar música en cualquier género con una descripción de texto. Sin embargo, debido a los riesgos asociados a la tecnología con el copyright, la compañía no tiene planes de lanzarlo de inmediato.

    MusicLM no es el primer sistema de inteligencia artificial generativa para canciones. Anteriormente se han intentado desarrollos como Riffusion, que compone música visualizándola, Dance Diffusion, AudioML de Google y Jukebox de OpenAI. Sin embargo, estos sistemas han fallado en producir canciones complejas en términos de composición o calidad de sonido debido a limitaciones técnicas y una falta de datos de entrenamiento.

    MusicLM es el primer sistema que parece superar estas barreras. Según un artículo académico, MusicLM fue entrenado en un conjunto de datos de 280,000 horas de música, aprendiendo a generar canciones coherentes a partir de descripciones de texto, con un nivel de complejidad significativa. Por ejemplo, se le puede proporcionar una descripción como «canción de jazz encantadora con un solo de saxofón memorable y un cantante solista» o «techno de los años 90 de Berlín «. Las canciones generadas suenan sorprendentemente como si hubieran sido compuestas por un artista humano, aunque pueden no ser tan inventivas o cohesivas musicalmente.

    Es importante destacar la calidad del sonido de las canciones generadas por MusicLM, ya que no hay músicos o instrumentistas en el proceso. Incluso cuando se le proporciona descripciones de texto más largas y detalladas, MusicLM logra capturar matices como riffs instrumentales, melodías y estados de ánimo.

    Las capacidades de MusicLM van más allá de la generación de clips cortos de música. Los investigadores de Google han demostrado que el sistema puede basarse en melodías existentes, ya sea que se cante, silbe o toque con un instrumento. Además, MusicLM puede tomar varias descripciones escritas en secuencia (por ejemplo, «hora de meditar», «hora de despertar», «hora de correr», «hora de dar el 100%») y crear una especie de narrativa melódica, perfectamente adecuada para la banda sonora de una película.

    Los investigadores de Google reconocen los desafíos éticos que plantea el uso de material protegido por derechos de autor en la música generada. Hay problemas legales importantes por resolver en cuanto a la apropiación indebida de contenido creativo.  En 2020, el sello discográfico de Jay-Z presentó acciones contra los derechos de autor contra un canal de YouTube, Vocal Synthesis, por usar IA para crear versiones de Jay-Z de canciones como ‘We Didn’t Start the Fire’ de Billy Joel. Después de eliminar inicialmente los videos, YouTube los restableció y descubrió que las solicitudes de eliminación estaban ‘incompletas’. Pero el tema todavía se encuentra en un terreno legal difuso. Eric Sunray, pasante legal de la Asociación de Editores de Música, argumenta que los generadores de música de IA como MusicLM violan los derechos de autor.

    Es probable que en poco tiempo se tenga claridad sobre el asunto relacionado con la IA que genera música. Varios juicios podrían estar relacionados con los derechos de los artistas cuya obra se utiliza para entrenar IA con o sin su autorización. Pero por ahora, es un tema en desarrollo y por lo visto incluso con CHAT GTP3, ni el cielo parece ser el límite.

  • ¿Qué podemos esperar del desarrollo exponencial de la inteligencia artificial? 7 recomendaciones sobre cómo seguir siendo útil en el futuro

    La inteligencia artificial se acelera…

    inteligencia artificial

    Por ejemplo, decidí finalmente convertirme en YouTuber. Sin embargo, mis videos no me mostrarán a mí, ya que no tengo tiempo ni espacio adecuado para filmarlos durante mis viajes, sino mi avatar digital visualmente idéntico (usando los servicios Synthesia.io o Scena.ai ). Él narrará mis conferencias o artículos en mi voz. Por supuesto en 120 idiomas con el mejor acento y entonación. Personalmente, no sé mandarín, árabe o coreano, pero mi avatar digital visualmente idéntico puede manejarlo fácilmente. No necesito un estudio equipado profesionalmente para esto, o una edición complicada de mi voz grabada. Mi avatar digital será el personaje principal de mi video educativo o de marketing.

    ¿Seremos reemplazados por la inteligencia artificial en un futuro cercano?

    No en los próximos años, pero sí estaremos ante un cambio radical en el mercado laboral en los próximos meses.

    Una gran cantidad de personas, incluidos programadores y artistas, tendrán que adoptar la nueva ola de inteligencia artificial o volver a capacitarse.

    El estado como el mayor obstáculo para el desarrollo exponencial de la inteligencia artificial

    El Estado y el sistema político están anclados en el último milenio y no responden en absoluto al desarrollo exponencial de la tecnología.

    La «única certeza» en el desarrollo exponencial de la tecnología y la inteligencia artificial es el estancamiento del Estado y del sistema político.

    Creo que un revisor fiscal, aduanero o policía tendrá un trabajo más seguro en los próximos años que cualquier programador o creativo. Y se agregará un censor central (porque de lo contrario también sería fácilmente manejado por inteligencia artificial).

    inteligencia artificial

    7 recomendaciones para seguir siendo útil en el futuro

    Conclusión