Categoría: Consulting

  • Estrategia empresarial: ¿integrar procesos o externalizarlos?

    La integración vertical es una estrategia empresarial por la que se busca aumentar la competitividad de los productos y servicios mediante la incorporación de actividades que hasta ahora se delegaban en terceros.

    En las últimas décadas se han producido modas de gestión en las que contratar la gestión de una parte del proceso empresarial a un tercero (el outsourcing) ha sido receta segura para el éxito. Pero las decisiones de externalización o de integración vertical han de ser objeto de permanente revisión por parte de las empresas.

    Una estrategia para ganar competitividad

    La integración vertical es una estrategia empresarial por la que se busca aumentar la competitividad de los productos y servicios mediante la incorporación de actividades que hasta ahora se delegaban en terceros. Esta puede ser hacia atrás (incorporando la manufactura de insumos para sus productos) o hacia adelante (incorporando la distribución o comercialización de los productos que fabrica).

    A partir del análisis de las decisiones de integración vertical en un sector agroindustrial español bien acotado y con una base de datos muy amplia (bodegas de la Denominación de Origen Calificada Rioja), realizamos un aporte empírico sobre el tema.

    Para ello, examinamos la importancia relativa de las prescripciones asociadas con el conocimiento sobre la dirección estratégica, la economía de costes de transacción y el enfoque basado en recursos. Esto, con el objetivo de explicar cómo las empresas establecen sus límites verticales y resuelven los posibles conflictos de las diferentes explicaciones teóricas.

    Una revisión

    Desde el mundo académico se han publicado explicaciones alternativas sobre las decisiones de integración vertical.

    Michael Porter, uno de los autores clásicos sobre dirección estratégica, ya argumentaba en 1980 que, para el control de la calidad y de la innovación, es importante que haya un alto grado de integración vertical entre los eslabones de la cadena de valor (es decir que la empresa controle el máximo de pasos del proceso de fabricación del bien o servicio hasta que llega a manos del cliente). Así, será una decisión acertada para favorecer la ventaja competitiva de una empresa.

    Para Oliver Williamson, premio Nobel de Economía en 2009, las decisiones de integración vertical buscan reducir los costes de transacción implícitos en el mecanismo de precios. A medida que la especificidad de los activos implicados se vuelve significativa, la integración vertical será relativamente más eficiente debido a la facilidad de la coordinación y para evitar el oportunismo.

    Por otra parte, según el profesor de gestión estratégica de la Universidad de Utah Jay Barney, la visión basada en recursos sugiere que una empresa puede adoptar la integración vertical para crear una ventaja competitiva y aumentar las posibilidades de poder apropiarse de las rentas económicas y proteger recursos raros, difíciles de imitar y costosos.

    En este breve repaso de las posturas académicas se presentan tres puntos de vista que han contribuido a la comprensión de los límites verticales de una empresa. Pero cada enfoque ofrece sugerencias de gestión que, por sí mismas, son incompletas. Cada explicación podría conducir a un resultado mejorable si se sigue de forma aislada, al ignorar factores relevantes en la decisión de las empresas.

    Shutterstock / Caftor

    ¿Externalizados o integrados?

    Entender los factores que son importantes a la hora de decidir qué tipo de actividades conviene que las empresas hagan por sí mismas (hacer) y cuáles dejar a cargo de otros (comprar) les permite tomar decisiones de largo plazo.

    En nuestro análisis sobre los procesos de integración vertical en las bodegas de la Denominación de Origen Calificada Rioja pudimos comprobar que se verificaban las predicciones que provenían de esos tres enfoques teóricos (cadena de valor-Porter, costes de transacción-Williamson, recursos disponibles-Barney).

    Pero se obtuvo un resultado adicional, que era el que vinculaba el tipo de estrategia con la que la empresa compite en el mercado con las decisiones de integración vertical.

    Con unos mismos factores del entorno y una misma tecnología (por estudiar un sector en una zona geográfica muy específica), la estrategia competitiva es una variable de comportamiento determinante de las decisiones de integración.

    Integración vertical

    Las bodegas que apuestan por vinos de mayor calidad coinciden con aquellas que utilizan vides propias para aprovisionarse de uva. Las empresas que persiguen diferenciar su producto para alcanzar una mayor ventaja competitiva, optan más probablemente por la integración vertical en sus aprovisionamientos de materias primas.

    Así, la estrategia de diferenciación vertical (medida por atributos de calidad) ayuda a explicar las decisiones de integración vertical o internalización.

    ¿Hasta qué punto es extrapolable este resultado en forma de una prescripción para otros sectores industriales?

    Costes de transacción

    En la producción de vino, aunque no es la uva el único aprovisionamiento de materia prima, sí representa un componente trascendente de la calidad final del producto.

    Si bien tener viñedo propio permite a la bodega un mayor control de las actividades de la cadena valor vitivinícola, tales como el uso de fertilizantes o la poda, es perfectamente viable realizar controles efectivos de estos aspectos mediante figuras intermedias (entre fabricar o comprar) como los contratos a largo plazo.

    Los determinantes que vienen recogidos por la teoría de los costes de transacción (como la especificidad de los activos) son los que mejor explican esta decisión de integración. Pero se observa que también condiciona la decisión de integrar verticalmente el deseo de preservar recursos estratégicos o capacidades propias.

    Recursos disponibles

    Las empresas que apuestan por una mayor calidad en sus productos (diferenciación vertical) poseerán o perseguirán capacidades singulares sobre las que apoyarse (pues en otro caso serían imitables y, por tanto, no tendrían esa ventaja competitiva).

    La integración vertical en sus aprovisionamientos, cuando estos forman parte del núcleo de la cadena de valor de su producto, puede tener varios efectos beneficiosos relacionados con la reducción de costes por oportunismo y otros riesgos, pero además contribuye a preservar y hacer crecer esos recursos distintivos.

    Las empresas pueden ser capaces de preservar estos recursos o protegerse de tales riesgos mediante alianzas a largo plazo (fórmulas híbridas en la cadena vertical) pero, en tal caso, la confianza y la reputación entran a jugar un papel determinante.The Conversation

    Marta Fernández Olmos, Profesor Titular del departamento de Dirección y Organización de Empresas, Universidad de Zaragoza y Jorge Rosell-Martínez, Profesor titular de Organización de Empresas, Universidad de Zaragoza

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • ¿Qué podemos esperar del desarrollo exponencial de la inteligencia artificial? 7 recomendaciones sobre cómo seguir siendo útil en el futuro

    La inteligencia artificial se acelera…

    inteligencia artificial

    Por ejemplo, decidí finalmente convertirme en YouTuber. Sin embargo, mis videos no me mostrarán a mí, ya que no tengo tiempo ni espacio adecuado para filmarlos durante mis viajes, sino mi avatar digital visualmente idéntico (usando los servicios Synthesia.io o Scena.ai ). Él narrará mis conferencias o artículos en mi voz. Por supuesto en 120 idiomas con el mejor acento y entonación. Personalmente, no sé mandarín, árabe o coreano, pero mi avatar digital visualmente idéntico puede manejarlo fácilmente. No necesito un estudio equipado profesionalmente para esto, o una edición complicada de mi voz grabada. Mi avatar digital será el personaje principal de mi video educativo o de marketing.

    ¿Seremos reemplazados por la inteligencia artificial en un futuro cercano?

    No en los próximos años, pero sí estaremos ante un cambio radical en el mercado laboral en los próximos meses.

    Una gran cantidad de personas, incluidos programadores y artistas, tendrán que adoptar la nueva ola de inteligencia artificial o volver a capacitarse.

    El estado como el mayor obstáculo para el desarrollo exponencial de la inteligencia artificial

    El Estado y el sistema político están anclados en el último milenio y no responden en absoluto al desarrollo exponencial de la tecnología.

    La «única certeza» en el desarrollo exponencial de la tecnología y la inteligencia artificial es el estancamiento del Estado y del sistema político.

    Creo que un revisor fiscal, aduanero o policía tendrá un trabajo más seguro en los próximos años que cualquier programador o creativo. Y se agregará un censor central (porque de lo contrario también sería fácilmente manejado por inteligencia artificial).

    inteligencia artificial

    7 recomendaciones para seguir siendo útil en el futuro

    Conclusión

  • Google lleva el desplazamiento continuo al escritorio

    La segunda página de resultados de las búsquedas de Google nos ha acompañado desde los inicios del buscador en 1998, pero esta época está llegando a su fin. Google ha anunciado la introducción, por ahora en Estados Unidos, del scroll o desplazamiento continuo en la página de resultados del buscador en computadoras de escritorio y portátiles. De esta manera, los resultados ya no se limitan a diez antes de tener que pasar a la segunda página, sino que el usuario podrá continuar desplazándose hacia abajo y ver los que antes aparecían en páginas posteriores.

    Esto no es un desplazamiento infinito, lo que, como su nombre indica, permitiría a los buscadores desplazarse sin límites. En cambio, «desplazamiento continuo» permite a los usuarios ver hasta seis páginas de resultados de búsqueda para consultas en inglés en los Estados Unidos desplazándose hacia abajo,  antes de ver el botón «Más» para buscar más resultados.

    Google utiliza un enfoque paginado para sus resultados de búsqueda, lo que significa que cuando busca algo, verá los primeros sitios web vinculados a su búsqueda y, si desea ver más resultados,  se debe hacer click en el siguiente número de página en la parte inferior de Google. «Para brindarle la información más útil, los algoritmos de búsqueda analizan muchos factores y señales, incluidas las palabras de su consulta, la relevancia y la facilidad de uso de las páginas, la experiencia de las fuentes y su ubicación y configuración», describe Google su ranking de algoritmo basado en la página. «El peso aplicado a cada factor varía según la naturaleza de su consulta.» dicen desde la misma empresa.

    Declaración de Google:  “Entonces, a partir de hoy, traeremos el desplazamiento continuo al escritorio para que pueda continuar viendo resultados de búsqueda más útiles con menos clics. Ahora es aún más fácil inspirarse con más información al alcance de la mano”, dijo un portavoz de Google a Search Engine Land.

    “Ahora, cuando te desplazas hacia abajo, seguirás encontrando resultados relevantes para que puedas descubrir nuevas ideas. Cuando llegue al final de una página de resultados de búsqueda, se mostrarán automáticamente hasta seis páginas de resultados hasta que vea el botón ‘Más resultados’ si desea continuar», agregó Google.

    Esto puede afectar los datos de Search Console porque los buscadores pueden desplazarse más o menos y con ello puede impactar en los anuncios; de hecho, sí lo hizo con Google Ads cuando se lanzó por primera vez el desplazamiento continuo en dispositivos móviles.

    El límite en torno a diez resultados de búsqueda por página, mantenido durante décadas, ha condicionado el comportamiento de los usuarios y la forma que en usan el buscador. Más del 80% no pasa de la primera página de resultados y es más frecuente que reformulen una búsqueda que seguir indagando página tras página cuando no encuentran lo que esperan.

    Aún cuando puede llevar algún tiempo implementarlo por completo para que lo vean todos los usuarios de EE. UU. y globalmente,  esta nueva característica probablemente proporcionará más visibilidad a los sitios que no pasaban el corte de la primer página. Y más oportunidades para los anunciantes y empresas, que dispondrán de mucho más espacio para anunciarse, algo que Google sabrá aprovechar.

     

  • Los algoritmos guían la selección de personal en las empresas y eso puede ser un problema

    Ante una tarea compleja, tendemos a fiarnos más de los algoritmos que de nosotros mismos.

    “No soy un producto de mis circunstancias. Soy un producto de mis decisiones”.

    Los siete hábitos de las personas altamente efectivas (Stephen Covey).

    Desde que abrimos los ojos para despertarnos hasta que se acaba el día estamos constantemente tomando decisiones. Muchas son inconscientes. No las pensamos, simplemente actuamos.

    Nuestro cerebro no está dispuesto a gastar energía en cosas tan simples como una primera impresión de una persona o contexto. Por lo general, no pensamos o reflexionamos sobre estas decisiones que tomamos de manera rápida.

    La realidad es que estas decisiones impulsivas pueden tener consecuencias negativas, como la discriminación en una entrevista de trabajo.

    En psicología decimos que juzgar rápidamente a una persona por su apariencia es como juzgar un libro por su tapa. Es fácil hacerlo, pero puede ser fácil fallar. En los procesos de selección de personal puede estar sucediendo lo mismo, aunque sea un algoritmo el que tome las decisiones.

    Tenemos que saber que no tomamos todas las decisiones de manera independiente. La gran mayoría están apoyadas en la tecnología. Esto es así por la economía de esfuerzo. Muchas veces para decisiones complejas hay que manejar un gran volumen de datos, y esto nos genera un gasto de energía importante. La confianza hacia estas tecnologías suele ser ciega: todo lo tecnológico nos da cierta sensación de veracidad.

    Pero, ¿cómo es posible que un algoritmo esté sesgado?

    El sesgo es una inclinación hacia una persona, cosa o grupo que produce un desequilibrio que perjudica a la otra parte. Estamos sesgados cuando no somos neutros ante una persona, grupo, situación, etc. Eso produce un error.

    Estos errores, que se pueden dar en las interpretaciones de diferentes contextos, individuos o información, se pueden ver reflejados tanto en la toma de decisiones humanas como en la inteligencia artificial (IA). Al ser los humanos los que diseñan esta tecnología, es posible que estén reproduciendo datos sesgados o manipulados.

    Introducción de la IA en los puestos de trabajo

    El razonamiento más común para la introducción de nuevas tecnologías en nuestros trabajos suele ser la objetividad y la eficiencia. Se podría decir que, a nivel social, todo lo tecnológico nos da más seguridad. Ante una tarea compleja, tendemos a fiarnos más de los algoritmos que de nosotros mismos.

    Así, el aumento de la utilización de la IA está siendo exponencial. Por ejemplo, en el área de los recursos humanos estas nuevas tecnologías se están aplicando en el reclutamiento y selección del personal, la evaluación del desempeño y desarrollo del personal. Estos recursos están ayudando a la automatización de diferentes tareas que se puede interpretar como eficiencia organizacional.

    En el mercado actual tenemos herramientas digitales que nos ayudan a escoger al mejor candidato utilizando una búsqueda semántica automatizada basada en la información escrita por el candidato en su currículum. Pero también teniendo en cuenta el número de palabras técnicas que utiliza en la entrevista o en la conversación que puede llegar a mantener con un chatbot.

    Ejemplos de la actuación de los sesgos en la IA

    Existen plataformas de búsquedas de empleo que hacen uso de la IA para poder ofrecer un resultado objetivo a la hora de escoger al candidato idóneo para un puesto de trabajo específico.

    La realidad es que la selección final que hacen estos algoritmos hacia los candidatos seleccionados está sesgada. Se ha visto que los algoritmos pueden generar discriminación étnica y de género para ofrecer, en el 85 % de los casos, puestos de trabajo de cajera de supermercado a mujeres, o puestos de taxista al 75 % de perfiles afroamericanos.

    A su vez, los algoritmos pueden tener en cuenta las tendencias de búsqueda del reclutador y sus interacciones con perfiles específicos. Y, así, recomendar perfiles de empleados con características similares. En estos casos no es una sorpresa encontrarnos con perfiles muy similares a las características personales del reclutador. Por ejemplo, haber estudiado en la misma universidad, ser de la misma etnia, tener un estilo de vida similar, mismo aspecto físico y lugar de residencia.

    La explicación se debe a que la IA aprende a tomar decisiones basándose en la reproducción de datos que se pueden apoyar en el aprendizaje de las decisiones humanas. Estas últimas puede que estén sesgadas y, en consecuencia, reflejar disparidades históricas o sociales. A su vez, eliminar algunas variables sensibles como el género, la etnia o la orientación sexual puede llevar a la reproducción de resultados sesgados.

    No hay que tener fe ciega en la IA

    Se están dando muchos avances en la inteligencia artificial. A raíz de la pandemia, los procesos de e-recruitment (reclutamiento por medios digitales) han experimentado cierto crecimiento apoyado en estas tecnologías.

    Se han creado algoritmos que interpretan semánticamente el contenido escrito (carta de recomendación o currículum) o verbal (entrevista por plataformas digitales). Como resultado se ofrece un diagnóstico del candidato (perfil de personalidad, inteligencia) que es determinante para la toma de decisiones en el proceso de selección.

    Sin embargo, hay que tener en cuenta que, como sucede en casi toda la tecnología, la parte vulnerable es la persona. Es decir, el algoritmo no falla, pero puede fallar la persona que lo programa. Esto se puede producir por un error humano, por falta de conocimiento psicológico, por influencias externas y por intereses de empresas.

    La tecnología nos está ayudando en el campo de los recursos humanos, al igual que en otros como salud, marketing, automoción, sector jurídico y asegurador y banca. Su implementación ha crecido en los últimos años e irá a más.

    ¿Significa esto que no debemos dejarnos guiar por la inteligencia artificial? Podemos apoyarnos en ella, pero siempre con reservas. Debemos entender que un algoritmo no es un genio mágico y sabelotodo, sino que detrás tiene, como sucedía en El mago de Oz, a una persona imperfecta.The Conversation

    Elene Igoa Iraola, Investigadora Predoctoral, Universidad de Deusto y Fernando Díez Ruiz, Profesor doctor Facultad de Educación y Deporte, Universidad de Deusto

    Este artículo fue publicado originalmente en The Conversation. Lea el original.

  • JPMorgan y Visa conectan sus redes Blockchain para optimizar los pagos transfronterizos

    Dos gigantes de las finanzas tradicionales se están uniendo para agilizar los pagos internacionales con ayuda de Blockchain. El banco más grande de EE. UU., JPMorgan, y la emisora de tarjetas de crédito, Visa, están trabajando en alianza para conectar sus redes privadas de cadena de bloque, Liink y B2B Connect, en un esfuerzo por facilitar los pagos transfronterizos.

    Como parte de la asociación, Visa adoptará la nueva herramienta de JPMorgan, Confirm, para validar nuevas cuentas para pagos transfronterizos y aprobar cuentas cuando se incorporen nuevos usuarios, según informó Forbes. En específico, la red Blockchain de Visa, B2B Connect, comenzará a aprovechar el producto.

    JPMorgan lanzó Liink en 2017 con el objetivo de hacer que las transferencias internacionales sean más eficientes. Antes llamada Interbank Information Network, la solución se ofrece a través de Onyx, la división de infraestructura de pagos y Blockchain del banco.

    Como tal, Confirm es el producto de validación de información de cuenta de Liink, que garantiza que las partes que realizan transacciones proporcionen identidades genuinas e información correcta, según el informe. B2B Connect de Visa, que es una red similar a Liink para uso institucional, ahora se ha integrado con Confirm.

    Los socios esperan que la iniciativa agilice las transacciones internacionales. Actualmente, el éxito de los pagos globales se basa en la coordinación de los bancos corresponsales entre zonas horarias y monedas. Estos bancos suelen utilizar el sistema de mensajería, SWIFT, el cual ahora está seriamente amenazado dado que este sistema no está exento de fallas. Según informe de J.P Morgan, los errores en la información de las cuentas representan el 66 % de las fallas en los pagos anuales, lo que le cuesta a la economía global hasta USD $118 mil millones al año.

    Confirm, diseñado para validar la información de las cuentas y garantizar que las partes que realizan transacciones proporcionen identidades genuinas e información correcta, podría posicionarse como un rival en el sistema de pagos transfronterizos. De hecho, Onyx adelanta que la solución pronto será capaz de verificar más de 2 mil millones de cuentas bancarias de 3.500 instituciones financieras.

    De acuerdo con el medio Forbes, JPMorgan lanzó Confirm en modo piloto el año pasado y ahora está buscando socios en todo el mundo para expandir su solución. El banco está trabajando para lanzar el producto en 10 países para fines de 2022 y planea aumentar su presencia en unos 30 países el próximo año, según ese informe.

    Como parte de esos esfuerzos, el banco ha fichado a Deutsche Bank, la compañía global de servicios bancarios y financieros con sede en Fráncfort, que confirmó se ha unido como miembro fundador de Confirm para guiar su expansión estratégica.

    “El crecimiento de Confirm está fuertemente influenciado por los efectos de la red“, comentó Alex Littleton, director global de Confirm, en un comunicado citado por los medios. “Por lo tanto, nombrar a Deustche Bank como miembro fundador, al tiempo que establece la interconectividad con la cadena de bloques de Visa B2B, acelerará nuestra adopción a escala mundial”.

    Finanzas tradicionales , SWIFT y Web3

    Colaborando con Chainlink en busca de interoperabilidad (uno de los beneficios de la blockchain) SWIFT intenta modernizarse, aunque podría ser tardío frente a los desarrollos que vienen probándose a través de las criptomonedas.

    El movimiento parece confirmar el creciente interés de las firmas financieras tradicionales para abrirse un lugar en cripto y Web3. En mayo de este año, JPMorgan utilizó la tecnología Blockchain para tokenizar acciones y otros valores de los sectores tradicionales y el banco también publicó recientemente una vacante laboral para un puesto senior centrado en Web3 y pagos.

    Visa no se queda atrás en estos desarrollos. El año pasado la compañía adelantó que estaba construyendo una plataforma de pagos interoperables entre monedas digitales de banco central (CBDC) y stablecoins.

    La firma también ha pisado con fuerza en el sector de criptomonedas. En el primer trimestre fiscal de 2022, dijo que el uso de tarjetas Visa vinculadas con monedas digitales superó los USD $2,5 mil millones. Más recientemente la empresa dijo que trabaja en alianzas para llevar productos y soluciones cripto a países de América Latina.

    Estos nuevos servicios buscan implementar sistemas de recompensas y acelerar la velocidad de transacción de la banca tradicional. La idea es modernizar las plataformas utilizando la Blockchain, esto amenaza la utilización del sistema SWIFT a nivel global. Por otra parte, las nuevas tecnologías permiten el acceso a países que no están participando en el sistema SWIFT por diversos motivos políticos o económicos.

  • Google pierde apelación por fallo antimonopolio ante la UE.

    Google sufrió uno de sus mayores reveses ayer miércoles cuando un alto tribunal de la UE confirmó fallo que ratificaba que la compañía había infringido las normas de competencia, imponiendo una multa récord de 4.125 millones de euros, en una medida que podría animar a otros reguladores a intensificar sus acciones y presión sobre el gigante estadounidense.

    El tribunal dijo que “confirma en gran medida la decisión de la Comisión Europea de que Google impuso restricciones ilegales a los fabricantes de dispositivos móviles Android y operadores de redes móviles para consolidar la posición dominante de su motor de búsqueda”.

    En su decisión original, la Comisión Europea dijo que las prácticas de Google restringen la competencia y reducen las opciones para los consumidores, determinando que Google violó las reglas de la UE al exigir a los fabricantes de teléfonos inteligentes que tomaran un paquete de aplicaciones de Google si querían alguna y les impidió vender dispositivos con versiones alteradas de Android.

    La multa inicial fue emitida por la Comisión Europea en 2018 y fue la más grande para Google y una multa récord por una infracción antimonopolio. Dijo que alrededor del 80% de los europeos usaban Android y que Google le dio una ventaja injusta a sus aplicaciones, como Chrome y Search, al obligar a los fabricantes de teléfonos inteligentes a preinstalarlos en un paquete con su tienda de aplicaciones, Play Store.

    El fallo está destinado a impulsar reglas históricas destinadas a frenar el poder de los gigantes tecnológicos de EE. UU. que entrarán en vigencia el próximo año.
    «Para reflejar mejor la gravedad y la duración de la infracción», procede imponer a Google una multa de 4.125 millones de euros, dijo el tribunal. Eso es ligeramente inferior a la sanción original de 4.340 millones de euros, y el tribunal dijo que su razonamiento difería «en ciertos aspectos» del de la comisión.

    Google ha sido multada por la UE en otros dos casos: por 2.420 millones de euros por favorecer a su propio servicio de comparación de compras en los resultados generales de sus páginas de búsqueda; y por 1.490 millones de euros por impedir que los propietarios de sitios web incluyeran resultados de búsqueda de sus rivales.
    En junio, supuestamente acordó permitir que los intermediarios publicitarios rivales coloquen anuncios en YouTube, una medida que podría ser un paso para evitar otra multa como parte de una investigación sobre si restringe el acceso de los rivales y los anunciantes a los datos de los usuarios.

    Desde entonces, la comisión ha ampliado su represión contra los gigantes digitales con más investigaciones antimonopolio dirigidas a Amazon, Apple y Facebook y nuevas reglas radicales destinadas a tomar medidas drásticas contra las empresas digitales más grandes. Las empresas tecnológicas ahora enfrentan un escrutinio más estricto en todo el mundo: Google también recibió una multa de $ 50 millones el miércoles por parte de los organismos de control de la privacidad de Corea del Sur que también multaron a la empresa matriz de Facebook, Meta, con $ 22 millones.

  • Google se asocia con el gobierno de EE.UU. para suministrar chips y estimular la innovación

    Los chips utilizados para desarrollar nuevos dispositivos de nanotecnología y semiconductores a menudo tienen un precio alto por lo que son escasos, lo que representa un gran obstáculo para la innovación. Para resolver este problema, el Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de EE. UU. ha firmado un acuerdo cooperativo de investigación y desarrollo con Google para desarrollar y producir estos chips.

    La Ley de Ciencia y Chips de la administración Biden, que fue aprobada recientemente por el Congreso y convertida en ley, autoriza la financiación destinada a impulsar la producción nacional de semiconductores en respuesta a las interrupciones de la cadena de suministro.

    Una serie de empresas han anunciado nuevas plantas de semiconductores como resultado de la aprobación de la legislación, que autorizó alrededor de $ 52 mil millones en subsidios gubernamentales para la producción e investigación de semiconductores de EE. UU., y un crédito fiscal a la inversión para plantas de chips estimado en $ 24 mil millones.

    En el acuerdo, Google pagará el costo inicial de establecer la producción y subsidiará la primera producción, según NIST. Luego, NIST diseñará los circuitos para los chips con la ayuda de socios universitarios como la Universidad de Michigan, la Universidad de Maryland, la Universidad George Washington, la Universidad Brown y la Universidad Carnegie Mellon. Planean diseñar hasta 40 chips diferentes para diferentes usos.

    Los diseños de circuitos serán de código abierto, lo que permite a los investigadores académicos y de pequeñas empresas utilizar los chips sin restricciones ni tarifas de licencia, lo que hace que el uso del chip sea más accesible.

    «Google tiene una larga historia de liderazgo en código abierto», dijo Will Grannis, CEO de Google Public Sector. «Pasar a un marco de código abierto fomenta la reproducibilidad, lo que ayuda a los investigadores de instituciones públicas y privadas a repetir el trabajo de los demás. También democratiza la innovación en la investigación de nanotecnología y semiconductores».

    Dado que el costo de estos chips alcanza los cientos de miles de dólares, la innovación en el espacio se ha limitado a las grandes empresas. Dado que se supone que la colaboración reducirá drásticamente el precio de los chips, el costo ya no será una barrera de entrada para universidades e investigadores emergentes.

    Los dispositivos microelectrónicos modernos tienen componentes apilados, con el chip semiconductor en la capa inferior. La colaboración creará un chip de capa inferior más avanzado que tiene estructuras especializadas para medir y probar el rendimiento de los componentes colocados encima.

    SkyWater Technology fabricará estos chips en forma de discos de silicio estampado de 200 milímetros en su fundición de semiconductores de Bloomington, Minnesota. Las universidades y otros compradores pueden cortar los discos en miles de chips individuales en sus propias instalaciones de procesamiento.

    «Al crear un suministro doméstico nuevo y asequible de chips para investigación y desarrollo, esta colaboración tiene como objetivo liberar el potencial innovador de los investigadores y las nuevas empresas en todo el país», dijo la subsecretaria de Comercio de Estándares y Tecnología y directora del NIST, Laurie E. Locascio. «Este es un gran ejemplo de cómo el gobierno, la industria y los investigadores académicos pueden trabajar juntos para mejorar el liderazgo de EE. UU. en esta industria de importancia crítica».

  • Satélites Starlink de Elon Musk hackeados por dispositivo casero de $25

    Con más de 3000 pequeños satélites en órbita, y desde hace 2 meses con presencia en Panamá, Starlink, la constelación de Internet satelital operada por SpaceX de Elon Musk, ha creado una excelente flota que actualmente orbita la Tierra, proporcionando cobertura de acceso a Internet por satélite en 36 países y que ya ha atraído a más de 500.000 suscriptores.

    Desde 2018, Starlink se ha establecido lentamente en la industria y se ha convertido, por ejemplo, en una herramienta vital para mantener conectados a los ucranianos durante la invasión rusa. Según Musk en mayo, Starlink ha frustrado hasta ahora todos los ataques cibernéticos provenientes de Rusia.

    Sin embargo, un investigador de seguridad cibernética belga ha encontrado una manera de piratear los platos debido a varias vulnerabilidades de hardware. Si se deja expuesto, esto daría rienda suelta a los actores de amenazas para acceder al sistema de Starlink y luego ejecutar un código personalizado en los dispositivos de la red.

    El jueves pasado en la conferencia de seguridad Black Hat en Las Vegas, este investigador, Lennert Wouters, mostró cómo pirateó el sistema de Internet Starlink usando una placa de circuito casera o un modchip, donde las piezas generales necesarias para el dispositivo cuestan solo $25.

    Para lograrlo, Wouters procedió a desmontar la antena parabólica, lo que le permitió conectar el modchip personalizado usando esas piezas baratas disponibles en el mercado. Una vez conectada, la placa de circuito impreso (PCB) hecha en casa es capaz de cortocircuitar el sistema, aunque sea temporalmente, a través de un ataque de inyección de fallas. Este método o falla, permite el acceso a las funciones de control que Starlink tenía la intención de mantener bloqueadas.

    Después de revelar el truco en su presentación, Wouters lanzó la herramienta en GitHub, que ofrece un desglose de cómo realizar el ataque en sí.
    «Como atacante, digamos que quisieras atacar el propio satélite», explicó Wouters, «podrías intentar construir tu propio sistema que te permita hablar con el satélite, pero eso es bastante difícil. Entonces, si quieres atacar los satélites, le gustaría pasar a través de la terminal de usuario, ya que probablemente le haga la vida más fácil».

    Starlink se dio cuenta de los defectos de seguridad el año pasado por el propio Wouters, e incluso pagó al investigador por sus esfuerzos a través de su esquema de recompensas por errores. Starlink, en respuesta al escaparate de Wouters, publicó un PDF de 6 páginas que explica cómo protege sus sistemas junto con una actualización de firmware que «hace que el ataque sea más difícil, pero no imposible, de ejecutar».

    Aunque la empresa matriz SpaceX reparó las vulnerabilidades en ese momento, lo que llevó a Wouters a modificar el modchip, parece que el problema central no se puede resolver sin que se produzca un nuevo modelo del chip principal. Como tal, afirmó que todos los terminales de usuario asociados con Starlink están actualmente expuestos.

    Starlink confirmó que se estaba trabajando en una actualización pública, pero Wouters enfatizó que la naturaleza de las operaciones de la compañía las expone de cualquier manera. “La amplia disponibilidad de terminales de usuario Starlink (UT) los expone a los piratas informáticos y abre la puerta para que un atacante explore libremente la red”, dijo.

    Wouters también tiene experiencia en piratear otro producto de una empresa de Elon Musk: creó un hardware que puede desbloquear un vehículo eléctrico Tesla en solo 90 segundos.

  • ¿Te gustaría saber cómo ha evolucionado tu ciudad desde hace 750 millones hasta la actualidad? Este mapa interactivo te lo muestra.

    ¿Te has preguntado alguna vez cómo se vio tu ciudad hace millones de años? Todo lo que ha pasado en el territorio en el que creciste o en el que vives actualmente. Y no hablamos de la historia de la humanidad, sino de la formación geológica de la Tierra tal como la conocemos hoy. Pues bien, con este mapa interactivo llamado Ancient Earth, podrás conocer cómo se vio el mundo hace cientos de millones de años; una verdadera maquina del tiempo.

    Esta herramienta interactiva abarca casi toda la masa terrestre existente de la Tierra y retrocede en el tiempo para ver dónde estaba ubicada en tiempos como el del supercontiente pangea. El mapa cuenta con la división política de los países actuales, lo que permite ubicar dónde estaba cada nación en los distintos momentos, si es que existía. La herramienta ofrece 26 líneas de tiempo en las que los usuarios pueden ingresar una dirección, un punto de referencia o un estado o país, y luego elegir una fecha que va desde cero hasta hace 750 millones de años. También es posible no usar fechas y en su lugar seleccionar eventos cruciales de la historia de la Tierra, como los primeros vertebrados o cuándo surgió cierta flora y fauna.

    Este mapa interactivo ha sido creado por el ingeniero Ian Webster, formado en Google y la NASA, y responsable de que tengamos una de las bases de datos digitales sobre dinosaurios más completas y extensas hasta el momento. El proyecto lo ha realizado en conjunto con el paleontólogo Chrostopher R. Scotese, creador de Paleomap Projec t y experto en entender cómo se han ido moviendo las placas tectónicas a través de la historia.

    Nuestros siete continentes modernos se trazan contra la superficie cambiante del planeta. Con Ancient Earth, los usuarios pueden contextualizar la tierra en la que nos encontramos actualmente en términos geológicos, mientras aprenden sobre eventos emocionantes del pasado remoto, como la aparición de los arrecifes de coral (hace 470 millones de años), los primeros insectos (hace 400 millones de años), la formación del supercontinente Pangea en el Período Triásico Inferior (hace 240 millones de años), y la extinción de los dinosaurios en el Período Cretácico Superior (hace 66 millones de años).

    En el caso del continente americano, es hace 66 millones de años en el período cretácico superior, donde se empieza a visualizar su contorno aproximado como lo conocemos ahora, separándose de esa masa única que formaba con el actual europeo y africano. En una época donde se produce la extinción masiva que lleva a la desaparición de los dinosaurios, muchos reptiles marinos, todos los reptiles voladores y muchos invertebrados marinos y otras especies. Los científicos creen que este fenómeno fue causado por el impacto de un asteroide en la Península de Yucatán en México.

    Panamá en ese entonces todavía no es una masa de tierra formada uniendo el continente, empieza a formarse desde centroamérica para terminar por unirse con la actual Colombia, hecho que ocurre hace aproximadamente 35 millones de años.

    En definitiva, «el mapa ilustra datos científicos complejos e interesantes de una manera interactiva y fácil de usar para que los maestros, profesores y cualquier otra persona interesada en la historia y la ciencia de la Tierra puedan aprender», dijo Webster. «Está destinado a despertar la fascinación y, con suerte, el respeto por los científicos que trabajan todos los días para comprender mejor nuestro mundo y su pasado», afirmó. «También contiene sorpresas divertidas, por ejemplo, cómo los EE. UU. solían estar divididos por un mar poco profundo, los Apalaches solían ser montañas muy altas comparables al Himalaya y Florida solían estar sumergidas».
    Un mapa interactivo para viajar en el tiempo, sin moverse del sitio.

     

  • ‘The Line’, la primera ciudad vertical de gravedad cero será una realidad en Arabia Saudí en 2030.

    Su Alteza Real Mohammed bin Salman (HRH), Príncipe Heredero de Arabia Saudita y Presidente de la Junta Directiva del proyecto de comunidad desértica planificada denominada Neom, anunció los diseños el 25 de julio y calificó su ambicioso proyecto ‘The Line’ como una «revolución de la civilización» que pone a los humanos en primer lugar, brindando una experiencia de vida urbana sin precedentes mientras preserva la naturaleza circundante. La urbe estaría lista para 2030.

    El megaproyecto ‘The Line’ albergará hasta 9 millones de residentes en comunidades caracterizadas por su revolucionario diseño vertical, con 200 metros de ancho, 170 kilómetros de largo, desde las montañas de Neom hasta el Mar Rojo, y 500 metros sobre el nivel del mar, construida en una superficie de 34 km2, algo inaudito en comparación con otras ciudades de capacidad similar, albergando la longitud de Long Island, la altura del Empire State Building y conteniendo la población de la ciudad de Nueva York.

    Teniendo como objetivo poner la naturaleza por delante del desarrollo e imaginando un futuro para las colectividades urbanas, los diseños de ‘The Line’ encarnan cómo las sociedades pueden vivir y desarrollarse en el futuro en un entorno libre de carreteras, automóviles y emisiones. Funcionará con energía 100% renovable y priorizará la salud y el bienestar de las personas sobre el transporte y la infraestructura, contribuyendo a preservar el 95% de la tierra de Neom.

    La ciudad se construirá con sistemas de regulación de temperatura, lo que garantizará un clima ideal durante todo el año, para que los residentes puedan disfrutar de la naturaleza que los rodea yendo a pie a todas partes. Los residentes también tendrán acceso a todas las instalaciones de ‘The Line’ dentro de una caminata de 5 minutos, además de un tren de alta velocidad subterráneo que promete ser una joya de la ingeniería, con un tránsito de extremo a extremo de 20 minutos.

    El proyecto ofrece un nuevo enfoque para el diseño urbano, la idea de estratificar las funciones de la ciudad verticalmente, mientras que brinda a las personas la posibilidad de moverse en tres dimensiones (arriba, abajo y transversalmente) para acceder a ellas es un concepto denominado Urbanismo de Gravedad Cero. A diferencia de los edificios altos, este concepto superpone parques públicos y áreas peatonales, escuelas, hogares y lugares de trabajo.

    ‘The Line’ tendrá una fachada de espejo exterior que proporcionará su carácter único y permitirá que incluso su pequeña huella se mezcle con la naturaleza. Será creado por un equipo de arquitectos e ingenieros de renombre mundial para desarrollar este concepto revolucionario para la ciudad del futuro. El diseño de la ciudad también se digitalizará por completo y la construcción se industrializará en gran medida mediante el avance significativo de las tecnologías de construcción y los procesos de fabricación.

    Este proyecto promete aportar valor al mundo a través del equilibrio entre el trabajo y la vida, el urbanismo libre de legados, la habitabilidad mejorada, el ocio y los deportes, la vida vertical, la arquitectura de próxima generación, las comunidades transitables y las soluciones ambientales. Aunque muchos están preocupados por la privacidad o no que tendrán sus habitantes, pues la urbe estará dotada en un 100% con sistemas de inteligencia artificial y robótica para monitorear todo lo que ocurra dentro y analizar los respectivos datos, abriendo el debate a un posible control que pueda ejercer el gobierno nacional y local sobre sus ciudadanos.