Etiqueta: smartphone

  • Google desarrolla tecnología de diagnóstico médico en smartphones.

    Nuestros teléfonos celulares ya han asumido el papel de cámaras, pantallas de televisión y diarios. ¿Qué pasaría si también funcionaran como estetoscopios y equipos de detección de enfermedades, permitiéndonos diagnosticar problemas de salud sin salir de casa? Esta idea podría ser pronto una realidad gracias a Google Health.

    Ahora, la compañía tiene como objetivo hacer que los teléfonos inteligentes lo sean aún más infundiéndoles tecnología de diagnóstico médico, y reveló su investigación sobre nuevas iniciativas de salud que buscan utilizar smartphones para salvaguardar la salud cardiovascular, mantener la visión y capturar el sonido del corazón, entre otras herramientas de detección de enfermedades, en su segundo evento anual «The Check-Up» el pasado jueves.

    El lanzamiento de estos proyectos se produce inmediatamente después del debut europeo de Derm Assist de Google, una aplicación móvil con marcado CE presentada el año pasado que utiliza IA para analizar tres fotos de un problema de piel, cabello o uñas y las respuestas a una encuesta autoinformada para proporcionar una lista de posibles condiciones.

    Según los informes, el primer estudio se basa en la investigación previa de Google, que utilizó imágenes clínicas del interior del ojo para detectar factores de riesgo cardiovascular, como el exceso de azúcar en la sangre y el colesterol alto, así como la enfermedad diabética del ojo. Ahora, Google afirma que está analizando la posibilidad de utilizar el aprendizaje automático para diagnosticar problemas de diabetes y no diabéticos utilizando la cámara de un teléfono inteligente.

    «Particularmente en los primeros resultados prometedores regulares, estamos buscando más investigación médica con organizaciones asociadas como EyePACS y Chang Gung Memorial Hospital (CGMH) para ver si las fotografías de los teléfonos inteligentes también pueden ayudar a identificar la diabetes y las enfermedades no diabéticas a partir de fotos externas del ojo», escribió Greg Corrado, jefe de IA de salud de Google, en una publicación de blog.

    El otro estudio de Google analiza el uso del micrófono incorporado de un teléfono para detectar los sonidos del corazón. Escuchar sonidos cardiorrespiratorios es un elemento importante de un examen físico de rutina, y comúnmente se realiza en clínicas con un estetoscopio. Google, por otro lado, ve un futuro en el que cualquiera puede grabar los latidos de su corazón simplemente colocando su teléfono sobre su pecho.

    Además de los mencionados estudios, Google ya permite usar un teléfono inteligente para monitorear el pulso y respiración con la aplicación Google Fit. Realiza un seguimiento de la frecuencia cardíaca y respiratoria utilizando el sensor de la cámara y los algoritmos del teléfono. Anteriormente, solo se podía acceder a la función en los teléfonos Pixel, pero Google afirma que ahora está disponible «en más de 100 tipos de dispositivos Android e iOS».

    «El objetivo de nuestro estudio actual es ver si un teléfono inteligente puede controlar la frecuencia del pulso y los soplos. Todavía estamos en las primeras fases de las pruebas de ensayos clínicos, pero creemos que nuestro trabajo permitirá a las personas utilizar sus teléfonos inteligentes como otra herramienta para facilitar el control de la salud».

  • Las personas con discapacidad ya pueden controlar sus teléfonos con gestos faciales

    Con una ceja levantada o una sonrisa, las personas con discapacidades físicas o del habla ahora pueden operar sus teléfonos inteligentes con Android con manos libres, según Google.

    Google lanzó dos nuevas herramientas que permiten que el aprendizaje automático y las cámaras frontales de los teléfonos inteligentes funcionen detectando los movimientos faciales y oculares.

    Los usuarios pueden escanear la pantalla de su teléfono y seleccionar una tarea sonriendo, levantando las cejas, abriendo la boca o mirando a la izquierda, derecha o arriba.

    «Para hacer que Android sea más accesible para todos, estamos lanzando nuevas herramientas que facilitan el control de su teléfono y la comunicación mediante gestos faciales», dijo Google.

    Los Centros para el Control y la Prevención de Enfermedades estiman que 61 millones de adultos en Estados Unidos viven con discapacidades, lo que ha empujado a Google y a sus rivales Apple y Microsoft a hacer que los productos y servicios sean más accesibles para ellos.

    «Todos los días, la gente usa comandos de voz, como ‘hey, Google’, o sus manos para navegar en sus teléfonos», explicó el gigante tecnológico en una publicación de blog. «Sin embargo, eso no siempre es posible para las personas con discapacidades motoras y del habla graves».

    Los cambios son el resultado de dos nuevas funciones, una se llama «Interruptores de cámara», que permite a las personas usar sus rostros en lugar de deslizar y tocar para interactuar con los teléfonos inteligentes.

    El otro es Project Activate, una nueva aplicación de Android que permite a las personas usar esos gestos para desencadenar una acción, como hacer que un teléfono reproduzca una frase grabada, envíe un mensaje de texto o haga una llamada.

    «Ahora es posible que cualquier persona utilice movimientos oculares y gestos faciales personalizados para su rango de movimiento para navegar en su teléfono, sin manos ni voz», afirmó la compañia.

    Apple, Google y Microsoft han implementado constantemente innovaciones que hacen que la tecnología de Internet sea más accesible para las personas con discapacidades o que encuentran que la edad ha dificultado algunas tareas, como la lectura.

    Los asistentes digitales controlados por voz integrados en los altavoces y los teléfonos inteligentes pueden permitir que las personas con problemas de visión o de movimiento le digan a las computadoras qué hacer.

    Existe un software que identifica texto en páginas web o en imágenes y luego lo lee en voz alta, así como generación automática de subtítulos que muestran lo que se dice en videos.

    Una función -AssistiveTouch- que Apple incorporó al software que alimenta su reloj inteligente permite que las pantallas táctiles se controlen mediante la detección de movimientos como pellizcos con los dedos o con las manos.

    Apple dijo en una publicación que «esta función también funciona con VoiceOver para que pueda navegar por Apple Watch con una mano mientras usa un bastón o lleva un animal de servicio».

    El gigante de la informática Microsoft por su parte describe la accesibilidad como esencial para capacitar a todos con herramientas tecnológicas.

    «Para permitir un cambio transformador, la accesibilidad debe ser una prioridad», citó. «Nuestro objetivo es integrarlo en lo que diseñamos para cada equipo, organización, aula y hogar».

    Con información de AFP.

    Fuente: Voz de América.com