Cree aplicaciones de Android más inteligentes con Machine Learning en el dispositivo
14/05/2023
Publicado por Thomas Ezan, relaciones con desarrolladores
El año pasado, el equipo de Android realizó mejoras significativas en el aprendizaje automático en el dispositivo para ayudar a los desarrolladores a crear aplicaciones más inteligentes con más funciones para procesar imágenes, sonido y texto. En la charla de Google I/O Cree aplicaciones de Android más inteligentes con aprendizaje automático en el dispositivo, David Miro-Llopis PM en ML Kit y Thomas Ezan Android Developer Relation Engineer revisan nuevas API y soluciones de Android y muestran aplicaciones que usan ML en el dispositivo.
La ejecución de procesos de ML en el dispositivo permite una latencia baja, aumenta la privacidad de los datos, permite el soporte fuera de línea y reduce potencialmente la factura de la nube. Las aplicaciones como Lens AR Translate o la función de escaneo de documentos disponible en Files in India se benefician de las ventajas del aprendizaje automático en el dispositivo.
Para implementar funciones de ML en Android, los desarrolladores tienen dos opciones:
- Juego de aprendizaje automático: que ofrece soluciones de ML listas para producción a flujos de usuarios comunes, a través de API fáciles de usar.
- Pila de ML personalizada de Android: que se basa en Tensorflow Lite y proporciona control sobre el proceso de inferencia y la experiencia del usuario.
ML Kit lanzó nuevas API y mejoró las funciones existentes
Durante el último año, el equipo de ML Kit trabajó tanto en la mejora de las API existentes como en el lanzamiento de otras nuevas: malla facial y escáner de documentos. ML Kit lanzará una nueva API de escaneo de documentos en el tercer trimestre de 2023, que brindará una experiencia de escaneo uniforme en todas las aplicaciones de Android. Los desarrolladores podrán usarlo solo con unas pocas líneas de código, sin necesidad de permiso de la cámara y con un impacto de tamaño de apk bajo (dado que se distribuirá a través de Google Play Services). De manera similar, Escáner de código de Google ahora está disponible de forma general y brinda una experiencia de escaneo uniforme en todas las aplicaciones, sin necesidad de permiso de la cámara, a través de Google Play Services.
Además, ML Kit mejoró el rendimiento de las siguientes API: detección de códigos de barras (en un 17 %), reconocimiento de texto, reconocimiento de tinta digital, detección de poses, traducción y respuesta inteligente. ML Kit también integró algunas API a Google Play Services para que no tenga que agrupar los modelos en su aplicación. Muchos desarrolladores utilizan ML Kit para integrar fácilmente el aprendizaje automático en sus aplicaciones; Por ejemplo, WPS usa ML Kit para traducir texto en 43 idiomas y ahorrar $65 millones al año.
El servicio de aceleración en la pila de ML personalizada de Android ahora está en versión beta pública
Para admitir el aprendizaje automático personalizado, el equipo de Android ML está desarrollando activamente la pila de ML personalizada de Android. El año pasado, se agregaron delegados de GPU y TensorFlow Lite a Google Play Services, lo que permite a los desarrolladores usar TensorFlow Lite sin incluirlo en su aplicación y proporciona actualizaciones automáticas. Con un rendimiento de inferencia mejorado, la aceleración de hardware también puede, a su vez, mejorar significativamente la experiencia del usuario de su aplicación de Android habilitada para ML. Este año, el equipo también anuncia Acceleration Service, una nueva API que permite a los desarrolladores elegir la configuración óptima de aceleración de hardware en tiempo de ejecución. Ahora está en versión beta pública y los desarrolladores pueden obtener más información y comenzar. aquí.
Para saber más, mira el video:
Te puede interesar