Entrenamientos controlados por voz con el Asistente de Google
18/04/2023
Publicado por John Richardson, ingeniero asociado
Con decenas de millones de instalaciones del adidas Correr aplicación, los usuarios todos los días recurren a adidas como parte de su rutina de salud y fitness. Al igual que muchos en la industria, adidas reconoció que en este mercado en constante evolución, es importante hacer que sea lo más fácil posible para los usuarios lograr sus objetivos de acondicionamiento físico y hacer que su aplicación esté disponible en Wear fue una opción natural. adidas no se detuvo en traer su aplicación para correr al reloj, sin embargo, también se dieron cuenta de que en una situación de usuario como un entrenamiento, la capacidad de interactuar con la aplicación con las manos libres, o incluso con los ojos libres, simplificó aún más la forma en que los usuarios podría interactuar con la aplicación.
Integrando el Asistente de Google
Para habilitar el control de manos libres, adidas recurrió al Asistente de Google y App Actions, que permite a los usuarios controlar las aplicaciones con su voz utilizando intenciones integradas (BII). Los usuarios pueden realizar tareas específicas por voz o actuar sobre tareas como comenzar a correr o nadar.
integrando BII de salud y estado físico fue una simple adición que el desarrollador de Android del personal de adidas hizo en su IDE al declarar
- Primero, el Asistente analiza la solicitud del usuario mediante la comprensión del lenguaje natural e identifica el BII apropiado. Por ejemplo, START_EJERCICIO para comenzar un entrenamiento.
- En segundo lugar, el Asistente cumplirá con la intención del usuario al iniciar la aplicación en un contenido o acción específicos. Además START_EJERCICIOlos usuarios también pueden detener (PARAR_EJERCICIO), pausa (PAUSA_EJERCICIO), o reanudar (RESUME_EJERCICIO) sus entrenamientos. Aquí también se pueden agregar comentarios hápticos o golpes para mostrar si la solicitud de un usuario fue exitosa o no.
Con App Actions creadas en Android, el equipo de desarrollo pudo implementar rápidamente. Y cuando se asoció con el wearables/health-services" target="_blank">Servicios de salud y Conexión de salud Las API que admiten respectivamente sensores en tiempo real y datos de salud, los usuarios finales pueden tener una experiencia cohesiva y segura en dispositivos móviles y Wear OS.
“Lo emocionante de Assistant y Wear es que la combinación realmente ayuda a nuestros usuarios a alcanzar sus objetivos de fitness. La capacidad de un usuario de aprovechar su voz para realizar un seguimiento de su entrenamiento lo convierte en una experiencia única y muy accesible”, dice Robert Hellwagner, Director de Innovación de Producto de adidas Runtastic. “Estamos entusiasmados con la posibilidad de lo que se puede hacer al permitir interacciones y experiencias basadas en voz para nuestros usuarios a través de App Actions”.
Aprende más
Habilitar los controles de voz para desbloquear contextos manos libres y ojos libres es una manera fácil de crear una experiencia de aplicación más fluida para sus usuarios. Para traer interacciones naturales y conversacionales a su aplicación lea nuestra documentación hoy, explore cómo construir con uno de nuestros laboratorios de códigoo suscríbete a nuestro Lista de reproducción de YouTube de acciones de la aplicación para más información. También puedes suscribirte a desarrollar para Android Health Connect si está interesado en unirse a nuestro EAP de Google Health and Fitness. Para ir directamente a cómo se creó esta integración, obtenga más información sobre integrando WearOS y App Actions.
Te puede interesar