Publicado en: Lun, May 23rd, 2016

Google quiere saber qué hacen sus usuarios en todo momento para abrir la mejor aplicación posible

gettyimages-150996588Durante el Google I/O 2016, la compañía anunció el siguiente paso para mejorar sus servicios: hacer más inteligentes a las aplicaciones instaladas en los dispositivos de los usuarios.

El plan de Google es que las herramientas móviles de Android se puedan abrir automáticamente basado en dónde esté la persona o qué esté haciendo en ese preciso momento, por lo que si alguien conecta unos audífonos, se abra algún servicio de streaming musical, o si acostumbra a tomar fotos en exteriores, la cámara se active de forma autónoma.

A fin de utilizar implementar esta tecnología, Google informó a través de su blog oficial para desarrolladores que manejará los siguientes datos:

Tiempo Hora local actual
Locación Latitud y longitud
Lugar Lugar, incluyendo el tipo de lugar
Actividad Actividad detectada del usuario (caminando, corriendo, manejando bicicleta)
Beacons Si hay beacons cerca
Audífonos Si el usuario conectó audífonos
Clima Las actuales condiciones del clima

Google espera que los desarrolladores se preparen para este sistema gracias a su nueva API ‘Awareness’, a fin de que el equipo sepa qué hace el usuario en cada momento o dónde se encuentra a fin de ejecutar la aplicación más acorde al momento.

Ir a la barra de herramientas