Ahora con el Asistente de Google puedes mantener conversaciones más naturales

Ahora con el Asistente de Google puedes mantener conversaciones más naturales
Muchos usan el Asistente de Google para dar instrucciones para cocinar mientras preparan la cena o para compartir el tráfico que hay de camino a la oficina. El asistente permite hacer más cosas en casa y sobre la marcha, para que pueda tener tiempo para lo que realmente importa.
Cada mes, más de 700 millones de personas de todo el mundo realizan tareas cotidianas con su Assistant. La voz se ha convertido en una de las principales formas de comunicación con nuestros dispositivos. Pero sabemos que puede resultar poco natural decir «Hey Google» o tocar tu dispositivo cada vez que quieres pedir ayuda. Por eso, hoy presentamos nuevas formas de interactuar con tu Asistente de forma más natural, como si estuvieras hablando con un amigo.
Haz que la conversación fluya La primera nueva función es; Mira y Habla y empieza a desplegarse hoy en Estados Unidos en Nest Hub Max. Una vez que te conectas, puedes simplemente mirar a la pantalla y pedir lo que necesitas. Desde el principio, hemos creado Look and Talk teniendo en cuenta tu privacidad. Está diseñado para activarse cuando optas por él y tanto Face Match como Voice Match reconocen que eres tú. Y el vídeo de estas interacciones se procesa completamente en el dispositivo, por lo que no se comparte con Google ni con nadie más.
Digamos que tengo que arreglar el fregadero de la cocina que gotea. Al entrar en la habitación, puedo mirar a mi Nest Hub Max y decir «Mostrar fontaneros cerca de mí», sin tener que decir primero «Hey Google». Hay mucho que hacer entre bastidores para reconocer si realmente estás haciendo contacto visual con tu dispositivo en lugar de echarle una mirada de pasada. De hecho, se necesitan seis modelos de aprendizaje automático para procesar más de 100 señales de la cámara y el micrófono, como la proximidad, la orientación de la cabeza, la dirección de la mirada, el movimiento de los labios, el conocimiento del contexto y la clasificación de la intención, todo ello en tiempo real.
El año pasado anunciamos Real Tone, un esfuerzo por mejorar la cámara y los productos de imagen de Google en función de los tonos de piel. Siguiendo con ese espíritu, hemos probado y perfeccionado Look and Talk para que funcione en una gama de tonos de piel, de manera que se adapte a personas de distintos orígenes. Seguiremos impulsando este trabajo con la escala de tonos de piel Monk, que se ha publicado hoy. Hay mucho que hacer entre bastidores para reconocer si realmente estás haciendo contacto visual con tu dispositivo en lugar de echarle una mirada de pasada. De hecho, se necesitan seis modelos de aprendizaje automático para procesar más de 100 señales de la cámara y el micrófono, como la proximidad, la orientación de la cabeza, la dirección de la mirada, el movimiento de los labios, el conocimiento del contexto y la clasificación de la intención, todo ello en tiempo real.
El año pasado se anunció Real Tone, un esfuerzo por mejorar la cámara y los productos de imagen de Google en función de los tonos de piel. Siguiendo con ese espíritu, hemos probado y perfeccionado Look and Talk para que funcione en una gama de tonos de piel, de manera que se adapte a personas de distintos orígenes. Seguiremos impulsando este trabajo con la escala de tonos de piel Monk, que se ha publicado hoy. También estamos ampliando las frases rápidas a Nest Hub Max, que te permiten omitir decir «Hey Google» para algunas de tus tareas diarias más comunes. Así, en cuanto entres por la puerta, puedes decir simplemente «Enciende las luces del pasillo» o «Programa un temporizador durante 10 minutos». Las frases rápidas también están diseñadas pensando en la privacidad. Si optas por ello, tú decides qué frases habilitar, y funcionarán cuando Voice Match reconozca que eres tú.
Mirando al futuro: una conversación más natural En la conversación diaria, todos decimos «um» de forma natural, nos corregimos y hacemos pausas de vez en cuando para encontrar las palabras adecuadas. Sin embargo, los demás pueden entendernos, porque las personas son oyentes activos y pueden reaccionar a las señales de la conversación en menos de 200 milisegundos. Creemos que el Asistente de Google debería ser capaz de escuchar y entenderte igual de bien.
Para ello, estamos construyendo nuevos y más potentes modelos de habla y lenguaje que pueden entender los matices del habla humana, como cuando alguien hace una pausa, pero no termina de hablar. Y nos estamos acercando a la fluidez de una conversación en tiempo real con el chip Tensor, que está diseñado a medida para manejar las tareas de aprendizaje automático en el dispositivo con gran rapidez. De cara al futuro, Assistant será capaz de entender mejor las imperfecciones del habla humana sin tropezar -incluyendo las pausas, los «umms» y las interrupciones- haciendo que tus interacciones se sientan mucho más cerca de una conversación natural.

Estamos trabajando duro para que el Asistente de Google sea la forma más fácil de realizar las tareas cotidianas en casa, en el coche y en los desplazamientos. Y con estas últimas mejoras, nos acercamos a un mundo en el que puedes pasar menos tiempo pensando en la tecnología y más tiempo estando presente en el momento.

Tags: Tecnología, Google, Asistente de Google