Qué de todo lo que hacemos con el móvil lo podemos hacer ya sólo con la voz
Todos tenemos ese sueño de vernos en un capítulo de Star Trek en el que utilizamos nuestra voz para casi todas las cosas que hagamos con un ordenador. Y a la larga Siri tiene que ser la encargada de que eso sea posible en iOS, pero como ocurre con los asistentes de otras plataformas aún queda un largo camino que recorrer.
De todos modos no hay que subestimar las capacidades actuales del asistente de Apple: solemos subestimarlo, y podemos hacer muchas más cosas con él de lo que puedes creer. Para demostrarlo hemos pasado un día intentando hacer todo lo que hacemos con el iPhone usando Siri, y voy a explicarte las conclusiones que he sacado de la experiencia.
Un día con Siri como ayudante
Lo primero que miro cuando me levanto es el cambio euro-dólar y el valor de las acciones en las que tengo invertido algo de dinero. Siri puede encargarse de ello perfectamente, aunque si tienes acciones en más de una empresa tienes que pedirle los valores por separado. Lo ideal sería poder preguntarle directamente el estado de mi cartera de valores, cosa que desarrolladores de terceros podrían hacer con alguna aplicación.
Vistos esos datos, es la hora de leer los titulares diarios. Me gusta escucharlos desde una emisora en directo, así que puedo decirle a Siri que abra la aplicación de esa emisora. Primer problema: esa aplicación se abre, pero no tengo modo de decirle a Siri que reproduzca la retransmisión en directo de la radio. Tengo que hacerlo a mano.
Tampoco hay buenos resultados cuando quiero consultar las portadas de la prensa generalista: Acertar para que Siri abra las páginas web es demasiado complicado y deja mucha posibilidad para confundirse cuando le dictas la dirección web. Una posibilidad para enmendarlo es poniendo esa web en los favoritos del navegador, pero aún así los comandos de Siri casi nunca aciertan con lo que el usuario cree que debería decir.
La cosa se complica más una vez quiero abrir Telegram para leer los mensajes que me han dejado tanto mis contactos como los bots y canales que me he creado. Puedo decirle a Siri que abra Telegram y que escriba mensajes por mí, pero no puedo decirle directamente que me lea los mensajes a menos que haga un gesto especial en la pantalla. Y en ese caso no distingue los mensajes nuevos, así que gran parte de la lectura es algo que no queremos escuchar. Sueño con un Siri capaz de decirme quién me dice qué, pero de momento eso aún queda lejos. Esto puede aplicarse también a WhatsApp, aplicación que junto con Telegram es la que suelo utilizar a lo largo del día mientras trabajo con el Mac.
Y ya que hablamos de enviar mensajes: el dictado de texto funciona perfectamente. Puedo decirle a Siri que cree una nueva nota o un nuevo mensaje de correo electrónico, para acto seguido empezar a dictarle lo que quiera escribir teniendo en cuenta los signos de puntuación. Al principio cuesta acostumbrarse a este modo de escribir las cosas, pero si lo haces ves que la comprensión que tiene el asistente no está nada mal. Ahora bien: vete olvidando de poner negritas o cualquier otro punto de maquetación en el texto a menos que no lo hagas a mano.
Con el calendario la experiencia queda a mitad de camino. Sí que hay comandos de voz para poder crear, editar y borrar eventos que te coloques; pero son muy específicos y hay que molestarse en aprendérselos cuando la idea de un asistente es que sea él el que se esfuerce en entendernos y no al revés. Y si queremos crear eventos completos con comentarios, horas de inicio y final y configuraciones de alertas, las órdenes de voz se alargan tanto que simplemente acabas mucho antes creando o editando el evento a mano.
Para las llamadas ya no hay tanto problema. Con una orden corta puedo decir que llame a un contacto, seleccionar uno de sus teléfonos y decir si quiero usar las llamadas tradicionales o servicios como Skype o FaceTime. Y si el número es de un contacto desconocido, podemos dictárselo y la llamada seguirá haciéndose. Es el némesis completo que el caso del calendario. Punto positivo también para los recordatorios, los cronómetros, las cuentas atrás y las alarmas para despertarse: es mucho más fácil crearlas con la voz que accediendo a su debida aplicación para hacerlo a mano.
Con los Mapas me he encontrado con el mismo problema que mi compañero Yúbal: Siri es capaz de mostrarme rutas hacia los destinos que quiera a pie o en coche, pero no puede iniciarlas. Una barrera bastante simple pero crucial para que los conductores se animen a usar Siri.
Algo parecido pasa con las fotos, Siri inicia sin problemas la aplicación de la cámara pero no puede presionar el disparador. Pero hay algo muy bueno con la fototeca de iOS: podemos pedirle a Siri que nos muestre fotografías de fechas o lugares concretos con muchísima facilidad. Toda una delicia en comparación con tener que abrir la aplicación y navegar por lo que normalmente son colecciones de miles y miles de imágenes y vídeos.
Terminemos con el ocio, como por ejemplo YouTube o Netflix. Poca flexibilidad aquí, aunque también es cosa de que los desarrolladores de YouTube aprovechen mejor la API de Siri. Sólo puedo abrir las aplicaciones, nada más. No puedo buscar en mis suscripciones de YouTube ni modificar la lista de cosas por ver en Netflix.
Donde tengo más oportunidades aquí es usando el Apple TV, porque en ese reproductor Siri es capaz de ofrecerme información de películas diferenciando entra catálogos de servicios diferentes. Pero aún así estamos hablando de una experiencia más bien pobre en castellano, ya que no puedo hacer algo tan sencillo como pedir qué es lo nuevo que han puesto en Netflix esta semana.
¿Se puede utilizar iOS sólo con la voz?
Yo diría que no. Hay trabajo hecho, trabajo que cumple con lo de sorprender al usuario, pero queda mucho trabajo más que recorrer. Las acciones que Siri es capaz de controlar son más bien básicas, y a la mínima que quieras distinguirte de la mecánica fija del asistente ya dependes al cien por cien de la interfaz gráfica y tus dedos.
Tampoco puedes controlar los botones de esa interfaz, y la sensación que tienes es que simplemente accedes a «la corteza» de cada aplicación. Un ejemplo: puedo usar a Siri para abrir las preferencias, pero no puedo usarlo para abrir Preferencias y acceder directamente a la sección de copias de seguridad de iCloud.
Siri entiende muy bien mis frases, en eso no hay problema. Lo difícil está en que no siempre tenga que decir una frase del mismo modo, en que no me tenga que preocupar de olvidarme algún artículo para que me comprenda. Falta que Apple resuelva eso y falta que Siri llegue a todos los rincones de iOS. Hay muchos usuarios que no saben encontrar un ajuste en el laberinto que es la aplicación de Preferencias, y Siri podría resolverlo con una simple orden.
El futuro pasará por ese control cada vez mayor de Siri, pero me temo que es un futuro todavía a largo plazo.
En Applesfera | Oye Siri, ¿qué mensajes tengo en WhatsApp? Así funciona la última característica de la app
También te recomendamos
Cómo utilizar Recordatorios en iOS y Siri para hacer la lista de la compra
La mano impresa en 3D en España que cambia una vida en África
Google Assistant podría llegar pronto al iPhone, pero no depende tanto de Google como de Apple
–
La noticia
Qué de todo lo que hacemos con el móvil lo podemos hacer ya sólo con la voz
fue publicada originalmente en
Applesfera
por
Miguel López
.