Google a annoncé le lancement officiel d'une nouvelle fonctionnalité de recherche vocale interactive appelée « Search Live » dans ses versions iOS et Android de l'application Google.
Cette fonctionnalité est actuellement disponible uniquement aux États-Unis. Pour l'utiliser, les utilisateurs doivent activer le mode IA dans Google Labs. Une fois activé, les utilisateurs peuvent interagir vocalement avec le moteur de recherche de manière naturelle et fluide, comme s'ils parlaient à un assistant virtuel.
Combiné au modèle vocal IA de Gemini, une expérience de conversation vocale bidirectionnelle est obtenue
La principale fonctionnalité de Search Live est la possibilité pour les utilisateurs de « parler au moteur de recherche » par la voix. Il suffit d'ouvrir l'application Google et d'appuyer sur l'icône « Live » à l'écran pour poser une question. Google répondra par des commandes vocales générées par l'IA et pourra immédiatement poser des questions complémentaires, éliminant ainsi les clics et les saisies.
En pratique, Google prend l'exemple de « Comment éviter qu'une robe en lin ne se froisse dans une valise ». Les utilisateurs peuvent non seulement poser des questions vocalement, mais aussi poser des questions complémentaires en continu, comme des méthodes de rangement adaptées ou une analyse des différences de matériaux. L'ensemble du processus interactif ne nécessite pas de quitter l'écran ni de déclencher à nouveau des commandes. La conversation vocale peut même se poursuivre pendant que d'autres applications sont ouvertes.
La technologie de base derrière cette fonctionnalité provient du modèle de variante Gemini adapté par Google pour l'expérience vocale, qui met l'accent sur la compréhension du langage naturel et les capacités de synthèse vocale, rendant l'interaction globale plus proche de la façon de parler avec un véritable assistant.
Le contenu Web peut devenir des informations de fond
Si Search Live améliore considérablement la commodité et l'immédiateté de la recherche vocale, la rendant particulièrement utile dans les situations d'affluence ou nécessitant de garder les mains libres (par exemple, pour faire ses valises, cuisiner ou marcher), il soulève également des inquiétudes quant au trafic réseau et aux citations de contenu. Bien que le système affiche les pages web sources citées sous forme de petites cartes en bas de l'écran, si les utilisateurs interagissent uniquement par la voix, ces pages web peuvent être ignorées, ce qui prive les créateurs de contenu de toute rémunération liée au trafic.
Il s’agit également de l’un des défis éthiques et commerciaux courants auxquels sont actuellement confrontés les outils de recherche d’IA.
À l’avenir, vous pourrez également « voir des images et parler », et des réponses interactives pourront être données sur l’écran en temps réel.
Google a également annoncé l'extension de Search Live pour inclure l'interaction visuelle. À l'avenir, les utilisateurs pourront pointer leur caméra directement vers des objets, du texte ou des images pour poser des questions. Par exemple, ils pourront prendre une photo d'un problème mathématique et demander la solution, ou demander à l'IA d'expliquer un schéma ou un terme complexe.
Cette fonctionnalité de recherche visuelle a été annoncée lors de la conférence des développeurs Google I/O de cette année. Elle sera ensuite combinée à l'IA multimodale pour obtenir des réponses instantanées aux questions en « voyant ce que vous souhaitez demander ».
Search Live n'est pas seulement une évolution de la recherche vocale ; il s'agit plutôt d'une plateforme d'assistant IA conçue pour les téléphones mobiles. En intégrant la technologie Gemini, Google vise clairement à faire de la recherche un portail d'information plus interactif, personnalisé et diversifié. Cependant, trouver un équilibre entre confort d'utilisation et respect des droits des fournisseurs de contenu reste un défi crucial pour les futurs outils de recherche IA comme ceux-ci.



