Organisée chaque année par Google, la conférence Google I/O (pour « Input/Output ») est un événement majeur du calendrier technologique mondial. Destinée d’abord aux développeurs, elle est devenue au fil des ans le théâtre des annonces stratégiques de l’entreprise. La Google I/O 2025 s’est tenue le 20 mai. Elle a été marquée par des nouveautés centrées sur l’IA, la réalité augmentée et les nouveaux usages numériques. Sans parler de Google Flow que nous avons déjà évoqué, voici un retour détaillé sur les principales annonces de cette édition.
Sommaire :
L’intégration généralisée de Gemini dans les produits Google
Google renforce l’intégration de son modèle IA Gemini dans plus de 15 services. Dans Gmail, Gemini peut générer des réponses personnalisées en analysant le style d’écriture, classer les priorités et rédiger des mails sur demande.
Une nouveauté annoncée est la génération de réponses contextuelles tenant compte des e-mails et fichiers présents dans Google Drive. Sur Google Docs, Gemini permet de reformuler, de résumer ou de développer du contenu à partir de plusieurs documents croisés. Chrome offre une fonction permettant d’interroger Gemini sur la page active ou sur l’ensemble des onglets ouverts. Pour ce faire, vous n’aurez qu’à chercher le panneau accessible depuis la barre d’outils.
Sur Google Meet, la traduction en temps réel est accompagnée d’une restitution fidèle de l’intonation, du rythme et même du style d’expression.
Gemini Live, déjà présent sur Pixel, est désormais déployé sur Android et iOS. Il peut analyser des contenus visibles à l’écran ou via la caméra en direct. Vous pourrez, par exemple, interpréter un mode d’emploi papier ou une scène observée dans le monde réel.
VOIR AUSSI : Google One : l’IA booste les abonnements à un niveau record de 150 millions
Des modèles Gemini 2.5 adaptés aux usages professionnels et mobiles
Deux versions principales ont été présentées : Gemini 2.5 Pro, optimisé pour le raisonnement complexe, et Gemini 2.5 Flash. Ce dernier étant conçu pour fonctionner localement, y compris hors connexion.
Gemini 2.5 Pro introduit un nouveau module appelé « Deep Think ». Il est capable d’analyser des requêtes en plusieurs étapes, d’établir des hypothèses intermédiaires et de répondre avec des justifications. Ce mode s’adresse notamment aux chercheurs, développeurs ou analystes métier.
De son côté, Gemini 2.5 Flash peut fonctionner directement sur smartphone, sans accès au cloud, tout en conservant des performances avancées. Il est capable de traiter plusieurs fichiers à la fois, de générer des résumés vocaux ou visuels, et d’interagir avec d’autres applications locales.
Parmi les nouvelles fonctionnalités :
- la synthèse vocale multilingue avec adaptation dynamique à l’utilisateur
- la personnalisation des suggestions selon les préférences passées
- la génération d’images explicatives ou de schémas à partir d’un simple prompt.
VOIR AUSSI : Google aurait déboursé une somme faramineuse à Samsung pour imposer Gemini dans One UI
De nouveaux outils pour la création visuelle et audiovisuelle
Google a présenté Veo 3, un modèle capable de générer des vidéos avec son à partir d’un prompt. Il peut créer des scènes visuelles cohérentes, ajouter des dialogues générés automatiquement et intégrer une bande-son adaptée. L’outil Flow, qui s’appuie sur Veo, permet d’éditer, rallonger ou enrichir des clips créés par IA.
Imagen 4 améliore la génération d’images. Il se concentre sur la précision des détails complexes, comme les plis de vêtements, la texture des matériaux ou les reflets naturels. Cet outil est aussi capable de générer du texte intégré à l’image (comme des panneaux ou des étiquettes), avec un rendu photoréaliste.
Google propose également des mécanismes de transparence avec SynthID Detector, capable d’identifier les contenus générés via ses outils (texte, image, vidéo ou audio). Ce détecteur peut analyser des fichiers existants et indiquer la probabilité d’un filigrane numérique. Un accès en liste d’attente est proposé aux chercheurs, journalistes et créateurs de contenus.
Android XR, lunettes connectées et portables augmentés
En partenariat avec Samsung, Google poursuit le développement de sa plateforme Android XR. L’objectif est d’unifier réalité augmentée, virtuelle et mixte sous un seul système. Des lunettes connectées, comme le prototype Project Aura de Xreal, permettent des expériences immersives. L’une des démonstrations les plus marquantes concernait la traduction instantanée d’une conversation captée par les lunettes, avec affichage du texte en surimpression.
Des marques comme Gentle Monster et Warby Parker sont également impliquées dans le développement de modèles compatibles Android XR.
Wear OS 6 reçoit une mise à jour importante avec une interface revisitée. Des widgets dynamiques selon le contexte, une meilleure autonomie et des commandes vocales renforcées avec Gemini intégré sont également au rendez-vous.
Une recherche web réinventée par l’IA
Google introduit les AI Overviews, présents en tête des résultats (hors France), qui proposent des synthèses rédigées par IA. Ces résumés peuvent inclure des listes, des comparatifs, ou des liens cliquables vers les sources. L’AI Mode permet une recherche dialoguée avec relances, suggestions de graphiques personnalisés et comparateurs intelligents. Par exemple, il est possible de demander une comparaison entre deux modèles de smartphones et d’obtenir un tableau interactif.
Par ailleurs, Google Shopping intègre désormais l’essayage virtuel de vêtements via une simple photo de l’utilisateur. Vous avez aussi la visualisation en 3D de produits dans l’espace réel (réalité augmentée) et un système d’alerte intelligent sur les baisses de prix personnalisées. Il devient même possible d’autoriser Google à finaliser automatiquement un achat selon des critères définis (prix, taille, couleur).
Project Astra, NotebookLM et assistants intelligents
La démonstration d’Astra a mis en scène un scénario réaliste. L’IA repère les données techniques d’un vélo dans vos mails et effectue des recherches sur les spécificités. Elle appelle un magasin local pour demander la disponibilité d’une pièce et peut également proposer un itinéraire jusqu’au magasin en question. Elle peut enfin commander directement une pièce en ligne.
NotebookLM, outil de synthèse documentaire, devient disponible en application mobile. Il permet de poser des questions sur des contenus importés (PDF, pages web, vidéos YouTube). Vous pourrez aussi générer des résumés audio, des cartes mentales ou même des scripts de présentation. L’application peut aussi créer des vidéos type « talk éducatif » avec voix off IA et visuels automatiques à partir de documents fournis.
Nouveaux services, abonnements et enjeux d’accès
Le plan AI Ultra à 250 dollars/mois donne accès en avant-première aux dernières fonctionnalités de Google. Vous aurez un stockage de 30 To, YouTube Premium, et un usage illimité de l’IA. Une réduction de 50 % sur trois mois est proposée aux nouveaux abonnés. AI Pro, plus abordable, reste accessible pour les utilisateurs avancés.
Chrome Password Manager peut désormais changer automatiquement les mots de passe compromis. À une condition : que le site concerné soit compatible. Cette fonction renforce la protection des comptes exposés à des fuites de données.
Enfin, la cabine de visioconférence 3D Google Beam, ex-Project Starline, est à présent vendue aux entreprises. Elle utilise des caméras haute définition et un écran à profondeur variable pour offrir une expérience de conversation immersive.
Bref, une stratégie d’intégration totale
La Google I/O 2025 montre une stratégie claire : celle d’une centralisation des services autour de l’IA, tout en diversifiant les interfaces. Les avancées présentées visent à augmenter les capacités de l’utilisateur plutôt qu’à les remplacer. Reste à observer les réactions du marché, notamment sur la question de l’accessibilité, de la vie privée et de l’ouverture du web.
Voici le résumé de Google I/O 2025 en dix minutes :
IdealoGeek est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






