Google hat auf der Entwicklerkonferenz I/O 2025 erneut einen tiefen Einblick in seine neuesten Technologien und Produktinnovationen gegeben. Schwerpunkt dieser Ausgabe war zweifelsohne die Künstliche Intelligenz (KI), die nahezu alle Bereiche von Google-Produkten durchdringt und die Interaktion mit digitalen Diensten grundlegend verändern soll. Die Veranstaltung dauerte knapp zwei Stunden und brachte zahlreiche Ankündigungen hervor, die nicht nur die Nutzererfahrung verbessern, sondern auch wichtige Impulse für die Entwicklergemeinde bieten. Mit den vorgestellten Projekten setzt Google seine Strategie fort, eine KI-getriebene Zukunft zu gestalten, in der Intelligenz, Personalisierung und nahtlose Vernetzung die zentrale Rolle spielen. Ein zentrales Highlight des Events war das KI-Modell Gemini, das als Herzstück der Google-Strategie für generative KI fungiert.
Die nun vorgestellte Version Gemini 2.5 Pro gilt als das leistungsstärkste Modell, das Google je entwickelt hat. In beeindruckenden Live-Demos zeigte das Modell, wie es aus einfachen Skizzen voll funktionsfähige Anwendungen erstellen kann. Parallel kündigte Google mit Gemini 2.5 Flash eine günstigere Variante an, die im Juni verfügbar sein wird, während die besonders komplexen Fähigkeiten von Gemini 2.
5 Pro Deep Think zunächst vertraulichen Testern vorbehalten bleiben. Die tiefe Integration von Gemini in Google-Dienste wie Workspace verspricht zudem personalisierte Assistenzfunktionen, die etwa in Gmail intelligente automatische Antworten liefern, die an den individuellen Stil und Tonfall des Nutzers angepasst sind. Darüber hinaus präsentierte Google den neuen AI Mode für die Google-Suche, der für Nutzer in den USA ab sofort zugänglich ist. Dieses Feature verfolgt einen innovativen Ansatz, indem es komplexe und lange Suchanfragen in einzelne Komponenten zerlegt und diese dann systematisch auswertet, um umfangreiche und präzise Antworten zu generieren. Ein spezielles Augenmerk liegt dabei auf der so genannten "query fan-out Technik", mit der das KI-System seine Suchergebnisse selbst überprüft.
Für den Sommer sind weitere Ergänzungen geplant, wie beispielsweise Personal Context, der Nutzerpräferenzen und frühere Suchanfragen berücksichtigt, um maßgeschneiderte Empfehlungen zu geben. Mit Features wie Deep Search, das noch tiefer in die Inhalte von Webseiten eintaucht, und neuen Datenvisualisierungen, die Suchergebnisse grafisch aufbereiten, wird die Suche deutlich interaktiver und informativer. Im Bereich Retail und Shopping brachte Google eine Reihe von KI-gestützten Innovationen auf die Bühne. Die Nutzung der sogenannten Shopping Graph, die inzwischen über 50 Milliarden Produkte umfasst, ermöglicht es Nutzern, anhand einfacher Beschreibungen passende Waren zu finden. Besonders spannend ist die neue virtuelle Anprobe: Mithilfe von Fotos können Nutzer sehen, wie sie in bestimmten Kleidungsstücken aussehen würden – eine digitale Version des Ankleidezimmers, inspiriert von popkulturellen Momenten wie Chers „Clueless“ Kleiderschrank.
Begleitet wird das von einem KI-Shopping-Assistenten, der Preisänderungen verfolgt und Nutzern entsprechende Benachrichtigungen sendet, was den Online-Einkauf deutlich komfortabler und personalisierter macht. Eine weitere bedeutende Neuerung betrifft Googles Engagement im Bereich Augmented Reality (AR) und Virtual Reality (VR). Mit dem neuen Betriebssystem Android XR zeigt Google seine Vision für immersive Technologien, die nun deutlich weitergedacht sind. Dabei wird zwischen stationären Headsets für intensive Nutzererfahrungen und mobilen Smartglasses unterschieden, wobei letztere auch mit modischen Kooperationspartnern wie Gentle Monster und Warby Parker gestaltet werden. Das erstmals offiziell vorgestellte Projekt Moohan, ein XR-Headset in Zusammenarbeit mit Samsung und Qualcomm, soll noch in diesem Jahr auf den Markt kommen.
Die Smartglasses mit in das Android XR-System integrierter Kamera, Lautsprechern und Display setzen auf ein praktisches Design und werden ab dem kommenden Jahr für Entwickler zur Verfügung stehen. Google beweist damit erneut, dass es die Vielseitigkeit der neuen Technologien verstanden hat: AR/VR soll sowohl in stationären als auch mobilen Nutzungsszenarien seamless funktionieren. Dieser Ansatz verspricht spannende Möglichkeiten für Entertainment, Arbeit und Kommunikation. Spannend sind auch die generativen KI-Modelle außerhalb von Textanwendungen. Google stellte Imagen 4 vor, das neueste Bildgenerierungsmodell, das vor allem durch detailreiche Visualisierungen und eine verbesserte Textdarstellung punktet – ein Bereich, in dem KI bislang häufig Schwächen zeigte.
Zusammen mit dem Video-Generierungsmodell Veo 3 und dem dazugehörigen Tool Flow wartet Google mit einer Lösung auf, die physikalische Gesetzmäßigkeiten bei der Szenenerzeugung berücksichtigt und automatisch Soundeffekte sowie Hintergrundgeräusche erzeugt. Zusätzlich gibt es mit Lyria 2 eine neue Musikgenerierungs-KI, die Soundkreationen durch künstliche Intelligenz ermöglicht. All diese Tools sind bereits heute verfügbar und versprechen, kreative Prozesse zu bereichern und zu vereinfachen. Eine weitere innovative Plattform, Gemini Canvas, wurde als ein Co-Creation-Tool für die Zusammenarbeit zwischen Nutzer und KI vorgestellt. Mit solchen Angeboten unterstreicht Google seine Führungsrolle bei der Entwicklung alltagstauglicher und vielseitig einsetzbarer KI-Anwendungen.
In Sachen Kommunikation hat Google Project Starline in Google Beam umbenannt und erweitert. Google Beam ist künftig ein AI-zentriertes Kommunikationssystem, das zum Beispiel über Google Meet Echtzeitübersetzungen ermöglicht. Diese Übersetzungen basieren auf KI, die nicht nur den Inhalt, sondern auch die Stimme und den Tonfall der Sprecher nachbildet, was ein wesentlich natürlicheres Gesprächserlebnis schafft. Aktuell sind Übersetzungen zwischen Englisch und Spanisch verfügbar, weitere Sprachen werden folgen. Darüber hinaus arbeitet Google an einer 3D-Konferenzlösung, die Nutzer in mehreren Kameraperspektiven aufnimmt und auf einem lichtfeldbasierten Display darstellt – ein Schritt in Richtung immersiver Remote-Kommunikation.
Google verfolgt mit Project Astra eine Realwelt-KI-Assistenten-Initiative, die mit Gemini Live im Mittelpunkt steht. Diese Funktion erlaubt es dem KI-Assistenten, in Echtzeit visuelle und auditive Daten über die Kamera eines Smartphones zu analysieren und so gezielt Fragen zu beantworten. Gemini Live soll nicht nur den Alltag vereinfachen, sondern auch Barrieren für Menschen mit Behinderungen abbauen. Die Integration dieses Tools in die Suchfunktion mit einer verbesserten Google Lens Visual Search bietet Nutzern neue Möglichkeiten der Informationsbeschaffung aus ihrer Umgebung. Schließlich gab es Updates zu Project Mariner, einem Agenten, der Webaufgaben selbstständig erledigen kann.
Wichtige Neuerungen sind Multitasking-Fähigkeiten und „Teach and Repeat“, wodurch der Agent aus früher erledigten Aufgaben lernt und ähnliche Aufgaben künftig eigenständig ausführen kann, ohne jedes Mal detaillierte Anweisungen zu benötigen. Diese intelligenten Agenten sollen künftig in Chrome, Google Search via AI Mode und der Gemini-App verstärkt zum Einsatz kommen. Ein wichtiger Aspekt, der bei Google I/O 2025 erstmals transparent gemacht wurde, sind die Preisstrukturen für die KI-Angebote. Während die Basis-Subskription bei 19,99 US-Dollar pro Monat liegt, weist die Ultra-Variante, die den vollen Umfang und höchste Limitierungen bietet, mit 249,99 US-Dollar pro Monat einen deutlich höheren Preis auf. Dies zeigt, dass Google den Markt nicht nur mit Massennutzung, sondern auch mit Premium-Angeboten für intensive Nutzer und Unternehmen bedient.