Es ist schon erstaunlich wie gut Google darin ist, uns hinzuhalten. Während mir die Google IO auch dieses Jahr wieder sehr dicht und vollgepackt vorkam, musste man schon genau hinhören, um zu verstehen, dass einiges, was Google ankündigte, erst später im Jahr, oder sogar als Work in Progress vielleicht so nie kommen wird.
Die Google IO war dieses Jahr SO voll, dass sie den Android-Teil gleich in eine eigene Show ausgelagert haben. Keine schlechte Idee, denn so lässt sich Android auch noch mal anders verpacken, was sie dann auch gemacht haben. (YouTube →)
Der Fokus war auch dieses Jahr wieder komplett auf AI. Während es letztes Jahr noch "We Google that for you" hieß, ging es in diesem Jahr vor allem darum, dass wir wieder Dinge selbst tun, zusammen mit Gemini. Und so beeindruckte Google mit unzähligen KI-Features wie Gemini Live, Personal Context in Gmail, Search AI Mode oder einer Try-on Experience.
"Everything Google announced" TechCrunch | 9to5Google | Engadget | ZDNet | TheVerge | Mashable
Ab einem bestimmten Punkt hatte ich den Eindruck, Google wollte zeigen: Wir sind wirklich eine KI-Firma, glaubt ihr uns das jetzt? Und ja, wir haben es begriffen :-) Mein Gefühl nach all dem KI-Kram: Das wird Apple niemals aufholen können. Vielleicht zeichnet sich hier ein Scheideweg ab. Das werden wir in ein paar Jahren sicher besser verstehen.
Die ganze Show wirkte auch etwas pushy, um ehrlich zu sein. Das mag auch daran gelegen haben, dass man den Aktienmarkt beeindrucken wollte. Erst in der letzten Woche droppte Googles Aktienkurz kurzzeitig, nachdem Eddy Cue im Rahmen eines laufenden Kartellverfahrens davon berichtete, dass in 2025 erstmals die Suchanfragen, die in Safari über Google gelaufen seien, nicht gestiegen sind. Man versteht solche Präsentationen erst dann richtig, wenn man an den Aktienmarkt denkt.
Doch kommen wir zu XR. Auch diesmal gab es eigentlich nur sehr wenige Infos. Dazu muss man aber wissen: Von Android XR wissen wir erst seit Dezember letzten Jahres. Es ist also gerademal ein halbes Jahr her. Unsere Ungeduld ist dennoch berechtigt. Denn Google hat einiges vor.
Am wichtigsten halte ich die Info, dass Entwickelnde sofort für Smart Glasses mit Android XR entwickeln können. Bei Meta geht das noch immer nicht, nach über 18 Monaten Meta Ray-Ban. Auch wenn sich das in diesem September ändern könnte.
In der Zwischenzeit zeigen sie uns, was die Referenz-Hardware so alles kann: Sie hat eine Kamera, Mikrophone, Lautsprecher und optional ein Display, mit dem in Farbe Maps oder Text und Notifications angezeigt werden können. Sie hat eine Diode, die anzeigt, dass sie aktiv ist. Ein Touchstripe auf der rechten Seite ist im Bügel verbaut. Der Prototyp, den wir bereits zu sehen bekommen habenn, wird gezeigt, und der kann Nachrichten verschicken, eine Foto-Wall dank multimodaler KI analysieren, Musik abspielen, eine Vorschau des Bildes zeigen, das man gemacht hat und per Sprachbefehl Leute zu Terminen über Google Calendar einladen, in dem man auf ein Plakat mit einem Datum geschaut hat. Es hat eine Live-Übersetzungsfunktion, die geruckelt hat, weil es eben eine Live-Demo war.
Am Ende beschäftigen mich noch zwei Fragen: Kommt die KI-Brille wirklich erst im nächsten Jahr?
Und sind die beiden Modelle, die wir gesehen haben, die gleiche Brille, oder sehen wir hier schon ein Modell der beiden neuen Partner? |