Do tej pory Gemini potrafił pobierać informacje z Gmaila, Zdjęć Google, YouTube czy wyszukiwarki, jednak działał w ramach odseparowanych od siebie źródeł. Personal Intelligence zmienia to podejście, pozwalając modelowi analizować dane łącznie, wyciągać wnioski i rozpoznawać kontekst bez konieczności precyzyjnego formułowania poleceń. Dzięki temu asystent może proponować książki dopasowane do gustu użytkownika, sugerować kanały kulinarne na YouTube na podstawie historii zakupów spożywczych, a nawet rekomendować opony do samochodu, znając jego model i lokalne warunki pogodowe.
Google przedstawia Personal Intelligence jako narzędzie, które ma realnie odciążyć użytkownika w codziennych wyborach. Jeśli ktoś planuje weekendowy wyjazd, Gemini może zaproponować kierunek, analizując wcześniejsze podróże, zdjęcia i wyszukiwane miejsca. Jeśli użytkownik szuka inspiracji zakupowych, asystent wykorzysta dane z różnych aplikacji, by zaproponować trafniejsze sugestie. To wizja AI, która nie tylko odpowiada na pytania, lecz także rozumie kontekst życia użytkownika.
Funkcja jest na razie dostępna w wersji beta i trafia do subskrybentów planów Google AI Pro oraz AI Ultra w Stanach Zjednoczonych. Proces wdrażania na ich kontach ma zakończyć się w ciągu tygodnia, a Personal Intelligence będzie działać na Androidzie, iOS oraz w przeglądarce. Aktywacja odbywa się poprzez ustawienia Gemini, gdzie użytkownik może wybrać, które aplikacje mają być połączone z asystentem.
Google zaznacza, że nie każda odpowiedź będzie personalizowana, a użytkownik może wymusić odpowiedź bez personalizacji, korzystając z opcji „spróbuj ponownie”. Nie wiadomo kiedy opcja może trafić do kolejnych krajów.
Źródło: [Droid Life](https://www.droid-life.com/20


