8 Minuty
Apple podle zpráv plánuje veřejnou ukázku zásadní aktualizace Siri už příští měsíc — verzi poháněnou modely Google Gemini, ale hostovanou v Apple vlastní cloudové infrastruktuře. Tato demonstrace by mohla poskytnout první reálný náhled na to, jak Apple hodlá kombinovat kontext dostupný přímo na zařízení s inteligencí rozsáhlých modelů (LLM), a přitom udržet kontrolu nad zpracováním dat.
Co očekávat v únoru
Podle Marka Gurmana z Bloombergu Apple pravděpodobně odhalí výsledky partnerství s Googlem v druhé polovině února, buď na menší akci, nebo při cílené mediální ukázce. Společnost se očekává, že předvede praktické ukázky asistenta využívajícího osobní data a obsah na obrazovce k provedení konkrétních akcí, nikoli pouze k vrácení textových odpovědí. To by znamenalo posun od tradičního modelu otázka‑odpověď k asistentovi, který rozumí kontextu pracovního toku uživatele.
Interně Apple označuje vylepšený model jako "Apple Foundation Models verze 10", i když podkladová technologie pochází z Google Gemini. Klíčové je, že model poběží na serverech Apple Private Cloud Compute — krok, který umožňuje Applu tvrdit přísnější kontrolu nad zpracováním dat a ochranou soukromí, přičemž stále využívá schopností velkých jazykových modelů. Hosting na infrastruktuře Apple zároveň snižuje některá rizika spojená s přenosem citlivých informací mimo ekosystém společnosti.

- Časování: předpokládaná ukázka koncem února, současně s nástupem beta testování iOS 26.4.
- Technologie: modely Google Gemini pohánějí značkový „foundation model" Apple, hostovaný na infrastruktuře Apple.
- Schopnosti: rozumění kontextu na obrazovce a osobním datům pro provádění akcí, nikoli pouze odpovídání na dotazy.
I když se únorová ukázka pravděpodobně soustředí na nové funkce a počáteční dema, plně přepracovaný, chatbotový styl Siri je stále plánován pro širší uvedení na WWDC 2026 jako součást iOS 27. To naznačuje, že Apple bude nasazení dělat postupně: nejprve praktickou preview ukázku a beta aktualizace, následované hlubší, pro koncové uživatele určenou proměnou později v roce. Takový krok dává Applu čas dolaďovat integrace, zpracování soukromých dat a uživatelské rozhraní.
Potenciální harmonogram a beta fáze
Očekávané spuštění iOS 26.4 v režimu beta by mělo dát vývojářům i testerům čas seznámit se s novými rozhraními a chováním Siri. V praxi to znamená, že funkce pro čtení obsahu na obrazovce a provádění akcí (např. odpovídání na e‑maily, správa událostí, ovládání aplikací) budou dostupné v omezené nebo experimentální podobě, aby Apple získal zpětnou vazbu a mohl vyladit očekávané scénáře použití. Pro firmy a vývojáře to zároveň znamená nutnost přizpůsobit své aplikace a rozhraní, aby z nich asistent mohl bezpečně a efektivně čerpat relevantní kontext.
Technologie a infrastruktura: jak to funguje
Pod kapotou projektu je kombinace několika klíčových komponent: vlastní značený "foundation model" Apple (kryptonynmně nazvaný verze 10), který využívá technologie Google Gemini pro generování a porozumění, a Apple Private Cloud Compute — serverovou platformu hostující inference a další výpočty. To znamená, že samotné hluboké učení a modelové inference budou probíhat v zabezpečeném prostředí Apple, nikoli v externích cloudových službách třetích stran.
Role Google Gemini
Google Gemini poskytuje architekturu a tréninkový základ, zejména v oblasti multimodálního porozumění a generování. Apple podle zjištění upraví a nasadí tyto modely pod vlastní značkou, přizpůsobí je interním zásadám, optimalizacím a především bezpečnostním požadavkům. Gemini tak funguje jako technologický základ, zatímco Apple přidává vrstvy integrace s iOS, pravidly pro soukromí a vlastními infrastrukturálními prvky.
Private Cloud Compute a latence
Hostování na Apple Private Cloud Compute může nabídnout několik výhod: nižší latence pro uživatele, kteří jsou geograficky blíže Applovým datovým centrům; lepší kontrolu nad logováním a šifrováním dat; a možnost implementovat proprietární mechaniky k omezení nežádoucího šíření osobních informací. Nicméně zůstává otázkou, jak Apple vyváží potřebu rychlé odezvy (která někdy vyžaduje OK/rychlý přístup k inference) s požadavkem na co největší zpracování na samotném zařízení (on‑device), což může být pro určité scénáře výhodnější z hlediska soukromí.
Funkce a schopnosti nové Siri
Nová verze Siri by se měla posunout od jednoduchých hlasových příkazů k asistentskému systému, který chápe vizuální a kontextuální informace z obrazovky. To zahrnuje schopnost číst obsah otevřených aplikací, interpretovat informace v e‑mailech nebo zprávách, navrhovat akce podle kalendáře a kontextu, a dokonce iniciovat komplexnější úkoly napříč aplikacemi.
Konkrétní příklady použití
- Automatické navrhování odpovědí na e‑maily s ohledem na tón a historii komunikace.
- Pokročilé vyhledávání v dokumentech na zařízení s možností iniciovat úpravy nebo sdílení.
- Rozpoznání položek na obrazovce a nabídnutí kontextových akcí, například přidání události do kalendáře z obrázku pozvánky.
- Multimodální asistence — kombinace hlasu, textu a obrazu pro komplexní dotazy a úkoly.
Tento typ schopností vyžaduje bezpečné propojení mezi daty uloženými na zařízení, lokálním kontextem aplikací a výpočty prováděnými v cloudovém prostředí. Apple bude zřejmě nastavovat přísnější pravidla pro to, kdy a jak mohou být data odeslána do cloudu, a implementovat mechanismy souhlasu uživatele a granularitu sdílení informací.
Ochrana osobních údajů a bezpečnost
Apple tradičně klade velký důraz na ochranu soukromí jako konkurenční výhodu. Hostování modelu na Private Cloud Compute a integrace s on‑device kontextem jsou způsoby, jak omezit expozici citlivých dat. Nicméně ani tento přístup není bez výzev: klíčové otázky zahrnují, jak Apple anonymizuje nebo pseudonymizuje data, jak dlouho jsou dotazy a kontext ukládány, a jaká jsou pravidla pro sdílení s partnery a vývojáři.
Možné techniky ochrany
- End‑to‑end šifrování, kde to situace dovolí.
- Edge‑first zpracování citlivých informací přímo na zařízení, s odesíláním do cloudu pouze nezbytných vektorů nebo abstrakcí.
- Auditní stopy a přístupová logika, která omezuje, kdo a jak může data využít.
- Možnosti pro uživatele kontrolovat a mazat historii interakcí s asistentem.
Transparentnost v komunikaci Apple bude klíčová pro důvěru uživatelů: jasné zásady, snadno dostupné nástroje pro kontrolu dat a robustní bezpečnostní praktiky jsou nezbytné, pokud má asistovaná umělá inteligence pracovat s osobními informacemi.
Dopad na vývojáře a ekosystém
Pokud Apple nabízí nové API nebo rozhraní, která umožní aplikacím sdílet strukturovaný kontext se Siri, vývojáři budou mít příležitost vytvářet hlubší integrace. To může zahrnovat nové typy uživatelských interakcí, automatizace pracovních postupů a vylepšené hlasové ovládání aplikací. Na druhou stranu, omezení přístupu k určitým datům z bezpečnostních důvodů mohou vyžadovat redesign některých funkcí.
Možné rozhraní a SDK
Apple by mohl rozšířit existující rozhraní (např. SiriKit, Shortcuts, Core ML) nebo přidat nové API, které umožní sdílení kontextu bezpečným a kontrolovaným způsobem. Pro vývojáře to znamená potřebu aktualizovat aplikace a přemýšlet o tom, jaké kontextové signály jsou užitečné pro asistenta, aniž by byly porušeny zásady ochrany soukromí.
Dopady na uživatele a očekávání
Pro koncové uživatele může nová Siri přinést výrazné zjednodušení každodenních úkonů: méně kroků při řešení úkolů, rychlejší přístup k informacím a přirozenější interakce s iPhonem nebo iPadem. Nicméně důvěra v to, že Apple bezpečně nakládá s osobními daty a kontextem na obrazovce, bude stěžejní pro adopci těchto funkcí.
Co si ověřit před použitím
- Jaké konkrétní typy dat asistent odesílá do cloudu.
- Jak je možné spravovat historii interakcí a mazat záznamy.
- Kdy je vyžadován explicitní souhlas uživatele pro sdílení citlivých informací.
Možná omezení a rizika
I přes pokrok existují technická a etická omezení. Modely Gemini jsou mocné, ale mohou chybovat v přesnosti nebo v kontextu specifických domén. Rovněž jsou zde otázky spojené s předsudky modelu, zodpovědností za chybná rozhodnutí a možnými útoky zneužívajícími kontext na obrazovce. Apple bude muset tyto rizika aktivně mitigovat prostřednictvím testování, pravidel pro použití a robustního monitorování chování asistenta.
Je to zlomový okamžik pro Siri?
Pokud bude demo odpovídat reportům, mohlo by to konečně přinést asistenta, který rozumí vaší obrazovce a vašemu aktuálnímu kontextu — a to na infrastruktuře, kterou Apple kontroluje. Taková integrace by mohla výrazně zvýšit užitečnost Siri a posunout ji blíže k modernímu asistentskému modelu založenému na velkých jazykových modelech. Nicméně skutečný dopad bude záviset na implementaci, transparentnosti zásad ochrany soukromí a schopnosti Applu doručit konzistentní a bezpečné uživatelské zkušenosti.
Očekávejte další detaily ve chvíli, kdy se objeví beta iOS 26.4 a Apple připraví svou únorovou prezentaci. V mezičase je vhodné sledovat, jaké konkrétní scénáře budou na ukázce demonstrovány, jak Apple komunikuje otázky bezpečnosti a soukromí, a jak rychle budou vývojáři integrováni do nového modelu práce se Siri.
Zdroj: gsmarena
Zanechte komentář