Apple a Google spojují síly: Siri jako AI agent | robot_dreams Czech
should_authorize_via_email
email.input_code tel.input_code
 
email.code_actual_for tel.code_actual_for
apply_exit_text
session_ended
to_homepage
Apple a Google spojují síly: Siri jako AI agent

Apple a Google spojují síly: Siri jako AI agent

Nová generace asistentky ukončí éru manuálního zadávání dat

Když Apple v říjnu 2011 představil iPhone 4S, Siri byla revoluční tool. Objevila se například i v kultovním seriálu Teorie velkého třesku (S5E14). Dnes ale vedle velkých jazykových modelů zaostává. 

V reakci na to značky Apple a Google v lednu 2026 oznámily přelomovou, víceletou spolupráci. Budoucí funkce Apple Intelligence – včetně nové, hluboce personalizované Siri – budou stavět na technologiích Gemini. Co to znamená pro uživatele a nadcházející update iOS?

Technologický shift: od pevných domén k modelu Gemini

Původní Siri je postavená na intent-based logice. Rozpoznat záměr, napasovat ho do předem definovaných domén a z nich vytáhnout výsledek. Když dotaz vybočí, je to problém.

U nové generace Siri se podle současných reportů řeší tři velké směry:

  • Personal context: schopnost pracovat s tím, co už v ekosystému máš (poštu, zprávy, kalendáře, dokumenty).
  • On-screen awareness: Siri „chápe“, co máš právě na obrazovce, a umí podle toho reagovat.
  • Actions napříč aplikacemi: ne jen odpovědět, ale udělat krok(y). Vyplnit, uložit, přepnout, poslat, zorganizovat.

„Campos“ a Apple Intelligence: dvě vrstvy inteligence

Apple interně používá kódové označení Campos pro chatbot-like Siri, hluboko integrovanou do iOS/iPadOS/macOS.

V praxi dává smysl uvažovat o dvou vrstvách:

  • Personal Intelligence (lokální „Apple“ vrstva): práce s osobním kontextem, systémové akce, integrace do OS.
  • „World knowledge“ (globální vrstva): generativní odpovědi, sumarizace, vysvětlování, širší znalosti mimo tvoje data.

Osobní kontext: co to znamená v reálu
Místo dotazu „Kdy mám schůzku?“ se v budoucnu můžeme ptát „Siri, kdy přiletí máma a stihnu ji vyzvednout, když mám ten odpolední mítink?“. Siri prohledá letenky v e-mailech, podívá se na dopravní situaci v mapách a zkontroluje kalendář.

On-screen awareness (povědomí o obrazovce)
Tohle je jedna z nejpraktičtějších věcí, které se v reportech opakují – schopnost Siri „vidět“ aktivní aplikaci. Pokud v iMessage přijde nová adresa, stačí říct „ulož to do kontaktu k Petrovi“ a Siri automaticky extrahuje data z textu na displeji.

Kde to začalo: původní vize Apple Intelligence z loňského června (WWDC 2025)

Co čekat od iOS 26.4

Aktualizace iOS 26.4, očekávaná v březnu nebo dubnu 2026, poslouží jako „most“ k nové architektuře.  Zatímco plná integrace projektu Campos (Siri jako pokročilý chatbot) je podle analytiků cílena až na červnové představení iOS 27 (píše o tom například web Techradar), jarní update se soustředí na pragmatičtější stránku – transformaci Siri v action-oriented AI.

Nejnovější reporty naznačují, že Apple nyní prioritizuje funkčnost před konverzací. Neměli bychom očekávat okamžitou revoluci v přirozeném dialogu, ale spíš skokové zlepšení v užitečnosti a ovládání systému.

Co se v iOS 26.4 nejspíš objeví:

  • první vrstvy personal context,
  • první verze on-screen awareness,
  • začátky actions napříč aplikacemi (ale ne nutně plná autonomie).

Soukromí vs. výkon: Private Cloud Compute jako mezivrstva

Zajímavým aspektem integrace Gemini je vizuální a funkční identita. Apple si dal záležet na tom, aby uživatel neměl pocit, že používá cizí technologii.

  • Žádné logo Gemini: V souladu s Apple filozofií v rozhraní Siri nebudou žádné zmínky o Googlu. 
  • Private Cloud Compute (PCC): Pokud požadavek nebude možné vyřídit lokálně (on-device), využije Apple své servery s čipy Apple Silicon. Tyto servery poběží na speciálním OS, který bude auditovatelný a data po zpracování okamžitě smaže. K odeslání dotazu do cloudu Google Gemini bude docházet pouze u specifických, vysoce náročných úkolů, a to se šifrovanou identitou uživatele.

Transformace Siri v kostce

Dříve: intent-based asistent, který často skončil u vyhledávání na webu nebo u jednoduchých systémových akcí.

Trend 2026 a dále: modelovější Siri, která:

  • lépe pracuje s přirozeným jazykem,
  • umí brát v potaz osobní kontext,
  • dokáže rozpoznat, co je na obrazovce
  • a místo odpovědi častěji udělá akci.

Podle posledních reportů ale Apple pořád řeší stabilitu a posuny verzí.

Co (možná) přijde po WWDC 2026?

Zatímco iOS 26.4 má položit základy, červnová konference WWDC 2026 by mohla představit další funkce:

  • Proaktivní návrhy: Siri navrhne akci dříve, než se zeptáme (např. „Vidím, že máš zpoždění na vlak, mám poslat zprávu účastníkům schůzky?”).
  • Komplexní autonomie: Schopnost provádět řetězec úkolů (např. najít hotel -> ověřit recenze na webu -> provést platbu přes Apple Pay).

Dočkáme se Siri v češtině?

Modely jako Gemini mají nativně mnohem lepší jazykovou podporu než původní systémy Applu, a to dává reálnou naději na Siri v češtině. Je to ale jenom předpoklad, takže si počkejme na další vývoj a držme si palce.

Více článků
„Nakrmte AI informacemi a daty. Pak se budete divit, co dokáže,“ tvrdí Michal Novotný, freelancer v oblasti marketingu, AI a obchodu
Výběr podcastů o AI, ML a všem, co s nimi souvisí