Pavan Davuluri, prowadzący w systemie Windows Microsoft, wskazał, że nadchodząca iteracja systemu Windows będzie „bardziej otoczenia, wszechobecna i multimodalna”, ponieważ Artificial Intelligence (AI) jest ustawiona na redefiniowanie interfejsu komputerowego i interakcji użytkownika z komputerami.
W ostatnim wywiadzie wideo Davuluri, który służy jako Microsoft CVP i Windows Boss, opracował przyszłość platformy, podkreślając znaczące zmiany przewidywane dla systemu operacyjnego. Zapytany o wpływ sztucznej inteligencji na interakcję ludzki-komputer, Davuluri stwierdził: „Myślę, że przetwarzanie staje się bardziej ambiencowe, bardziej wszechobecne, nadal tworzą czynniki, a na pewno staje się bardziej multimodalna w łuku czasu… Myślę, że doświadczenie różnorodności jest następną przestrzenią, w której będziemy nadal widzieć głos. do przodu.”
To nie jest pierwszy przypadek, w którym Microsoft zasugerował priorytety głosu jako podstawową metodę wejściową dla Windows. Film „Windows 2030 Vision”, wydany w poprzednim tygodniu przez Microsoft CVP of Enterprise & Security, badał również podobną przyszłość systemu operacyjnego, wzmacniając kierunek firmy. Oczekuje się, że nadchodzące doświadczenie Windows zintegruje głos jako metodę wejściową pierwszej klasy, umożliwiając użytkownikom interakcję z systemem operacyjnym za pomocą języka naturalnego. Ta możliwość umożliwi systemowi zrozumienie intencji użytkownika w oparciu o kontekst na ekranie, uzupełniając tradycyjne wejścia myszy i klawiatury.
Davuluri zasugerował również, że wizualny wygląd Windows prawdopodobnie będzie znacznie ewoluować z powodu Agentic AI. Zauważył: „Myślę, że to, jak wyglądają dzisiejsze interfejsy ludzkie i jak wyglądają za pięć lat, to dla nas jeden duży obszar ciągu, który Windows nadal ewoluuje. System operacyjny jest coraz bardziej agencyjny i multimodalny… jest to dla nas obszar ogromnej inwestycji i zmian”.
Ponadto Davuluri podkreślił kluczową rolę przetwarzania w chmurze w umożliwieniu tych przyszłych doświadczeń. Wyjaśnił: „Oblicz stanie się wszechobecny, ponieważ w systemie Windows wykorzystają kombinację możliwości, które są lokalne i które są w chmurze. Myślę, że naszym obowiązkiem jest upewnienie się, że są bezproblemowe dla naszych klientów”. Wskazuje to na podejście hybrydowe, wykorzystujące zarówno lokalną siłę przetwarzania, jak i zasoby w chmurze w celu zapewnienia bezproblemowych doświadczeń użytkowników.
Microsoft wydaje się pozycjonować system Windows jako zintegrowany asystent AI, wykraczając poza obecny model, w którym asystenci AI działają przede wszystkim jako osobne aplikacje lub nakładki na istniejące systemy operacyjne. W przeciwieństwie do obecnych asystentów AI, takich jak Copilot w systemie Windows, Gemini na Androidzie lub Siri na komputerze Mac, które działają jako odrębne aplikacje lub pływające okna, przewiduje się, że przyszłe systemy Windows jest, aby AI jest wewnętrznie tkane w całej swojej architekturze. Ta podstawowa integracja AI sugeruje głęboką zmianę w sposób projektowania i wykorzystywania systemu operacyjnego.
Oczekuje się, że ta transformacyjna zmiana urzeczywistnia się w ciągu najbliższych pięciu lat, potencjalnie z wydaniem systemu Windows 12. Wielu menedżerów Microsoft na wysokim poziomie nawiązało do tego, że jest to znaczna zmiana paradygmatu zarówno dla platformy, jak i obliczeń, napędzanych postępami w AI.
Podczas gdy koncepcja głosu stania się podstawową i niezawodną metodą wejściową dla komputerów PCS może początkowo wydawać się trudnym dla niektórych użytkowników, integracja Agentic AI i zdolność systemu operacyjnego do zrozumienia intencji użytkowników i języka naturalnego sprawi, że doświadczenie będzie bardziej intuicyjne niż przewiduje się. Zmiana nie dotyczy wyłącznie Microsoft; Mówi się również, że Apple opracowuje funkcję zorientowaną na głos iOS 26, która umożliwiłaby użytkownikom iPhone’a nawigację aplikacji wyłącznie przez polecenia głosowe, co wskazuje na szerszy trend branżowy w kierunku ulepszonej interakcji głosowej.
W systemie Windows głos prawdopodobnie będzie służyć jako dodatkowa metoda wejściowa, obok myszy i klawiatury, tworząc trzy podstawowe modalności interakcji: pisanie, dotyk/mysz i głos. Chociaż dane wejściowe głosu może nie być obowiązkowe do wykonania zadań, oczekuje się, że jego włączenie usprawni przepływy pracy i zwiększy wydajność.
Oczekuje się jednak, że powszechne przyjęcie takich doświadczeń opartych na AI wzbudzi znaczące obawy dotyczące prywatności. Te zaawansowane funkcje będą wymagały dostępu do znacznych ilości danych użytkowników osobistych w celu optymalizacji ich użyteczności. W połączeniu z uznaną przez Microsoft potrzebę równowagi między przetwarzaniem lokalnym i chmurowym w celu ułatwienia tych doświadczeń, istnieje oczekiwanie potencjalnego publicznego rzutu w zakresie prywatności i bezpieczeństwa danych.
