A última conferência de desenvolvedores da Apple, WWDC 2024, estava meio cheia do futuro de serviços avançados de IA chegando neste outono para Macs, iPads e iPhones. Notavelmente ausente do mix: o produto da Apple foi revelado há um ano em sua última conferência de desenvolvedores.

Embora tecnicamente, o Apple Visão Pro tem apenas quatro meses, já faz um ano desde que tomamos conhecimento disso. A Apple considera o Vision Pro o futuro da computação e, como um dispositivo totalmente independente com um chip Apple M2 robusto, certamente parece um possível herdeiro aparente para o nosso mundo atual de telefones, laptops e tablets.

E, no entanto, o Vision Pro não está obtendo recursos generativos de IA este ano. Apple Intelligence – o conjunto de serviços de IA baseados em hardware e nuvem da Apple – funcionará em chips A17 Pro em modelos de iPhone 15 Pro, além de iPads e Macs da série M. O Apple Vision Pro, que novamente conta com chip M2, deve ser um dos aparelhos a funcionar com Apple Intelligence. Mas ainda não: em vez disso, Visão OS 2 tem uma série de atualizações menores, enquanto a IA generativa – um recurso que pensei seria uma adição chave para Vision Pro – ainda não faz parte deles.

Vê isto: Inteligência da Apple: o que saber sobre a geração AI da Apple

Segundo a Apple, mais plataformas receberão o Apple Intelligence no futuro. O Vision Pro e o Apple Watch, as duas ausências mais visíveis da lista no momento, podem ser os próximos. Estou particularmente decepcionado porque o Vision Pro não é um dos primeiros dispositivos porque o fone de ouvido avançado é um produto pioneiro para testar novas ideias em realidade mista. Deveria ser um dispositivo experimental de IA também.

Mas talvez a complexidade e o espaço limitado do Vision Pro sejam o que o torna um dispositivo da próxima onda para a integração de serviços de IA.

A Apple só agora está disponibilizando o Vision Pro fora dos mercados dos EUA, com mais oito países sendo adicionados à lista em junho e julho. Talvez seja essa disponibilidade limitada e seus números de vendas relativamente menores que o tornam um produto que pode esperar pela obtenção do Apple Intelligence.

Ou talvez seja porque os diferentes tipos de entradas do Vision Pro – rastreamento manual, rastreamento ocular e uma variedade de câmeras internas e externas – criam um nível diferente de desafios para descobrir uma IA útil. Um Siri mais inteligente parece ser uma grande ajuda para o Vision Pro, porque já estou usando o Siri mais lá do que com meu iPad ou Mac. Abro aplicativos com minha voz, digito texto com minha voz e pesquiso com minha voz o tempo todo; é mais rápido do que tentar usar meus olhos e mãos.

A complexidade do Vision Pro também pode colocar uma carga diferente nos processadores que executam IA. O mecanismo neural nos chips do Vision Pro também ajuda a processar varredura constante da sala e entradas de rastreamento ocular e manual e sobrepor gráficos virtuais em sobreposições de imagens de câmera ao vivo. Há muita coisa acontecendo ao mesmo tempo com o Vision Pro, e aplicativos de terceiros ainda não têm acesso geral à câmera no fone de ouvido.

Para mim, o futuro mais interessante da IA ​​generativa é multimodal: usar câmeras e microfones para estar ciente das transmissões em tempo real do que vejo e digo. Os primeiros dispositivos de IA vestíveis, como Óculos Ray-Ban da Meta e a Alfinete de IA humano podem “ver” o mundo com suas câmeras, mas apenas tirando fotos e analisando-as rapidamente. Obter descrições do meu mundo, ou até mesmo conselhos, é fascinante… mas, no momento, é extremamente difícil.

A Apple também precisa liberar o acesso à câmera no headset Vision Pro com câmera. Aplicativos de terceiros no Vision Pro ainda não podem usar essas câmeras para realmente ver o mundo ao seu redor, a menos que sejam desenvolvidos usando a nova API da Apple voltada para empresas. Esse nível de acesso limitado pode sugerir que o objetivo da Apple de gerenciar a carga no processamento do Vision Pro e a IA generativa on-tap seriam outra camada de complexidade.

Essas complexidades significariam um headset Vision de última geração com um processador mais avançado – que poderia chegar, com base em relatórios, no final de 2025 – seria o verdadeiro destinatário da Apple Intelligence de pleno direito? Tudo está adivinhando agora, mas o Vision Pro atual parece que ainda deve ser mais do que poderoso o suficiente para executar IA generativa.

Inevitavelmente, a Apple abrirá mais as permissões da câmera Vision Pro. O mesmo acontecerá com outros fabricantes de fones de ouvido VR/AR, como a Meta. Talvez seja nesse momento que a IA generativa se torne verdadeiramente transformadora para a realidade mista… mas, entretanto, ainda vejo grandes utilizações.

Um Siri melhor seria enorme, assim como a geração de conteúdo ou codificação criativa. Andrea Bosworth da Meta vê IA generativa sendo um fator nos fones de ouvido Quest em breve. A Apple também deve adotar o Vision Pro em breve – se o futuro realmente fluir através do Vision Pro, também será necessário o futuro de como todos os serviços de software da Apple funcionam.



Fuente