Uma das primeiras empresas que avançou a realidade aumentada e a mídia social em telefones está adicionando a seguir IA generativa ao mix. Parece uma indicação precoce de onde AR e VR estão indo agora que IA se tornou o termo da moda em 2024.

Snap anunciou sua nova estratégia de negócios no Expo Mundial Aumentada, uma conferência focada no futuro das tecnologias AR e VR em Long Beach, Califórnia. A IA generativa aparecerá de duas maneiras: invocará experiências de AR em tempo real no aplicativo do telefone e será usada em ferramentas de desenvolvedor para ajudar a tornar novas experiências de AR mais rápidas.

Você pode não usar o Snapchat ou talvez não use muito AR. Mas a chegada da geração AI em AR parece um movimento inevitável. E veremos em breve em outros aplicativos e óculos futuros também.

O Snapchat já tinha IA generativa em seu aplicativo: um bot de bate-papo com IA lançado no ano passado, e agora bots e assistentes de IA estão por toda parte. Mas a maneira como o Snap está usando modelos generativos de IA para criar efeitos 3D instantaneamente parece nova e é sugestivo de como AR e VR podem estar prontos para ver mais criação de imagens de IA em outros aplicativos.

Embora a CNET ainda não tenha visto nenhuma demonstração dos efeitos de IA em lentes AR, a promessa de evocar ideias rapidamente levanta questões sobre a gama de expressividade nas ferramentas de criação de imagens de IA da geração Snap. Também levanta questões sobre como os atuais desenvolvedores de lentes AR – dos quais existem mais de 350.000, de acordo com o Snap – serão afetados por essas novas ferramentas criativas.

Embora eles potencialmente tornem os efeitos de AR mais fáceis para os desenvolvedores sem experiência em codificação, também chegará um ponto em que mais pessoas simplesmente criarão efeitos de AR para si mesmas usando IA, sem baixar ou comprar quaisquer efeitos de lente feitos pelo desenvolvedor?

Um efeito AR de uma mulher que parece um zumbi em um aplicativo Snapchat feito por Paige Piskin

Zombie Girl Comic Lens de Paige Piskin, uma lente AR existente que já usa as ferramentas de criação de IA da geração Snap.

Captura de tela de Scott Stein/CNET

Esses tipos de interrupções são questões que muitas pessoas já se perguntaram sobre ferramentas generativas de IA em todos os outros lugares, mas parecem finalmente prontas para serem transferidas para aplicativos e softwares de AR e VR também.

A parte em tempo real dos efeitos AR da geração AI é a parte mais interessante disso. A criação de efeitos generativos de IA geralmente envolve algum tipo de espera. O processo do Snap parecerá instantâneo o suficiente para que pareça espontâneo ou ainda estamos chegando lá?

Snap parece ser um dos primeiros a mergulhar neste espaço em AR. O Vision Pro da Apple não vai conseguir Inteligência da Apple, ferramentas generativas de IA da Apple, ainda este ano. E enquanto Óculos Ray-Ban da Meta use IA generativa para bate-papos e para analisar fotos, os headsets Quest VR da Meta ainda não possuem IA de geração em seu sistema operacional. CTO da Meta Andrew Bosworth disse à CNET no início deste ano, a Quest poderia obter em breve ferramentas de geração de IA geradoras de ativos.

Atualmente, o AR do Snap é baseado em telefone, usando câmeras para adicionar efeitos em tempo real nas telas dos telefones, mas a empresa vem desenvolvendo seus próprios óculos AR há anos. Talvez, como muitas outras empresas como Niantico Snap também pode entrar em headsets VR de realidade mista.



Fuente