A Apple não disse muito publicamente sobre seus planos de se juntar às muitas empresas que oferecem produtos generativos de IA, mas esta semana abriu uma janela para seu trabalho nos bastidores no tipo de sistema que alimenta chatbots de IA e geradores de imagens.

Na segunda-feira, lançou o OpenELM, que chama de “modelo de linguagem aberta de última geração”. Os modelos de linguagem são os enormes conjuntos de informações que ferramentas como ChatGPT, Gemini, Perplexity e Dall-E utilizam para responder às solicitações que você digita quando deseja que uma IA prepare um e-mail, escreva um código de computador ou crie uma imagem fantasiosa.

Portanto, ainda não é o produto de IA da Apple que todos esperávamos, mas é um passo lógico nessa direção – e potencialmente sugere os recursos de IA que a Apple pode oferecer em seu próximo software iOS 18 para iPhones.

Etiqueta de distintivo de arte AI Atlas

O lançamento do OpenELM ocorre poucas semanas antes do evento WWDC da Apple no início de junho, onde a empresa tradicionalmente fala sobre sua próxima onda de ofertas de software.

A Apple não respondeu a um pedido de comentário.

Mas durante uma teleconferência de resultados trimestrais em fevereiro, o CEO Tim Cook deu a entender que a Apple revelaria seus planos para IA generativa em algum momento de 2024. Também nessa época, a Apple supostamente encerrou seu projeto de carro elétrico de longa duração focar na IA generativa e no Apple Vision Pro, o wearable que foi colocado à venda no mesmo mês e que Scott Stein, revisor da CNET, chama de “o dispositivo mais selvagem e estranho da Apple”.

Ainda não está claro como o OpenELM se enquadra nesses planos. No entanto, em um artigo de pesquisa publicado em março, a Apple discutiu modelos multimodais de grandes linguagensou aqueles que podem gerar uma variedade de formatos de conteúdo.

Enquanto a Apple resiste, a maioria dos gigantes da tecnologia e uma série de startups já lançaram uma ou mais gerações de produtos de geração de IA. Adobe, Anthropic, Google e OpenAI estão em uma corrida para lançar modelos cada vez mais capazes que não apenas entendam uma variedade maior de consultas, mas também produzam imagens e vídeos mais realistas. Eles estão até interessados ​​em destacar projetos de pesquisa internos em áreas como videogames e composição musical para sugerir o que podem oferecer para capturar sua atenção e garantir sua lealdade potencial como usuários de seus produtos de IA. (Para obter as últimas notícias sobre IA, além de análises de produtos, explicadores, dicas e muito mais, confira nosso novo guia AI Atlas.)

Algumas lições sobre OpenELM

Um papel postado no site de pesquisa de aprendizado de máquina da Apple observa que a versão OpenELM inclui tudo o que é necessário para treinar e avaliar o modelo de linguagem em conjuntos de dados disponíveis publicamente, incluindo registros de treinamento, pontos de verificação e configurações de pré-treinamento. (A parte ELM do nome significa “modelo de linguagem eficiente”.)

No LinkedIn, Maxwell Horton, pesquisador de aprendizado de máquina da Apple, escreveu que o OpenELM faz parte de um novo repositório de código aberto chamado CoreNet, que está disponível no GitHub. Este recurso também inclui código para converter modelos em uma estrutura de array para pesquisa de aprendizado de máquina em chips Apple, que permite inferência e ajuste fino em dispositivos Apple, bem como modelos de visão e linguagem com receitas de treinamento e liberação de código para 11 publicações de pesquisa da Apple. .

O artigo do OpenELM disse que o objetivo é preparar o caminho para futuros empreendimentos de pesquisa aberta.

“A reprodutibilidade e a transparência de grandes modelos linguísticos são cruciais para o avanço da investigação aberta, garantindo a fiabilidade dos resultados e permitindo investigações sobre dados e preconceitos de modelos, bem como riscos potenciais”, acrescentou o documento.

Grandes modelos de linguagem são medidos no que é conhecido como parâmetros, ou o número de variáveis ​​em um cálculo matemático usado para produzir uma saída a partir de uma determinada entrada. À medida que o número de parâmetros aumenta, aumenta também a capacidade do modelo de dar sentido à linguagem. Os modelos pré-treinados e ajustados por instrução da Apple têm 270 milhões, 450 milhões, 1,1 bilhão e 3 bilhões de parâmetros.

A título de comparação, o ChatGPT 3.5 possui 175 bilhões de parâmetros. A versão mais recente do modelo Llama 3 da Meta possui 70 bilhões de parâmetros.

Surgiram relatórios em julho passado de que a Apple estava trabalhando em um chatbot de IA chamado Apple GPT e em um grande modelo de linguagem chamado Ajax, mas a empresa não comentou.

“Temos muito trabalho em andamento internamente, como já mencionei antes”, disse Cook sobre a IA generativa durante a teleconferência de resultados de fevereiro. “Nosso MO, por assim dizer, sempre foi trabalhar e depois falar sobre trabalho, e não sair na frente de nós mesmos, então vamos considerar isso também.”

Nota do editor: A CNET usou um mecanismo de IA para ajudar a criar várias dezenas de histórias, que são rotuladas de acordo. A nota que você está lendo está anexada a artigos que tratam substancialmente do tópico de IA, mas são criados inteiramente por nossos editores e escritores especializados. Para mais, veja nosso Política de IA.



Fuente