O impulso da IA ​​​​da Apple tem sido lento, para dizer o mínimo, especialmente quando você o compara com os rápidos desenvolvimentos que estão ocorrendo em seus concorrentes, nomeadamente Microsoft e Google. Embora empresas como Samsung, Google e até mesmo Nothing tenham uma infinidade de recursos de IA em seus respectivos dispositivos, os iPhones permaneceram indiferentes enquanto a Apple tentava se atualizar na corrida da IA. No entanto, está tentando ativamente fazer progressos e recentemente esteve em negociações com empresas como Google e OpenAI sobre um possível acordo que permitiria que seus modelos de IA fossem usados ​​em iPhones, mas isso ainda está em desenvolvimento.

Agora, os pesquisadores da Apple lançaram uma família de quatro modelos leves de IA na biblioteca de modelos Hugging Face que podem ser executados no dispositivo, sugerindo seu uso futuro em dispositivos como iPhone, iPad e Mac.

Apple lança quatro modelos de IA de código aberto

De acordo com a postagem no Hugging Face, a família de modelos de IA é conhecida como ‘Modelos de linguagem eficientes de código aberto’ ou OpenELM. Esses modelos foram projetados para realizar pequenas tarefas com eficiência, como redigir e-mails. A Apple diz que o OpenELM é treinado em conjuntos de dados disponíveis publicamente usando a biblioteca CoreNet que inclui RefinedWeb, PILE desduplicado, um subconjunto de RedPajama e um subconjunto de Dolma v1.6, totalizando aproximadamente 1,8 trilhão de tokens. Foi lançado com quatro parâmetros – 70 milhões, 450 milhões, 1,1 bilhão e 3 bilhões de parâmetros.

Para quem não sabe, os parâmetros são uma medida de quantas variáveis ​​o modelo de IA pode aprender ao tomar decisões. Eles são baseados no conjunto de dados no qual o modelo de IA foi treinado.

De acordo com a Apple, a família OpenELM de modelos de IA foi lançada para “capacitar e enriquecer a comunidade de pesquisa aberta, fornecendo acesso a modelos de linguagem de última geração”.

Impulso de IA da Apple

A fabricante do iPhone já faz experiências com IA há algum tempo. No ano passado, lançou uma estrutura de aprendizado de máquina chamada MLX que permite que modelos de IA funcionem melhor em seus dispositivos com tecnologia Apple Silicon. Além disso, também lançou uma ferramenta de imagem chamada MLLM-Guided Image Editing ou MGIE.

No mês passado, foi revelado que os pesquisadores da Apple fizeram um grande avanço no que diz respeito ao treinamento de modelos de IA em texto e imagens. Um artigo de pesquisa sobre o mesmo foi publicado em 14 de março. Intitulado “MM1: Métodos, Análise e Insights do Pré-treinamento Multimodal LLM”, ele demonstra como o uso de diversas arquiteturas para dados e modelos de treinamento pode ajudar a alcançar o estado da arte. resultados em vários benchmarks.

Diz-se também que está trabalhando em seu próprio Large Language Model (LLM), no centro do qual está uma nova estrutura conhecida como Ajax que poderia trazer um aplicativo semelhante ao ChatGPT, apelidado de “Apple GPT”. , como engenharia de software, aprendizado de máquina e engenharia de nuvem, estão ocorrendo para tornar este projeto de LLM uma realidade.

O lançamento da família OpenELM de modelos de IA certamente pinta um quadro intrigante do desenvolvimento de IA na Apple. No entanto, considerando que nenhum modelo básico foi lançado ainda, levará algum tempo até que dispositivos Apple como iPhone e Mac possam finalmente tirar proveito dele.

Fuente