Home Notícias Por que a Apple está adotando uma abordagem de modelo pequeno para...

Por que a Apple está adotando uma abordagem de modelo pequeno para IA generativa

Por que a Apple está adotando uma abordagem de modelo pequeno para IA generativa

Uma das maiores questões em torno de modelos como ChatGPT, Gemini e Midjourney desde o lançamento é qual o papel (se houver) que eles desempenharão em nossas vidas diárias. É algo que a Apple está se esforçando para responder com sua própria abordagem na categoria, Apple Intelligence, que foi oficialmente revelada esta semana na WWDC 2024.

A empresa liderou com destaque a apresentação de segunda-feira; é assim que as palestras funcionam. Quando o vice-presidente sênior Craig Federighi não estava praticando paraquedismo ou praticando parkour com a ajuda de alguma magia de Hollywood (bem, Cupertino), a Apple estava determinada a demonstrar que seus modelos internos eram tão capazes quanto os da concorrência.

O júri ainda não decidiu sobre essa questão, com os betas lançados apenas na segunda-feira, mas a empresa revelou desde então algumas das coisas que tornam sua abordagem à IA generativa diferente. Em primeiro lugar está o escopo. Muitas das empresas mais proeminentes no setor adotam uma abordagem maior e melhor em seus modelos. O objetivo desses sistemas é servir como uma espécie de balcão único para a informação mundial.

A abordagem da Apple para a categoria, por outro lado, é baseada em algo mais pragmático. Apple Intelligence é uma abordagem mais personalizada para IA generativa, construída especificamente com os diferentes sistemas operacionais da empresa como base. É uma abordagem muito Apple, no sentido de que prioriza acima de tudo uma experiência de usuário sem atritos.

O Apple Intelligence é um exercício de branding em um sentido, mas em outro, a empresa prefere que os aspectos generativos da IA ​​se integrem perfeitamente ao sistema operacional. Está tudo bem – ou até mesmo preferido, na verdade – se o usuário não tiver noção das tecnologias subjacentes que alimentam esses sistemas. É assim que os produtos da Apple sempre funcionaram.

Mantendo os modelos pequenos

A chave para isso é criar modelos menores: treinar os sistemas em um conjunto de dados personalizado projetado especificamente para os tipos de funcionalidade exigidos pelos usuários de seus sistemas operacionais. Não está claro até que ponto o tamanho desses modelos afetará a questão da caixa preta, mas a Apple acredita que, no mínimo, ter modelos mais específicos para tópicos aumentará a transparência sobre por que o sistema toma decisões específicas.

Devido à natureza relativamente limitada desses modelos, a Apple não espera que haja uma grande variedade ao solicitar ao sistema, por exemplo, um resumo do texto. Em última análise, porém, a variação de prompt para prompt depende da extensão do texto que está sendo resumido. Os sistemas operacionais também apresentam um mecanismo de feedback no qual os usuários podem relatar problemas com o sistema generativo de IA.

Embora o Apple Intelligence seja muito mais focado do que os modelos maiores, ele pode cobrir uma variedade de solicitações, graças à inclusão de “adaptadores”, especializados para diferentes tarefas e estilos. Em termos gerais, porém, a abordagem da Apple não é uma abordagem do tipo “quanto maior, melhor” para a criação de modelos, já que coisas como tamanho, velocidade e poder de computação precisam ser levadas em consideração – especialmente quando se trata de modelos no dispositivo.

ChatGPT, Gemini e o resto

A abertura para modelos de terceiros, como o ChatGPT da OpenAI, faz sentido quando se considera o foco limitado dos modelos da Apple. A empresa treinou seus sistemas especificamente para a experiência macOS/iOS, portanto, haverá muitas informações fora de seu escopo. Nos casos em que o sistema achar que um aplicativo de terceiros seria mais adequado para fornecer uma resposta, um prompt do sistema perguntará se você deseja compartilhar essas informações externamente. Se você não receber uma solicitação como esta, a solicitação está sendo processada com modelos internos da Apple.

Isso deve funcionar da mesma forma com todos os modelos externos parceiros da Apple, incluindo o Google Gemini. É um dos raros casos em que o sistema chamará a atenção para o uso de IA generativa desta forma. A decisão foi tomada, em parte, para eliminar quaisquer preocupações com privacidade. Cada empresa tem padrões diferentes quando se trata de coleta e treinamento de dados de usuários.

Exigir que os usuários aceitem todas as vezes elimina parte do ônus da Apple, mesmo que isso acrescente algum atrito ao processo. Você também pode optar por não usar plataformas de terceiros em todo o sistema, embora isso limitasse a quantidade de dados que o sistema operacional/Siri pode acessar. Você não pode, no entanto, cancelar o Apple Intelligence de uma só vez. Em vez disso, você terá que fazer isso recurso por recurso.

Computação em nuvem privada

Por outro lado, não ficará claro se o sistema processa uma consulta específica no dispositivo ou através de um servidor remoto com Private Cloud Compute. A filosofia da Apple é que tais divulgações não são necessárias, uma vez que ela mantém seus servidores com os mesmos padrões de privacidade de seus dispositivos, até o silício original em que são executados.

Uma maneira de saber com certeza se a consulta está sendo gerenciada dentro ou fora do dispositivo é desconectar sua máquina da Internet. Se o problema exigir a solução da computação em nuvem, mas a máquina não conseguir encontrar uma rede, ela gerará um erro informando que não pode concluir a ação solicitada.

A Apple está detalhando os detalhes sobre quais ações exigirão processamento baseado em nuvem. Existem vários fatores em jogo aí, e a natureza em constante mudança desses sistemas significa que algo que pode exigir computação em nuvem hoje pode ser realizado no dispositivo amanhã. A computação no dispositivo nem sempre será a opção mais rápida, pois a velocidade é um dos parâmetros que a Apple Intelligence leva em consideração ao determinar onde processar o prompt.

Existem, no entanto, certas operações que sempre serão realizadas no dispositivo. O mais notável de todos é o Image Playground, já que o modelo de difusão completo é armazenado localmente. A Apple ajustou o modelo para gerar imagens em três estilos diferentes de casa: animação, ilustração e esboço. O estilo de animação se parece bastante com o estilo doméstico de outra empresa fundada por Steve Jobs. Da mesma forma, a geração de texto está atualmente disponível em um trio de estilos: amigável, profissional e conciso.

Mesmo nesta fase beta inicial, a geração do Image Playground é impressionantemente rápida, muitas vezes demorando apenas alguns segundos. Quanto à questão da inclusão ao gerar imagens de pessoas, o sistema exige que você insira detalhes específicos, em vez de simplesmente adivinhar coisas como etnia.

Como a Apple lidará com conjuntos de dados

Os modelos da Apple são treinados em uma combinação de conjuntos de dados licenciados e no rastreamento de informações acessíveis ao público. Este último é realizado com AppleBot. O rastreador da web da empresa já existe há algum tempo, fornecendo dados contextuais para aplicativos como Spotlight, Siri e Safari. O rastreador possui um recurso de desativação para editores.

“Com o Applebot-Extended”, observa a Apple, “os editores da web podem optar por não permitir que o conteúdo de seu site seja usado para treinar os modelos básicos da Apple, potencializando recursos generativos de IA em produtos Apple, incluindo Apple Intelligence, Services e Developer Tools”.

Isso é feito com a inclusão de um prompt no código do site. Com o advento do Apple Intelligence, a empresa introduziu um segundo prompt, que permite que sites sejam incluídos nos resultados de pesquisa, mas excluídos para treinamento de modelo de IA generativo.

IA responsável

A Apple lançou um white paper no primeiro dia da WWDC intitulado “Apresentando os modelos de base de servidor e no dispositivo da Apple”. Entre outras coisas, destaca os princípios que regem os modelos de IA da empresa. Em particular, a Apple destaca quatro coisas:

  1. “Capacitar os usuários com ferramentas inteligentes: Identificamos áreas onde a IA pode ser usada de forma responsável para criar ferramentas que atendam às necessidades específicas dos usuários. Respeitamos a forma como nossos usuários escolhem usar essas ferramentas para atingir seus objetivos.”
  2. “Representar nossos usuários: construímos produtos profundamente pessoais com o objetivo de representar autenticamente usuários em todo o mundo. Trabalhamos continuamente para evitar a perpetuação de estereótipos e preconceitos sistêmicos em nossas ferramentas e modelos de IA.”
  3. “Projete com cuidado: tomamos precauções em todas as fases do nosso processo, incluindo design, treinamento de modelo, desenvolvimento de recursos e avaliação de qualidade para identificar como nossas ferramentas de IA podem ser mal utilizadas ou causar danos potenciais. Melhoraremos contínua e proativamente nossas ferramentas de IA com a ajuda do feedback dos usuários.”
  4. “Proteja a privacidade: protegemos a privacidade de nossos usuários com processamento poderoso no dispositivo e infraestrutura inovadora como Private Cloud Compute. Não usamos dados pessoais privados ou interações de usuários de nossos usuários ao treinar nossos modelos básicos.”

A abordagem personalizada da Apple aos modelos básicos permite que o sistema seja adaptado especificamente à experiência do usuário. A empresa aplicou essa abordagem UX-first desde a chegada do primeiro Mac. Fornecer uma experiência o mais simples possível é útil ao usuário, mas não deve ser feito às custas da privacidade.

Este será um aplicativo de equilíbrio difícil que a empresa terá que navegar à medida que a atual safra de betas de sistemas operacionais atingir a disponibilidade geral este ano. A abordagem ideal é oferecer tanta – ou pouca – informação quanto o usuário final exigir. Certamente haverá muitas pessoas que não se importam, digamos, se uma consulta é ou não executada na máquina ou na nuvem. Eles se contentam em ter o sistema padronizado com o que for mais preciso e eficiente.

Para os defensores da privacidade e outros interessados ​​nessas especificidades, a Apple deve se esforçar para obter o máximo de transparência possível para os usuários – sem mencionar a transparência para os editores que podem preferir não ter seu conteúdo adquirido para treinar esses modelos. Existem certos aspectos relativamente aos quais o problema da caixa negra é actualmente inevitável, mas nos casos em que a transparência pode ser oferecida, esta deve ser disponibilizada a pedido dos utilizadores.

Fuente