A próxima atualização de IA do iOS 18 está gerando entusiasmo, com um foco significativo na execução local de modelos LLM “no dispositivo”.
Os relatórios sugerem que a atualização introduzirá novos recursos de IA alimentados por um modelo de linguagem grande (LLM) “inteiramente no dispositivo” desenvolvido pela Apple.
O processamento no dispositivo promete vantagens significativas para usuários de iPhone e iPad em termos de privacidade e velocidade.
O LLM por trás dos recursos de IA do iOS 18
Um LLM é um sistema complexo de IA treinado em grandes quantidades de dados de texto. Este treinamento permite que o LLM compreenda e responda à linguagem de uma forma que imite a conversa humana.
Esses recursos de IA na próxima atualização do iOS 18 aproveitarão os LLMs para realizar várias tarefas, como gerar texto, traduzir idiomas e até mesmo criar diferentes conteúdos criativos.
Curiosamente, relatórios de 9to5Mac descobriu referências de código no iOS 17.4 que sugeriam um modelo no dispositivo com o codinome “Ajax”. Isso sugere que a Apple já vem trabalhando nessa tecnologia há algum tempo, possivelmente antes mesmo da atualização atual. Além disso, relatórios indicam que a Apple também pode estar desenvolvendo versões do Ajax hospedadas em servidor junto com o modelo no dispositivo.
Por que o processamento no dispositivo para recursos de IA do iOS 18?
Tradicionalmente, os recursos de IA em dispositivos móveis dependem de LLMs baseados em nuvem. Isso significa que os dados do usuário precisam ser enviados a servidores remotos para processamento. A decisão da Apple de desenvolver um LLM no dispositivo sugere um afastamento dessa abordagem.
Existem dois benefícios principais nesta abordagem no dispositivo:
- Privacidade aprimorada: Ao manter os dados do usuário no próprio dispositivo, a Apple pode garantir que informações confidenciais permaneçam no telefone ou tablet, e não sejam transmitidas para a nuvem. Isto pode ser particularmente atraente para usuários preocupados com a privacidade dos dados com os novos recursos de IA.
- Maior velocidade: O processamento de dados no próprio dispositivo pode ser muito mais rápido do que enviá-los para um servidor remoto e aguardar uma resposta. Isso pode levar a uma experiência de usuário mais ágil e fluida para os recursos alimentados por IA na próxima atualização.
Detalhes específicos sobre o LLM no dispositivo da Apple ainda estão em segredo. No entanto, de acordo com Mark Gurman, no “Ligar”Boletim informativo, o poder de processamento necessário para executar o LLM pode limitar suas capacidades aos modelos de iPhone mais recentes, possivelmente o iPhone 16 e posteriores.
Também é importante notar que a Apple ainda poderá utilizar IA baseada em nuvem para alguns recursos no futuro. Os relatórios sugerem que eles podem estar explorando parcerias com empresas como Google ou Baidu para aproveitar a infraestrutura de hardware em grande escala para tarefas específicas de IA baseadas em nuvem dentro da atualização.
Esta ainda é uma história em desenvolvimento. Provavelmente aprenderemos mais sobre o LLM no dispositivo da Apple e seus recursos quando a nova atualização do iOS for oficialmente revelada, provavelmente na WWDC em junho de 2024.
Crédito da imagem em destaque: Richard Hadiwijaya/Remover respingo
Source: Relatórios Gurman: iOS 18 AI apresentará um LLM “On-Device”