Se você adquiriu recentemente um modelo mais novo de iPhone, é muito provável que tenha notado a presença da Apple Intelligence em alguns dos seus aplicativos mais utilizados, como Mensagens, Mail e Notas. Lançada em outubro de 2024, a Apple Intelligence (comumente abreviada para AI) marca a nova era da Apple na corrida para desenvolver as melhores ferramentas de inteligência artificial, um campo em que compete diretamente com nomes como Google, OpenAI e Anthropic.
O que é a Apple Intelligence?
Os executivos de marketing em Cupertino definiram a Apple Intelligence como “AI para o resto de nós”. Essa plataforma foi criada para aproveitar recursos que a inteligência artificial generativa já domina, como a geração de texto e imagem, para aprimorar recursos existentes. Assim como outras plataformas, incluindo ChatGPT e Google Gemini, a Apple Intelligence foi treinada em grandes modelos de informação, utilizando técnicas de aprendizado profundo para estabelecer conexões entre textos, imagens, vídeos e músicas.
O recurso de texto, impulsionado por um modelo de linguagem grande (LLM), se apresenta como Ferramentas de escrita. Essa função está disponível em diversos aplicativos da Apple, como Mail, Mensagens, Pages e Notificações, podendo ser usada para resumir textos longos, revisar e até mesmo redigir mensagens de acordo com sugestões de conteúdo e tom.
A geração de imagens também foi integrada, embora de forma um pouco menos fluida. Os usuários podem solicitar à Apple Intelligence a geração de emojis personalizados, chamados Genmojis, no estilo Apple. O aplicativo Image Playground, por sua vez, é uma ferramenta autônoma que utiliza prompts para criar conteúdos visuais a serem usados em Mensagens, Keynote ou compartilhados nas redes sociais.
Adicionalmente, a Apple Intelligence representa uma reformulação aguardada para a Siri. O assistente virtual, que foi pioneiro no mercado, acabou sendo negligenciado nos últimos anos. Agora, a Siri está mais profundamente integrada aos sistemas operacionais da Apple. Por exemplo, em vez do ícone familiar, os usuários verão uma luz brilhante ao redor da borda da tela do iPhone enquanto o assistente está ativo.
Mais importante ainda, a nova versão da Siri funciona de forma integrada entre aplicativos. Isso significa que os usuários podem pedir à Siri para editar uma foto e inserir diretamente em uma mensagem de texto, proporcionando uma experiência fluida que antes faltava. A consciência do conteúdo na tela permite que a Siri utilize o contexto do que está sendo visualizado para oferecer respostas mais apropriadas.
Antes da WWDC 2025, muitos esperavam que a Apple nos apresentasse uma versão ainda mais poderosa da Siri, mas teremos que esperar mais um pouco.
“Como dissemos, continuamos trabalhando para entregar recursos que tornem a Siri ainda mais pessoal,” declarou Craig Federighi, vice-presidente sênior de Engenharia de Software da Apple, na WWDC 2025. “Esse trabalho precisou de mais tempo para alcançar nosso padrão de qualidade elevado, e aguardamos ansiosamente para compartilhar mais sobre isso no próximo ano.”
Esta versão ainda não lançada e mais personalizada da Siri deverá ser capaz de entender “contextos pessoais”, como relacionamentos e rotinas de comunicação. No entanto, segundo um relatório da Bloomberg, a versão em desenvolvimento dessa nova Siri está muito cheia de erros para ser lançada, o que explica o atraso.
Na WWDC 2025, também foi apresentada uma nova funcionalidade de IA chamada Visual Intelligence, que ajuda os usuários a realizar buscas por imagens do que estão vendo enquanto navegam. A Apple lançou uma função de Tradução Ao Vivo que pode traduzir conversas em tempo real nos aplicativos Mensagens, FaceTime e Telefone.
O Visual Intelligence e a Tradução Ao Vivo devem estar disponíveis no final de 2025, na época do lançamento público do iOS 26.
Quando a Apple Intelligence foi revelada?
Após meses de especulação, a Apple Intelligence ganhou destaque na WWDC 2024. A plataforma foi anunciada em meio a um turbilhão de notícias sobre inteligência artificial generativa de empresas como Google e OpenAI, levantando preocupações sobre se a Apple havia ficado para trás na corrida por essa nova tecnologia.
Contrariando as especulações, a Apple tinha uma equipe já trabalhando numa abordagem muito característicamente Apple para a inteligência artificial. As demonstrações tiveram seu brilho, como sempre, mas a Apple Intelligence é, no final das contas, uma visão pragmática dessa categoria.
A Apple Intelligence não é uma função autônoma, mas sim um conjunto de integrações em ofertas existentes. Embora represente um esforço de rebranding em um sentido muito real, a tecnologia movida por LLM funcionará nos bastidores. Para o consumidor, essa tecnologia se manifestará em forma de novos recursos para aplicativos já utilizados.
Mais detalhes foram revelados durante o evento do iPhone 16 em setembro de 2024. Durante a apresentação, a Apple destacou várias funcionalidades impulsionadas por IA que chegariam a seus dispositivos, incluindo tradução no Apple Watch Series 10, busca visual no iPhone e uma série de aprimoramentos nas capacidades da Siri. A primeira onda da Apple Intelligence começou a ser entregue no final de outubro, como parte das atualizações do iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1.
As funcionalidades foram lançadas primeiramente em inglês americano. A Apple posteriormente adicionou localizações em inglês australiano, canadense, neozelandês, sul-africano e britânico. O suporte para chinês, inglês (Índia), inglês (Singapura), francês, alemão, italiano, japonês, coreano, português, espanhol e vietnamita deve chegar em 2025.
Quem pode acessar a Apple Intelligence?

A primeira onda da Apple Intelligence chegou em outubro de 2024 por meio das atualizações do iOS 18.1, iPadOS 18.1 e macOS Sequoia 15.1. Essas atualizações incluíram ferramentas de escrita integradas, limpeza de imagens, resumos de artigos e um novo recurso de digitação na experiência reformulada da Siri. Uma segunda onda de recursos foi disponibilizada como parte do iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2, adicionando Genmoji, Image Playground, Visual Intelligence, Image Wand e integração com o ChatGPT.
Esses recursos estão disponíveis gratuitamente para quem possui um dos seguintes dispositivos:
- Todos os modelos de iPhone 16
- iPhone 15 Pro Max (A17 Pro)
- iPhone 15 Pro (A17 Pro)
- iPad Pro (M1 e posteriores)
- iPad Air (M1 e posteriores)
- iPad mini (A17 ou posteriores)
- MacBook Air (M1 e posteriores)
- MacBook Pro (M1 e posteriores)
- iMac (M1 e posteriores)
- Mac mini (M1 e posteriores)
- Mac Studio (M1 Max e posteriores)
- Mac Pro (M2 Ultra)
Notavelmente, apenas as versões Pro do iPhone 15 estão recebendo acesso, devido a limitações no chipset do modelo padrão. Presumivelmente, porém, toda a linha do iPhone 16 poderá rodar a Apple Intelligence assim que for lançada.
Como a IA da Apple funciona sem conexão à internet?

Quando você faz uma pergunta para o GPT ou Gemini, sua consulta é enviada a servidores externos para gerar uma resposta, o que requer conexão à internet. No entanto, a Apple adotou uma abordagem de modelo pequeno e sob medida para o treinamento.
O maior benefício dessa abordagem é que muitas dessas tarefas se tornam muito menos exigentes em termos de recursos e podem ser realizadas no próprio dispositivo. Isso porque, ao contrário da abordagem abrangente que alimenta plataformas como GPT e Gemini, a empresa compilou conjuntos de dados internamente para tarefas específicas, como compor um e-mail.
No entanto, isso não se aplica a tudo. Consultas mais complexas utilizarão o novo recurso de Computação em Nuvem Privada. A Apple agora opera servidores remotos rodando em chipsets Apple Silicon, que, segundo a empresa, permitem oferecer o mesmo nível de privacidade que seus dispositivos consumidores. Se uma ação estiver sendo realizada localmente ou via nuvem será invisível ao usuário, a menos que seu dispositivo esteja offline, quando as consultas remotas gerarão um erro.
Apple Intelligence com aplicativos de terceiros

Houve muito alvoroço sobre uma parceria da Apple com a OpenAI antes do lançamento da Apple Intelligence. No entanto, o que restou foi uma colaboração menos sobre impulsionar a Apple Intelligence e mais sobre oferecer uma plataforma alternativa para funcionalidades que a Apple não é realmente adequada para implementar. Isso é um reconhecimento tácito de que construir um sistema de modelo pequeno tem suas limitações.
A Apple Intelligence é gratuita, assim como o acesso ao ChatGPT. No entanto, aqueles com contas pagas no ChatGPT terão acesso a recursos premium que usuários gratuitos não têm, incluindo consultas ilimitadas.
A integração com o ChatGPT, que estreia no iOS 18.2, iPadOS 18.2 e macOS Sequoia 15.2, tem duas funções principais: complementar a base de conhecimento da Siri e adicionar às opções existentes nas Ferramentas de Escrita.
Com o serviço habilitado, certas perguntas farão com que a nova Siri peça ao usuário a aprovação para acessar o ChatGPT. Receitas e planejamento de viagens são exemplos de perguntas que podem gerar essa opção. Os usuários também podem solicitar diretamente à Siri para “perguntar ao ChatGPT”.
Compose é a outra principal funcionalidade do ChatGPT disponível através da Apple Intelligence. Os usuários podem acessá-la em qualquer aplicativo que suporte as novas Ferramentas de Escrita. Compose adiciona a capacidade de redigir conteúdo baseado em um prompt, complementando as ferramentas de escrita já existentes, como Estilo e Resumo.
A Apple está claramente planejando parcerias com outros serviços de IA generativa. A empresa praticamente confirmou que o Google Gemini está em sua lista de colaborações futuras.
Os desenvolvedores podem construir sobre os modelos de IA da Apple?
Na WWDC 2025, a Apple anunciou o que chama de Fundamentos de Modelos (Foundation Models), uma estrutura que permitirá aos desenvolvedores acessar seus modelos de IA mesmo quando offline.
Isso facilitará para os desenvolvedores a criação de recursos de IA em seus aplicativos de terceiros que aproveitam os sistemas existentes da Apple.
“Por exemplo, se você está se preparando para um exame, um aplicativo como o Kahoot pode criar um quiz personalizado a partir de suas anotações para tornar os estudos mais dinâmicos,” explicou Federighi durante a WWDC. “E, como isso acontece utilizando modelos no dispositivo, não há custos de API em nuvem […] Estamos extremamente empolgados com como os desenvolvedores podem construir sobre a inteligência da Apple para trazer novas experiências que são inteligentes, disponíveis quando você está offline, e que protegem sua privacidade.”