Após a apresentação de um primeiro trimestre fiscal de 2026 extremamente positivo, Tim Cook, CEO da Apple, partilhou um detalhe fascinante sobre o comportamento dos utilizadores na era da “Apple Intelligence”. Contra todas as expectativas que apontavam para as ferramentas de escrita ou para a criação de “Genmoji” como as grandes atrações, Cook revelou que a funcionalidade mais popular entre os donos de iPhone é, na verdade, a Visual Intelligence.
Esta ferramenta, que funciona de forma semelhante ao Google Lens, permite ao iPhone “ver” e entender o mundo através da câmara, e o seu sucesso sugere que os utilizadores valorizam a utilidade imediata e a interação com o mundo real acima da criação de conteúdo sintético.

O mundo através da lente: o que faz a Visual Intelligence?
A popularidade desta funcionalidade deve-se, em grande parte, à sua integração com o hardware. Nos modelos mais recentes, como a série iPhone 16 e a nova linha iPhone 17 (incluindo o iPhone Air), a Visual Intelligence é acionada instantaneamente através do novo botão Camera Control. Em modelos como o iPhone 15 Pro ou o iPhone 16e, pode ser atribuída ao Botão de Ação ou ao Centro de Controlo.
A utilidade é prática e diária:
- Restaurantes e Lojas: Ao apontar a câmara para um restaurante, o utilizador recebe sobreposições de realidade aumentada com horários de funcionamento, classificações e até o menu.
- Tradução e Resumo: O sistema consegue ler texto no mundo real, traduzindo-o para a língua do utilizador ou resumindo cartazes e documentos longos num instante.
- Identificação: Desde raças de cães a marcos históricos e plantas, o iPhone tornou-se numa enciclopédia visual.
Cook sublinhou que a adoção da Apple Intelligence tem sido forte desde o seu lançamento em 2024, mas é esta capacidade de “olhar e saber” que está a captar a imaginação do público, talvez porque resolve problemas imediatos sem exigir prompts de texto complexos.
O “Fiasco” da Siri: a razão pela qual a IA visual lidera
A liderança da Visual Intelligence é também um sintoma de um problema maior: a ausência da “verdadeira” Siri. Muitos analistas consideram que a Apple Intelligence ainda parece incompleta porque a sua face principal, a assistente de voz, continua limitada.
As funcionalidades de IA generativa que transformariam a Siri num chatbot capaz de manter conversas naturais (como o ChatGPT) foram adiadas.
- iOS 26.4 (Primavera): Espera-se a chegada da “Personal Siri”, uma versão capaz de entender o contexto pessoal do utilizador. Poderá responder a perguntas como “A que horas disse o meu irmão que chegava?”, varrendo mensagens, emails e fotos para encontrar a resposta.
- iOS 27 (Final do ano): Só nesta versão é que a Siri se tornará num Grande Modelo de Linguagem (LLM) completo, capaz de responder a questões de conhecimento profundo.
Até lá, a Visual Intelligence preenche o vazio, oferecendo uma experiência de “magia” tecnológica que funciona aqui e agora. Enquanto a concorrência (como o Google Pixel com o Gemini) já oferece assistentes conversacionais robustos, os utilizadores da Apple encontram na câmara a sua ferramenta de IA mais fiável, provando que, por vezes, ver é mesmo melhor do que falar.
Outros artigos interessantes:










