Apple Intelligence: tudo o que você precisa saber sobre o modelo e os serviços da Apple

by Marcelo Moreira

Se você atualizou recentemente para um modelo mais recente do iPhone, provavelmente notou que a Apple Intelligence está aparecendo em alguns de seus aplicativos mais usados, como mensagens, correio e anotações. A Apple Intelligence (sim, também abreviada para a IA) apareceu no ecossistema da Apple em outubro de 2024, e está aqui para ficar quando a Apple compete com o Google, Openai, Anthropic e outros para construir as melhores ferramentas de IA.

O que é a Apple Intelligence?

Créditos da imagem:Maçã

Os executivos de marketing da Cupertino classificaram a Apple Intelligence: “AI para o resto de nós”. A plataforma foi projetada para aproveitar as coisas que a IA generativa já faz bem, como geração de texto e imagem, para melhorar os recursos existentes. Como outras plataformas, incluindo ChatGPT e Google Gemini, a Apple Intelligence foi treinada em grandes modelos de informação. Esses sistemas usam aprendizado profundo para formar conexões, seja texto, imagens, vídeo ou música.

A oferta de texto, alimentada pelo LLM, se apresenta como ferramentas de escrita. O recurso está disponível em vários aplicativos da Apple, incluindo correio, mensagens, páginas e notificações. Ele pode ser usado para fornecer resumos de texto longo, revisão e até gravar mensagens para você, usando o conteúdo e os avisos de tom.

A geração de imagens também foi integrada, de maneira semelhante – embora um pouco menos perfeitamente. Os usuários podem solicitar a Apple Intelligence a gerar emojis personalizados (Genmojis) em um estilo da Apple House. Enquanto isso, o Image Playground é um aplicativo de geração de imagem independente que utiliza prompts para criar conteúdo visual que pode ser usado em mensagens, palestras ou compartilhados através da mídia social.

A Apple Intelligence também marca um tão esperado liff para a Siri. O assistente inteligente foi cedo para o jogo, mas foi negligenciado nos últimos anos. A Siri é integrada muito mais profundamente aos sistemas operacionais da Apple; Por exemplo, em vez do ícone familiar, os usuários verão uma luz brilhante ao redor da borda da tela do iPhone quando estiver fazendo o que estiver.

Mais importante, o novo Siri trabalha em aplicativos. Isso significa, por exemplo, que você pode pedir à Siri para editar uma foto e inseri -la diretamente em uma mensagem de texto. É uma experiência sem atrito que o assistente já havia faltando. A conscientização da tela significa que a Siri usa o contexto do conteúdo com o qual você está envolvido atualmente para fornecer uma resposta apropriada.

https://www.youtube.com/watch?v=pugkqzhput8

Antes do WWDC 2025, muitos esperavam que a Apple nos apresentasse uma versão ainda mais preparada da Siri, mas teremos que esperar um pouco mais.

“Como compartilhamos, continuamos nosso trabalho para entregar os recursos que tornam a Siri ainda mais pessoal”, disse a Apple SVP da Engenharia de Software Craig Federighi na WWDC 2025. “Este trabalho precisava de mais tempo para alcançar nossa barra de alta qualidade e esperamos compartilhar mais sobre isso no próximo ano”.

Esta versão mais personalizada e ainda mais lançada do Siri deve entender o “contexto pessoal”, como seus relacionamentos, rotina de comunicações e muito mais. Mas, de acordo com um relatório da Bloomberg, a versão no desenvolvimento deste novo Siri é Muito errado para enviardaí seu atraso.

Na WWDC 2025, a Apple também revelou um novo recurso de IA chamado Visual Intelligence, que ajuda a fazer uma pesquisa de imagens por coisas que você vê ao navegar. A Apple também revelou um recurso de tradução ao vivo que pode traduzir conversas em tempo real nos aplicativos de mensagens, FaceTime e telefone.

Espera -se que a inteligência visual e a tradução ao vivo estejam disponíveis no final de 2025, quando o iOS 26 lançar ao público.

Quando a Apple Intelligence foi revelada?

Após meses de especulação, a Apple Intelligence ocupou o centro do palco no WWDC 2024. A plataforma foi anunciada após uma torrente de notícias generativas de empresas como Google e Open IA, causando preocupação de que a famosa gigante da tecnologia tivesse perdido o barco na mais recente mania de tecnologia.

Ao contrário de essa especulação, no entanto, a Apple tinha uma equipe em vigor, trabalhando no que provou ser uma abordagem muito Apple da inteligência artificial. Ainda havia pizzazz em meio às demos – a Apple sempre gosta de fazer um show -, mas a Apple Intelligence é uma visão muito pragmática da categoria.

A Apple Intelligence não é um recurso independente. Pelo contrário, trata -se de integrar as ofertas existentes. Embora seja um exercício de marca em um sentido muito real, a tecnologia orientada para o Modelo de Linguagem (LLM) operará nos bastidores. No que diz respeito ao consumidor, a tecnologia se apresentará principalmente na forma de novos recursos para os aplicativos existentes.

Aprendemos mais durante o evento do iPhone 16 da Apple em setembro de 2024. Durante o evento, a Apple elogiou vários recursos movidos a IA que chegavam a seus dispositivos, desde a tradução da série 10 da Apple Watch, a pesquisa visual em iPhones e vários ajustes até as capacidades da Siri. A primeira onda de inteligência da Apple está chegando no final de outubro, como parte do iOS 18.1, iPados 18.1 e MacOS Sequoia 15.1.

Os recursos lançados primeiro no inglês dos EUA. Mais tarde, a Apple acrescentou localizações australianas, canadenses, Nova Zelândia, sul -africana e inglesa do Reino Unido. O apoio a chinês, inglês (Índia), inglês (Cingapura), francês, alemão, italiano, japonês, coreano, português, espanhol e vietnamita chegará em 2025.

Quem recebe a Apple Intelligence?

iPhone 15 Pro Max em titânio natural, sendo mantido, mostrando a parte de trás do telefone
Créditos da imagem:Darrell Etherington

A primeira onda de inteligência da Apple chegou em outubro de 2024 via iOS 18.1, iPados 18. e MacOS Sequoia 15.1 Atualizações. Essas atualizações incluíram ferramentas de escrita integradas, limpeza de imagens, resumos de artigos e uma entrada de digitação para a experiência de Siri redesenhada. Uma segunda onda de recursos ficou disponível como parte do iOS 18.2, iPados 18.2 e MacOS Sequoia 15.2. Essa lista inclui Genmoji, Image Playground, Visual Intelligence, Image Wand e ChatGPT Integration.

Essas ofertas são gratuitas, desde que você tenha uma das seguintes peças de hardware:

  • Todos os modelos do iPhone 16
  • iPhone 15 Pro Max (A17 Pro)
  • iPhone 15 Pro (A17 Pro)
  • iPad Pro (M1 e mais tarde)
  • iPad Air (M1 e mais tarde)
  • iPad mini (A17 ou mais tarde)
  • MacBook Air (M1 e mais tarde)
  • MacBook Pro (M1 e mais tarde)
  • iMac (M1 e mais tarde)
  • Mac mini (M1 e mais tarde)
  • Mac Studio (M1 Max e mais tarde)
  • Mac Pro (M2 Ultra)

Notavelmente, apenas as versões Pro do iPhone 15 estão obtendo acesso, devido a deficiências no chipset do modelo padrão. Presumivelmente, no entanto, toda a linha do iPhone 16 poderá executar a Apple Intelligence quando chegar.

Como a IA da Apple funciona sem uma conexão com a Internet?

Créditos da imagem:Maçã

Quando você faz uma pergunta ao GPT ou Gemini, sua consulta está sendo enviada a servidores externos para gerar uma resposta, que requer uma conexão com a Internet. Mas a Apple adotou uma abordagem de modelo pequeno e sob medida para o treinamento.

O maior benefício dessa abordagem é que muitas dessas tarefas se tornam muito menos intensivas em recursos e podem ser executadas no dispositivo. Isso ocorre porque, em vez de confiar no tipo de abordagem da pia da cozinha que alimenta plataformas como GPT e Gemini, a empresa compilou os conjuntos de dados internamente para tarefas específicas como, digamos, compondo um email.

Isso não se aplica a tudo, no entanto. Consultas mais complexas utilizarão a nova oferta de computação de nuvem privada. A empresa agora opera servidores remotos em execução no Apple Silicon, que afirma que permite oferecer o mesmo nível de privacidade que seus dispositivos de consumo. Se uma ação está sendo executada localmente ou através da nuvem será invisível para o usuário, a menos que o dispositivo esteja offline, momento em que as consultas remotas lançarão um erro.

Apple Intelligence com aplicativos de terceiros

Logos OpenAI e ChatGPT
Créditos da imagem:Didem Mente / Anadolu Agency / Getty Images

Foi feito muito barulho sobre a parceria pendente da Apple com o OpenAI antes do lançamento da Apple Intelligence. Em última análise, no entanto, aconteceu que o acordo era menos sobre alimentação da Apple Intelligence e mais sobre oferecer uma plataforma alternativa para as coisas que realmente não foi construída. É um reconhecimento tácito de que a construção de um sistema de modelo pequeno tem suas limitações.

A inteligência da Apple é gratuita. Então, também é o acesso ao ChatGPT. No entanto, aqueles com contas pagas para este último terão acesso a recursos premium que usuários gratuitos não, incluindo consultas ilimitadas.

A integração do ChatGPT, que estreia no iOS 18.2, iPados 18.2 e MacOS Sequoia 15.2, tem duas funções primárias: complementar a base de conhecimento da Siri e adicionar às opções de ferramentas de escrita existentes.

Com o serviço ativado, certas perguntas solicitarão ao novo Siri a pedir ao usuário que aprove o acesso ao ChatGPT. Receitas e planejamento de viagens são exemplos de perguntas que podem aparecer a opção. Os usuários também podem solicitar diretamente a Siri a “perguntar a chatgpt”.

A Compose é o outro recurso de chatgpt primário disponível na Apple Intelligence. Os usuários podem acessá -lo em qualquer aplicativo que suporta o novo recurso de ferramentas de escrita. A Compose adiciona a capacidade de escrever conteúdo com base em um prompt. Isso se junta a ferramentas de escrita existentes, como estilo e resumo.

Sabemos com certeza que a Apple planeja fazer parceria com serviços generativos de IA adicionais. A empresa quase disse que o Google Gemini é o próximo nessa lista.

Os desenvolvedores podem se basear nos modelos de IA da Apple?

Na WWDC 2025, a Apple anunciou o que chama de Foundation Models Framework, que permitirá que os desenvolvedores tocem seus modelos de IA enquanto estão offline.

Isso torna mais possível que os desenvolvedores criem recursos de IA em seus aplicativos de terceiros que aproveitam os sistemas existentes da Apple.

“Por exemplo, se você estiver se preparando para um exame, um aplicativo como Kahoot pode criar um questionário personalizado a partir de suas anotações para tornar o estudo mais envolvente”, disse Federighi no WWDC. “E porque isso acontece usando modelos no dispositivo, isso acontece sem os custos da API em nuvem […] Não poderíamos estar mais empolgados com a forma como os desenvolvedores podem desenvolver a Apple Intelligence para trazer novas experiências inteligentes, disponíveis quando você estiver offline e que protegem sua privacidade. ”

Source link

You may also like

Leave a Comment

Este site usa cookies para melhorar a sua experiência. Presumimos que você concorda com isso, mas você pode optar por não participar se desejar Aceitar Leia Mais

Privacy & Cookies Policy