A Apple revelou, nesta segunda-feira (9), o iPhone 16 com seu grande recurso: o Apple Intelligence, inteligência artificial (IA) da maçã. Ele fará coisas, como resumir mensagens, escrever e-mails e limpar fotos. Será que a IA da Apple valerá a pena?

Sendo assim, o The Washington Post e o The Wall Street Journal estão testando o recurso (e o novo iPhone) para saber o quão pronto ele está para os usuários da maçã. Confira, a seguir, a opinião de dois jornalistas a respeito.

publicidade

Apple Intelligence na visão do The Washington Post

Na opinião do jornalista Geoffrey A. Fowler, do The Washington Post, a versão de pré-lançamento do software, é, “às vezes, útil e, às vezes, ridiculamente estranha”.

Nessa prévia, o Apple Intelligence “faz quantidade desconfortável de inventar coisas” em informações de baixo risco, como resumos de alertas de aplicativo.

Na opinião do jornalista, é melhor aguardar para gastar mais de R$ 15 mil no iPhone 16 para esperar “até que o Apple Intelligence descubra o equilíbrio certo entre útil e sem sentido” e até sabermos seu efeito na duração da bateria, que, nos testes realizados por ele, esgota quatro ou mais horas mais cedo a cada dia.

Contudo, segundo a Apple, diz que o software de IA testada pelo Post, a terceira versão de visualização para desenvolvedores do iOS 18.1, não está concluído pode não ser o produto final que será encaminhado aos usuários.

Contudo, há recursos do Apple Intelligence que ainda não estão disponíveis para teste, como emojis de IA generativos personalizáveis. Ele também não conseguiu comprovar ainda se a Siri está mesmo mais inteligente.

O jornalista acha ser possível que o problema de precisão encontrado seja inerente à tecnologia de IA que a Apple está usando. “Talvez tenhamos que nos acostumar com algum nível de absurdo agora espalhado por todos os nossos iPhones”, opinou.

“Na melhor das hipóteses, o Apple Intelligence integra seus recursos em aplicativos existentes de pequenas maneiras para acelerar as tarefas. Achei útil de muitas maneiras”, o colunista afirmou.

Ele cirou dois exemplos: no Fotos, o Apple Intelligence realmente permite o uso de linguagem mais natural para encontrar fotos de ocasião específica, e destacar parte de imagem que você acha que distrai, e ele usará IA generativa para fazê-la desaparecer, tal qual o Galaxy AI, da Samsung, por exemplo.

Para ele, o Apple Intelligence ficou mais evidente ao tentar resumir suas montanhas de informações recebidas, como no Mail. A versão tradicional mostra duas linhas de pré-visualização de cada e-mail para ajudar você a decidir se deve ou não abri-lo. A IA da maçã fez com que essas duas linhas viraram resumo escrito por ela.

“O problema inevitável é que a Apple Intelligence às vezes erra — interpretando mal o significado do texto, invertendo os nomes das pessoas ou levando as imagens em uma direção desagradável”, salientou. Vale lembrar que essas são as chamadas “alucinações”, inerentes à geração atual das IAs.

Fowler afirmou ter repassado à Apple sobre as muitas vezes em que viu o Apple Intelligence errar os fatos. A empresa informou que está trabalhando para melhorar sua precisão.

iPad e MacBook lado a lado
Apple Intelligence promete mudar experiência do usuário com o ecossistema da maçã (Imagem: Apple)

A maior categoria de erros que ele vem enfrentando é de baixo risco, que não causam problemas:

  • Ele resume os alertas do appp da campainha de vídeo da casa do jornalista como algo sem sentido: “Várias pessoas na porta da frente e na casa, com movimento recente na porta da frente”;
  • Ele (ainda) não entende humor, então, os resumos de bate-papos com amigos e familiares ou fotos podem ser “ridiculamente idiotas”. “Uma vez, ele descreveu uma foto do meu lindo bebê como ‘grupo de pessoas em uma sala com paredes brancas'”, contou;
  • Ele também pediu à função “limpar” para melhorar a aparência do cabelo dele em uma selfie, e isso o fez parecer careca.

Leia mais:

Mas houve problema com informações erradas. Segundo Fowler, ela sugeriu reescrita de e-mail que ele rascunhou para os vizinhos e deixou de fora uma pergunta-chave que estava tentando fazer com que eles respondessem.

E o pior: houve momentos em que os erros da IA quase fizeram o profissional tomar atitudes errôneas. Por exemplo, uma vez ele resumiu e elevou ao status de “prioridade” um e-mail que dizia que ele precisava alterar a senha imediatamente.

Contudo, não foi isso que o e-mail realmente disse — ele apenas avisou Fowler para alterar a senha se ele não fosse responsável por um login recente em dispositivo (algo que ele foi o responsável). Ele também resumiu e elevou um e-mail de golpe de phishing sobre o número de Seguro Social dele estar desativado.

Apesar dos erros, Fowler está um tanto otimista. “Mesmo que a Apple não consiga se livrar dos erros, ela pode, e espero que consiga, minimizar os lugares e tipos de informação de maior risco onde a Apple Intelligence é ativada”, explicou.

Um exeplo trata de evitar tentar resumir notícias e mídias sociais por completo, pois, dessa forma, ela repassou uma informação sobre Donald Trump a partir de uma leitura errada de um alerta.

Apple Intelligence na opinião do The Wall Street Journal

Já a jornalista Joanna Stern, do The Wall Street Journal, testou três app com a IA: Notas, Fotos e a câmera. No Notas, Stern conseguiu resumir um documento longo em um parágrafo. Também escreveu carta rápida para sua mãe, usando as ferramentas de escrita para tornar as notas mais “profissionais”.

Ela digitou: “Estarei em casa amanhã. Você acha que quer um iPhone 16?” A IA converteu para: “Espero voltar para casa amanhã. Você estaria interessado em receber um iPhone 16?” “É definitivamente assim que falo com minha mãe”, disse.

Já no Fotos, assim como Fowler, Stern testou o Clean Up, mas não teve tão boa experiência. “Consegui remover uma mulher parada ao meu lado com bastante sucesso. O mesmo aconteceu com um pacote de microfone na minha calça branca, embora tenha deixado uma mancha”. Alguém tem uma caneta Tide?”, contou.  

Um representante de produtos da Apple disse a Stern que, se ela rabiscasse no rosto de alguém, ele ficaria pixelizado e borrado, mas em alguns casos, os rostos simplesmente ficaram deformados. Além disso, “enquanto eu o estava testando, o aplicativo travou”.

Na câmera, futuramente, será possível pressionar longamente o botão de ação, disponível nos iPhones 15 Pro e nos modelos recém-lançados, para iniciar o Visual Intelligence. O recurso permite que você use a câmera para pesquisar algo que sua câmera está captando, como um restaurante, e, então, usar a IA para pesquisar informações sobre ele.

É meio que algo já visto, mas em menor versão, no Fotos, com o botão de informações. Ainda, é comparável ao Google Lens e ao Circule para Pesquisar, também do Google.

iPhone com foto de um cachorro
App Fotos será bastante afetado pela IA (Imagem: Apple0