Um dos novos recursos no iPhone 12 Pro é o Lidar, que usa lasers para detectar a distância entre o aparelho e os objetos ao seu redor. Além de ajudar o smartphone a colocar a imagem em foco ao fotografar em locais escuros, o sensor também é útil em aplicações de realidade aumentada (AR), pois permite a construção em tempo real de um mapa de profundidade da cena muito mais preciso do que usando outros métodos.

Segundo o TechCrunch, o Snapchat será um dos primeiros apps a tirar proveito deste recurso, já que a Snap Inc., desenvolvedora do app, trabalha em uma lente AR específica para o iPhone 12.

publicidade

Uma breve cena mostrada durante a apresentação dos novos iPhones, que mostra uma mulher sentada à mesa, cercada por grama, flores e beija-flores virtuais, seria uma prévia da lente, embora os nomes do Snapchat e da Snap não tenham sido mencionados.

Reprodução

publicidade

O clipe demonstra alguns recursos sofisticados de AR, como oclusão (quando um objeto virtual fica “atrás” de um real), detecção da posição de pessoas na cena e correção de perspectiva em tempo real.

Ainda não há informação sobre quando a nova lente estará disponível aos usuários. Os iPad Pro anunciados em março deste ano também tem um sensor Lidar, mas não sabemos se a lente também estará disponível nestes aparelhos.

publicidade

O iPhone 12 Pro entra em pré-venda nos EUA nesta sexta-feira (16) e chegará às lojas em 23 de outubro, com preço sugerido de US$ 999 (R$ 5.550). Já o iPhone 12 Pro Max entra em pré-venda nos EUA em 6 de novembro e chegará às lojas em 13 de novembro, custando a partir de US$ 1.099 (R$ 6.100).

Fonte: TechCrunch

publicidade