Hoje a Apple anunciou diversos novos recursos de acessibilidade para vários de seus produtos. As novidades chegam ainda este ano com uma atualização de software para iPhone, iPad, Mac e Apple Watch, e devem facilitar a vida de pessoas com deficiência.

Para começar, a Apple está testando uma versão beta de legendas automáticas para conteúdos de áudio como chamadas de FaceTime, videoconferência, streaming de vídeos e conversas pessoais. A função chega em breve para iPhone, iPad e Mac, e inicialmente só estará disponível para o inglês.

publicidade
Legendas automáticas para mensagens em vídeo. Via Apple

Segundo a Apple, as legendas automáticas serão geradas nos dispositivos dos usuários, protegendo a privacidade deles. A versão beta desse recurso de acessibilidade chega ainda este ano nos EUA e Canadá para iPhone 11 e modelos mais recentes, iPads com CPU A12 Bionic ou mais recentes, e Macs com chips Apple Silicon.

Controle do Apple Watch por gestos. Via Apple

Já o Apple Watch vai receber mais controles por gestos no Assistive Touch, que foi adicionado no ano passado. Esse recurso reconhece ações rápidas como toque duplo dos dedos para encerrar uma chamada, dispensar notificações, tirar fotos e pausar/reproduzir mídia.

Recurso de espelhamento do Apple Watch. Via Apple

Outro recurso do Apple Watch vai facilitar o uso do relógio para pessoas com deficiências físicas e motoras. A função de espelhamento vai permitir usar um iPhone como controle para o Watch. O Apple Watch Mirroring facilita o acesso a recursos exclusivos do Watch, sem depender da capacidade da pessoa de tocar a tela pequena do relógio ou usar os controles de voz.

O Reconhecimento de Som, lançado com o iOS 14, pode captar sons específicos como um alarme de fumaça ou torneira aberta, e alertar usuários com deficiência auditiva. Com a atualização, o Reconhecimento de Som vai permitir customizar os sons reconhecidos, como o apito do micro-ondas ou o ding do timer do forno.

O leitor de tela VoiceOver vai receber suporte para 20 novas línguas e dialetos, como árabe (mundial), basco, bengali (Índia), bhojpuri (Índia), búlgaro, catalão, croata, farsi, francês (Bélgica), galego, kannada, malaio, mandarim (Liaoning, Shaanxi, Sichuan), marathi, xangainês (China), espanhol (Chile), esloveno, tamil, telugu, ucraniano, valenciano e vietnamita. Com o Apple Maps, VoiceOver terá novos sons e feedback tátil indicando que direção o usuário deve seguir para chegar ao seu destino.

Reconhecimento e descrição automática de portas. Via Apple

Em outro recurso de acessibilidade, a Apple diz que o processamento dos celulares usará sensores Lidar e as câmeras de iPhone ou iPad para detecção de portas. A função vai ajudar usuários a encontrar entradas em um novo local, descrever se a porta abre por botão ou maçaneta, e indicar se ela está aberta ou fechada.

Já o modo de detecção do Magnifier vai permitir que a câmera amplie objetos próximos e os descreva, ou reconheça pessoas próximas e alerte o usuário com sons, fala ou feedback tátil. Vale apontar que as detecções de pessoas e portas exigirão um iPhone Pro ou iPad Pro, os modelos que levam os sensores para isso.

Leia mais:

Para terminar, o Modo Ortográfico por Controle de Voz vai receber recursos de entrada letra por letra, controles para ajustar quanto tempo a Siri espera para responder e ajustes visuais no Apple Books para tornar textos mais legíveis para pessoas com deficiências visuais.

Via: The Verge

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!