As ofertas de acessibilidade da Apple continuam a se expandir, à medida que novos recursos, como rastreamento ocular do dispositivo, audição de música aprimorada por toque e configurações para pessoas com fala atípica, chegam aos dispositivos móveis.

Anunciado no meio de um mês de reconhecimento do Dia Global de Conscientização sobre Acessibilidade (16 de maio), o linha de opções de personalização para ajudar usuários com deficiências físicas a controlar e interagir melhor com seu iPad ou iPhone.

VEJA TAMBÉM:

Google I/O: Google anuncia nova estrutura de segurança para IA responsável

“Esses novos recursos terão impacto na vida de uma ampla gama de usuários, fornecendo novas maneiras de se comunicar, controlar seus dispositivos e se mover pelo mundo”, escreveu Sarah Herrlinger, diretora sênior de Políticas e Iniciativas de Acessibilidade Global da Apple.

Eye Tracking capitaliza o aprendizado de máquina

Os novos controles de rastreamento ocular da Apple são, sem surpresa, alimentados por IA, que transforma a câmera frontal do dispositivo em um dispositivo de calibração para escanear e rastrear movimentos faciais. “Com o Eye Tracking, os usuários podem navegar pelos elementos de um aplicativo e usar o Dwell Control para ativar cada elemento, acessando funções adicionais, como botões físicos, deslizar e outros gestos apenas com os olhos”, explica Apple.

Embora os sistemas de rastreamento ocular para computadores sejam uma tecnologia estabelecida há muito tempo, os dispositivos móveis estão lentamente se atualizando. A Apple – e outras empresas de tecnologia que lucram com tecnologias de IA em rápida evolução – capitalizam a natureza integrada do aprendizado de máquina interno para processar movimentos faciais e migrar a tecnologia para uma oferta sem hardware e acessórios.

Velocidade da luz mashável

Music Haptics adiciona toque às músicas

Um recurso que parece muito esperado para o serviço de streaming de música da Apple tecnicamente avançado, o Music Haptics permite que usuários surdos ou com deficiência auditiva experimentem música em seus dispositivos por meio do toque, transformando o Taptic Engine do iPhone em um transportador de batidas e vibrações. Quando ativada, a configuração adiciona “toques, texturas e vibrações refinadas” à música.

O recurso estará disponível apenas no catálogo de músicas do Apple Music, por enquanto.

Os atalhos vocais permitem que mais pessoas simplifiquem suas vidas

Reconhecendo uma variedade de habilidades de fala e padrões de fala atípicos entre pessoas com deficiência, os atalhos vocais permitem que os usuários atribuam ações a expressões personalizadas, não apenas a frases. A configuração é combinada com a nova configuração Ouvir fala atípica, que usa aprendizado de máquina no dispositivo para reconhecer a fala única de um usuário, voltada para pessoas com condições que afetam a fala, como paralisia cerebral, esclerose lateral amiotrófica (ELA) ou acidente vascular cerebral , explica a Apple.

VisionOS, CarPlay e muito mais recebem atualizações

A Apple também introduziu melhorias em sua gama de ferramentas de acessibilidade, incluindo um Modo Leitor para o assistente de visão Magnifier do aplicativo, uma nova opção de Hover Typing para pessoas com baixa visão, um Trackpad Virtual para quem usa AssistiveTouch com alcance limitado e novas personalizações para VoiceOver. e controle de voz.

A empresa adicionará legendas ao vivo em todo o sistema ao VisionOS, bem como ferramentas como Reduzir transparência, Inversão inteligente e Luzes intermitentes fracas “para usuários com baixa visão ou aqueles que desejam evitar luzes fortes e flashes frequentes”.

E, completando as adições, os usuários do CarPlay agora podem acessar o controle de voz, filtros de cores e reconhecimento de som, ajudando os indivíduos a acessar os controles apenas com a voz, visualizar telas compatíveis com daltônicos e ser alertados sobre sons externos.



Fuente