Asimismo, la compañía de tecnología reveló que lanzará otras herramientas de accesibilidad que permitirán sentir la música y personalizar hablas atípicas para que Siri entienda los comandos de voz.
Le puede interesar: Este es el iPhone que podría desaparecer del mercado; Apple lo considera “obsoleto”
A finales de este 2024, llegarán a iOS e iPadOS tres nuevas funciones de accesibilidad con las que Apple podrá «ofrecer la mejor experiencia posible a todos los usuarios», atendiendo en este caso a las personas que tienen una discapacidad física, sordera o una afección que dificulte el habla.
📱Vea más noticias en nuestro canal de WhatsApp, en el siguiente link📱
El Eye Tracking será implementado en iOS 18, la última actualización de Apple que estaría lista a final de año. Es ta tecnología de seguimiento ocular, impulsada por la inteligencia artificial, facilitará la navegación por el dispositivo de Apple con el movimiento y los gestos de los ojos a personas que tienen una discapacidad física.
“Con Eye Tracking, los usuarios pueden navegar a través de los elementos de una aplicación y usar Dwell Control para activar cada elemento, accediendo a funciones adicionales como botones físicos, deslizamientos y otros gestos únicamente con los ojos”, se lee en el comunicado de Apple.
Mire también: La verdadera razón por la que iPhone ahora usa cargador tipo C ¿lo sabía?
Es importnate mencionar que el seguimiento ocular funcionará en aplicaciones iPadOS e iOS y no necesitará hardware ni accesorios adicionales.
@jorgegallardopress Impresionante el Eye Tracking de Apple para manejar y controlar el Iphone o el Apple con la mirada #alucinante ♬ Motivational – Vioo Sound
AL Eye Tracking, se le suma la tecnología háptica musical para que las personas sordas o con problemas de audición puedan sentir la música con su iPhone. En concreto, será compatible con millones de canciones del servicio Apple Music.
Otra novedad son los atajos vocales, con los que los usuarios de iPhone e iPad podrán configurar expresiones personalizadas para que Siri pueda ejecutar los atajos. La IA ayuda a reconocer los patrones de habla del usuario.
Los atajos vocales están diseñados para personas que padecen una afección que dificulte el habla, como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o accidente cerebrovascular.
Adicionalmente, Apple incorporará a sus sistemas las señales de movimiento del vehículo, una característica que ayudará a reducir el mareo de los usuarios cuando están en vehículos en movimiento.
Este mareo, que provoca «el conflicto sensorial entre lo que una persona ve y lo que siente», impide a algunas personas usar el teléfono o la tableta cuando viajan en coche o autobús, por ejemplo. Para ello, la pantalla mostrará unos puntos negros de pequeño tamaño que, sin interferir con el contenido, reproducirán los cambios en el movimiento del vehículo.
Apple también ha anunciado el control por voz en CarPlay y una serie de características de accesibilidad para el sistema VisionOS de sus visor Vision Pro, que incorporarán los subtítulos en vivo y configuraciones como Reducir transparencia, Inversión inteligente y Luces intermitentes tenues, como recoge en su blog oficial.
*Con información de Europa Press.
MÁS SOBRE: