¿Sabes qué es Eye Tracking? Te contamos sobre la inteligencia artificial para controlar el iPhone con los ojos.

Apple reveló más detalles sobre las mejoras que vienen para iOS 18, su nueva actualización de software.

Lo más destacado que tendremos para iPhone con la versión de iOS 18 es que contaremos con funciones de accesibilidad, las cuáles incluyen Eye Tracking.

Eye Tracking y cómo funciona la inteligencia artificial para controlar el iPhone con los ojos

El Eye Tracking es un concepto que Apple llevará a sus principales dispositivos móviles.

La intención es que personas con discapacidad motriz puedan controlar el iPhone o iPad con los ojos sin tocar la pantalla.

iPhone

Dicha característica de iOS 18 combina el hardware y software de Apple aprovechando la inteligencia artificial, así como el machine learning.

Cabe mencionar que el Eye Tracking, explica Apple, usará la cámara frontal para configurar y calibrar en segundos, todos los datos que permitan controlar dicha función.

Apple advierte que los datos para usar Eye Tracking se guardan cifrados en el dispositivo, por lo que no se comparte con nadie.

Eye Tracking operará en aplicaciones de iPadOS e iOS y no requiere que se le instale hardware o accesorios adicionales.

Todos los usuarios que usen Eye Tracking podrán navegar en todos los elementos de una app.

Y tendrán la posibilidad de activarlos con Dwell Control, el cual dejará acceder a funciones como:

  • Botones físicos
  • Deslizamiento
  • Gestos

La funciones de Apple para controlar el iPhone con los ojos llegará a finales de este año.

iPhone 15 Pro Max

iPhone contará con Music Haptics para hacer más accesible la música

Otra de las funciones que vienen con iOS 18 para iPhone es Music Haptics que esta pensada para personas con debilidad auditiva.

Esta herramienta permitirá que experimenten la música en el iPhone.

La función de Taptic Engine activada en el dispositivo hará que se reproduzcan toques, texturas y vibraciones refinadas del audio de la música.

Cabe mencionar que Music Haptics funcionará con millones de canciones del catálogo de Apple Music y estará disponible como API para que los desarrolladores hagan música.

La cual resulte más accesible en sus aplicaciones y para todos los usuarios de Apple.

Adicional a Haptics se integrará Vocal Shortcuts a la actualización de iPhone, que permitirá realizar tareas disparándolas usando un sonido de su elección.

[object Object]