NOTA DE PRENSA
13 de mayo de 2025
Apple anuncia potentes prestaciones de accesibilidad que llegarán más adelante este año
A las nuevas prestaciones, que incluyen las etiquetas de información nutricional de accesibilidad en el App Store, Lupa para el Mac, Acceso braille y Lector de accesibilidad, se suman innovadoras actualizaciones para Escucha en Directo, visionOS, Voz Personal y más
Apple ha anunciado hoy nuevas prestaciones de accesibilidad que estarán disponibles más adelante este año, entre ellas Lupa para el Mac.
CUPERTINO, CALIFORNIA Apple ha anunciado hoy nuevas prestaciones de accesibilidad que estarán disponibles más adelante este año, como las etiquetas de información nutricional de accesibilidad, que proporcionarán información más detallada sobre las apps y los juegos disponibles en el App Store. Los usuarios ciegos o con visión reducida podrán familiarizarse con el entorno e interactuar con él mediante la nueva app Lupa para el Mac, tomar notas y realizar cálculos con la nueva prestación Acceso braille, y sacar más partido al potente sistema de cámaras del Apple Vision Pro con las actualizaciones de visionOS. Otras novedades son Lector de accesibilidad, un nuevo modo de lectura para todo el sistema que se ha diseñado pensando en la accesibilidad, y las actualizaciones de Escucha en Directo, Sonidos de Fondo, Indicadores de Movimiento en Vehículos y más. Gracias a la potencia de los chips de Apple, así como los avances en el aprendizaje automático y la inteligencia artificial en los dispositivos, los usuarios disfrutarán de un nivel de accesibilidad superior en todo el ecosistema Apple.
«En Apple, la accesibilidad es parte de nuestro ADN», ha dicho Tim Cook, CEO de Apple. «Crear tecnologías accesibles para todo el mundo es una de nuestras prioridades, y estamos orgullosos de las innovaciones que vamos a presentar este año. Entre ellas hay herramientas que ayudan a las personas a acceder a información importante, explorar el mundo a su alrededor y hacer lo que más les gusta».
«Tras 40 años de innovaciones en materia de accesibilidad en Apple, estamos trabajando para ir más lejos con nuevas prestaciones en todos nuestros productos», ha dicho Sarah Herrlinger, directora sénior de Iniciativas y Políticas Globales de Accesibilidad de Apple. «Estas prestaciones, impulsadas por el ecosistema de Apple, funcionan a la perfección para que los usuarios puedan interactuar de nuevas formas con aquello que más les importa».
Las etiquetas de información nutricional de accesibilidad llegan al App Store
Las etiquetas de información nutricional en las páginas de producto del App Store estrenan una sección que destaca las prestaciones de accesibilidad disponibles en las apps y los juegos. Estas etiquetas ofrecen a los usuarios una nueva forma de saber si una app es accesible para ellos antes de descargarla, y dan a los desarrolladores la oportunidad de informar y educar mejor a sus usuarios sobre las funciones que ofrece su app. Entre estas funciones se incluye VoiceOver, Control por Voz, Texto Más Grande, Contraste Suficiente, Reducir Movimiento y los subtítulos. Las etiquetas de información nutricional de accesibilidad estarán disponibles en el App Store en todo el mundo, y los desarrolladores podrán recibir orientación adicional sobre los criterios que deben cumplir las apps antes de mostrar información de accesibilidad en sus páginas de producto.
«Las etiquetas de información nutricional de accesibilidad suponen un gran paso adelante en materia de accesibilidad», ha dicho Eric Bridges, presidente y consejero delegado de la Fundación Estadounidense para Ciegos. «Los consumidores tienen derecho a saber si un producto o servicio se adaptará a sus necesidades de accesibilidad desde el primer momento, y Apple lleva muchos años ofreciendo herramientas y tecnologías que permiten a los desarrolladores crear experiencias para todo el mundo. Estas etiquetas ayudarán a las personas con discapacidad a tomar decisiones acertadas y comprar con más confianza».

Nueva Lupa para el Mac
Desde 2016, los usuarios ciegos o con visión reducida pueden hacer zoom, leer texto y detectar objetos a su alrededor con Lupa para el iPhone y el iPad. Este año, Lupa llega al Mac para hacer que el mundo físico sea más accesible para personas con visión reducida. La app Lupa para el Mac se conecta a la cámara del dispositivo para que los usuarios puedan ver más de cerca lo que hay a su alrededor, como una pantalla o una pizarra. Lupa, que funciona con el iPhone mediante Cámara de Continuidad y también con cámaras conectadas por USB, permite leer documentos con la prestación Vista Cenital.
Los usuarios pueden tener distintas ventanas activas para realizar varias tareas a la vez; como ver una presentación con una webcam mientas repasan un libro con Vista Cenital. Y con las vistas personalizadas, pueden ajustar el brillo, el contraste, los filtros de color e incluso la perspectiva para ver mejor el texto y las imágenes. Las vistas también se pueden capturar, agrupar y guardar para más adelante. Además, Lupa para el Mac se integra con Lector de accesibilidad, otra nueva prestación de accesibilidad que transforma el texto del mundo físico a un formato legible personalizado.
Nueva experiencia con el braille
Acceso braille es una nueva experiencia que convierte el iPhone, el iPad, el Mac o el Apple Vision Pro en un equipo braille muy completo y totalmente integrado con el ecosistema Apple. Como incorpora un iniciador de apps, los usuarios solo tienen que escribir con Entrada Braille en Pantalla o un dispositivo braille conectado para abrir cualquier app. Con Acceso braille, los usuarios pueden tomar apuntes rápidamente en braille y realizar cálculos en Nemeth, un código de braille que se suele utilizar en clases de matemáticas y ciencias. También pueden abrir archivos en formato Braille Ready Format (BRF) directamente desde Acceso braille para acceder a todo tipo de libros y archivos creados en dispositivos de toma de notas en braille. Además, una versión integrada de Subtítulos en Vivo les permite transcribir conversaciones en tiempo real directamente en equipos braille.

Nuevo Lector de accesibilidad
Lector de accesibilidad es un nuevo modo de lectura para todo el sistema que facilita la lectura de texto a usuarios con dislexia, visión reducida y otras discapacidades. Esta prestación para el iPhone, el iPad, el Mac y el Apple Vision Pro ofrece a los usuarios nuevas formas de personalizar el texto y centrarse en lo que quieren leer con numerosas opciones para el tipo de letra, el color y el espaciado, así como compatibilidad con Contenido Leído. ector de accesibilidad se puede iniciar desde cualquier app y se integra con la app Lupa de iOS, iPadOS y macOS, por lo que los usuarios pueden interactuar con texto del mundo real, como libros o cartas de restaurantes.
Subtítulos en Vivo llega al Apple Watch
Los controles de Escucha en Directo llegan al Apple Watch con un nuevo conjunto de prestaciones, entre ellas Subtítulos en Vivo, para los usuarios sordos o con pérdida de audición. Escucha en Directo convierte el iPhone en un micrófono a distancia que puede transmitir contenido directamente a unos AirPods, unos audífonos Made for iPhone o unos auriculares Beats. Cuando hay un sesión activa en el iPhone, los usuarios pueden ver los subtítulos de lo que recibe el teléfono en un Apple Watch enlazado mientras escuchan el audio. El Apple Watch funciona como un mando a distancia con el que iniciar y detener sesiones de Escucha en Directo o volver atrás en una sesión para escuchar algo de nuevo. Con el Apple Watch, las sesiones de Escucha en Directo se pueden controlar desde el otro lado de la sala, así que no hace falta levantarse en medio de una reunión o durante una clase. Escucha en Directo se puede utilizar en tándem con las prestaciones de salud auditiva disponibles en los AirPods Pro 2, como Audífono, el primero de calidad médica de su categoría.
Mejoras en la vista del Apple Vision Pro
visionOS se servirá del sistema de cámaras avanzado del Apple Vision Pro para llevar más allá las prestaciones de accesibilidad dirigidas a usuarios ciegos o con visión reducida. Gracias a las potentes actualizaciones de Zoom, los usuarios pueden ampliar todo lo que tienen enfrente y en su entorno usando la cámara principal. Para los usuarios de VoiceOver, Reconocimiento en Tiempo Real en visionOS utiliza el aprendizaje automático del dispositivo para describir entornos, encontrar objetos, leer documentos y más.1 Una nueva API para desarrolladores de accesibilidad permitirá que las apps aprobadas accedan a la cámara principal para ofrecer interpretación visual en persona dentro de apps como Be My Eyes, así los usuarios tendrán más posibilidades a la hora de conocer el entorno con las manos libres.
Las potentes actualizaciones de Zoom en el Apple Vision Pro permiten a los usuarios ampliar todo lo que tienen enfrente y en su entorno usando la cámara principal. Aquí, una persona que está con el Apple Vision Pro en la cocina amplía una ventana rectangular para ver más de cerca su libro y sus fichas de recetas, y tacha ingredientes de la lista en la app Notas.
Otras actualizaciones
- Sonidos de Fondo es más fácil de personalizar con nuevos ajustes de ecualización, la opción de detenerse automáticamente tras un periodo determinado y nuevas automatizaciones en Atajos. Esta prestación reduce las distracciones para aumentar la sensación de concentración y relajación, lo cual puede ayudar a algunos usuarios con los síntomas de acúfenos.
- Para los usuarios que corren el riesgo de perder el habla, Voz Personal aumenta su velocidad, su potencia y su facilidad de uso. Esta prestación se sirve de los avances en el aprendizaje automático y la inteligencia artificial de los dispositivos para crear voces más fluidas y naturales con solo grabar diez frases, tarea que solo lleva un minuto. Voz Personal también añadirá compatibilidad con español (de México).2
- Indicadores de Movimiento en Vehículos, que ayuda a reducir el mareo durante los trayectos en vehículos, llega al Mac e incorpora nuevas formas de personalizar los puntos animados en la pantalla del iPhone, el iPad y el Mac.
- Los usuarios de Seguimiento Ocular en el iPhone y el iPad ahora tendrán la opción de usar un botón o la permanencia para realizar selecciones. Escribir con un teclado al usar Seguimiento Ocular o Control por Botón ahora es más fácil en el iPhone, el iPad y el Apple Vision Pro gracias a mejoras como un nuevo temporizador de permanencia, la reducción de los pasos necesarios al utilizar un botón y la posibilidad de activar QuickPath en el iPhone y el Apple Vision Pro.
- Seguimiento de la Cabeza dará a los usuarios más facilidades para controlar el iPhone con movimientos de la cabeza, de manera similar a como se hace con Seguimiento Ocular.
- Para los usuarios con un alto grado de discapacidad motora, iOS, iPadOS y visionOS añadirán un nuevo protocolo para que Control por Botón sea compatible con interfaces cerebro-máquina, una tecnología emergente que permite controlar dispositivos sin realizar movimientos físicos.
- Acceso Asistido añade una nueva app personalizada para el Apple TV con un reproductor multimedia simplificado. Los desarrolladores también recibirán asistencia para crear experiencias a medida de los usuarios con discapacidades intelectuales y del desarrollo utilizando la API de Acceso Asistido.
- Vibración con la Música en el iPhone aumenta su nivel de personalización con la opción de sentir las vibraciones de todo un tema o únicamente las voces, así como la posibilidad de ajustar la intensidad general de los toques, las texturas y las vibraciones.
- Reconocimiento de Sonidos añade Reconocimiento de Nombre, un nuevo método para que los usuarios sordos o con pérdida de audición sepan si alguien los está llamando por su nombre.
- Control por Voz incorpora un nuevo modo de programación en Xcode para desarrolladores de software con movilidad limitada, sincronización de vocabulario entre dispositivos y compatibilidad con coreano, árabe (de Arabia Saudí), turco, italiano, español (de Latinoamérica), chino mandarín (de Taiwán), inglés (de Singapur) y ruso.
- Subtítulos en Vivo añade compatibilidad con inglés (de la India, Australia, Reino Unido y Singapur), chino mandarín (de China continental), cantonés (de China continental y Hong Kong), español (de Latinoamérica y España), francés (de Francia y Canadá), japonés, alemán (de Alemania) y coreano.
- CarPlay ahora es compatible con Texto Más Grande. Gracias a las actualizaciones de Reconocimiento de Sonidos en CarPlay, los conductores y los pasajeros sordos o con pérdida de audición pueden recibir notificaciones si se detecta el llanto de un bebé, además de sonidos externos, como un claxon o una sirena.
- Compartir ajustes de accesibilidad se lo pone fácil a los usuarios para compartir temporalmente sus ajustes de accesibilidad con otro iPhone o iPad. Puede venir muy bien al utilizar el dispositivo de otra persona o el terminal de autoservicio de un establecimiento.


Celebración del Día Mundial de Concienciación sobre la Accesibilidad en Apple
Algunas Apple Store van a instalar mesas dedicadas a las prestaciones de accesibilidad en distintos dispositivos durante el mes de mayo. Además, Apple ofrece durante todo el año sesiones de Today at Apple enfocadas a la accesibilidad. Los clientes pueden asistir a ellas para ampliar sus conocimientos, recibir consejos y aprender a personalizar las prestaciones. Apuntarse a una sesión en cualquier Apple Store del mundo es tan sencillo como acercarse a la tienda o hacer una reserva para grupos.
Apple Music cuenta la historia del artista Kiddo K, habla de la importancia de la vibración con la música para los usuarios sordos o con pérdida de audición, desvela novedades en sus playlists de Música háptica y lanza una nueva playlist con interpretaciones de vídeos musicales en lengua de signos estadounidense, además de saylists dedicadas a práctica de sonidos concretos.
Apple Fitness+ da la bienvenida a Chelsie Hill como invitada a un entrenamiento de baile con Ben Allen, entrenador del servicio. Hill es bailarina profesional y la fundadora de Rolettes, un equipo de danza en silla de ruedas de Los Ángeles que lucha por la representación de las personas con discapacidad y el empoderamiento de las mujeres. El entrenamiento ya está disponible en la app Fitness+.
Apple TV+ muestra cómo se hizo Deaf President Now!, una nueva película Apple Original que se estrena en el servicio el 16 de mayo. El documental narra la historia del gran movimiento por los derechos civiles que poca gente conoce. Durante ocho convulsos días de 1988, en la única universidad para personas sordas del mundo, cuatro estudiantes deben lograr liderar una revolución y cambiar la historia.
Apple Books, Apple Podcasts, Apple TV y Apple News destacarán historias de personas con discapacidades y de personas que trabajan para hacer del mundo un lugar más accesible para todos.
El App Store comparte una colección de apps y juegos diseñados para ser accesibles para todos y cuenta la historia de Klemens Strasser, un desarrollador cuya filosofía es crear apps y juegos accesibles como The Art of Fauna.
La app Atajos añade Hold That Thought, un atajo que permite a los usuarios tomar notas para consultarlas después sin interrumpir lo que están haciendo. El atajo de Asistente de Accesibilidad se ha añadido a Atajos en el Apple Vision Pro para recomendar prestaciones de accesibilidad en función de las preferencias de los usuarios.
El canal Apple Support añade a la lista sobre accesibilidad vídeos relacionados con prestaciones como Seguimiento Ocular, Atajos de Voz e Indicadores de Movimiento en Vehículos, a lo que se suma una biblioteca de vídeos pensados para que cualquiera pueda personalizar su iPhone, iPad, Mac, Apple Watch o Apple Vision Pro como más le convenga.
Compartir artículo
Media
-
Texto de este artículo
-
Imágenes en este artículo
- Reconocimiento de Sonidos no debe usarse en situaciones de emergencia o alto riesgo, cuando se puedan ocasionar daños o lesiones ni como herramienta de navegación.
- Los usuarios solo pueden utilizar Voz Personal para crear en sus dispositivos voces que suenen como las suyas para fines particulares y no comerciales.