PRESSEMELDUNG
13 Mai 2025
Apple stellt leistungsstarke Bedienungshilfen vor, die noch in diesem Jahr verfügbar sein werden
Zu den neuen Funktionen gehören Labels mit Angaben zur Barrierefreiheit im App Store, eine Lupe für den Mac, Zugriff auf Braille, ein Reader für Barrierefreiheit sowie innovative Updates für Live Mithören, visionOS, „Eigene Stimme“ und mehr
Apple hat heute neue Bedienungshilfen angekündigt, die noch in diesem Jahr verfügbar sein werden, darunter die Lupe für den Mac.
CUPERTINO, KALIFORNIEN Apple hat heute neue Bedienungshilfen angekündigt, die noch in diesem Jahr verfügbar sein werden, darunter Labels, die detailliertere Informationen zur Barrierefreiheit von Apps und Spielen im App Store liefern. Anwender:innen, die blind sind oder ein eingeschränktes Sehvermögen haben, können mit der neuen Lupe für den Mac erkunden, lernen und interagieren, mit dem neuen Zugriff auf Braille Notizen machen und Berechnungen durchführen und mit neuen Updates für visionOS das leistungsstarke Kamerasystem der Apple Vision Pro nutzen. Weitere Ankündigungen beinhalten den Reader für Barrierefreiheit, einen neuen systemweiten Lesemodus, der speziell für Barrierefreiheit entwickelt wurde, sowie Updates für Live Mithören, Hintergrundgeräusche, Eigene Stimme, Hinweise auf Fahrzeugbewegung und mehr. Dank der Leistungsfähigkeit der Apple Chips – in Verbindung mit Fortschritten im Bereich des maschinellen Lernens und der künstlichen Intelligenz auf dem Gerät – werden Anwender:innen ein neues Niveau an Barrierefreiheit über das gesamte Apple Ökosystem hinweg erleben.
„Barrierefreiheit ist Teil unserer DNA bei Apple“, sagt Tim Cook, CEO von Apple. „Technologie für alle zu entwickeln, hat für uns alle Priorität, und wir sind stolz auf die Innovationen, die wir dieses Jahr vorstellen. Dazu gehören Werkzeuge, die Menschen dabei helfen, auf wichtige Informationen zuzugreifen, die Welt um sie herum zu erkunden und das zu tun, was sie lieben.“
„Aufbauend auf 40 Jahre Innovation im Bereich Barrierefreiheit bei Apple sind wir bestrebt, kontinuierlich neue Bedienungshilfen für alle unsere Produkte voranzutreiben“, sagt Sarah Herrlinger, Senior Director of Global Accessibility Policy and Initiatives bei Apple. „Dank des Apple Ökosystems arbeiten diese Funktionen reibungslos zusammen und bieten Anwender:innen neue Möglichkeiten, sich mit den Dingen zu beschäftigen, die ihnen am wichtigsten sind.“
Labels mit Angaben zur Barrierefreiheit kommen in den App Store
Labels mit Angaben zur Barrierefreiheit sind ein neuer Bereich auf den Produktseiten im App Store, in dem die Bedienungshilfen von Apps und Spielen hervorgehoben werden. Diese Angaben bieten eine neue Möglichkeit, vor dem Herunterladen einer App zu erfahren, ob diese barrierefrei ist, und geben Entwickler:innen die Möglichkeit, ihre Nutzer:innen besser über die Funktionen ihrer App zu informieren und aufzuklären. Dazu gehören VoiceOver, Sprachsteuerung, größere Schrift, ausreichender Kontrast, reduzierte Bewegungen, Untertitel und vieles mehr. Die Labels mit Angaben zur Barrierefreiheit werden weltweit im App Store verfügbar sein. Entwickler:innen erhalten weitere Informationen zu den Kriterien, die Apps erfüllen müssen, bevor sie Informationen zur Barrierefreiheit auf ihren Produktseiten anzeigen können.
„Labels mit Angaben zur Barrierefreiheit sind ein großer Fortschritt für die Barrierefreiheit“, sagt Eric Bridges, President und CEO der American Foundation for the Blind. „Verbraucher haben das Recht, von Anfang an zu wissen, ob ein Produkt oder ein Service für sie zugänglich ist, und Apple hat eine lange Tradition in der Bereitstellung von Tools und Technologien, mit denen Entwickler Erfahrungen für alle schaffen können. Diese Kennzeichnungen bieten Menschen mit Einschränkungen eine neue Möglichkeit, fundiertere Entscheidungen zu treffen und mit einem neuen Level an Vertrauen einzukaufen.“

Eine völlig neue Lupe für den Mac
Seit 2016 bietet die Lupe auf iPhone und iPad Blinden und Menschen mit eingeschränktem Sehvermögen Werkzeuge zum Vergrößern, Lesen von Text und Erkennen von Objekten in ihrer Umgebung. In diesem Jahr kommt die Lupe auf den Mac, um die physische Welt für Nutzer:innen mit eingeschränktem Sehvermögen zugänglicher zu machen. Die Lupe App für den Mac verbindet sich mit der Kamera des:r Anwenders:in, sodass die Umgebung, beispielsweise ein Bildschirm oder ein Whiteboard, vergrößert werden kann. Die Lupe funktioniert über die Continuitykamera auf dem iPhone sowie mit angeschlossenen USB-Kameras und unterstützt das Lesen von Dokumenten mit Schreibtischansicht.
Mit mehreren Live Sessionfenstern können Anwender:innen mehrere Aufgaben gleichzeitig erledigen, indem sie eine Präsentation mit einer Webcam ansehen und gleichzeitig mit Schreibtischansicht in einem Buch mitlesen. Mit benutzerdefinierten Ansichten kann man Helligkeit, Kontrast, Farbfilter und sogar die Perspektive anpassen, um Text und Bilder besser zu sehen. Ansichten können auch erfasst, gruppiert und gespeichert werden, um sie später hinzuzufügen. Darüber hinaus ist die Lupe für den Mac in eine weitere neue Funktion für Barrierefreiheit integriert, dem Reader für Barrierefreiheit, der Text aus der physischen Welt in ein benutzerdefiniertes, lesbares Format umwandelt.
Eine neue Erfahrung mit Braille
Zugriff auf Braille ist eine völlig neue Erfahrung, die iPhone, iPad, Mac und Apple Vision Pro in ein voll funktionsfähiges Braille-Notizgerät verwandelt, das tief in das Apple Ökosystem integriert ist. Mit einem integrierten Appstarter können Anwender:innen jede App ganz einfach öffnen, indem sie mit der Braille-Bildschirmeingabe oder einem angeschlossenen Braille-Gerät tippen. Mit Zugriff auf Braille kann man schnell Notizen im Braille-Format erstellen und Berechnungen mit Nemeth Braille durchführen, einem Braille-Code, der häufig in Klassenzimmern für Mathematik und Naturwissenschaften verwendet wird. Nutzer:innen können BRF-Dateien (Braille Ready Format) direkt über Zugriff auf Braille öffnen und so auf eine Vielzahl von Büchern und Dateien zugreifen, die zuvor auf einem Braille-Notizgerät erstellt wurden. Dank einer integrierten Form von Live Untertiteln können Anwender:innen Gespräche in Echtzeit direkt auf Braille-Displays transkribieren.

Einführung des Readers für Barrierefreiheit
Der Reader für Barrierefreiheit ist ein neuer systemweiter Lesemodus, der Text für Anwender:innen mit einer Vielzahl von Einschränkungen, wie Legasthenie oder eingeschränktem Sehvermögen, leichter lesbar macht. Der Reader für Barrierefreiheit ist auf iPhone, iPad, Mac und der Apple Vision Pro verfügbar und bietet neue Möglichkeiten, Text anzupassen und sich auf die Inhalte zu konzentrieren, die man lesen möchte. Dazu stehen umfangreiche Optionen für Schriftart, Farbe und Abstand sowie Unterstützung für gesprochene Inhalte zur Verfügung. Der Reader für Barrierefreiheit kann aus jeder App heraus gestartet werden und ist in die Lupe App für iOS, iPadOS und macOS integriert, sodass Anwender:innen mit Text in der realen Welt interagieren können, beispielsweise in Büchern oder auf Speisekarten.
Live Untertitel kommen auf die Apple Watch
Für Anwender:innen, die taub oder schwerhörig sind, kommen die Live Mithören-Steuerelemente mit einer Reihe neuer Funktionen auf die Apple Watch, darunter Live Untertitel in Echtzeit. Live Mithören verwandelt das iPhone in ein Fernmikrofon, um Inhalte direkt auf AirPods, Made for iPhone-Hörgeräte oder Beats-Kopfhörer zu streamen. Wenn eine Session auf einem iPhone aktiv ist, können Anwender:innen Live Untertitel von dem, was ihr iPhone hört, auf einer gekoppelten Apple Watch anzeigen lassen, während sie den Ton hören. Die Apple Watch dient als Fernbedienung, um Live Mithören-Sessions zu starten oder zu beenden oder zu einer Session zurückzuspringen, um etwas zu erfassen, das möglicherweise übersehen wurde. Mit der Apple Watch können Live Mithören-Sessions von überall aus gesteuert werden, sodass man nicht mitten in einer Besprechung oder während des Unterrichts aufstehen muss. Live Mithören kann zusammen mit den Funktionen zur Hörgesundheit der AirPods Pro 2 verwendet werden, darunter die erste Hörhilfefunktion auf klinischem Niveau.
Eine verbesserte Ansicht mit der Apple Vision Pro
Für Anwender:innen, die blind sind oder eingeschränktes Sehvermögen haben, erweitert visionOS die Funktionen für Barrierefreiheit mithilfe des fortschrittlichen Kamerasystems der Apple Vision Pro. Dank leistungsstarker Updates für Zoom können Nutzer:innen alles im Blickfeld – einschließlich ihrer Umgebung – mit der Hauptkamera vergrößern. Für Anwender:Innen von VoiceOver beschreibt die Live-Erkennung in visionOS mithilfe von geräteinternem maschinellem Lernen die Umgebung, findet Objekte, liest Dokumente und vieles mehr.1 Für Entwickler:innen von Funktionen für Barrierefreiheit ermöglicht eine neue API zugelassenen Apps den Zugriff auf die Hauptkamera, um in Apps wie Be My Eyes Live Unterstützung von Mensch zu Mensch für die visuelle Interpretation zu bieten. So erhalten Nutzer:innen noch mehr Möglichkeiten, ihre Umgebung freihändig zu verstehen.
Dank leistungsstarker Updates für Zoom auf der Apple Vision Pro können Nutzer:innen alles im Blickfeld – einschließlich ihrer Umgebung – mit der Hauptkamera vergrößern. Hier zoomt ein:e Apple Vision Pro-Nutzer:in in einer Küche auf einen rechteckigen Ausschnitt, um das Kochbuch und die Rezeptkarten genauer zu betrachten, und hakt die Zutaten auf der Liste in der Notizen App ab.
Zusätzliche Updates
- Hintergrundgeräusche lassen sich mit neuen EQ-Einstellungen, der Option zum automatischen Stoppen nach einer bestimmten Zeit und neuen Aktionen für Automatisierungen in Kurzbefehle einfacher individualisieren. Hintergrundgeräusche können Ablenkungen minimieren und so die Konzentration und Entspannung fördern, was einigen Nutzer:innen bei Tinnitus-Symptomen hilft.
- Für Menschen mit dem Risiko, ihre Sprechfähigkeit zu verlieren, wird „Eigene Stimme“ schneller, einfacher und leistungsfähiger denn je. Dank Fortschritten beim maschinellen Lernen und der künstlichen Intelligenz auf dem Gerät kann in weniger als einer Minute mit nur zehn aufgezeichneten Phrasen eine flüssigere, natürlicher klingende Stimme erstellt werden. „Eigene Stimme“ wird auch Spanisch (Mexiko) unterstützen.2
- Hinweise auf Fahrzeugbewegung, die dabei helfen können, Reisekrankheit in fahrenden Fahrzeugen zu reduzieren, kommen auf den Mac, zusammen mit neuen Möglichkeiten, die animierten Punkte auf dem Bildschirm von iPhone, iPad und Mac anzupassen.
- Nutzer:innen von Eye Tracking auf iPhone und iPad haben nun die Möglichkeit, eine Auswahl über einen Schalter oder durch Verweilen zu treffen. Die Tastatureingabe bei Verwendung von Eye Tracking oder Schaltersteuerung ist auf iPhone, iPad und Apple Vision Pro jetzt einfacher, dank Verbesserungen wie einem neuen Timer zur Tastatur-Verweildauer, weniger Schritte bei der Eingabe mit Schaltern und der Aktivierung von QuickPath für iPhone und Vision Pro.
- Mit Head Tracking können Anwender:innen iPhone und iPad ähnlich wie mit Eye Tracking einfacher durch Kopfbewegungen steuern.
- Für Anwender:innen mit schweren Mobilitätseinschränkungen werden iOS, iPadOS und visionOS ein neues Protokoll zur Unterstützung von Schaltersteuerung für Brain-Computer-Interfaces (BCIs) hinzufügen, einer neuen Technologie, mit der man das Gerät ohne körperliche Bewegung steuern können.
- Unterstützender Zugriff wird um eine neue benutzerdefinierte Apple TV App mit einem vereinfachten Media Player erweitert. Entwickler:innen erhalten außerdem Unterstützung bei der Erstellung maßgeschneiderter Erlebnisse für Anwender:innen mit geistigen und entwicklungsbedingten Einschränkungen mithilfe der Assistive Access API.
- Musikhaptik auf dem iPhone wird noch anpassbarer: Es gibt nun die Option, Haptik für einen ganzen Song oder nur für den Gesang zu erleben, sowie die Möglichkeit, die Gesamtintensität von Klopfen, Texturen und Vibrationen anzupassen.
- Geräuscherkennung wird um Namenserkennung erweitert, eine neue Funktion für Nutzer:innen die taub oder schwerhörig sind, um zu erkennen, wann ihr Name gerufen wird.
- Sprachsteuerung führt in Xcode einen neuen Programmiermodus für Softwareentwickler:innen mit eingeschränkter Mobilität ein. Die Sprachsteuerung bietet außerdem eine geräteübergreifende Synchronisierung des Wortschatzes und wird um die Sprachen Koreanisch, Arabisch (Saudi-Arabien), Türkisch, Italienisch, Spanisch (Lateinamerika), Mandarin-Chinesisch (Taiwan), Englisch (Singapur) und Russisch erweitert.
- Live Untertitel werden um Englisch (Indien, Australien, Großbritannien, Singapur), Mandarin-Chinesisch (Festlandchina), Kantonesisch (Festlandchina, Hongkong), Spanisch (Lateinamerika, Spanien), Französisch (Frankreich, Kanada), Japanisch, Deutsch (Deutschland) und Koreanisch erweitert.
- Zu den Updates für CarPlay gehört die Unterstützung für Großen Text. Dank der Updates für die Geräuscherkennung in CarPlay können Fahrer:in oder Beifahrer:in, die taub oder schwerhörig sind, nun zusätzlich zu Geräuschen außerhalb des Fahrzeugs wie Hupen und Sirenen beispielsweise auch auf das Weinen eines mitfahrenden Babys hingewiesen werden.
- Einstellungen für Bedienungshilfen teilen ist eine neue Möglichkeit für Nutzer:innen, ihre Einstellungen für Bedienungshilfen schnell und vorübergehend mit einem anderen iPhone oder iPad zu teilen. Dies ist ideal, wenn man das Gerät eines:r Freundes:in ausleihen oder beispielsweise einen öffentlichen Kiosk in einem Café nutzen möchten.

Welttag der Barrierefreiheit bei Apple
Apple Retail stellt im Mai in ausgewählten Stores dedizierte Tische bereit, an denen die Bedienungshilfen auf verschiedenen Geräten vorgestellt werden. Darüber hinaus bietet Apple über Today at Apple das ganze Jahr über Sessions für Barrierefreiheit an, in denen man mehr erfahren, Tipps erhalten und Funktionen anpassen kann. Die Sessions können in allen Apple Stores weltweit online über Gruppensession oder in einem Store in der Nähe gebucht werden.
Apple Music erzählt die Geschichte der Künstlerin Kiddo K und die Kraft der Musikhaptik für gehörlose oder schwerhörige Nutzer:innen, stellt Updates für seine Haptik-Playlists vor und veröffentlicht eine brandneue Playlist mit ASL-Interpretationen von Musikvideos sowie Saylists-Playlists.
Apple Fitness+ begrüßt Chelsie Hill als Gast in einem Tanz-Workout mit Fitness+ Trainer Ben Allen. Hill ist professionelle Tänzerin und Gründerin von Rolettes, einem Rollstuhl-Tanzteam aus Los Angeles, das sich für die Repräsentation von Menschen mit Behinderung und die Stärkung von Frauen einsetzt. Das Workout ist ab sofort in der Fitness+ App verfügbar.
Apple TV+ gewährt einen Blick hinter die Kulissen der Entstehung des neuen Apple Original Films Deaf President Now!, der am 16. Mai auf Apple TV+ Premiere feiert. Der Dokumentarfilm erzählt die Geschichte der größten Bürgerrechtsbewegung, von der die meisten Menschen noch nie gehört haben und die sich 1988 in acht turbulenten Tagen ereignete. An der weltweit einzigen Universität für Gehörlose müssen vier Student:innen einen Weg finden, eine wütende Menschenmenge anzuführen – und den Lauf der Geschichte zu verändern.
Apple Books, Apple Podcasts, Apple TV und Apple News stellen Geschichten von Menschen mit Einschränkungen und denen, die sich dafür einsetzen, die Welt für alle zugänglicher zu machen, in den Mittelpunkt.
Der App Store stellt eine Sammlung von Apps und Spielen vor, die für alle zugänglich sind, und präsentiert die Geschichte von Klemens Strasser, einem Entwickler, der sich der Philosophie verschrieben hat, barrierefreie Apps und Spiele wie The Art of Fauna zu entwickeln.
Die Kurzbefehle App ist um die Hold That Thought-Funktion erweitert worden, mit der man Informationen in einer Notiz festhalten und abrufen kann, damit man nicht durch Unterbrechungen aus dem Arbeitsfluss gerät. Die Bedienungshilfen-Kurzbefehl ist zu Kurzbefehle für die Vision Pro hinzugefügt worden, um Funktionen für Barrierefreiheit basierend auf den Benutzereinstellungen zu empfehlen.
Neue Videos in der Apple Support Accessibility Playlist enthalten Funktionen wie Eye Tracking, Sprachkurzbefehle und Hinweise auf Fahrzeugbewegung sowie eine Mediathek mit Videos, die allen helfen, ihr iPhone, iPad, Mac, Apple Watch und Apple Vision Pro so anzupassen, dass sie optimal für sie funktionieren.
Artikel teilen
Media
-
Text dieses Artikels
-
Bilder zu dieser Pressemeldung
- Die Live Erkennung sollte nicht in risikoreichen oder Notfallsituationen, in Situationen, in denen man verletzt werden könnte, oder zur Navigation verwendet werden.
- „Eigene Stimme“ kann nur unter Zuhilfenahme der eigenen Stimme verwendet werden, um eine Stimme zu erstellen, die wie die Stimme des:r Nutzers:in auf dem Gerät klingt, und ausschließlich für den persönlichen, nicht kommerziellen Gebrauch, eingesetzt wird.