Sprach-Assistenten und Screenreader: Mainstreaming Accessibility

Vor gut zehn Jahren begann mit dem iPhone der Siegeszug der Smartphones. Mit der Einführung von responsiven Layouts im Webdesign und mit dem Mobile First Ansatz wurde einer breiten Masse die Bedeutung der Linearisierbarkeit von Inhalten (einem wichtigen Aspekt bei der Barrierefreiheit) bewusst: Wenn im Responsive Design auf meinem Smartphone die Inhalte aus dem Dreispalten-Layout untereinander fließen, fällt mir sofort auf, wenn die Reihenfolge nicht sinnvoll ist. Und mit dem Touchscreen entstand ein breites Bewusstsein dafür, dass die digitale Welt nicht nur aus Mäusen und Tastaturen besteht.

Die schon lange vor dem Smartphone von Accessibility Experten propagierte Aussage, dass Barrierefreiheit gut für alle ist, hat also mit dem Smartphone einen Beleg im Mainstream gefunden. Ähnliches gilt für die Suchmaschinenoptimierung, die von guter Semantik profitiert.

Dennoch gibt es bei einer barrierefreien Umsetzung einer Website oder Applikation Aufgaben, die sehr spezifisch auf eine bestimmte Zielgruppe ausgerichtet sind. Gerade die bei dynamischen Applikationen oft aufwändigen Anpassungen für Blinde sind scheinbar ausschließlich für Blinde relevant: Wer profitiert sonst von Auszeichnungen mit ARIA-Attributen und ähnlichem?

Wir sehen, dass durch die Verbreitung von sprachgesteuerten Assistenzsystemen die erwähnten speziellen Auszeichnungen und Anpassungen eine Relevanz für die breite Masse entwickeln, und so die Barrierefreiheit einen weiteren großen Schritt Richtung Mainstream macht.

Sprach-Assistenten – Screenreader für die Masse?

Seit 2016 werden in Deutschland Amazon Echo Geräte verkauft, die einem die Alexa-Sprachassistenz ins Wohnzimmer bringen. Das Konkurrenzprodukt Google Home kam 2017 nach Deutschland, Apples HomePod wird nicht mehr lange auf sich warten lassen.

Aber selbst, wenn man kein separates Endgerät besitzt: Die zugrunde liegenden Sprach-Assistenz-Systeme Siri, Alexa, Cortana, Bixby & Co sind schon seit Jahren in Smartphones integriert.

Nun können die Systeme noch keine Websites vorlesen – geschweige denn beliebige Webapplikationen bedienen. Aber dennoch zeichnet sich eine weitergehende Konvergenz von spezifischen Accessibility-Technologien mit allgemeinen Assistenz-Systemen ab. Die Spracherkennung von Siri & Co wird gerade auch von Blinden viel genutzt. Es ist sicherlich nur eine Frage der Zeit, bis sprachgesteuerte Systeme in Autos und im Wohnzimmer inhaltlich mehr abdecken können als bisher und auch die Interaktionen mit regulären Webapplikatonen meistern.

Obwohl die Assistenzsysteme noch keine Funktion zur Bedienung von regulären Websites haben, kann und sollte man deshalb bereits jetzt bei der Entwicklung auf korrekte Semantik achten: Korrekte Input Types nutzen, semantische Textauszeichnung, ARIA-Attribute für Applikationen etc. Davon profitieren Screenreader und Suchmaschinen – und in Zukunft vermutlich auch die Sprach-Assistenz-Systeme im Wohnzimmer. Letztlich ist es ein Zeichen von Qualität und Zukunftskompatibilität – die entsprechenden Standards existieren und müssen nur richtig eingesetzt werden. In den unterstützenden Dokumenten zur WCAG 2.1 gibt es an einigen Stellen inzwischen explizit Hinweise auf Möglichkeiten zur Spracheingabe (Understanding WCAG 2.1).

Ausblick

Natürlich bringt jede neue Technologie auch neue Herausforderungen hinsichtlich der Barrierefreiheit. Naturgemäß ist ein Spracherkennungssystem problematisch für Menschen, die Probleme mit dem Sprechen haben. Das gleiche gilt für die Audio-Ausgabe bei hörgeschädigten Menschen. Aber die Bedeutung der Barrierefreiheit ist bei den neuen Geräten offenbar durchaus bei den Herstellern vorhanden, wie beispielsweise die Informationen von Amazon zur Barrierefreiheit von Alexa-Geräten zeigt.

Wir sehen bei allen Fragen und Problemen die Verbreitung von alternativen Eingabe- und Ausgabegeräten positiv für die Barrierefreiheit, weil sie – ähnlich wie beim Smartphone – ein breites Bewusstsein für die Heterogenität der Zugriffsmöglichkeiten auf Inhalte schafft und die konzeptionelle Beschränkung auf einzelne Sinne in Frage stellt.

Beatriz González Mellídez ist „Licenciada en Audiovisueller Kommunikation“ (Deutsches Diplom) bei der UMA, sowie „Universitäts Experte in Accessibility und Usability von Web Inhalte“ bei derUAH.  In Madrid geboren, wohnt in Köln und ist verantwortlich für Cross-Platform multimediale User Experience, Konzeption, Gestaltung & Frontend-Entwicklung.

Beatriz hat mehrere Jahre Erfahrung als UX Consultant, Training & Coaching mit Erfolgreiche Projekte durch Europa, USA, Indien und Australien. Sie arbeitet derzeit als Principal User Experience bei SinnerSchrader Deutschland GmbH.  Ihre Interessenschwerpunkte sind Digitale UX Strategie, Research, Design, Prototypen und Entwicklung, Usability, Barrierefreiheit, Inklusion, Information Architecture, Performance, Web, Mobil, Video, IoT (Internet of Things), Wearables, VR (Virtual Reality), Best Practices für große Unternehmen.

 

Thomas Heilmann beschäftigt sich als Gründer und Geschäftsführer der Münchner Internet-Agentur mindscreen mit Fragen des Content Managements und der Barrierefreiheit.

Seine erste Website war 1996 online. Inzwischen konzipiert und entwickelt er anspruchsvolle Webapplikationen, E-Commerce- und CMS-Projekte mit einem Fokus auf zugänglichen User Interfaces. Zudem engagiert er sich für die Weiterentwicklung von Open Source Projekten wie Neos CMS.

Zwei Projekten, an denen er maßgeblich beteiligt war, wurde von der Aktion Mensch und der Stiftung Digitale Chancen ein BIENE Award für herausragende Barrierefreiheit verliehen.