<div dir="ltr"><div class="gmail_quote"><div dir="auto"><blockquote type="cite"><div dir="ltr"><div dir="auto">You may already know about this stuff, but if not...<br><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><div style="font-family:arial;font-size:14px"></div><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">
Coming soon to a phone near you: A new wave of accessibility tools </p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Think door
detection, sound recognition and lots of captions</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">By Chris Velazco</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">May 19, 2022 at 7:00
a.m. EDT</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">    Door detection</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">    Automatic image
descriptions</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">    Live captions
for audio</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">    Apple Watch
mirroring</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">    Custom sound
recognition</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Together, Apple and
Google are responsible for the software that powers nearly all of the
world’s smartphones. And within the last week, both of them have
outlined plans to make that software more useful for users with
disabilities.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Google was up first,
showcasing this month accessibility updates that will be folded into
some of the support apps the company maintains. Apple followed suit
with a bevy of accessibility feature announcements, too, which are
widely expected to appear in the new iOS 16 software update due later
this year.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Some of the features
these companies previewed aim to make the world easier to navigate
for the blind and vision impaired. Others were designed to make
music, movies and conversations easier to follow for people who can’t
hear well — or at all.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Here’s our guide
to some of the most interesting changes these companies are planning,
and what they may be able to do for you or someone in your life.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Door detection</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Available on: iOS</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">When is it coming?
“Later this year,” Apple says.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">iPhones come with a
magnifier app that does pretty much what you’d expect: it enlarges
our view of whatever’s in front of the camera. But in an upcoming
software update, the app will gain a “door detection” tool to
help blind iPhone users more easily get where they’re going.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Here’s how it will
work: once someone opens the magnifier app, they jump into a new
“Detection Mode” and aim the phone at their surroundings. If
there’s a door nearby, the app will audibly tell its user how far
away it is, and whether it’s open or closed. If the app has a clear
view of that door, it’ll also begin to describe aloud specific
details — think numbers and text on and around the door and whether
you’re meant to turn a knob or push a bar to open it.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Door detection is
perhaps the most clever accessibility feature Apple has talked about
recently, but it comes with a very specific catch: it only works on a
specific list of gadgets. For now, supported devices include the
iPhone 12 Pro, 12 Pro Max, 13 Pro and 13 Pro Max, along with iPad
Pros from 2020 onward.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">That’s because the
feature relies in part on a technology called light detection and
ranging, or lidar for short. It’s a way for devices (and, more
commonly, cars) to very quickly scan the space around them, and Apple
only builds the parts that make this spatial awareness possible into
its more expensive products.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Automatic image
descriptions</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Available on:
Android</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">When is it coming?
Available as a beta feature in Google’s Lookout app on June 2.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Three years ago,
Google launched an Android app called Lookout as a sort of catchall
toolbox for its blind and low-vision users.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">If you open the app
and point the camera at a snippet of text, for instance, the app will
begin to read those words out loud. “Explore mode,” meanwhile,
tries its best to describe what’s in front of the camera — it
likes to describe the water bottle that perpetually lives on my desk
as “tableware with text ‘The Washington Post.’ ”</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Google’s latest
addition to this toolbox is a feature that can describe what’s
going on in certain kinds of photos. (Certain iPhone and iPad models
have had a similar tool, called VoiceOver Recognition, for a few
years.)</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">“Imagine reading a
news story with a photo or receiving an image on social media that
people are reacting to, but not knowing what’s in that image,”
said Scott Adams, product manager for Lookout, in a video meant for
app developers. “That’s where the potential of [machine learning]
comes in.”</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">For now at least,
you probably shouldn’t expect Lookout to correctly explain gritty,
complicated scenes. Adams said that, beyond offering basic captions
like “dogs playing in the grass,” the tool will be able interpret
text — say, on a sign — and identify people in images by their
“upper body clothing and whether they’re an adult or youth.”
Even better, all of that image recognition will happen solely on your
phone or tablet — no more sending info to far-flung servers.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"> Live captions for
audio</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Available on: iOS,
iPadOS, macOS, Android</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">When is it coming?
Available as a beta feature for Apple products later this year and
for some Android devices now.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Certain Android
devices have had the ability to automatically transcribe audio — be
it from a podcast, movie or anything else playing on your phone —
for a few years. (If your device uses Android 10 or later, you may
already have it installed.)</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Now, Apple is
joining the club.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">The company
confirmed this week that a similar feature would soon arrive on
iPhones, iPads and Mac computers as a beta feature later this year.
Like on Android, Apple’s Live Captions will appear on-screen for
just about any audio that a phone can play, but there’s at least
one helpful difference here: group video calls in services like
FaceTime will attribute those transcriptions to specific speakers, so
users can keep up with the flow of conversation more easily.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Apple Watch
mirroring</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Available on: iOS</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">When is it coming?
“Later this year,” Apple says.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">You might think that
a wearable like the Apple Watch would have to be poked and prodded to
operate it, but that's actually not true — you can actually
interact with one by clenching your hands and making pinching motions
with your fingers.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">But even those
gestures aren’t manageable by some of Apple’s users, so the
company built a feature that mirrors the action on the Watch’s tiny
screen onto a connected iPhone.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">That means people
with motor disabilities and limited mobility can control those Apple
Watches using the iPhone’s built-in tools. Voice Control, which
first appeared in 2019, lets people navigate through on-screen menus,
webpages and more by calling out very specific commands. Switch
Control, meanwhile, lets its users interact with an iPhone using
accessories like joysticks and sip-and-puff switches. Since this new
feature replicates the Apple Watch’s screen on the iPhone, all of
those controls can be used to interact with a Watch without ever
having to touch it.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%"><br></p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Custom sound
recognition</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Available on: iOS
and Android</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">When is it coming?
Later this year for Apple products. Google wouldn’t confirm a
launch date for the new feature.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Deaf users and the
hard of hearing have been able to use their iPhones and Android
devices to receive visual alerts when they detect certain sounds —
think breaking glass, crying babies or fire alarms. In time, though,
both companies say people will be able to “teach” their phones to
listen for more specific kinds of audio cues.</p><p style="margin-bottom:0in;line-height:100%;background:transparent none repeat scroll 0% 0%">Think about it:
there’s a very good chance that your microwave’s telltale ding
doesn’t sound anything like your dryer’s. (Mine emits a sort of
sickly, raspy buzz.) Rather than just lumping both of those into a
single broad category of “appliance noises,” you’ll be able to
train your phone to tell them apart and send you the right
notification when your food is warm again.<br></p><div style="font-family:arial;font-size:14px"><div></div>
</div>
</div></div>
</div></blockquote></div>

 <div width="1" style="color:white;clear:both"><br></div><div width="1" style="color:white;clear:both">_._,_._,_</div> 

<p></p><p></p></div></div>