<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=utf-8"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><!--[if !mso]><style>v\:* {behavior:url(#default#VML);}
o\:* {behavior:url(#default#VML);}
w\:* {behavior:url(#default#VML);}
.shape {behavior:url(#default#VML);}
</style><![endif]--><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:-apple-system-font;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;}
h3
        {mso-style-priority:9;
        mso-style-link:"Heading 3 Char";
        mso-margin-top-alt:auto;
        margin-right:0in;
        mso-margin-bottom-alt:auto;
        margin-left:0in;
        font-size:13.5pt;
        font-family:"Calibri",sans-serif;
        font-weight:bold;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#0563C1;
        text-decoration:underline;}
span.Heading3Char
        {mso-style-name:"Heading 3 Char";
        mso-style-priority:9;
        mso-style-link:"Heading 3";
        font-family:"Calibri Light",sans-serif;
        color:#1F3763;}
span.EmailStyle23
        {mso-style-type:personal-reply;
        font-family:"Arial",sans-serif;
        color:windowtext;
        font-weight:normal;
        font-style:normal;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;
        mso-ligatures:none;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EN-US link="#0563C1" vlink=purple style='word-wrap:break-word'><div class=WordSection1><p class=MsoNormal><span style='font-size:12.0pt;font-family:"Arial",sans-serif'>Fyi<o:p></o:p></span></p><p class=MsoNormal><span style='font-size:12.0pt;font-family:"Arial",sans-serif'><o:p> </o:p></span></p><div><div style='border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in'><p class=MsoNormal>apps for visually impaired users provide virtual labels for controls and a way to explore images | University of Michigan News<o:p></o:p></p></div></div><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal style='margin-bottom:12.0pt'><o:p> </o:p></p><div><p class=MsoNormal style='margin-bottom:12.0pt'><br>Begin forwarded message:<o:p></o:p></p></div><blockquote style='margin-top:5.0pt;margin-bottom:5.0pt'><div><p class=MsoNormal style='margin-bottom:12.0pt'><b>From:</b> Denise Baumann <dbaumann@columbus.rr.com><br><b>Date:</b> June 17, 2023 at 11:43:30 AM EDT<br><b>To:</b> members-acbo-columbus-chapter@googlegroups.com<br><b>Subject:</b> <b>[Members, Columbus Chapter American Council of the Blind of Ohio] New apps for visually impaired users provide virtual labels for controls and a way to explore images | University of Michigan News</b><o:p></o:p></p></div></blockquote><blockquote style='margin-top:5.0pt;margin-bottom:5.0pt'><div><p class=MsoNormal> <o:p></o:p></p><h3 style='line-height:18.0pt'><span style='font-size:16.5pt;font-family:-apple-system-font'>With VizLens, users can touch buttons while their phones read out the labels, and Image Explorer provides a workaround for bad or missing alt text</span><o:p></o:p></h3><p class=MsoNormal style='line-height:18.0pt'><a href="https://news.umich.edu/wp-content/uploads/mc-image-cache/2023/06/new-apps-for-visually-impaired-users-provide-virtual-labels-for-controls-and-a-way-to-explore-images-Vizlens.jpg"><span style='font-size:13.0pt;font-family:-apple-system-font;color:#416ED2;border:solid windowtext 1.0pt;padding:0in;text-decoration:none'><img border=0 width=1024 height=708 style='width:10.6666in;height:7.375in' id="Picture_x0020_1" src="cid:image003.jpg@01D9A128.C7B34A40" alt="Image removed by sender. A panel of three screenshots. The first shows the camera's view of a microwave control panel with a finger hovering over the 5. A text overlay reading "5" indicates the audio readout. The second shows a virtual control panel on the smartphone screen, with buttons that users can press to hear the labels. All buttons were correctly read. The third panel shows the interfaces menu, listing Kitchen Microwave as a favorite, with Printer, Fridge, TV remote, Dryer, Washing Machine, Thermostat and Kitchen Microwave as other saved interfaces. Image credit: Human-AI Lab"></span></a><span style='font-size:13.0pt;font-family:-apple-system-font'>VizLens uses a smartphone’s camera to view control interfaces, such as the one on this microwave, and read each label. When a user touches the button in the camera’s view, the smartphone can read out the label. Image credit: Human-AI Lab </span><o:p></o:p></p><p style='line-height:18.0pt'><span style='font-size:13.0pt;font-family:-apple-system-font'>Visually impaired iPhone users have two new free tools at their disposal, developed by a team now based at the University of Michigan. One can read the labels on control panels while the other identifies features in an image so that users can explore it through touch and audio feedback.</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>VizLens is essentially a screen reader that can function in the real world. It reads labels at the direction of the user, who points with their fingers at buttons of interest on control panels. With it, users can employ their smartphone cameras to understand and operate a variety of interfaces in their everyday environments, including home appliances and public kiosks.</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>“A blind user can take a picture of an interface, and we use optical character recognition to automatically detect the text labels. A user can first familiarize themself with the layout on their smartphone touchscreen. Then, they can move their finger on the physical appliance control panel, and the app will speak out the button under the user’s finger,” said <a href="https://guoanhong.com/"><span style='color:#416ED2'>Anhong Guo</span></a>, U-M assistant professor of computer science and engineering, who led the development of both apps.</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>The second app, ImageExplorer, helps visually impaired individuals better understand the content of images. For this purpose, Guo and his team have integrated a suite of object detection and segmentation models—including Meta’s Detectron2 visual recognition library and Google OCR (optical character recognition) and image analysis models—to enable visually impaired users explore what is in the image and how the different objects relate to one another.</span><o:p></o:p></p><p class=MsoNormal style='line-height:18.0pt'><a href="https://news.umich.edu/wp-content/uploads/mc-image-cache/2023/06/new-apps-for-visually-impaired-users-provide-virtual-labels-for-controls-and-a-way-to-explore-Image-Explorer.jpg"><span style='font-size:13.0pt;font-family:-apple-system-font;color:#416ED2;border:solid windowtext 1.0pt;padding:0in;text-decoration:none'><img border=0 width=1024 height=471 style='width:10.6666in;height:4.9062in' id="Picture_x0020_2" src="cid:image004.jpg@01D9A128.C7B34A40" alt="Image removed by sender. The screenshot shows two women in business dress in the foreground of the photo, and two park benches in the background. One bench has an older woman sitting on it, facing the camera, and the other has two older men who are looking away. ImageExplorer identifies all these in red outline. The wall of greenery, fence, sidewalk and street are not outlined. Image credit: Human-AI Lab"></span></a><span style='font-size:13.0pt;font-family:-apple-system-font'>ImageExplorer identifies the people, benches and bags in this photo. It correctly autocaptions the image as “a couple of women walk down a sidewalk.” The app accurately recognizes some clothing types, like skirts, while most tops are simplified to “shirts.” Image credit: Human-AI Lab </span><o:p></o:p></p><p style='line-height:18.0pt'><span style='font-size:13.0pt;font-family:-apple-system-font'>Guo’s aim is to offer visually impaired people agency when alt text is missing or incomplete, as AI-generated captions are often not sufficient.</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>“There are a number of automated caption programs out there that blind people use to understand images, but they often have errors, and it’s impossible for users to debug them because they can’t see the images,” Guo said. “Our goal, then, was to stitch together a bunch of AI tools to give users the ability to explore images in more detail with a greater degree of agency.”</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>Upon uploading an image, ImageExplorer provides a thorough analysis of the image’s content. It gives a general overview of the image, including the objects detected, relevant tags and a caption. The app also features a touch-based interface that allows users to explore the spatial layout and content of the image by pointing to different areas. ​​</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>ImageExplorer is unique in the level of detail it provides. It gives users a comprehensive description of the objects in an image, down to the level of what type of clothing a person is wearing and what activities they are engaged in, as well as the position of these objects in the image.</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>“ImageExplorer helps users understand the content of an image even though they cannot see it,” Guo said.</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>Hundreds of visually impaired, user-testing participants have experimented with VizLens and ImageExplorer, offering feedback to Guo’s team, which is continuing to develop these tools. First discussed in 2022, ImageExplorer is a much newer concept than VizLens, which made its academic debut in 2016. Some of its details need further refinement—for instance, most tops are simplified to “shirts,” and different tools within ImageExplorer sometimes give conflicting information.</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>“The accuracy relies on the models we use, and as they improve, ImageExplorer will improve,” Guo said. “In spite of these errors, the results we presented in 2022 show that ImageExplorer enables users to make more informed judgements of the accuracy of the AI-generated captions.”</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>Guo is also looking forward to the feedback that will come with public deployment.</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>“We will be able to observe how people use these tools and adapt them to their lives,” he said.</span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>VizLens: <a href="https://apps.apple.com/us/app/vizlens/id1577855541"><span style='color:#416ED2'>Apple App Store</span></a>, <a href="https://vizlens.org/"><span style='color:#416ED2'>Website</span></a>, <a href="https://dl.acm.org/doi/10.1145/2984511.2984518"><span style='color:#416ED2'>2016 study</span></a></span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>ImageExplorer: <a href="https://apps.apple.com/us/app/image-explorer/id6443923968"><span style='color:#416ED2'>Apple App Store</span></a>, <a href="https://imageexplorer.org/"><span style='color:#416ED2'>Website</span></a>, <a href="https://dl.acm.org/doi/fullHtml/10.1145/3491102.3501966"><span style='color:#416ED2'>2022 study</span></a></span><o:p></o:p></p><p style='line-height:18.0pt;max-width:100%'><span style='font-size:13.0pt;font-family:-apple-system-font'>The research is funded by the University of Michigan with additional support from Google.</span><o:p></o:p></p><p class=MsoNormal style='margin-bottom:12.0pt'> <o:p></o:p></p><p class=MsoNormal>     <o:p></o:p></p><p class=MsoNormal>-- <br>To post to this email list, send email to members-acbo-columbus-chapter@googlegroups.com<br>--- <br>You received this message because you are subscribed to the Google Groups "members-acbo-columbus-chapter" group.<br>To unsubscribe from this group and stop receiving emails from it, send an email to <a href="mailto:members-acbo-columbus-chapter+unsubscribe@googlegroups.com">members-acbo-columbus-chapter+unsubscribe@googlegroups.com</a>.<br>To view this discussion on the web visit <a href="https://groups.google.com/d/msgid/members-acbo-columbus-chapter/000a01d9a132%2474b5d290%245e2177b0%24%40columbus.rr.com?utm_medium=email&utm_source=footer">https://groups.google.com/d/msgid/members-acbo-columbus-chapter/000a01d9a132%2474b5d290%245e2177b0%24%40columbus.rr.com</a>.<o:p></o:p></p></div></blockquote><div><p class=MsoNormal><span style='color:white'>_._,_._,_<o:p></o:p></span></p></div><div class=MsoNormal align=center style='text-align:center'><hr size=2 width="100%" align=center></div><p class=MsoNormal>Links:<o:p></o:p></p><p>You receive all messages sent to this group. <o:p></o:p></p><p><a href="https://acblists.org/g/AAVL-L/message/2849" target="_blank">View/Reply Online (#2849)</a> | <a href="mailto:melisstable@gmail.com?subject=Private:%20Re:%20%5BAAVL-L%5D%20%5BMembers%2C%20Columbus%20Chapter%20American%20Council%20of%20the%20Blind%20of%20Ohio%5D%20New%20apps%20for%20visually%20impaired%20users%20provide%20virtual%20labels%20for%20controls%20and%20a%20way%20to%20explore%20images%20%7C%20University%20of%20Michigan%20News" target="_blank">Reply To Sender</a> | <a href="mailto:AAVL-L@acblists.org?subject=Re:%20%5BAAVL-L%5D%20%5BMembers%2C%20Columbus%20Chapter%20American%20Council%20of%20the%20Blind%20of%20Ohio%5D%20New%20apps%20for%20visually%20impaired%20users%20provide%20virtual%20labels%20for%20controls%20and%20a%20way%20to%20explore%20images%20%7C%20University%20of%20Michigan%20News" target="_blank">Reply To Group</a> | <a href="https://acblists.org/mt/99591257/187810" target="_blank">Mute This Topic</a> | <a href="https://acblists.org/g/AAVL-L/post">New Topic</a> <br><a href="https://acblists.org/g/AAVL-L/editsub/187810">Your Subscription</a> | <a href="mailto:AAVL-L+owner@acblists.org">Contact Group Owner</a> | <a href="https://acblists.org/g/AAVL-L/unsub">Unsubscribe</a> [plipovsky@cfl.rr.com]<o:p></o:p></p><div><p class=MsoNormal><span style='color:white'>_._,_._,_<o:p></o:p></span></p></div></div></body></html>