<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=iso-8859-1">
<style type="text/css" style="display:none;"> P {margin-top:0;margin-bottom:0;} </style>
</head>
<body dir="ltr">
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
I think I can answer this question very clearly.</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
<br>
</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
Right now, there are 6 levels of autonomy, 0 to 5. 0 being 100% manual driving, 6 being no active or safety driver in car and no driving controls present.</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
<br>
</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
Tesla Auto Pilot and FSD Beta are always lumped together in the news but are 2 completely different technologies.</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
<br>
</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
This article talks about AutoPilot and someone driving thru a red light. AutoPilot is basically speed sensing cruise control with lane keep assistant like other major manufacturers. AutoPilot does have a beta red light stop feature but that's in beta. AutoPilot
 is a level 1 system where the driver can delegate steering and/or accel & braking to the car but must permanently monitor the system 100% of the time. FSD Beta is a level 2 system where the system will perform several driving tasks but again the driver must
 permanently monitor the system 100% of the time. In both these cases the driver is 100% liable. It's disappointing when these drivers and news agencies are quick to place blame on AutoPilot or FSD Beta when in fact it's the driver's fault for not taking over
 and pushing the brake!</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
<br>
</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
As for Blind drivers, they won't be able to drive an autonomous car until we get to level 4 and 5. 4 being the system performs all driving tasks, the driver can transfer complete control to the car but there are driving controls for anyone who wanted to take
 control if they wished. 5 being fully autonomous with zero driving controls in the car. In these 2 scenarios the driver is not liable, but the laws are not designed presently for these 2 driving scenarios yet to figure out who is at blame. It would be a toss-up
 between insurance and/or manufacturer. It would have to be figured out rather there was a defect or a perfect storm that prevents an accident.</div>
<div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
<br>
</div>
<div id="Signature">
<div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
</div>
<div></div>
<div></div>
<div></div>
<div id="divtagdefaultwrapper" dir="ltr" style="font-size: 12pt; font-family: Calibri, Arial, Helvetica, sans-serif; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);">
<div style="font-family:Tahoma; font-size:13px">
<div style="font-family:Tahoma; font-size:13px">
<div style="font-family:Tahoma; font-size:13px"><b>Thanks,<br>
 <br>
 <br>
David Eugene Waybright<br>
</b><b>CompTIA A+, NET+, & Security+ Technician<br>
<b style="text-align: start; background-color: rgb(255, 255, 255);">Crestron Certified Core, Flex, DMC-D-4K & E-4K, SCT-R & C, DCT-R & C; TCT-R & C AVMM Engineer & Audio Technician</b><br>
Extron Certified A/V Associate<br>
<br>
<b>I<span><span>T Operations</span> & Secure Infrastructure Specialist</span></b><br>
<br>
</b>
<div style="font-family:Tahoma; font-size:13px"></div>
</div>
<div style="font-family:Tahoma; font-size:13px"><b><br>
</b></div>
<div style="font-family:Tahoma; font-size:13px"><b>Tesla Referral Code: <a href="https://ts.la/david55244" class="OWAAutoLink">https://ts.la/david55244</a> $500 OFF Solar Roof and $300 OFF Solar Panels!<br>
</b></div>
<div style="font-family:Tahoma; font-size:13px"><b>TeslaFi Referral Code: <a href="https://www.teslafi.com/signup.php?referred=Dwaybright">https://www.teslafi.com/signup.php?referred=Dwaybright</a> receive a one month trial instead of two weeks.</b></div>
</div>
</div>
</div>
</div>
</div>
</div>
<div id="appendonsend"></div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0);">
<br>
</div>
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" color="#000000" style="font-size: 11pt;"><b>From:</b> AutonomousVehicles <autonomousvehicles-bounces@nfbnet.org> on behalf of autonomousvehicles-request@nfbnet.org <autonomousvehicles-request@nfbnet.org><br>
<b>Sent:</b> Friday, March 18, 2022 8:00 AM<br>
<b>To:</b> autonomousvehicles@nfbnet.org <autonomousvehicles@nfbnet.org><br>
<b>Subject:</b> AutonomousVehicles Digest, Vol 23, Issue 1</font>
<div> </div>
</div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt">
<div class="PlainText">Send AutonomousVehicles mailing list submissions to<br>
        autonomousvehicles@nfbnet.org<br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://nfbnet.org/mailman/listinfo/autonomousvehicles_nfbnet.org">
http://nfbnet.org/mailman/listinfo/autonomousvehicles_nfbnet.org</a><br>
or, via email, send a message with subject or body 'help' to<br>
        autonomousvehicles-request@nfbnet.org<br>
<br>
You can reach the person managing the list at<br>
        autonomousvehicles-owner@nfbnet.org<br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of AutonomousVehicles digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. Who's Responsible if a Tesla on Autopilot Kills Someone?<br>
      (Bill Meeker and Cheryl Orgas)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Thu, 17 Mar 2022 10:30:58 -0500<br>
From: "Bill Meeker and Cheryl Orgas" <meekerorgas@ameritech.net><br>
To: "'Bill Meeker and Cheryl Orgas'" <meekerorgas@ameritech.net>,<br>
        "'autonomous Vehicles Discussion'" <autonomousvehicles@nfbnet.org><br>
Subject: [AutonomousVehicles] Who's Responsible if a Tesla on<br>
        Autopilot Kills Someone?<br>
Message-ID: <01ad01d83a14$00f283c0$02d78b40$@ameritech.net><br>
Content-Type: text/plain; charset="us-ascii"<br>
<br>
Colleagues,<br>
<br>
 <br>
<br>
In the below article the defendant-driver of the crashing vehicle was<br>
sighted.  So what if we were to prevail, and the vehicle was non-visually<br>
accessible, and a blind person was the driver in the below article?<br>
Accidents will happen involving both sighted and blind drivers.  This is my<br>
primal fear around the blind-driver experience:  <br>
<br>
 <br>
<br>
Are we, as blind individuals, psychologically and financially, prepared to<br>
bear the potential consequences, including intense media, public opinion,<br>
and legislative blowback about blind drivers and our skills and capabilities<br>
when serious or lethal crashes occur?  Are our attorneys also attitudinally<br>
and experientially prepared?<br>
<br>
 <br>
<br>
To me, these are the central, most important questions of assuming blind<br>
drivership.  And I'm not referring only to Tesla brand vehicles.  Nonvisual<br>
control accessibility and nomenclature knowledge is only the beginning.  I<br>
believe we will ultimately prevail as blind drivers, and that much work lies<br>
ahead in the process.<br>
<br>
 <br>
<br>
 <br>
<br>
William Meeker<br>
<br>
 <br>
<br>
 <br>
<br>
<br>
Who's Responsible if a Tesla on Autopilot Kills Someone?<br>
<br>
<br>
By Emily Rosenthal ,<br>
 <<a href="http://www.futurity.org/">http://www.futurity.org/</a>> Futurity <br>
<br>
| MARCH 14, 2022<br>
<br>
<br>
Courts may decide, says a professor of civil litigation.<br>
<br>
<br>
 <br>
<br>
Vehicular manslaughter charges filed in Los Angeles earlier this year mark<br>
the first felony prosecution in the US of a fatal car crash involving a<br>
driver-assist system.<br>
<br>
In late 2019, Kevin George Aziz Riad's car sped off a California freeway,<br>
ran a red light, and crashed into another car, killing the two people<br>
inside. Riad's car, a Tesla Model S, was on autopilot.<br>
<br>
The  Los Angeles County prosecutors filed two charges against Riad, now 27.<br>
The case is also the first criminal prosecution of a crash involving Tesla's<br>
autopilot function, which is found on over 750,000 cars in the US.<br>
Meanwhile, the crash victims' family is pursuing civil suits against both<br>
Riad and Tesla.<br>
<br>
Tesla is careful to distinguish between its autopilot function and a<br>
<<a href="https://www.futurity.org/fruit-bat-surveillance-navigation-1676722-2/">https://www.futurity.org/fruit-bat-surveillance-navigation-1676722-2/</a>><br>
driverless car, comparing its driver-assist system to the technology<br>
airplane pilots use when conditions are clear.<br>
<br>
"Tesla autopilot relieves drivers of the most tedious and potentially<br>
dangerous aspects of road travel," states Tesla online. "We're building<br>
autopilot to give you more confidence behind the wheel, increase your safety<br>
on the road, and make highway driving more enjoyable.. The driver is still<br>
responsible for, and ultimately in control of, the car."<br>
<br>
The electric vehicle manufacturer clearly places the onus of safety on the<br>
driver, but research suggests that humans are susceptible to automation<br>
bias, an over-reliance on automated aids and decision support systems.<br>
<br>
Now it's up to the courts to decide who is culpable when the use of those<br>
systems results in fatal errors. Currently, Riad is out on bail and pleading<br>
not guilty to manslaughter charges.<br>
<br>
Here,<br>
<<a href=""></a>https://its.law.nyu.edu/facultyprofiles/index.cfm?fuseaction=profile.overvi<br>
ew&personid=19939> Mark Geistfeld, professor of civil litigation at New York<br>
University, and the author of the new paper in the<br>
<<a href=""></a>https://www.californialawreview.org/wp-content/uploads/2017/12/2-Geistfeld-<br>
34-updated.pdf> California Law Review, talks about the significance of the<br>
criminal charges and what they might mean for the future of consumer trust<br>
in new tech:<br>
<br>
Q: Can you shed some light on the legal precedent the criminal prosecution<br>
of Kevin George Aziz Riad sets? What message does it send to consumers and<br>
manufacturers of similar technology?<br>
<br>
A: First, the criminal charges are surprising, based on what we know-the<br>
criminal charging documents, as usual, provide no details. Typically, if you<br>
weren't paying attention, ran a red light and hit somebody-as tragic as it<br>
is-you wouldn't get a criminal charge out of that behavior in the vast<br>
majority of cases. You really don't see many criminal prosecutions for motor<br>
vehicle crashes outside of drunk-driving cases.<br>
<br>
If the driver was found guilty of manslaughter, this case could really be<br>
the most disruptive, the most novel, the most groundbreaking precedent. It's<br>
a strong departure from the past, if in fact the criminal prosecution is<br>
simply based on his relying on autopilot when he should have taken over. If<br>
that's what is going on, you might see a lot more criminal prosecutions<br>
moving forward than we do today.<br>
<br>
Tort liability, or civil charges, by contrast, is very commonplace. That's<br>
when the defendant would pay damages for injuries caused. The majority of<br>
tort suits in state courts across the country are from motor vehicle crashes<br>
in which one driver is alleged to have negligently caused the crash, which<br>
clearly occurred in this case because the driver went through a red light.<br>
<br>
If this case somehow signals that criminal liability is more possible simply<br>
by relying on the technology, then that could become a profound shift in the<br>
nature of legal liabilities moving forward.<br>
<br>
 <br>
<br>
Q: What obligation does an advanced tech company such as Tesla have in<br>
informing drivers, whether directly or through advertising and marketing<br>
messages, that they are liable for all damages, regardless of whether the<br>
car is on autopilot?<br>
<br>
A: They clearly have an obligation to warn the person sitting in the<br>
driver's seat to take over the vehicle-that it's not capable of doing<br>
everything on its own. You see that warning in Tesla vehicles, and almost<br>
all vehicles have that type of warning. For example, when you use a<br>
<<a href="https://www.futurity.org/gps-route-directions-road-safety-2704542/">https://www.futurity.org/gps-route-directions-road-safety-2704542/</a>> map<br>
function while driving, many cars will offer a warning: "This will distract<br>
you, pay attention to the road."<br>
<br>
Manufacturers also have an obligation to keep in mind the sense of<br>
complacency that comes with driving technology while designing the car.<br>
Tesla or any other manufacturers can't just say, "Hey, pay attention, that's<br>
your responsibility."<br>
<br>
They actually have to try to put something into the design to make sure that<br>
drivers are staying attentive. So different manufacturers are taking<br>
different approaches to this problem-some cars will pull over if your hands<br>
are not on the steering wheel, and other cars have cameras that will start<br>
beeping if you're not paying attention.<br>
<br>
Under current law, if the driver gets in a crash and there was an adequate<br>
warning, and the design itself is adequate enough to keep the driver<br>
attentive, the car manufacturer is not going to be liable. But there's one<br>
possible exception here: there is a formulation of the liability rule that<br>
is pretty widely adopted across the country, including in California, where<br>
this case will take place. Under this rule, the inquiry is based on what<br>
consumers expect the manufacturer to do. And consumer expectations can be<br>
strongly influenced by marketing and advertising and so on.<br>
<br>
For example, if Tesla were to advertise that autopilot never gets in a<br>
crash, and then a consumer does get in a crash, Tesla would be liable for<br>
having frustrated those expectations.<br>
<br>
Q: In this case, the driver was charged based on the idea that he was<br>
over-reliant on his car's autopilot. What does this say about our basic<br>
assumptions about whether humans or tech are more trustworthy?<br>
<br>
A: There's an important distinction between overreliance and complacency. I<br>
think complacency is just a natural human reaction to the lack of<br>
stimulus-in this case, the lack of responsibility for executing all of the<br>
driving tasks. You can get bored and lulled into a sense of complacency, but<br>
I don't think that behavior is being overly reliant on technology.<br>
<br>
The idea of<br>
<<a href="https://www.futurity.org/self-driving-cars-health-impact-2454962/">https://www.futurity.org/self-driving-cars-health-impact-2454962/</a>><br>
overreliance comes into play with the potential nature of the wrongdoing<br>
here. Maybe the driver in this case will defend himself by saying he<br>
reasonably thought the car had everything under control, was fully capable<br>
of solving this problem, and so he didn't have to worry about reacting if<br>
things turned out otherwise.<br>
<br>
Now at that point, he would be placing his faith in the technology instead<br>
of in his own ability to stop the vehicle and get out of the problem in a<br>
safe way. If there is blind faith in the technology rather than in taking<br>
over when you could have done so, and if you are liable as a consequence,<br>
that becomes a very profound, interesting kind of message that the law is<br>
sending.<br>
<br>
Q: Do you think this shift in liability will hurt business for companies<br>
like Tesla?<br>
<br>
A: The big issue that autonomous vehicle manufacturers like Tesla face right<br>
now is gaining consumer<br>
<<a href="https://www.futurity.org/trust-self-driving-car-timing-anxiety-2092272/">https://www.futurity.org/trust-self-driving-car-timing-anxiety-2092272/</a>><br>
trust when they're introducing a new technology to the market. The need for<br>
trust in the early stages of these products is massively important. And all<br>
the manufacturers are worried about that problem because they know that if<br>
there are some horrific crashes, consumers are going to lose trust in the<br>
product.<br>
<br>
Ultimately the technology will end up taking over; it's just a question of<br>
whether it's sooner rather than later. And time is money in this context-so<br>
if you just get slower adoption because consumers are very concerned about<br>
the safety performance of the technology, that's going to hurt the industry.<br>
They obviously want to avoid that outcome. This technology is still going to<br>
take over-it's just a question of how long it takes for that to happen.<br>
There are just so many advantages to using autonomous vehicles, including in<br>
the safety dimension.<br>
<br>
Q: Of its autopilot and full self-driving capability, Tesla says: "While<br>
these features are designed to become more capable over time, the currently<br>
enabled features do not make the vehicle autonomous." What liability issues<br>
do you foresee if/when these vehicles do become autonomous?<br>
<br>
A: It's a complicated question, and that is the issue that everybody is<br>
interested in. Once these vehicles become fully autonomous, then there's<br>
just the car. The human in the car isn't even an element in the situation.<br>
<br>
So the big question is: once those vehicles crash,<br>
<<a href="https://www.futurity.org/self-driving-car-regulation-1712832/">https://www.futurity.org/self-driving-car-regulation-1712832/</a>> who pays?<br>
You'd think the manufacturer would be liable-and that's going to increase<br>
the cost of these vehicles and make them a lot harder to distribute. There<br>
are a lot of people who think that in the event of a crash, the manufacturer<br>
should be liable all of the time. I am strongly skeptical about that<br>
conclusion, because I think it's a much closer call than most people make it<br>
out to be.<br>
<br>
Ultimately, these issues depend on how federal regulators like the National<br>
Highway Traffic Safety Administration regulate the vehicle. They will have<br>
to set a safety performance standard which the manufacturer has to satisfy<br>
before it can commercially distribute the product as fully autonomous.<br>
<br>
The question is where the regulators set that standard at, and I don't think<br>
it's easy to get right. At that point there will be a good debate to be had:<br>
Did they get it right or not? We're still a few years out. I think we'll all<br>
be having these conversations in 2025.<br>
<br>
This article was originally published in  <<a href="https://www.futurity.org/">https://www.futurity.org/</a>><br>
Futurity. It has been republished under the<br>
<<a href="https://creativecommons.org/licenses/by/4.0/">https://creativecommons.org/licenses/by/4.0/</a>> Attribution 4.0 International<br>
license.<br>
<br>
Emily Rosenthal is a contributing writer at Futurity. <br>
<br>
Data Case Studies<br>
<br>
Powered By <a href="https://cdn.route-fifty.com/b/base/svg/logo_the_atlas_white.svg">
https://cdn.route-fifty.com/b/base/svg/logo_the_atlas_white.svg</a><br>
<br>
 <br>
<<a href=""></a>https://the-atlas.com/projects?utm_campaign=articles&utm_content=whos-respo<br>
nsible-if-tesla-autopilot-kills-someone-363120&utm_medium=feature-box&utm_so<br>
urce=route-fifty&utm_term=data&aid=1119573> Browse The Atlas full case study<br>
database or read more case studies about<br>
<<a href=""></a>https://the-atlas.com/projects?utm_campaign=articles&term=Data&utm_medium=f<br>
eature-box&utm_term=data&utm_content=whos-responsible-if-tesla-autopilot-kil<br>
ls-someone-363120&utm_source=route-fifty&aid=1119573> data.<br>
<br>
 <br>
<br>
 <br>
<br>
 <br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://nfbnet.org/pipermail/autonomousvehicles_nfbnet.org/attachments/20220317/c3f57168/attachment-0001.html">http://nfbnet.org/pipermail/autonomousvehicles_nfbnet.org/attachments/20220317/c3f57168/attachment-0001.html</a>><br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: image001.png<br>
Type: image/png<br>
Size: 174 bytes<br>
Desc: not available<br>
URL: <<a href="http://nfbnet.org/pipermail/autonomousvehicles_nfbnet.org/attachments/20220317/c3f57168/attachment-0001.png">http://nfbnet.org/pipermail/autonomousvehicles_nfbnet.org/attachments/20220317/c3f57168/attachment-0001.png</a>><br>
<br>
------------------------------<br>
<br>
Subject: Digest Footer<br>
<br>
_______________________________________________<br>
AutonomousVehicles mailing list<br>
AutonomousVehicles@nfbnet.org<br>
<a href="http://nfbnet.org/mailman/listinfo/autonomousvehicles_nfbnet.org">http://nfbnet.org/mailman/listinfo/autonomousvehicles_nfbnet.org</a><br>
<br>
<br>
------------------------------<br>
<br>
End of AutonomousVehicles Digest, Vol 23, Issue 1<br>
*************************************************<br>
</div>
</span></font></div>
</body>
</html>