Fatal Tesla Autopilot Crash er en påmindelse om, at autonome biler nogle gange vil skrue sammen

Mere end 30.000 mennesker er dræbt af biler i USA hvert år, og folk, der arbejder med autonom kørselsteknologi hos virksomheder som Google og Tesla, siger, at enhver teknologi, der kan reducere dette tal markant, fortjener seriøs opmærksomhed.



Men selvom automatiserede biler kan være meget mere sikre end konventionelle biler, vil de stadig være involveret i ulykker. Ingen software kan være perfekt. Og efterhånden som selvkørende teknologi modnes, bliver regulatorer og samfundet som helhed nødt til at beslutte, hvor sikre disse køretøjer skal være. Det er faktisk blevet hævdet, at autonome køretøjer i nogle situationer skal programmeres til aktivt at vælge, hvilke personer der skal skades.

Disse vanskelige problemer blev mere konkrete i dag med nyheden om, at Tesla er ved at blive undersøgt af U.S. National Highway Traffic Safety Administration efter en fatal crash involverer virksomhedens autopilot automatiserede kørefunktion , som kan gøre ting som at skifte vognbane og justere hastigheden under motorvejskørsel for nogle af virksomhedens biler.



Tesla Motors' Model S sedan.



I Florida i maj, en Tesla Model S sedan kørte ind i en traktor-trailer, der krydsede vejen foran mens autopiloten havde kontrol over bilen. Hverken Teslas autopilotfunktion eller føreren aktiverede bilens bremser. I et blogindlæg torsdag sagde Tesla det Autopiloten registrerede ikke den hvide side af traileren mod den lyse himmel .

Teslas autopilot kan styre bilen, registrere forhindringer og vognbanemarkeringer og bruge bremserne, helt alene. Men den er langt mindre dygtig end en menneskelig chauffør og mangler de sofistikerede og høje detaljerede sensorer, der ses i mere modne selvkørende bilprojekter som Googles.

Tesla er blevet kritiseret for at fremme bekvemmeligheden ved Autopilot - et navn, der antyder, at der ikke er behov for menneskelig indgriben - samtidig med at den fastholder, at chauffører konstant skal være klar til at tage over fra softwaren. Lederen af ​​Googles projekt for selvkørende biler, Chris Urmson, har sagt, at hans firmas eksperimenter har bevist, at mennesker ikke kan stole på, at de gør det, fordi de hurtigt kommer til at stole på, at bilen ved, hvad den gør. Alligevel har Teslas CEO Elon Musk sagt, at hans virksomheds data tyder på Autopilot er dobbelt så sikker som menneskelige førere .



Vi ved endnu ikke præcis, hvad der skete i Mays dødsulykke. Teslas erklæring understreger, at chaufføren vidste, at han altid skulle holde øje med, hvad autopiloten lavede. Men hvis NHTSA finder designen af ​​autopiloten skylden, kan Tesla blive tvunget til at udstede en tilbagekaldelse, eller måske føle, at den er nødt til at dumme funktionen ned. Det kan skade både Tesla og entusiasme for teknologien generelt.

Uanset resultatet af NHTSA's undersøgelse, er hændelsen en mulighed for at overveje de standarder, som vi holder selvkørende software til, og de virksomheder, der designer det. Hvis det skal bruges i vid udstrækning, bliver vi nødt til at acceptere, at det er involveret i ulykker - nogle dødelige og nogle forårsaget af dets egne fejl.

Menneskelige bilister sætter en lav barre: omkring 90 procent af ulykkerne skyldes menneskelige fejl, og dumme fejl som at køre, mens de sms'er eller er beruset, dræber alt for mange mennesker. Det er nemt at se, hvordan maskiner kunne forbedre det. Men det bliver meget sværere at beslutte, hvor meget bedre de skal være.



skjule