Teslas autonome kjøreteknologi pleide å stole på både kameraer og radar, men den droppet sistnevnte og tok i bruk en ny tilnærming kalt Tesla Vision.

Selvkjørende kjøretøy bruker forskjellige sensortyper, for eksempel lysdeteksjon og avstandsmåling (LiDAR) teknologi for måling av lang variable rekkevidder, ultralydsensorer for korte avstander og radarer, som ligner på LiDAR, men er avhengige av radiobølger i stedet for lasere.

Selvkjørende teknologiledere som General Motors, Waymo og Mercedes-Benz er alle avhengige av sensorer, men ikke Tesla. Den Texas-baserte bilprodusenten brukte både radar og kameraer for å gjøre det semi-autonome kjøresystemet Autopilot mulig, men fra og med mai 2021 kunngjorde at den droppet radar for Model 3 og Model Y i Nord-Amerika, og flyttet fokus til en utelukkende kamerabasert tilnærming som den kalte Tesla Vision.

Men hva var årsakene bak Teslas beslutning om å fjerne radar- og ultralydsensorer fra bilene og ikke engang vurdere LiDAR eller kart? La oss utforske dette emnet videre.

instagram viewer

Datasyn: Teslas plan

Bildekreditt: Tesla

Tesla har utviklet sitt eget datasynssystem, kalt Tesla Vision, for å beregne hva Teslas selvkjørende bil ser. Basert på Nvidias CUDA, som er en parallell dataplattform designet for grafikkbehandlingsenheter (GPUer), driver dette ende-til-ende-systemet Teslas autopilot og selvkjørende teknologi. Den er avhengig av datasyn for å gi mening om den visuelle informasjonen som samles inn av kjøretøyets kameraer.

I stedet for å bruke LiDAR, innebærer Teslas tilnærming å trene datamaskinen til å gjenkjenne og tolke den visuelle verdenen, med målet om å oppnå autonome kjøreegenskaper. Produsenten sier at den kan øke hastigheten på treningsprosessen dramatisk takket være bruken av maskinlæring og sitt eget nevrale nettverk, som kjører på en superdatamaskin kalt Dojo.

Kostnadsreduksjon

Teslas skifte fra sensorbaserte tilnærminger til datasyn er først og fremst motivert av kostnader. Tesla har som mål å redusere kjøretøyprisene ved å minimere antall deler som kreves. Å eliminere deler kan imidlertid utgjøre en utfordring når systemet ikke kan fungere uten dem, og Tesla fikk mye kritikk da de kunngjorde at de fjernet radar fra bilene sine.

En forskningsartikkel fra Cornell University antyder at stereokameraer har potensial til å generere et 3D-kart som er nesten like presist som et LiDAR-kart. Dette presenterer et interessant poeng, siden det indikerer at i stedet for å investere $7500 i en LiDAR-enhet, kan man bruke noen få kameraer som er mye billigere, og koster bare $5. Som et resultat, når Tesla hevder at slik teknologi kan bli foreldet i nær fremtid, kan det hende det er noe.

Den andre siden av mynten er at etter å ha fjernet radarstøtten, opplevde Teslas autopilotsystem flere funksjonsnedgraderinger som tok måneder å gjenopprette. I tillegg, mange Tesla-eiere har rapportert problemer med no-radar-systemet, for eksempel hyppige "fantombremsing"-hendelser der kjøretøyet bremser unødvendig for ikke-eksisterende hindringer.

Selv om mange selskaper anser sensorer som LiDAR og radar som essensielle for pålitelig selvkjøring, har Tesla valgt datasyn på grunn av potensialet for raskere utvikling. Mens LiDAR og radar kan oppdage hindringer med høy nøyaktighet i dag, krever kameraer fortsatt ytterligere foredling for å oppnå samme grad av pålitelighet. Likevel mener Tesla at datasyn-tilnærmingen er veien videre.

Lavere kompleksitet

Selv om det å ha et større antall sensorer kan tilby en rekke fordeler, inkludert forbedret datahåndtering gjennom dyktig sensorfusjon, gir det også betydelige ulemper. Det økte antallet sensorer kan føre til at det lages mer komplisert programvare. Kompleksiteten til datarørledninger økes også, og forsyningskjeden og produksjonsprosessene under kjøretøymontering blir vanskeligere.

Videre må sensorer justeres og tilhørende programvare vedlikeholdes. Riktig kalibrering er også viktig for å sikre at fusjonsprosessen fungerer korrekt.

Til tross for de potensielle fordelene med flere sensorer, kan kostnaden og kompleksiteten ved å integrere dem i et system ikke overses. Teslas beslutning om å redusere antall sensorer i kjøretøyene demonstrerer avveiningen mellom fordelene og ulempene ved å inkludere flere sensorer.

Kodeomtale

Kreditt: Tesla

Kodeomtale er et vanlig problem i programvareutvikling, der unødvendig kompleksitet og lengde kan gjøre kode vanskelig å forstå og vedlikeholde. I Teslas tilfelle øker bruken av radar- og ultralydsensorer kodens omfang, noe som fører til behandlingsforsinkelser og ineffektivitet.

For å dempe dette problemet, brukte den datasynsmetoden for å minimere ordlyd, forbedre programvareytelse og pålitelighet, samt gi en bedre brukeropplevelse for kundene.

Elon Musks filosofi

Kreditt: Tesla/YouTube

Elon Musk, grunnleggeren av Tesla, har en unik filosofi når det kommer til design og produksjon av elektriske kjøretøy. "Den beste delen er ingen del"-mentalitet er sentral i tilnærmingen hans, som tar sikte på å redusere kompleksitet, kostnader og vekt der det er mulig. Dette er tydelig i Tesla-kjøretøyer, som er preget av sitt minimalistiske design og brukervennlige grensesnitt.

Et aspekt ved denne filosofien er beslutningen om å fjerne sensorer fra Tesla-kjøretøyer og ikke vurdere bruken av LiDAR-teknologi. Mens noen konkurrenter er avhengige av LiDAR-sensorer for å hjelpe de selvkjørende bilene deres med å se verden rundt dem, har Musk kritisert denne tilnærmingen som en idiots ærend. Han har også sagt at ethvert selskap som er avhengig av denne typen teknologi er dødsdømt. Han argumenterer for at LiDAR er for dyrt og at det er for kostbart å kartlegge verden og holde den oppdatert. I stedet fokuserer Tesla på visjonsbaserte systemer, som han mener er mer effektive og kostnadseffektive.

Ifølge Musk er veier designet for å bli tolket med syn, og Teslas teknologi er optimalisert for å stole på kameraer og andre synsbaserte sensorer for å navigere verden rundt. Dette betyr også at kjøretøy som kun har kamera også vil kunne tilpasse seg nye veiforhold bedre enn systemer som krever omfattende forhåndskartlagte datasett for å fungere.

Men snakker med Electrek, Musk sa at han ikke er uvillig til å bruke radar, men han mener at den nåværende kvaliteten på radaren ikke er opp til bunnen av. "En radar med veldig høy oppløsning ville vært bedre enn [Tesla Vision], men en slik radar eksisterer ikke," sa han. "Jeg mener, Vision med høyoppløselig radar ville være bedre enn ren Vision." Etter hvert som teknologien forbedres og prisen synker, kan vi se radar reintegrert i Teslas biler.

Kommer sensorer til å fases ut?

I en Forbes intervju med Zoox (Amazons selvkjørende datterselskap) CEO Jesse Levinson, temaet for Teslas beslutning om å forlate sensorer i bilene ble diskutert. Levinson erkjente at å legge til flere sensorer kan være komplekst og støyende, men hevdet at fordelene oppveier kostnadene.

Med mer utvikling kan syn alene til slutt være tilstrekkelig, men datamaskiner mangler de samme egenskapene som den menneskelige hjernen. Tesla har fortsatt mye arbeid foran seg hvis de noen gang ønsker å lage kjøretøyer som kjører helt selv uten noen driverinnspill.