Maskinsyn er grunnlaget for selvkjørende biler, og er avgjørende for en fullt autonom fremtid.

Viktige takeaways

  • Selvkjørende biler er avhengige av maskinsynsteknologi for å se og forstå omgivelsene, slik at de kan oppdage gjenstander, identifisere skilt og navigere veien.
  • Maskinsyn i selvkjørende biler består av et kamerasystem, edge computing og AI-algoritmer, som jobber sammen for å samle visuell informasjon, behandle den i sanntid og identifisere mønstre og gjenstander.
  • Maskinsyn er avgjørende for å oppnå full autonomi i selvkjørende biler, da det muliggjør objektklassifisering, kjørefelt- og signaldeteksjon, skiltidentifikasjon og trafikkgjenkjenning. Fremtiden til autonome kjøretøy ligger i fremskritt innen AI, edge computing og kamerateknologi.

Selvkjørende biler har alltid vakt oppmerksomhet. Selv om vi kanskje ikke har helt autonome biler ennå, har vi biler med avanserte førerassistansesystemer (ADAS) som er i stand til automatisk styring, filskifte, parkering og trafikkbevisst cruisekontroll.

instagram viewer

En selvkjørende bil bruker en rekke sensorer for sin ADAS, med maskinsyn som den primære måten å oppdage, identifisere og beregne avstanden til objekter og de generelle omgivelsene. Uten maskinsyn er selvkjørende biler med cruisekontroll og autopilot svært lite sannsynlig.

Hva er Machine Vision?

Maskinsyn er en teknologi som lar maskiner se og gjenkjenne objekter i omgivelsene. Det er en undergruppe av datasyn som fokuserer på industrielle anvendelser av visjonsorientert objektdeteksjon i autonome maskiner som roboter og kjøretøy.

Maskinsyn bruker i dag AI dyplæringsalgoritmer som konvolusjonelle nevrale nettverk (CNN) å lage robuste og godt generaliserte modeller som nøyaktig kan identifisere objekter i ulike forhold. Det gjør det mulig å implementere maskinsyn på ulike oppgaver som krever høyere pålitelighet innen produksjon, landbruk, robotikk og bilindustrien.

Hvordan fungerer maskinsyn i selvkjørende biler?

Maskinsyn i selvkjørende biler kan typisk deles inn i tre deler: kamerasystemet, prosessering (edge ​​computing) og AI. Denne teknologistabelen lar et autonomt kjøretøy se, tenke og identifisere tegn og hindringer mens de kjører. La oss diskutere hver del i dybden for å forstå hvordan disse teknologiene henger sammen for å danne en selvkjørende bils maskinsyn.

Kamerasystem

Maskinsyn er avhengig av kamerasystemer for å samle visuell informasjon om miljøet. Selvkjørende biler bruker flere kameraer installert rundt bilen for å samle så mye visuell informasjon som mulig.

To hovedsensorer brukes i maskinsynskameraer: komplementære metalloksidhalvledere (CMOS) og ladekoblede enheter (CCD). For selvkjørende biler er CMOS ofte foretrukket for sin raske avlesningshastighet, kraftige ombord elektronikk og parallellbehandlingsmuligheter, noe som gjør den til den raskere sensoren, om enn utsatt for støy eller gjenstander. Løsninger, som forskjellige lysmoduser, digitalt nattsyn og filtre, kan hjelpe CMOS-sensoren under mindre enn ideelle lysforhold.

For selvkjørende biler er kameraer installert i visse avstander fra hverandre for å produsere stereoskopisk syn. Stereoskopisk syn er evnen til å kombinere to eller flere visuelle input, og skape en følelse av dybde eller tredimensjonalitet i objekter og miljøet. Dette lar i sin tur biler triangulere og beregne den omtrentlige avstanden mellom objektet og bilen.

Siden mennesker har to øyne, har vi også nytte av stereoskopisk syn. Du kan teste det selv; lukk det ene øyet og velg en liten gjenstand fra skrivebordet. Plasser hånden på objektets side og sørg for at tuppen av objektet er minst to tommer unna. Prøv å ta en pause i noen sekunder og se hvor sikker du er på tilnærmingen din. Prøv nå å åpne begge øynene og se hvordan dybdesansen din er mye bedre.

Edge datamaskin

Mens kamerasystemet på den selvkjørende bilen samler data, en innebygd datamaskin (kantprosessor) vil behandle alle inndata i sanntid for å oppdatere systemet på statusen til miljøet med en gang. Selv om typiske maskinsynsoppgaver kan spare penger ved å bruke cloud computing, er det rett og slett for mye risiko for at selvkjørende biler kobles til skyen, selv om det er for å outsource prosessen i kravene til maskinsyn.

Bruk av en edge-datamaskin for å behandle inngangsdata eliminerer latensproblemer og sikrer at data mottas, behandles og kommuniseres i sanntid. Edge-datamaskiner for selvkjørende biler bruker spesialiserte datamaskiner som integrerer AI-grafikkprosessorer som NVIDIAs Tensor Core og CUDA Cores.

AI-algoritmer

Algoritmer har alltid vært en avgjørende del av maskinsyn. Algoritmen er det som lar en datamaskin identifisere alle mønstrene, formene og fargene fra kamerasystemet. Å bruke AI over mer tradisjonelle maskinsynsalgoritmer forbedrer i stor grad muligheten til en selvkjørende bil til pålitelig å identifisere objekter, gateskilt, veimerker og trafikklys. Mange AI-algoritmer brukes til å trene selvkjørende biler. De mest populære inkluderer:

  • YOLO (Du ser bare en gang): En gjenstandsdeteksjonsalgoritme i sanntid som identifiserer og sporer objekter i bilens synsfelt.
  • SIFT (Scale-Icarsant Feature Transform): Brukt til funksjonsutvinning, hjelper den bilen å gjenkjenne karakteristiske landemerker og gjenstander i omgivelsene.
  • Histogram of Oriented Gradients (HOG): Brukt for objektgjenkjenning, fokuserer den på å trekke ut lokale mønstre og gradienter fra bilder.
  • TextonBoost: En algoritme som hjelper med gjenkjenning av objekter ved å analysere teksturer i miljøet.
  • AdaBoost: Ansatt for dataklassifisering, kombinerer AdaBoost flere svake klassifiseringer for å ta sterke avgjørelser om objektene og hindringene i kjøretøyets vei.

Viktigheten av maskinsyn i selvkjørende biler

Bildekreditt: Automobile Italia/Flickr

Maskinsyn er den primære måten for en selvkjørende bil å sanse og forstå omgivelsene. Uten maskinsyn er det svært sannsynlig at selvkjørende biler blir skjøvet tilbake til nivå 1 på kjøretøy autonomi skala og kan aldri nå full autonomi.

Med maskinsyn er selvkjørende biler nå i stand til objektklassifisering, kjørefelt- og signaldeteksjon, skiltidentifikasjon og trafikkgjenkjenning.

Selv om mange selvkjørende kjøretøy nå bruker forskjellige sensorer, som LIDAR, RADAR og SONAR, er alle avhengige av maskinsyn for å se miljøet, identifisere objekter og forstå betydningen av skilt og trafikklys på vei. Alle disse ekstra sensorene er kun der for å øke maskinsynet og fremme sikkerheten til mennesker, dyr og eiendommer.

Når det er sagt, kan maskinsyn utføres uavhengig uten hjelp av andre sensorer for å gi autopilotfunksjoner. Faktisk droppet Teslas nyeste selvkjørende biler RADAR og er nå utelukkende avhengig av maskinsyn for sitt autopilotsystem.

Selv om dette ikke betyr noe når det gjelder å diskreditere nytten av andre sensorteknologier, viser det viktigheten og kraften til maskinsyn i selvkjørende biler.

Fremtiden for maskinsyn i autonome kjøretøy

Maskinsyn er grunnlaget for selvkjørende biler. Gjennom maskinsyn kan biler se og oppfatte miljøet akkurat slik mennesker gjør. Mens utfordringene vedvarer, kan ikke fordelene med maskinsyn når det gjelder sikkerhet og navigasjon undervurderes. Når det gjelder fremtiden til autonome kjøretøy, eventuelle ytterligere fremskritt innen AI, edge computing og/eller kamera teknologi vil helt sikkert gjøre selvkjørende biler mer dyktige, noe som sannsynligvis vil flytte dem til et høyere nivå av automasjon.